TY - THES A1 - Müller, Anja T1 - Wie interpretieren Kinder nur? : Experimentelle Untersuchungen zum Erwerb von Informationsstruktur T1 - How children interpret sentences with nur? : Experiments on the acquisition of information structure N2 - Im Zentrum der Arbeit steht die Frage, wie sechsjährige monolingual deutsche Kinder Sätze mit der Fokuspartikel nur interpretieren. In 5 Experimenten wurde untersucht, welchen Einfluss die Oberflächenposition der Fokuspartikel auf das Satzverständnis hat und ob die kontextuelle Einbettung der nur-Sätze zu einer zielsprachlichen Interpretation führt. Im Gegensatz zu den Ergebnissen bisheriger Studien (u.a. Crain, et al. 1994; Paterson et al. 2003) zeigen die Daten der Arbeit, dass die getesteten Kinder die präsentierten nur-Sätze zielsprachlich interpretierten, wenn diese in einen adäquaten Kontext eingebettet waren. Es zeigte sich weiterhin, dass die Kinder mehr Fehler bei der Interpretation von Sätzen mit nur vor dem Subjekt (Nur die Maus hat einen Ball.) als mit nur vor dem Objekt (Die Maus hat nur einen Ball.) machten. Entgegen dem syntaktisch basierten Ansatz von Crain et al. (1994) und dem semantisch-pragmatisch basierten Ansatz von Paterson et al. (2003) werden in der Arbeit informationsstrukturelle Eigenschaften bzw. Unterschiede der nur-Sätze für die beobachteten Leistungen verantwortlich gemacht. Der in der Arbeit postulierte Topik-Default Ansatz nimmt an, dass die Kinder das Subjekt eines Satzes immer als Topik analysieren. Dies führt im Fall der Sätze mit nur vor dem Subjekt zu einer falschen informationsstrukturellen Repräsentation des Satzes. Basierend auf den Ergebnissen der Arbeit und dem postulierten Topik-Default Ansatz wird in der Arbeit abschließend ein Erwerbsmodell für das Verstehen von Sätzen mit der Fokuspartikel nur entworfen und diskutiert. N2 - Challenging previous accounts of children’s comprehension of focus particles, this study investigated how 6-year-old, German-speaking children interpret sentences with the focus particle nur(‘only’). Five experiments examined 1) whether the surface position of the focus particle has an impact on the sentence comprehension and 2) which role an adequate context plays for a target-like interpretation of a nur-sentence. It is known that in English, up to age 7, sentences with only are not interpreted adult-like. Crain et al. (1992) attributed errors to incorrect scope restrictions of the FP; Paterson et al. (2003) argued that children do not process the contrast information and instead ignore the FP. As oppose to previous research, the present data showed that German-speaking children interpret nur-sentences target-like if the sentences were contextually embedded. Furthermore, the results showed that children performed better on nur-object sentences like Die Maus hat nur einen Ball (‘The mouse has only a ball.’) than on nur-subject sentences like Nur die Maus hat einen Ball. (‘Only the mouse has a ball.’). This study argues that the asymmetry in the interpretation of nur-sentences stems from information-structural characteristics. In particular, I postulate the topic-default account which claims that children recognize the subject of the sentence as the topic by default. As a consequence, children assign an incorrect information structure to sentences with nur before the subject. Finally, based on the empirical findings of this study and on the topic-default account, an acquisition model for the comprehension of sentences with the focus particle nur is developed and discussed. KW - Fokuspartikel KW - Informationsstruktur KW - Spracherwerb KW - Satzverständnis KW - focus particle KW - information structure KW - language acquisition KW - sentence comprehension Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57767 ER - TY - THES A1 - Fucik, Markus T1 - Bayesian risk management : "Frequency does not make you smarter" T1 - Bayesianisches Risko-Management : "Frequency does not make you smarter" N2 - Within our research group Bayesian Risk Solutions we have coined the idea of a Bayesian Risk Management (BRM). It claims (1) a more transparent and diligent data analysis as well as (2)an open-minded incorporation of human expertise in risk management. In this dissertation we formulize a framework for BRM based on the two pillars Hardcore-Bayesianism (HCB) and Softcore-Bayesianism (SCB) providing solutions for the claims above. For data analysis we favor Bayesian statistics with its Markov Chain Monte Carlo (MCMC) simulation algorithm. It provides a full illustration of data-induced uncertainty beyond classical point-estimates. We calibrate twelve different stochastic processes to four years of CO2 price data. Besides, we calculate derived risk measures (ex ante/ post value-at-risks, capital charges, option prices) and compare them to their classical counterparts. When statistics fails because of a lack of reliable data we propose our integrated Bayesian Risk Analysis (iBRA) concept. It is a basic guideline for an expertise-driven quantification of critical risks. We additionally review elicitation techniques and tools supporting experts to express their uncertainty. Unfortunately, Bayesian thinking is often blamed for its arbitrariness. Therefore, we introduce the idea of a Bayesian due diligence judging expert assessments according to their information content and their inter-subjectivity. N2 - Die vorliegende Arbeit befasst sich mit den Ansätzen eines Bayes’schen Risikomanagements zur Messung von Risiken. Dabei konzentriert sich die Arbeit auf folgende zentrale Fragestellungen: (1) Wie ist es möglich, transparent Risiken zu quantifizieren, falls nur eine begrenzte Anzahl an geeigneten historischen Beobachtungen zur Datenanalyse zur Verfügung steht? (2) Wie ist es möglich, transparent Risiken zu quantifizieren, falls mangels geeigneter historischer Beobachtungen keine Datenanalyse möglich ist? (3) Inwieweit ist es möglich, Willkür und Beliebigkeit bei der Risikoquantifizierung zu begrenzen? Zur Beantwortung der ersten Frage schlägt diese Arbeit die Anwendung der Bayes’schen Statistik vor. Im Gegensatz zu klassischen Kleinste-Quadrate bzw. Maximum-Likelihood Punktschätzern können Bayes’sche A-Posteriori Verteilungen die dateninduzierte Parameter- und Modellunsicherheit explizit messen. Als Anwendungsbeispiel werden in der Arbeit zwölf verschiedene stochastische Prozesse an CO2-Preiszeitreihen mittels des effizienten Bayes’schen Markov Chain Monte Carlo (MCMC) Simulationsalgorithmus kalibriert. Da die Bayes’sche Statistik die Berechnung von Modellwahrscheinlichkeiten zur kardinalen Modellgütemessung erlaubt, konnten Log-Varianz Prozesse als mit Abstand beste Modellklasse identifiziert werden. Für ausgewählte Prozesse wurden zusätzlich die Auswirkung von Parameterunsicherheit auf abgeleitete Risikomaße (ex-ante/ ex-post Value-at-Risks, regulatorische Kapitalrücklagen, Optionspreise) untersucht. Generell sind die Unterschiede zwischen Bayes’schen und klassischen Risikomaßen umso größer, je komplexer die Modellannahmen für den CO2-Preis sind. Überdies sind Bayes’sche Value-at-Risks und Kapitalrücklagen konservativer als ihre klassischen Pendants (Risikoprämie für Parameterunsicherheit). Bezüglich der zweiten Frage ist die in dieser Arbeit vertretene Position, dass eine Risikoquantifizierung ohne (ausreichend) verlässliche Daten nur durch die Berücksichtigung von Expertenwissen erfolgen kann. Dies erfordert ein strukturiertes Vorgehen. Daher wird das integrated Bayesian Risk Analysis (iBRA) Konzept vorgestellt, welches Konzepte, Techniken und Werkzeuge zur expertenbasierten Identifizierung und Quantifizierung von Risikofaktoren und deren Abhängigkeiten vereint. Darüber hinaus bietet es Ansätze für den Umgang mit konkurrierenden Expertenmeinungen. Da gerade ressourceneffiziente Werkzeuge zur Quantifizierung von Expertenwissen von besonderem Interesse für die Praxis sind, wurden im Rahmen dieser Arbeit der Onlinemarkt PCXtrade und die Onlinebefragungsplattform PCXquest konzipiert und mehrfach erfolgreich getestet. In zwei empirischen Studien wurde zudem untersucht, inwieweit Menschen überhaupt in der Lage sind, ihre Unsicherheiten zu quantifizieren und inwieweit sie Selbsteinschätzungen von Experten bewerten. Die Ergebnisse deuten an, dass Menschen zu einer Selbstüberschätzung ihrer Prognosefähigkeiten neigen und tendenziell hohes Vertrauen in solche Experteneinschätzungen zeigen, zu denen der jeweilige Experte selbst hohes Zutrauen geäußert hat. Zu letzterer Feststellung ist jedoch zu bemerken, dass ein nicht unbeträchtlicher Teil der Befragten sehr hohe Selbsteinschätzung des Experten als negativ ansehen. Da der Bayesianismus Wahrscheinlichkeiten als Maß für die persönliche Unsicherheit propagiert, bietet er keinerlei Rahmen für die Verifizierung bzw. Falsifizierung von Einschätzungen. Dies wird mitunter mit Beliebigkeit gleichgesetzt und könnte einer der Gründe sein, dass offen praktizierter Bayesianismus in Deutschland ein Schattendasein fristet. Die vorliegende Arbeit stellt daher das Konzept des Bayesian Due Diligence zur Diskussion. Es schlägt eine kriterienbasierte Bewertung von Experteneinschätzungen vor, welche insbesondere die Intersubjektivität und den Informationsgehalt von Einschätzungen beleuchtet. KW - MCMC Simulation KW - Modelgewichtung KW - Bayesianischer Value-at-Risk KW - Expertenbefragung KW - Zukunftsmärkte KW - MCMC Simulation KW - Model Weighting KW - Bayesian Value-at-Risk KW - Expert Elicitation KW - Prediction Markets Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53089 ER - TY - THES A1 - Strollo, Angelo T1 - Development of techniques for earthquake microzonation studies in different urban environment T1 - Entwicklung von Techniken für Mikrozonierungsstudien von Erdbeben in verschiedenen städtischen Umgebungen N2 - The proliferation of megacities in many developing countries, and their location in areas where they are exposed to a high risk from large earthquakes, coupled with a lack of preparation, demonstrates the requirement for improved capabilities in hazard assessment, as well as the rapid adjustment and development of land-use planning. In particular, within the context of seismic hazard assessment, the evaluation of local site effects and their influence on the spatial distribution of ground shaking generated by an earthquake plays an important role. It follows that the carrying out of earthquake microzonation studies, which aim at identify areas within the urban environment that are expected to respond in a similar way to a seismic event, are essential to the reliable risk assessment of large urban areas. Considering the rate at which many large towns in developing countries that are prone to large earthquakes are growing, their seismic microzonation has become mandatory. Such activities are challenging and techniques suitable for identifying site effects within such contexts are needed. In this dissertation, I develop techniques for investigating large-scale urban environments that aim at being non-invasive, cost-effective and quickly deployable. These peculiarities allow one to investigate large areas over a relative short time frame, with a spatial sampling resolution sufficient to provide reliable microzonation. Although there is a negative trade-off between the completeness of available information and extent of the investigated area, I attempt to mitigate this limitation by combining two, what I term layers, of information: in the first layer, the site effects at a few calibration points are well constrained by analyzing earthquake data or using other geophysical information (e.g., shear-wave velocity profiles); in the second layer, the site effects over a larger areal coverage are estimated by means of single-station noise measurements. The microzonation is performed in terms of problem-dependent quantities, by considering a proxy suitable to link information from the first layer to the second one. In order to define the microzonation approach proposed in this work, different methods for estimating site effects have been combined and tested in Potenza (Italy), where a considerable amount of data was available. In particular, the horizontal-to-vertical spectral ratio computed for seismic noise recorded at different sites has been used as a proxy to combine the two levels of information together and to create a microzonation map in terms of spectral intensity ratio (SIR). In the next step, I applied this two-layer approach to Istanbul (Turkey) and Bishkek (Kyrgyzstan). A similar hybrid approach, i.e., combining earthquake and noise data, has been used for the microzonation of these two different urban environments. For both cities, after having calibrated the fundamental frequencies of resonance estimated from seismic noise with those obtained by analysing earthquakes (first layer), a fundamental frequency map has been computed using the noise measurements carried out within the town (second layer). By applying this new approach, maps of the fundamental frequency of resonance for Istanbul and Bishkek have been published for the first time. In parallel, a microzonation map in terms of SIR has been incorporated into a risk scenario for the Potenza test site by means of a dedicated regression between spectral intensity (SI) and macroseismic intensity (EMS). The scenario study confirms the importance of site effects within the risk chain. In fact, their introduction into the scenario led to an increase of about 50% in estimates of the number of buildings that would be partially or totally collapsed. Last, but not least, considering that the approach developed and applied in this work is based on measurements of seismic noise, their reliability has been assessed. A theoretical model describing the self-noise curves of different instruments usually adopted in microzonation studies (e.g., those used in Potenza, Istanbul and Bishkek) have been considered and compared with empirical data recorded in Cologne (Germany) and Gubbio (Italy). The results show that, depending on the geological and environmental conditions, the instrumental noise could severely bias the results obtained by recording and analysing ambient noise. Therefore, in this work I also provide some guidelines for measuring seismic noise. N2 - Aufgrund des enormen Wachstums neuer Megastädte und deren Vordringen in gefährdete Gebiete auf der einen Seite sowie der mangelnden Erdbebenvorsorge in vielen Entwicklungsländern auf der anderen Seite sind verbesserte Verfahren für die Beurteilung der Gefährdung sowie eine rasche Umsetzung bei der Raumplanung erforderlich. Im Rahmen der seismischen Gefährdungsabschätzung spielt insbesondere die Beurteilung lokaler Standorteffekte und deren Einfluss auf die durch ein Erdbeben verursachte räumliche Verteilung der Bodenerschütterung eine wichtige Rolle. Es ist daher unabdingbar, mittels seismischer Mikrozonierungsstudien diejenigen Bereiche innerhalb dicht besiedelter Gebiete zu ermitteln, in denen ein ähnliches Verhalten im Falle seismischer Anregung erwartet wird, um daraus eine zuverlässige Basis bei der Risikoabschätzung großer städtischer Gebiete zu erhalten. Aufgrund des schnellen Wachstums vieler Großstädte in Entwicklungsländern ist eine seismische Mikrozonierung zwingend erforderlich, stellt aber auch eine große Herausforderung dar; insbesondere müssen Verfahren verfügbar sein, mit deren Hilfe rasch eine Abschätzung der Standorteffekte durchgeführt werden kann. In der vorliegenden Arbeit entwickle ich daher Verfahren für die Untersuchung in Großstädten, die darauf abzielen, nicht-invasiv, kostengünstig und schnell durchführbar zu sein. Damit lassen sich innerhalb eines relativ kurzen Zeitraums große Gebiete untersuchen, falls der räumlichen Abstand zwischen den Messpunkten klein genug ist, um eine zuverlässige Mikrozonierung zu gewährleisten. Obwohl es eine gegenläufige Tendenz zwischen der Vollständigkeit aller Informationen und der Größe des untersuchten Gebiets gibt, versuche ich, diese Einschränkung durch Verknüpfung zweier Informationsebenen zu umgehen: In der ersten Ebene werden die Standorteffekte für einige Kalibrierungspunkte durch die Analyse von Erdbeben oder mittels anderer geophysikalischer Datensätze (z.B. Scherwellengeschwindigkeitsprofile) bestmöglich abgeschätzt, in der zweiten Ebene werden die Standorteffekte durch Einzelstationsmessungen des seismischen Rauschens für ein größeres Gebiet bestimmt. Die Mikrozonierung erfolgt hierbei mittels spezifischer, fallabhängiger Parameter unter Berücksichtigung eines geeigneten Anknüpfungspunktes zwischen den beiden Informationensebenen. Um diesen Ansatz der Mikrozonierung, der in dieser Arbeit verfolgt wurde, zu präzisieren, wurden in Potenza (Italien), wo eine beträchtliche Menge an Daten verfügbar war, verschiedene Verfahren untersucht. Insbesondere kann das Spektralverhältnis zwischen den horizontalen und vertikalen Seismometerkomponenten, welche für das seismische Rauschen an mehreren Orten aufgenommen wurde, als eine erste Näherung für die relative Verstärkung der Bodenbewegung verwendet werden, um darauf aufbauend die beiden Informationsebenen zu verknüpfen und eine Mikrozonierung hinsichtlich des Verhältnisses der spektralen Intensität durchzuführen. Anschließend führte ich diesen Zwei-Ebenen-Ansatz auch für Istanbul (Türkei) und Bischkek (Kirgisistan) durch. Für die Mikrozonierung dieser beiden Städte habe ich denselben Hybridansatz, der Daten von Erdbeben und von seismischem Rauschen verbindet, verwendet. Für beide Städte wurde nach Gegenüberstellung der Resonanzfrequenz des Untergrunds, die zum einen mit Hilfe des seismischen Rauschens, zum anderen durch Analyse von Erdbebendaten bestimmt worden ist (erste Ebene), eine Karte der Resonanzfrequenz unter Verwendung weiterer Messungen des seismischen Rauschens innerhalb des Stadtgebiets erstellt (zweite Ebene). Durch die Anwendung dieses neuen Ansatzes sind vor kurzem zum ersten Mal auch Karten für die Resonanzfrequenz des Untergrunds für Istanbul und Bischkek veröffentlicht worden. Parallel dazu wurde für das Testgebiet in Potenza eine auf dem spektralen Intensitätsverhältnis (SIR) basierende Mikrozonierungskarte in ein Risikoszenario mittels der Regression zwischen SIR und makroseismischer Intensität (EMS) integriert. Diese Szenariostudie bestätigt die Bedeutung von Standorteffekten innerhalb der Risikokette; insbesondere führt deren Einbeziehung in das Szenario zu einem Anstieg von etwa 50% bei der Zahl der Gebäude, für die ein teilweiser oder gar vollständiger Zusammenbruch erwartet werden kann. Abschließend wurde der im Rahmen dieser Arbeit entwickelte und angewandte Ansatz auf seine Zuverlässigkeit geprüft. Ein theoretisches Modell, das zur Beschreibung des Eigenrauschens verschiedener Instrumente, die in der Regel in Mikrozonierungsstudien (z. B. in Potenza, Istanbul und Bischkek) zum Einsatz kommen, wurde untersucht, und die Ergebnisse wurden mit Daten verglichen, die vorher bereits in Köln (Deutschland) und Gubbio (Italien) aufgenommen worden waren. Die Ergebnisse zeigen, dass abhängig von den geologischen und umgebenden Bedingungen das Eigenrauschen der Geräte die Ergebnisse bei der Analyse des seismischen Rauschens stark verzerren kann. Deshalb liefere ich in dieser Arbeit auch einige Leitlinien für die Durchführung von Messungen des seismischen Rauschens. KW - instrumentelle Seismologie KW - Standorteffekte KW - Korrelation KW - seismische Rauschen KW - instrumental seismology KW - site effects KW - correlation KW - seismic noise Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53807 ER - TY - THES A1 - Höchner, Andreas T1 - GPS based analysis of earthquake induced phenomena at the Sunda Arc T1 - GPS-basierte Analyse erdbebeninduzierter Phänomene am Sundabogen N2 - Indonesia is one of the countries most prone to natural hazards. Complex interaction of several tectonic plates with high relative velocities leads to approximately two earthquakes with magnitude Mw>7 every year, being more than 15% of the events worldwide. Earthquakes with magnitude above 9 happen far more infrequently, but with catastrophic effects. The most severe consequences thereby arise from tsunamis triggered by these subduction-related earthquakes, as the Sumatra-Andaman event in 2004 showed. In order to enable efficient tsunami early warning, which includes the estimation of wave heights and arrival times, it is necessary to combine different types of real-time sensor data with numerical models of earthquake sources and tsunami propagation. This thesis was created as a result of the GITEWS project (German Indonesian Tsunami Early Warning System). It is based on five research papers and manuscripts. Main project-related task was the development of a database containing realistic earthquake scenarios for the Sunda Arc. This database provides initial conditions for tsunami propagation modeling used by the simulation system at the early warning center. An accurate discretization of the subduction geometry, consisting of 25x150 subfaults was constructed based on seismic data. Green’s functions, representing the deformational response to unit dip- and strike slip at the subfaults, were computed using a layered half-space approach. Different scaling relations for earthquake dimensions and slip distribution were implemented. Another project-related task was the further development of the ‘GPS-shield’ concept. It consists of a constellation of near field GPS-receivers, which are shown to be very valuable for tsunami early warning. The major part of this thesis is related to the geophysical interpretation of GPS data. Coseismic surface displacements caused by the 2004 Sumatra earthquake are inverted for slip at the fault. The effect of different Earth layer models is tested, favoring continental structure. The possibility of splay faulting is considered and shown to be a secondary order effect in respect to tsunamigenity for this event. Tsunami models based on source inversions are compared to satellite radar altimetry observations. Postseismic GPS time series are used to test a wide parameter range of uni- and biviscous rheological models of the asthenosphere. Steady-state Maxwell rheology is shown to be incompatible with near-field GPS data, unless large afterslip, amounting to more than 10% of the coseismic moment is assumed. In contrast, transient Burgers rheology is in agreement with data without the need for large aseismic afterslip. Comparison to postseismic geoid observation by the GRACE satellites reveals that even with afterslip, the model implementing Maxwell rheology results in amplitudes being too small, and thus supports a biviscous asthenosphere. A simple approach based on the assumption of quasi-static deformation propagation is introduced and proposed for inversion of coseismic near-field GPS time series. Application of this approach to observations from the 2004 Sumatra event fails to quantitatively reconstruct the rupture propagation, since a priori conditions are not fulfilled in this case. However, synthetic tests reveal the feasibility of such an approach for fast estimation of rupturing properties. N2 - Indonesien ist eines der am stärksten von Naturkatastrophen bedrohten Länder der Erde. Die komplexe Interaktion mehrer tektonischer Platten, die sich mit hohen Relativgeschwindigkeiten zueinander bewegen, führt im Mittel zu ungefähr zwei Erdbeben mit Magnitude Mw>7 pro Jahr, was mehr als 15% der Ereignisse weltweit entspricht. Beben mit Magnitude über 9 sind weitaus seltener, haben aber katastrophale Folgen. Die schwerwiegendsten Konsequenzen hierbei werden durch Tsunamis verursacht, welche durch diese Subduktionsbeben ausgelöst werden, wie das Sumatra-Andamanen Ereignis von 2004 gezeigt hat. Um eine wirksame Tsunami-Frühwarnung zu ermöglichen, welche die Abschätzung der Wellenhöhen und Ankunftszeiten beinhaltet, ist es erforderlich, verschieden Arten von Echtzeit-Sensordaten mit numerischen Modellen für die Erdbebenquelle und Tsunamiausbreitung zu kombinieren. Diese Doktorarbeit wurde im Rahmen des GITEWS-Projektes (German Indonesian Tsunami Early Warning System) erstellt und umfasst fünf Fachpublikationen und Manuskripte. Projektbezogene Hauptaufgabe war die Erstellung einer Datenbank mit realistischen Bebenszenarien für den Sundabogen. Die Datenbank beinhaltet Anfangsbedingungen für die Tsunami-Ausbreitungsmodellierung und ist Teil des Simulationssystems im Frühwarnzentrum. Eine sorgfältige Diskretisierung der Subduktionsgeometrie, bestehend aus 25x150 subfaults, wurde basierend auf seismischen Daten erstellt. Greensfunktionen, welche die Deformation, hervorgerufen durch Verschiebung an den subfaults ausmachen, wurden mittels eines semianalytischen Verfahrens für den geschichteten Halbraum berechnet. Verschiedene Skalierungsrelationen für Erdbebendimension und slip-Verteilung wurden implementiert. Eine weitere projektbezogene Aufgabe war die Weiterentwicklung des ‚GPS-Schild’-Konzeptes. Dieses besteht aus einer Konstellation von GPS-Empfängern im Nahfeldbereich, welche sich als sehr wertvoll für die Tsunami-Frühwarnung erweisen. Der größere Teil dieser Doktorarbeit beschäftigt sich mit der geophysikalischen Interpretation von GPS-Daten. Coseismische Verschiebungen an der Erdoberfläche, ausgelöst durch das Erdbeben von 2004, werden nach slip an der Verwerfung invertiert. Die Wirkung verschiedener Erdschichtungsmodelle wird getestet und resultiert in der Bevorzugung einer kontinentalen Struktur. Die Möglichkeit von splay-faulting wird untersucht und erweist sich als zweitrangiger Effekt bezüglich der Tsunamiwirkung für dieses Ereignis. Die auf der Quelleninversion basierenden Tsunamimodelle werden mit satellitengestützen Radaraltimetriedaten verglichen. Postseismische GPS-Daten werden verwendet, um einen weiten Parameterbereich uni- und bi-viskoser Modelle der Asthenosphäre zu testen. Dabei stellt sich stationäre Maxwell-Rheologie als inkompatibel mit Nahfeld-GPS-Zeitreihen heraus, es sei denn, eine große Quantität an afterslip, entsprechend etwa 10% des coseismischen Momentes, wird angenommen. Im Gegensatz dazu ist die transiente Burgers-Rheologie ohne große Mengen an afterslip kompatibel zu den Beobachtungen. Der Vergleich mit postseismischen Geoidbeobachtungen durch die GRACE-Satelliten zeigt, dass das Modell basierend auf Maxwell-Rheologie, auch mit afterslip, zu kleine Amplituden liefert, und bekräftigt die Annahme einer biviskosen Rheologie der Asthenosphäre. Ein einfacher Ansatz, der auf einer quasi-statischen Deformationsausbreitung beruht, wird eingeführt und zur Inversion coseismischer Nahfeld-GPS-Zeitreihen vorgeschlagen. Die Anwendung dieses Ansatzes auf Beobachtungen vom Sumatra-Beben von 2004 ermöglicht nicht die quantitative Rekonstruktion der Ausbreitung des Bruches, da die notwendigen Bedingungen in diesem Fall nicht erfüllt sind. Jedoch zeigen Experimente an synthetischen Daten die Gültigkeit eines solchen Ansatzes zur raschen Abschätzung der Bruchausbreitungseigenschaften. KW - GPS KW - Erdbeben KW - Tsunami KW - Rheologie KW - GITEWS KW - GPS KW - Earthquake KW - Tsunami KW - Rheology KW - GITEWS Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53166 ER - TY - THES A1 - Pilz, Marco T1 - A comparison of proxies for seismic site conditions and amplification for the large urban area of Santiago de Chile T1 - Ein Vergleich seismischer Parameter für die Standort- und Verstärkungsabschätzung im Stadtgebiet von Santiago de Chile N2 - Situated in an active tectonic region, Santiago de Chile, the country´s capital with more than six million inhabitants, faces tremendous earthquake hazard. Macroseismic data for the 1985 Valparaiso and the 2010 Maule events show large variations in the distribution of damage to buildings within short distances indicating strong influence of local sediments and the shape of the sediment-bedrock interface on ground motion. Therefore, a temporary seismic network was installed in the urban area for recording earthquake activity, and a study was carried out aiming to estimate site amplification derived from earthquake data and ambient noise. The analysis of earthquake data shows significant dependence on the local geological structure with regards to amplitude and duration. Moreover, the analysis of noise spectral ratios shows that they can provide a lower bound in amplitude for site amplification and, since no variability in terms of time and amplitude is observed, that it is possible to map the fundamental resonance frequency of the soil for a 26 km x 12 km area in the northern part of the Santiago de Chile basin. By inverting the noise spectral rations, local shear wave velocity profiles could be derived under the constraint of the thickness of the sedimentary cover which had previously been determined by gravimetric measurements. The resulting 3D model was derived by interpolation between the single shear wave velocity profiles and shows locally good agreement with the few existing velocity profile data, but allows the entire area, as well as deeper parts of the basin, to be represented in greater detail. The wealth of available data allowed further to check if any correlation between the shear wave velocity in the uppermost 30 m (vs30) and the slope of topography, a new technique recently proposed by Wald and Allen (2007), exists on a local scale. While one lithology might provide a greater scatter in the velocity values for the investigated area, almost no correlation between topographic gradient and calculated vs30 exists, whereas a better link is found between vs30 and the local geology. When comparing the vs30 distribution with the MSK intensities for the 1985 Valparaiso event it becomes clear that high intensities are found where the expected vs30 values are low and over a thick sedimentary cover. Although this evidence cannot be generalized for all possible earthquakes, it indicates the influence of site effects modifying the ground motion when earthquakes occur well outside of the Santiago basin. Using the attained knowledge on the basin characteristics, simulations of strong ground motion within the Santiago Metropolitan area were carried out by means of the spectral element technique. The simulation of a regional event, which has also been recorded by a dense network installed in the city of Santiago for recording aftershock activity following the 27 February 2010 Maule earthquake, shows that the model is capable to realistically calculate ground motion in terms of amplitude, duration, and frequency and, moreover, that the surface topography and the shape of the sediment bedrock interface strongly modify ground motion in the Santiago basin. An examination on the dependency of ground motion on the hypocenter location for a hypothetical event occurring along the active San Ramón fault, which is crossing the eastern outskirts of the city, shows that the unfavorable interaction between fault rupture, radiation mechanism, and complex geological conditions in the near-field may give rise to large values of peak ground velocity and therefore considerably increase the level of seismic risk for Santiago de Chile. N2 - Aufgrund ihrer Lage in einem tektonisch aktiven Gebiet ist Santiago de Chile, die Hauptstadt des Landes mit mehr als sechs Millionen Einwohnern, einer großen Erdbebengefährdung ausgesetzt. Darüberhinaus zeigen makroseismische Daten für das 1985 Valparaiso- und das 2010 Maule-Erdbeben eine räumlich unterschiedliche Verteilung der an den Gebäuden festgestellten Schäden; dies weist auf einen starken Einfluss der unterliegenden Sedimentschichten und der Gestalt der Grenzfläche zwischen den Sedimenten und dem Festgestein auf die Bodenbewegung hin. Zu diesem Zweck wurde in der Stadt ein seismisches Netzwerk für die Aufzeichnung der Bodenbewegung installiert, um die auftretende Untergrundverstärkung mittels Erdbebendaten und seismischem Rauschen abzuschätzen. Dabei zeigt sich für die Erdbebendaten eine deutliche Abhängigkeit von der Struktur des Untergrunds hinsichtlich der Amplitude der Erschütterung und ihrer Dauer. Die Untersuchung der aus seismischem Rauschen gewonnenen horizontal-zu-vertikal-(H/V) Spektral-verhältnisse zeigt, dass diese Ergebnisse nur einen unteren Grenzwert für die Bodenverstärkung liefern können. Weil jedoch andererseits keine zeitliche Veränderung bei der Gestalt dieser Spektralverhältnisse festgestellt werden konnte, erlauben die Ergebnisse ferner, die Resonanzfrequenz des Untergrundes für ein 26 km x 12 km großes Gebiet im Nordteil der Stadt zu bestimmen. Unter Zuhilfenahme von Informationen über die Dicke der Sedimentschichten, welche im vorhinein schon durch gravimetrische Messungen bestimmt worden war, konnten nach Inversion der H/V-Spektralverhältnisse lokale Scherwellengeschwindigkeitsprofile und nach Interpolation zwischen den einzelnen Profilen ein dreidimensionales Modell berechnet werden. Darüberhinaus wurde mit den verfügbaren Daten untersucht, ob auf lokaler Ebene ein Zusammenhang zwischen der mittleren Scherwellengeschwindigkeit in den obersten 30 m (vs30) und dem Gefälle existiert, ein Verfahren, welches kürzlich von Wald und Allen (2007) vorgestellt wurde. Da für jede lithologische Einheit eine starke Streuung für die seismischen Geschwindigkeiten gefunden wurde, konnte kein Zusammenhang zwischen dem Gefälle und vs30 hergestellt werden; demgegenüber besteht zumindest ein tendenzieller Zusammenhang zwischen vs30 und der unterliegenden Geologie. Ein Vergleich der Verteilung von vs30 mit den MKS-Intensitäten für das 1985 Valparaiso-Erdbeben in Santiago zeigt, dass hohe Intensitätswerte vor allem in Bereichen geringer vs30-Werte und dicker Sedimentschichten auftraten. Weiterhin ermöglichte die Kenntnis über das Sedimentbeckens Simulationen der Bodenbewegung mittels eines spektralen-Elemente-Verfahrens. Die Simulation eines regionalen Erdbebens, welches auch von einem dichten seismischen Netzwerk aufgezeichnet wurde, das im Stadtgebiet von Santiago infolge des Maule-Erdbebens am 27. Februar 2010 installiert wurde, zeigt, dass das Modell des Sedimentbeckens realistische Berechnungen hinsichtlich Amplitude, Dauer und Frequenz erlaubt und die ausgeprägte Topographie in Verbindung mit der Form der Grenzfläche zwischen den Sedimenten und dem Festgestein starken Einfluss auf die Bodenbewegung haben. Weitere Untersuchungen zur Abhängigkeit der Bodenerschütterung von der Position des Hypozentrums für ein hypothetisches Erdbeben an der San Ramón-Verwerfung, welche die östlichen Vororte der Stadt kreuzt, zeigen, dass die ungünstige Wechselwirkung zwischen dem Verlauf des Bruchs, der Abstrahlung der Energie und der komplexen geologischen Gegebenheiten hohe Werte bei der maximalen Bodengeschwindigkeit erzeugen kann. Dies führt zu einer signifikanten Zunahme des seismischen Risikos für Santiago de Chile. KW - Standorteffekte KW - seismisches Rauschen KW - Sedimentbecken KW - Simulation KW - site effects KW - seismic noise KW - sedimentary basin KW - simulation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52961 ER - TY - THES A1 - Borchers, Andreas T1 - Glaciomarine sedimentation at the continental margin of Prydz Bay, East Antarctica : implications on palaeoenvironmental changes during the Quaternary T1 - Glaziomarine Sedimentation am Kontinentalrand der Prydz-Bucht, Ostantarktis : Schlussfolgerungen hinsichtlich Veränderungen der Paläoumweltbedingungen während des Quartärs N2 - The Antarctic plays an important role in the global climate system. On the one hand, the Antarctic Ice Sheet is the largest freshwater reservoir on Earth. On the other hand, a major proportion of the global bottom-water formation takes place in Antarctic shelf regions, forcing the global thermohaline circulation. The main goal of this dissertation is to provide new insights into the dynamics and stability of the EAIS during the Quaternary. Additionally, variations in the activity of bottom-water formation and their causes are investigated. The dissertation is a German contribution to the International Polar Year 2007/ 2008 and was funded by the ‘Deutsche Forschungsgesellschaft’ (DFG) within the scope of priority program 1158 ‘Antarctic research with comparative studies in Arctic ice regions’. During RV Polarstern expedition ANT-XXIII/9, glaciomarine sediments were recovered from the Prydz Bay-Kerguelen region. Prydz Bay is a key region for the study of East EAIS dynamics, as 16% of the EAIS are drained through the Lambert Glacier into the bay. Thereby, the glacier transports sediment into Prydz Bay which is then further distributed by calving icebergs or by current transport. The scientific approach of this dissertation is the reconstruction of past glaciomarine environments to infer on the response of the Lambert Glacier-Amery Ice Shelf system to climate shifts during the Quaternary. To characterize the depositional setting, sedimentological methods are used and statistical analyses are applied. Mineralogical and (bio)geochemical methods provide a means to reconstruct sediment provenances and to provide evidence on changes in the primary production in the surface water column. Age-depth models were constructed based on palaeomagnetic and palaeointensity measurements, diatom stratigraphy and radiocarbon dating. Sea-bed surface sediments in the investigation area show distinct variations in terms of their clay minerals and heavy-mineral assemblages. Considerable differences in the mineralogical composition of surface sediments are determined on the continental shelf. Clay minerals as well as heavy minerals provide useful parameters to differentiate between sediments which originated from erosion of crystalline rocks and sediments originating from Permo-Triassic deposits. Consequently, mineralogical parameters can be used to reconstruct the provenance of current-transported and ice-rafted material. The investigated sediment cores cover the time intervals of the last 1.4 Ma (continental slope) and the last 12.8 cal. ka BP (MacRobertson shelf). The sediment deposits were mainly influenced by glacial and oceanographic processes and further by biological activity (continental shelf), meltwater input and possibly gravitational transport. Sediments from the continental slope document two major deglacial events: the first deglaciation is associated with the mid-Pleistocene warming recognized around the Antarctic. In Prydz Bay, the Lambert Glacier-Amery Ice Shelf retreated far to the south and high biogenic productivity commenced or biogenic remains were better preserved due to increased sedimentation rates. Thereafter, stable glacial conditions continued until 400 - 500 ka BP. Calving of icebergs was restricted to the western part of the Lambert Glacier. The deeper bathymetry in this area allows for floating ice shelf even during times of decreased sea-level. Between 400 - 500 ka BP and the last interglacial (marine isotope stage 5) the glacier was more dynamic. During or shortly after the last interglacial the LAIS retreated again due to sea-level rise of 6 - 9 m. Both deglacial events correlate with a reduction in the thickness of ice masses in the Prince Charles Mountains. It indicates that a disintegration of the Amery Ice Shelf possibly led to increased drainage of ice masses from the Prydz Bay hinterland. A new end-member modelling algorithm was successfully applied on sediments from the MacRobertson shelf used to unmix the sand grain size fractions sorted by current activity and ice transport, respectively. Ice retreat on MacRobertson Shelf commenced 12.8 cal. ka BP and ended around 5.5 cal. ka BP. During the Holocene, strong fluctuations of the bottomwater activity were observed, probably related to variations of sea-ice formation in the Cape Darnley polynya. Increased activity of bottom-water flow was reconstructed at transitions from warm to cool conditions, whereas bottom-water activity receded during the mid- Holocene climate optimum. It can be concluded that the Lambert Glacier-Amery Ice Shelf system was relatively stable in terms of climate variations during the Quaternary. In contrast, bottom-water formation due to polynya activity was very sensitive to changes in atmospheric forcing and should gain more attention in future research. N2 - Die Antarktis spielt im globalen Umweltsystem eine tragende Rolle. Mit ihrem mächtigen Eispanzer ist sie nicht nur der größte Süsswasserspeicher auf der Erde, in ihren Schelfregionen wird auch ein Großteil der globalen Bodenwassermassen gebildet, welche die globale thermohaline Zirkulation antreiben. Hauptziel dieser Arbeit, welche einen deutschen Beitrag zum Internationalen Polarjahr 2007/ 2008 liefert, war es, neue Erkenntnisse hinsichtlich der Stabilität des Ostantarktischen Eisschildes während des Quartärs zu liefern. Weiterhin sollten Aussagen über Variationen in der Bildung von Antarktischem Bodenwasser und deren Ursachen getroffen werden. Dazu wurde im Rahmen der ‚Polarstern‘ Expedition ANT-XXIII/9 eine Beprobung glaziomariner Sedimente zwischen Prydz Bucht und Kerguelen Plateau durchgeführt. Diese Region eignet sich zur Untersuchung der Ostantarktischen Eisdynamik besonders gut, da hier der Lambert Gletscher, etwa 16% des Ostantarktischen Eispanzers drainiert. Er transportiert dabei Sediment nach Norden, das schließlich die Prydz Bucht erreicht und durch direkten Transport über kalbende Eisberge oder durch Umlagerung und Verteilung mithilfe von Meeresströmungen weiter verfrachtet wird. Der wissenschaftliche Ansatz dieser Arbeit besteht darin, über die Verteilung dieser Sedimente in Raum und Zeit, d.h. über Variationen des glaziomarinen Paläoregimes, die Reaktion des Lambert Gletschers und des vorgelagerten Amery Schelfeises auf Klimaschwankungen während des Quartärs zu rekonstruieren. Dabei werden sowohl sedimentologische Methoden unter Einbeziehung neuer statistischer Möglichkeiten angewandt, um Sedimentationsprozesse zu charakterisieren, als auch mineralogische und (bio)geochemische Parameter verwendet, um Aussagen über die Herkunft der Sedimente und Änderungen in der Produktivität im Oberflächenwasser treffen zu können. Die Altersbestimmung der Sedimentkerne erfolgte mittels Paläomagnetik, Paläointensitäten, Biostratigraphie und Radiokarbondatierungen. Die Oberflächensedimente im Untersuchungsgebiet zeigen deutliche Unterschiede sowohl hinsichtlich ihrer Tonmineral- als auch Schwermineralzusammensetzung. Beide mineralogischen Parameter zeigen die größten Differerenzen auf dem Schelf. Dort lassen sich deutlich Sedimente der Prydz Bucht von Sedimenten des MacRobertson Shelfes differenzieren. Sie stellen daher ein gutes Hilfsmittel dar, um sowohl die Herkunft von eis- als auch strömungstransportiertem Material zu rekonstruieren. Die untersuchten Sedimentkerne decken den Zeitraum der letzten 1,4 Millionen Jahre (Kontinentalhang) bzw. der letzten 12,8 tausend kal. Jahre v. H. ab (MacRobertson Schelf). Die abgelagerten Sedimente wurden i. W. durch glaziale und ozeanographische Einflüsse geprägt, aber auch durch Bioproduktion (Schelf) bzw. durch Schmelzwassereinträge und möglicherweise gravitative Prozesse (Kontinentalhang). In den Sedimenten des Kontinentalhangs sind zwei starke Enteisungsereignisse überliefert: Das erste Ereignis steht mit dem mittelpleistozänen Klimaoptimum in Verbindung, das auch in anderen antarktischen Regionen nachgewiesen wurde. Es führte in der Prydz Bucht zu einem weitreichenden Rückzug des Lambert Gletscher-Amery Schelfeises (LAIS) und gleichzeitig zu einer hohen Primärproduktion. Danach herrschten bis etwa 400 - 500 tausend Jahre v. H. stabile glaziale Bedingungen. Kalbung von Eisbergen war wahrscheinlich auf den westlichen Teil des Lambert Gletschers begrenzt, wo eine tiefere Bathymetrie auch bei niedrigerem globalen Meeresspiegel noch Aufschwimmen des Gletschereises erlaubt. Zwischen 400 - 500 tausend Jahren v. H. und vermutlich dem letzten Interglazial wurde der Gletscher schließlich wieder dynamischer, um mit oder kurz nach dem letzten Interglazial (Meeresspiegel etwa 6 - 9 m höher) eine weitere Phase deutlichen Rückzuges zu durchlaufen. Beide Ereignisse lassen sich mit Phasen der Eisreduktion in den Prinz Charles Bergen korrelieren, d.h. der Rückzug des Lambert Gletschers hatte möglicherweise ein erhöhtes Nachfließen von Eismassen aus dem Hinterland zur Folge. An den Sedimenten des Schelfkernes wurde ein neu entwickeltes Verfahren der Endmember-Modellierung erfolgreich getestet. Der Eisrückzug auf dem MacRobertson Schelf begann etwa 12,8 tausend kal. Jahre v. H. und war gegen 5,5 tausend kal. Jahre v. H. abgeschlossen. Während des Holozäns kam es zu starken Schwankungen in der Bodenwasseraktivität, die höchst wahrscheinlich mit der Neubildungsrate von Meereis in der Kap Darnley Polynia in Zusammenhang stehen. Besonders auffallend war eine erhöhte Bodenwasseraktivität am Übergang von Warm- zu Kaltphasen bzw. ihr extremer Rückgang während des Mittel-Holozänen Klimaoptimums. Insgesamt zeigen die Ergebnisse der Arbeit, dass sich das LAIS während des Quartärs relativ stabil gegenüber Klimaveränderungen verhalten hat. Die Bodenwasserproduktion in Polynien dagegen reagierte sehr empfindlich auf relative geringe atmosphärische Veränderungen und bedarf in Zukunft verstärkter Aufmerksamkeit. KW - Eisdynamik KW - Bodenwasser KW - Ostantarktis KW - Polynia KW - ice dynamics KW - bottom water KW - East Antarctica KW - polynya Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52620 ER - TY - THES A1 - Zaupa, Alessandro T1 - Physical crosslinking of gelatin : a supramolecular approach to biomaterials T1 - Physikalische Quervernetzung von Gelatine : ein supramolekularer Zugang zu Biomaterialien N2 - This work describes the realization of physically crosslinked networks based on gelatin by the introduction of functional groups enabling specific supramolecular interactions. Molecular models were developed in order to predict the material properties and permit to establish a knowledge-based approach to material design. The effect of additional supramolecular interactions with hydroxyapaptite was then studied in composite materials. The calculated properties are compared to experimental results to validate the models. The models are then further used for the study of physically crosslinked networks. Gelatin was functionalized with desaminotyrosine (DAT) and desaminotyrosyl-tyrosine (DATT) side groups, derived from the natural amino acid tyrosine. These group can potentially undergo to π-π and hydrogen bonding interactions also under physiological conditions. Molecular dynamics (MD) simulations were performed on models with 0.8 wt.-% or 25 wt.-% water content, using the second generation forcefield CFF91. The validation of the models was obtained by the comparison with specific experimental data such as, density, peptide conformational angles and X-ray scattering spectra. The models were then used to predict the supramolecular organization of the polymer chain, analyze the formation of physical netpoints and calculate the mechanical properties. An important finding of simulation was that with the increase of aromatic groups also the number of observed physical netpoints increased. The number of relatively stable physical netpoints, on average zero 0 for natural gelatin, increased to 1 and 6 for DAT and DATT functionalized gelatins respectively. A comparison with the Flory-Rehner model suggested reduced equilibrium swelling by factor 6 of the DATT-functionalized materials in water. The functionalized gelatins could be synthesized by chemoselective coupling of the free carboxylic acid groups of DAT and DATT to the free amino groups of gelatin. At 25 wt.-% water content, the simulated and experimentally determined elastic mechanical properties (e.g. Young Modulus) were both in the order of GPa and were not influenced by the degree of aromatic modification. The experimental equilibrium degree of swelling in water decreased with increasing the number of inserted aromatic functions (from 2800 vol.-% for pure gelatin to 300 vol.-% for the DATT modified gelatin), at the same time, Young’s modulus, elongation at break, and maximum tensile strength increased. It could be show that the functionalization with DAT and DATT influences the chain organization of gelatin based materials together with a controlled drying condition. Functionalization with DAT and DATT lead to a drastic reduction of helical renaturation, that could be more finely controlled by the applied drying conditions. The properties of the materials could then be influenced by application of two independent methods. Composite materials of DAT and DATT functionalized gelatins with hydroxyapatite (HAp) show a drastic reduction of swelling degree. In tensile tests and rheological measurements, the composites equilibrated in water had increased Young’s moduli (from 200 kPa up to 2 MPa) and tensile strength (from 57 kPa up to 1.1 MPa) compared to the natural polymer matrix without affecting the elongation at break. Furthermore, an increased thermal stability from 40 °C to 85 °C of the networks could be demonstrated. The differences of the behaviour of the functionalized gelatins to pure gelatin as matrix suggested an additional stabilizing bond between the incorporated aromatic groups to the hydroxyapatite. N2 - Diese Arbeit beschreibt die Entwicklung von durch spezifische physikalische Wechselwirkungen quervernetzten Gelatine-basierten Materialien. Dazu wurden zunächst Computermodelle entwickelt, mit denen Eigenschaften der Materialien vorhergesagt werden sollten, um so eine wissensbasierte Entwicklung zu ermöglichen, um dann die Ergebnisse mit experimentellen Daten zu vergleichen und die Materialien und Modelle als Grundlage für weitere Entwicklungen zu nutzen. Gelatine wurde mit Desaminotyrosin (DAT) und Desaminotyrosyltyrosin (DATT) funktionalisiert, die sich von der natürlichen Aminosäure Tyrosin ableiten. Diese Gruppen können potentiell π-π Wechselwirkungen und Wasserstoffbrückenbindungen auch unter physiologischen Bedingungen eingehen. Es wurden Computersimulationen der Materialien mittels Moleküldynamik durchgeführt, wobei Modelle mit 0.8 Gew.-% und 25 Gew.-% Wassergehalt betrachtet wurden. Die Validierung der Modelle erfolgte durch Vergleich der errechneten mit experimentellen Daten wie z.B. der Dichte, Bindungswinkeln sowie Röntgenstreuungsspektren. Die Modelle wurden dann zur Vorhersage der molekularen Organisation der Polymerketten, Formierung physikalischer Netzpunkte und Berechnung der mechanischen Eigenschaften eingesetzt. Die Funktionalisierung der Gelatine mit DAT bzw. DATT führten wie gewünscht zur Ausbildung physikalischer Netzpunkte durch π-π Wechselwirkungen und Wasserstoffbrücken¬bindungen. Ein Schlüsselergebnis der Simulationen war, dass mit zunehmender Zahl an aromatischen Gruppen auch eine Zunahme der physikalischen Netzpunkte beobachtet werden konnte. Die funktionalisierten Gelatinen konnten durch chemoselektive Reaktion der Aminogruppen der Gelatine mit den freien Carboxylgruppen von DAT und DATT hergestellt werden. Materialien mit 25 Gew.-% Wassergehalt hatten in der Simulation und im Experiment mechanische Eigenschaften derselben Größenordnung (z.B. E-Moduln im unteren GPa-Bereich). Der Quellungsgrad der Materialien im Experiment nahm mit zunehmender Zahl an aromatische Gruppen ab (von 2800 Vol.-% auf 300 Vol.-%), wobei der Elastizitätsmodul, die Bruchdehnung sowie die Zugfestigkeit zunahmen. Die Funktionalisierung der Gelatine ist eine chemische Methode, um die Kettenanordnung auf molekularer Ebene zu beeinflussen, während die genaue Kontrolle der Trocknungs¬bedinguungen von Gelatine-basierten Materialien eine physikalische Methode mit demselben Ziel ist. Es konnte gezeigt werden, dass die Funktionalisierung von Gelatine mit DAT oder DATT zu einer stark verminderten Helixausbildungstendenz, die jedoch durch Variation der Trocknunsgbedingungen noch fein abgestimmt werden konnte. Somit konnten die mechanischen Eigenschaften von Filmen aus funktionlisierter Gelatine mit zwei unabhängigen Methoden eingestellt werden. Komposite der mit DAT oder DATT funktionalisierten Gelatine und Hydroxyapatit (HAp) zeigten deutlich verringerter Quellung. In Zugdehnungsexperimenten und rheologischen Untersuchungen zeigten die Komposite im Gleichgewichtsquellungszustand erhöhte Elastizitätsmoduln (von 200 kPa auf bis zu 2 MPa) und Zugfestigkeit (von 57 kPa auf bis zu 1.1 MPa). Darüber hinaus konnte die Übergangstemperatur Tc deutlich gesteigert werden (von ca. 40 °C auf > 85 °C). Dieses Verhalten ließ sich auf stabilisierende Bindungen zwischen den aromatische Gruppen und dem HAp zurückführen. KW - Physikalische Quervernetzung KW - Supramolekularen Wechselwirkung KW - Molekulare Modellierung KW - Biomaterialien KW - Gelatine KW - Komposite KW - Hydroxyapatit KW - Physical Network KW - Supramolecular Interaction KW - Molecular modeling KW - Biomaterial KW - Gelatin KW - Composite KW - Hydroxyapatite Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52888 ER - TY - THES A1 - Schattauer, Sylvia T1 - Hybride Dünnschicht-Solarzellen aus mesoporösem Titandioxid und konjugierten Polymeren T1 - Hybrid thin solar cells comprising mesoporous titanium dioxide and conjugated polymers N2 - Das Ziel dieser Arbeit ist die Untersuchung der aktiven Komponenten und ihrer Wechselwirkungen in teilorganischen Hybrid-Solarzellen. Diese bestehen aus einer dünnen Titandioxidschicht, kombiniert mit einer dünnen Polymerschicht. Die Effizienz der Hybrid-Solarzellen wird durch die Lichtabsorption im Polymer, die Dissoziation der gebildeten Exzitonen an der aktiven Grenzfläche zwischen TiO2 und Polymer, sowie durch Generation und Extraktion freier Ladungsträger bestimmt. Zur Optimierung der Solarzellen wurden grundlegende physikalische Wechselwirkungen zwischen den verwendeten Materialen sowie der Einfluss verschiedener Herstellungsparameter untersucht. Unter anderem wurden Fragen zum optimalen Materialeinsatz und Präparationsbedingungen beantwortet sowie grundlegende Einflüsse wie Schichtmorphologie und Polymerinfiltration näher betrachtet. Zunächst wurde aus unterschiedlich hergestelltem Titandioxid (Akzeptor-Schicht) eine Auswahl für den Einsatz in Hybrid-Solarzellen getroffen. Kriterium war hierbei die unterschiedliche Morphologie aufgrund der Oberflächenbeschaffenheit, der Film-Struktur, der Kristallinität und die daraus resultierenden Solarzelleneigenschaften. Für die anschließenden Untersuchungen wurden mesoporöse TiO2–Filme aus einer neuen Nanopartikel-Synthese, welche es erlaubt, kristalline Partikel schon während der Synthese herzustellen, als Elektronenakzeptor und konjugierte Polymere auf Poly(p-Phenylen-Vinylen) (PPV)- bzw. Thiophenbasis als Donatormaterial verwendet. Bei der thermischen Behandlung der TiO2-Schichten erfolgt eine temperaturabhängige Änderung der Morphologie, jedoch nicht der Kristallstruktur. Die Auswirkungen auf die Solarzelleneigenschaften wurden dokumentiert und diskutiert. Um die Vorteile der Nanopartikel-Synthese, die Bildung kristalliner TiO2-Partikel bei tiefen Temperaturen, nutzen zu können, wurden erste Versuche zur UV-Vernetzung durchgeführt. Neben der Beschaffenheit der Oxidschicht wurde auch der Einfluss der Polymermorphologie, bedingt durch Lösungsmittelvariation und Tempertemperatur, untersucht. Hierbei konnte gezeigt werden, dass u.a. die Viskosität der Polymerlösung die Infiltration in die TiO2-Schicht und dadurch die Effizienz der Solarzelle beeinflusst. Ein weiterer Ansatz zur Erhöhung der Effizienz ist die Entwicklung neuer lochleitender Polymere, welche möglichst über einen weiten spektralen Bereich Licht absorbieren und an die Bandlücke des TiO2 angepasst sind. Hierzu wurden einige neuartige Konzepte, z.B. die Kombination von Thiophen- und Phenyl-Einheiten näher untersucht. Auch wurde die Sensibilisierung der Titandioxidschicht in Anlehnung an die höheren Effizienzen der Farbstoffzellen in Betracht gezogen. Zusammenfassend konnten im Rahmen dieser Arbeit wichtige Einflussparameter auf die Funktion hybrider Solarzellen identifiziert und z.T. näher diskutiert werden. Für einige limitierende Faktoren wurden Konzepte zur Verbesserung bzw. Vermeidung vorgestellt. N2 - The main objective of this thesis is to study the active components and their interactions in so called organic hybrid solar cells. These consist of a thin inorganic titanium dioxide layer, combined with a polymer layer. In general, the efficiency of these hybrid solar cells is determined by the light absorption in the donor polymer, the dissociation of excitons at the heterojunction between TiO2 and polymer, as well as the generation and extraction of free charge carriers. To optimize the solar cells, the physical interactions between the materials are modified and the influences of various preparation parameters are systematically investigated. Among others, important findings regarding the optimal use of materials and preparation conditions as well as detailed investigations of fundamental factors such as film morphology and polymer infiltration are presented in more detail. First, a variety of titanium dioxide layer were produced, from which a selection for use in hybrid solar cells was made. The obtained films show differences in surface structure, film morphology and crystallinity, depending on the way how the TiO2 layer has been prepared. All these properties of the TiO2 films may strongly affect the performance of the hybrid solar cells, by influencing e.g. the exciton diffusion length, the efficiency of exciton dissociation at the hybrid interface, and the carrier transport properties. Detailed investigations were made for mesoporous TiO2 layer following a new nanoparticle synthesis route, which allows to produce crystalline particles during the synthesis. As donor component, conjugated polymers, either derivatives of cyclohexylamino-poly(p-phenylene vinylene) (PPV) or a thiophene are used. The preparation routine also includes a thermal treatment of the TiO2 layers, revealing a temperature-dependent change in morphology, but not of the crystal structure. The effects on the solar cell properties have been documented and discussed. To take advantage of the nanoparticle synthesis, the formation of crystalline TiO2 particles by UV crosslinking and first solar cell measurements are presented. In addition to the nature of the TiO2 layer, the influence of polymer morphology is investigated. Different morphologies are realized by solvent variation and thermal annealing. It is shown that, among other factors, the viscosity of the polymer solution and the infiltration into the TiO2 layer mainly affects the efficiency of the solar cell. Another approach to increase the efficiency is the development of new hole-conducting polymers that absorb over a wide spectral range and which are adjusted to the energy levels of TiO2. Also new concepts, for example, the combination of thiophene- and phenyl-units into a copolymer are investigated in more detail. In summary, important parameters influencing the properties of hybrid solar cells are identified and discussed in more detail. For some limiting factors concepts to overcome these limitations are presented. KW - hybride Solarzellen KW - Titandioxid KW - Sintern KW - Polymer KW - hybrid thin solar cells KW - titanium dioxide KW - thermal treatment KW - polymers Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52619 ER - TY - THES A1 - Poltrock, Silvana T1 - About the relation between implicit Theory of Mind & the comprehension of complement sentences T1 - Über den Zusammenhang zwischen impliziter Theory of Mind und dem Verstehen von Komplementsatzstrukturen N2 - Previous studies on the relation between language and social cognition have shown that children’s mastery of embedded sentential complements plays a causal role for the development of a Theory of Mind (ToM). Children start to succeed on complementation tasks in which they are required to report the content of an embedded clause in the second half of the fourth year. Traditional ToM tasks test the child’s ability to predict that a person who is holding a false belief (FB) about a situation will act "falsely". In these task, children do not represent FBs until the age of 4 years. According the linguistic determinism hypothesis, only the unique syntax of complement sentences provides the format for representing FBs. However, experiments measuring children’s looking behavior instead of their explicit predictions provided evidence that already 2-year olds possess an implicit ToM. This dissertation examined the question of whether there is an interrelation also between implicit ToM and the comprehension of complement sentences in typically developing German preschoolers. Two studies were conducted. In a correlational study (Study 1 ), 3-year-old children’s performance on a traditional (explicit) FB task, on an implicit FB task and on language tasks measuring children’s comprehension of tensed sentential complements were collected and tested for their interdependence. Eye-tracking methodology was used to assess implicit ToM by measuring participants’ spontaneous anticipatory eye movements while they were watching FB movies. Two central findings emerged. First, predictive looking (implicit ToM) was not correlated with complement mastery, although both measures were associated with explicit FB task performance. This pattern of results suggests that explicit, but not implicit ToM is language dependent. Second, as a group, 3-year-olds did not display implicit FB understanding. That is, previous findings on a precocious reasoning ability could not be replicated. This indicates that the characteristics of predictive looking tasks play a role for the elicitation of implicit FB understanding as the current task was completely nonverbal and as complex as traditional FB tasks. Study 2 took a methodological approach by investigating whether children display an earlier comprehension of sentential complements when using the same means of measurement as used in experimental tasks tapping implicit ToM, namely anticipatory looking. Two experiments were conducted. 3-year-olds were confronted either with a complement sentence expressing the protagonist’s FB (Exp. 1) or with a complex sentence expressing the protagonist’s belief without giving any information about the truth/ falsity of the belief (Exp. 2). Afterwards, their expectations about the protagonist’s future behavior were measured. Overall, implicit measures reveal no considerably earlier understanding of sentential complementation. Whereas 3-year-olds did not display a comprehension of complex sentences if these embedded a false proposition, children from 3;9 years on were proficient in processing complement sentences if the truth value of the embedded proposition could not be evaluated. This pattern of results suggests that (1) the linguistic expression of a person’s FB does not elicit implicit FB understanding and that (2) the assessment of the purely syntactic understanding of complement sentences is affected by competing reality information. In conclusion, this dissertation found no evidence that the implicit ToM is related to the comprehension of sentential complementation. The findings suggest that implicit ToM might be based on nonlinguistic processes. Results are discussed in the light of recently proposed dual-process models that assume two cognitive mechanisms that account for different levels of ToM task performance. N2 - Zahlreiche Studien legen nahe, dass der Erwerb finiter Komplementsatzstrukturen eine Voraussetzung für die Entwicklung einer Theory of Mind (ToM) ist. Kinder beginnen in circa der zweiten Hälfte ihres 4. Lebensjahres Komplementsatzverständnisaufgaben zu lösen, die eine Wiedergabe des Komplementsatzes erfordern. Die ToM wird klassischerweise als erworben bezeichnet, wenn ein Kind korrekt vorhersagen kann, dass eine Person, die eine falsche Überzeugung hat, entsprechend "falsch" handeln wird. Es ist bekannt, dass sich diese Fähigkeit bei Kindern mit circa 4 Jahren entwickelt. Gemäß der Hypothese des linguistischen Determinismus liefert die syntaktische Komplexität von Komplementsatzstrukturen das Format, um falsche Überzeugungen mental zu repräsentieren. In ToM Aufgaben, die erfassen, wo Kinder eine zukünfige Handlung einer fehlinformierten Person antizipieren, konnte allerdings bereits schon bei 2-Jährigen das Verstehen falscher Überzeugungen nachgewiesen werden. Diese frühe Fähigkeit wird auch implizite ToM genannt, da diese Art der Aufgabe keine bewusste Entscheidung verlangt. Die vorliegende Dissertation untersucht erstmalig im Deutschen, ob der Zusammenhang zwischen dem Verstehen von Komplementsatzstrukturen und ToM auch für diese implizite Fähigkeit gilt. Zwei Studien wurden durchgeführt. In Studie 1 wurden die Leistungen von 3-Jährigen in einer klassischen (expliziten) ToM Aufgabe, einer impliziten ToM Aufgabe und in Komplementsatzverständnisaufgaben erhoben und auf korrelative Zusammenhänge hin getestet. Dabei wurde mittels eines Eye-Trackers das antizipative Blickverhalten gemessen und somit auf das Vorhandensein einer impliziten ToM geschlossen. Die Leistungen in den Sprachaufgaben korrelierten nicht mit den Blickdaten, obwohl beide Maße mit den Leistungen in der expliziten ToM Aufgabe in Beziehung standen. Unerwarteterweise konnte jedoch generell kein implizites Verstehen falscher Überzeugungen bei 3-jährigen nachgewiesen werden. Da die implizite ToM Aufgabe nichtsprachlich war, wird der Einfluss von Aufgabeneigenschaften auf die Elizitierung von impliziter ToM diskutiert. Studie 2 untersuchte, ob 3-Jährige ein früheres, implizites Verstehen von Komplementsatzstrukturen in Aufgaben zeigen, in denen antizipatorische Blicke anstelle von expliziten Antworten gemessen werden und damit das gleiche Maß verwendet wird wie in impliziten ToM Aufgaben. Zwei Experimente wurden durchgeführt. Der präsentierte Komplementsatz drückte entweder eine falsche Überzeugung des Protagonisten aus (Exp. 1) oder eine Überzeugung, deren Wahrheitsgehalt nicht bestimmt wurde (Exp. 2). Während bei 3-Jährigen kein Verstehen von Komplementsatzstrukturen, die eine falsche Proposition enthielten, nachgewiesen werden konnte, zeigten Kinder ab einem Alter von 3;9 Jahren, dass sie den komplexen Satz verarbeiten, wenn dieser keine falsche Proposition beinhaltet. Dieses Ergebnismuster spricht dafür, dass (1) der sprachliche Ausdruck einer falschen Überzeugung die implizite ToM nicht elizitieren kann und dass (2) das Erfassen des rein syntaktischen Verstehens durch zusätzliche Realitätsinformation beeinträchtigt wird. Zusammenfassend konnte in der vorliegenden Arbeit kein Hinweis dafür gefunden werden, dass die implizite ToM in gleicher Weise wie die explizite ToM mit dem Verstehen von Komplementsatzstrukturen einhergeht. Die Ergebnisse legen nahe, dass vielmehr nonlinguistische Faktoren bei der Entwicklung einer impliziten ToM eine Rolle spielen könnten. Die Resultate werden mit Blick auf aktuelle Zwei-Prozess-Modelle diskutiert. KW - Theory of Mind KW - Komplementsatzverstehen KW - linguistische Determinismushypothese KW - implizit KW - Blickbewegungsmessung KW - theory of mind KW - comprehension of complement sentences KW - linguistic determinism KW - implicit KW - eye tracking Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52293 ER - TY - THES A1 - Paffhausen, Peter T1 - Entscheidung über eine Öffentlich Private Partnerschaft : Empfehlungen für kommunale Entscheidungsträger beim Eingehen einer institutionellen Öffentlich Privaten Partnerschaft T1 - Decision on a Public-Private Partnership : advice for municipal decision-makers when entering into an institutional Public-Private Partnership N2 - Öffentlich Private Partnerschaften (ÖPPs) haben in den letzten zehn bis fünfzehn Jahren in Deutschland einen beachtlichen Stellenwert erreicht. Auch zukünftig ist aufgrund der Finanzkrise der Kommunen mit einem weiteren Bedeutungszuwachs zu rechnen. Damit ÖPPs die von der öffentlichen Hand gewünschten Vorteile mit sich bringen können, wie zum Beispiel die Entlastung des öffentlichen Haushalts oder Effizienzsteigerungen, sollten sie im Vorfeld und im Tagesgeschäft aktiv und umsichtig begleitet werden. In diesem Zusammenhang ergibt sich der Ansatzpunkt für die Themenstellung der Dissertation sowie angesichts der Erkenntnis, dass bisher noch keine umfassend fundierten und systematischen Untersuchungen vorliegen, welche die bestehenden Praxiserfahrungen mit ÖPPs mit anwendbaren Theorien in Verbindung setzen und Entscheidungshilfen für öffentliche Akteure ableiten. Aufgrund der verschiedenen möglichen Ausprägungsformen wurde eine Eingrenzung des Themas auf institutionelle ÖPPs auf kommunaler Ebene vorgenommen. Die Untersuchung beginnt mit der Auseinandersetzung der Grundlagen zu ÖPPs, um ein generelles Verständnis für dieses Themengebiet zu schaffen. Nachdem der Begriff erläutert und Merkmale von ÖPPs herausgearbeitet wurden, erfolgt eine Abgrenzung zwischen vertraglichen und institutionellen ÖPPs. Daraufhin werden mögliche Motive der öffentlichen und privaten Seite beim Eingehen einer solchen Partnerschaft aufgeführt sowie erste mögliche Chancen und Risiken skizziert. Im Anschluss erfolgt mit Hilfe der wissenschaftlichen Theorie des Neuen Institutionalismus eine vertiefende Analyse zu institutionellen ÖPPs. Dabei schließt sich die Dissertation an die von Mayntz und Scharpf vorgenommene Einteilung in einen ökonomischen, (organisations-) soziologischen und politikwissenschaftlichen Neo-Institutionalismus an. Der Neue Ökonomische Institutionalismus wurde anhand der drei Teillehren Transaktionskostentheorie, Prinzipal-Agent-Theorie und Theorie der Verfügungsrechte untersucht. Zunächst werden theoretische Erkenntnisse zu den einzelnen Theorien herausgearbeitet und erste Schlussfolgerungen für institutionelle ÖPPs gezogen. Daraus werden nachfolgend Untersuchungskriterien in Form von Fragestellungen für den späteren Fallstudienvergleich entwickelt. Nach Abschluss des Theorieteils erfolgt eine Betrachtung institutioneller ÖPPs aus realer empirischer Sicht. Hierzu werden Fallstudien vorgestellt und an den Untersuchungskriterien, welche aus den einzelnen Theorien abgeleitet wurden, gespiegelt. Zuerst werden recherchierte Fallstudien analysiert, beginnend mit den Teilprivatisierungen der Stadtentwässerung Dresden GmbH und der Stadtwerke Görlitz AG, bei denen sich die Zusammenarbeit wohl positiv entwickelt. Als Negativbeispiel wird dann auf die Privatisierung der Wasserversorgung von Grenoble und ihre spätere Rekommunalisierung eingegangen. Im folgenden Schritt werden Fallstudien aus den realen Erfahrungen des Verfassers diskutiert. Hierbei bildet die Teilprivatisierung und anschließende Rekommunalisierung des Wasserbetriebes in Potsdam den Schwerpunkt. Ergänzt wird dies durch die Darstellung der positiven Zusammenarbeit mit dem privaten Gesellschafter bei der Energie und Wasser Potsdam GmbH. Abschließend werden die anfänglichen Probleme zwischen Kommune und Privat bei der teilprivatisierten STEP Stadtentsorgung Potsdam untersucht und aufgezeigt, wie die Partnerschaft zum Vorteil der öffentlichen Seite verändert wurde. Aus dem Vergleich von Theorie und Praxis konnten wissenschaftlich fundierte Schlussfolgerungen für institutionelle ÖPPs gezogen und Erfolgsfaktoren für das Gelingen einer solchen Kooperation abgeleitet werden. Die gewonnenen Erkenntnisse werden in Form von Thesen zusammengefasst und dienen als Basis für die Ableitung von Handlungsempfehlungen für kommunale Akteure beim Eingehen einer institutionellen ÖPP. Zu Beginn erfolgt eine Darstellung der Empfehlungen, die sich aus den Untersuchungskriterien der jeweiligen Theorien ergeben haben. Nachfolgend wird diese Betrachtung erweitert, indem näher auf die wesentlichen Phasen des Entscheidungsfindungsprozesses eingegangen und eine Untersetzung dieser Phasen mit den erarbeiteten Handlungsempfehlungen vorgenommen wird. Auf diese Weise kann den kommunalen Entscheidungsträgern eine sehr praxisnahe Hilfestellung gegeben werden. Insgesamt betrachtet, geht aus der Dissertation ein umfangreicher, fundierter und sehr praxisrelevanter Leitfaden hervor, der wichtige Anhaltspunkte für das Eingehen einer institutionellen ÖPP im kommunalen Bereich gibt. Aus der Spiegelung von Theorie und Praxis werden wertvolle Hinweise abgeleitet, wodurch insbesondere deutlich wird, an welchen Stellen sich die öffentliche Seite absichern sollte. Darüber hinaus können die kommunalen Entscheidungsträger durch die gewonnenen Erkenntnisse sensibilisiert und ihr Blick für den individuellen Fall geschärft werden. Letztendlich werden dadurch wichtige Voraussetzungen geschaffen, um ein solches Vorhaben zum Erfolg zu führen. N2 - In the past ten to fifteen years, Public-Private Partnerships (PPPs) have become considerably important. It is also due to the financial crisis, that even in future a further growth is expected in the municipalities. To ensure that the PPPs, which add such desired advantages like reduction of costs for the public budget or increasing the efficiency of the public entity, they should be actively and carefully guided prior to its formation as well as during the day-to-day business. This dissertation is based on this context while considering that up to date there have not been any well-founded and systematic researches connecting the existing practical experience with applicable theory and from which advice can be derived for the decision-makers in the public sector. Because of the several formats that are possible, the subject has been limited with a focus on institutional PPPs at municipal level. The research begins with the explanation of the basics of PPPs, offering a general understanding of this subject. The explanation of the concept and the elaboration of the characteristics of PPPs, are then followed by the definition of contractual and institutional PPPs. The possible motives for entering such a partnership on both sides, public and private, are shown on a list as well as an outline of the possible prospects and risks. Subsequently, an in-depth analysis on institutional PPPs is presented, which is based on scientific theory on new institutionalism. For this purpose, the dissertation is linked up with the economical, (organisational) sociological and political scientific classification by Mayntz and Scharpf. The new economic institutionalism was researched with the help of the three part-theories: transaction cost theory, principal agent theory and property rights theory. To begin with, the theoretical perception of each individual theory is developed and first deductions for institutional PPPs are reached. Based on this, the development of research criteria follows, depicted as questions that may arise for comparing future case studies. The conclusion of the theoretical part is followed by a contemplation of institutional PPPs, from an empirical point of view. For this purpose, case studies are presented and reflected onto the research criteria, which had been derived from each individual theory. To begin with, the researched case studies are analysed, starting with the partial privatisation of the Stadtentwässerung Dresden GmbH (Dresden’s municipal water drainage company) and the Stadtwerke Görlitz AG (public utility company of Görlitz), where the collaboration is actually developing in a positive manner. A negative example is depicted in the privatisation of the waterworks of Grenoble and its subsequent reversion to a fully municipal service. In the following step, case studies from the authors’ actual experience are discussed. In this case, the focus is placed on the partial privatisation and the subsequent reversion to its municipal status of the waterworks of Potsdam. This is complemented by the portrayal of the positive collaboration between the private partner and Energie und Wasser Potsdam GmbH (Potsdam’s energy and water company). Subsequently, the initial problems that arose during the partial privatisation STEP Stadtentsorgung Potsdam (municipal waste management of Potsdam) between the municipality and the private sector are researched, depicting the positive changes in the partnership, which evolved in favour of the public sector. Founded conclusions for the institutional PPPs were arrived at based on the comparison between theory and practice, and scientific and positive factors for the success of such a co-operation were derived. The knowledge thus gained is summarised in the form of theses, and serve as a basis for the derivation of advice for course of action for municipal decision-makers when entering into an institutional PPP. At the beginning, a portrayal of the advice that is derived from the individual theories is given. This observation is broadened by taking a closer look at the substantial phases of the decision-making process, and by condensing such phases by applying the decision-making advice that has been derived. In this manner the municipal decision-makers are given sound practical advice. Considering the dissertation as a whole, it offers a complete, founded and sound practical guideline, which includes important criteria for entering into institutional PPPs in the municipal sector. From the reflection between theory and practice valuable hints are derived, through which it becomes especially clear which points the public side should secure. Furthermore, the municipal decision-makers can become sensitised by the knowledge gained and sharpen their senses for each individual case. Finally, important conditions are created to ensure the success of such a project. KW - Öffentlich Private Partnerschaften KW - Institutionelle Öffentlich Private Partnerschaften KW - ÖPP KW - Neuer Institutionalismus KW - ÖPP-Erfolgsfaktoren KW - Public-Private Partnerships KW - Institutional Public Private Partnerships KW - PPP KW - New Institutionalism KW - PPP-factors of success Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52435 ER - TY - THES A1 - Kirchner, Henriette T1 - The ghrelin system links dietary lipids with the endocrine control of energy homeostasis T1 - Das Ghrelin-GOAT-System verbindet die Aufnahme von Nahrungsfetten mit der zentralen Regulation der Energiehomöostase N2 - Ghrelin is a unique hunger-inducing stomach-borne hormone. It activates orexigenic circuits in the central nervous system (CNS) when acylated with a fatty acid residue by the Ghrelin O-acyltransferase (GOAT). Soon after the discovery of ghrelin a theoretical model emerged which suggests that the gastric peptide ghrelin is the first “meal initiation molecule N2 - Ghrelin ist ein einzigartiges im Magen produziertes Hormon, da es von dem Enzym Ghrelin O-acyltransferase (GOAT) mit einer mittelkettigen Fettsäure acyliert werden muss, um biologische Aktivität zu erlangen. Kurz nach seiner Entdeckung entstand die Hypothese, dass Ghrelin das „Hungerhormon“ sei und eine wichtige Rolle in der Regulation des Energiehaushalts spiele. Die genetische Manipulation von Ghrelin und seinem Rezeptor, dem GHSR, hat jedoch nur geringe Auswirkung auf Appetit und Körpergewicht. In der hier vorliegenden Studie stellen wir neuartige Mausmodelle mit abgewandelter Ghrelin-, GHSR- und GOATfunktion vor, um den Einfluss des Ghrelinsystems auf die Regulation der Energiehomöostase zu reevaluieren. Weiterhin wird die endogene Regulation von GOAT erstmalig beschrieben. Double-knockout Mäuse, die gleichzeitig defizitär für Ghrelin und GHSR sind, haben ein geringeres Körpergewicht, weniger Fettmasse und einen niedrigeren Energieverbrauch als Kontrolltiere. Knockout Mäuse für das GOAT Gen Mboat4 sind leichter und schlanker als Kontrolltiere. Dementsprechend haben transgene Mäuse, die Ghrelin und GOAT überproduzieren, eine erhöhte Fettmasse und einen verminderten Energieverbrauch. Weiterhin können wir zeigen, dass GOAT, anders als auf Grund der allgemein bekannten Ghrelinfunktion angenommen, nicht durch Hungern aktiviert wird. Bei Mäusen, die gefastet haben, ist die Genexpression von Mboat4 deutlich herunterreguliert, woraus ein geringer Blutspiegel von Acyl-Ghrelin resultiert. Daraus haben wir geschlossen, dass GOAT eventuell Nahrungsfette und nicht die durch Hungern freigesetzten endogen Fettsäuren zur Ghrelinacylierung benutzt. Fütterungsversuche bestätigen diese Hypothese, da GOAT die unnatürliche Fettsäure Heptan Säure (C7), die der Tiernahrung beigefügt wurde, zur Ghrelinacylierung verwendet. Ein weiteres Indiz für die Notwendigkeit von Nahrungsfetten für die Ghrelinacylierung ist, dass die transgenen Ghrelin/GOAT Mäuse nur massiv Acyl-Ghrelin produzieren, wenn sie mit einer Diät gefüttert werden, die mit mittelkettigen Fettsäuren angereichert ist. Zusammenfassend zeigt die Studie, dass das Ghrelinsystem maßgeblich an der Regulation der Energiehomöostase beteiligt ist und dass die Ghrelinaktivierung direkt von Nahrungsfetten beeinflusst wird. Daraus könnte geschlossen werden, dass Ghrelin wohlmöglich nicht das Hungerhormon ist, wie bisher generell angenommen wurde. Ghrelin könnte vielmehr ein potentieller “Fettsensor KW - Ghrelin KW - GOAT KW - Hungerhormon KW - Nahrungsfette KW - Energiehaushalt KW - Ghrelin KW - GOAT KW - hunger hormone KW - dietary lipids KW - energy homeostasis Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52393 ER - TY - THES A1 - Arvidsson, Samuel Janne T1 - Identification of growth-related tonoplast proteins in Arabidopsis thaliana T1 - Identifizierung von wachstumsrelevanten Tonoplast-Proteinen in Arabidopsis thaliana (Ackerschmalwand) N2 - In a very simplified view, the plant leaf growth can be reduced to two processes, cell division and cell expansion, accompanied by expansion of their surrounding cell walls. The vacuole, as being the largest compartment of the plant cell, plays a major role in controlling the water balance of the plant. This is achieved by regulating the osmotic pressure, through import and export of solutes over the vacuolar membrane (the tonoplast) and by controlling the water channels, the aquaporins. Together with the control of cell wall relaxation, vacuolar osmotic pressure regulation is thought to play an important role in cell expansion, directly by providing cell volume and indirectly by providing ion and pH homestasis for the cytosoplasm. In this thesis the role of tonoplast protein coding genes in cell expansion in the model plant Arabidopsis thaliana is studied and genes which play a putative role in growth are identified. Since there is, to date, no clearly identified protein localization signal for the tonoplast, there is no possibility to perform genome-wide prediction of proteins localized to this compartment. Thus, a series of recent proteomic studies of the tonoplast were used to compile a list of cross-membrane tonoplast protein coding genes (117 genes), and other growth-related genes from notably the growth regulating factor (GRF) and expansin families were included (26 genes). For these genes a platform for high-throughput reverse transcription quantitative real time polymerase chain reaction (RT-qPCR) was developed by selecting specific primer pairs. To this end, a software tool (called QuantPrime, see http://www.quantprime.de) was developed that automatically designs such primers and tests their specificity in silico against whole transcriptomes and genomes, to avoid cross-hybridizations causing unspecific amplification. The RT-qPCR platform was used in an expression study in order to identify candidate growth related genes. Here, a growth-associative spatio-temporal leaf sampling strategy was used, targeting growing regions at high expansion developmental stages and comparing them to samples taken from non-expanding regions or stages of low expansion. Candidate growth related genes were identified after applying a template-based scoring analysis on the expression data, ranking the genes according to their association with leaf expansion. To analyze the functional involvement of these genes in leaf growth on a macroscopic scale, knockout mutants of the candidate growth related genes were screened for growth phenotypes. To this end, a system for non-invasive automated leaf growth phenotyping was established, based on a commercially available image capture and analysis system. A software package was developed for detailed developmental stage annotation of the images captured with the system, and an analysis pipeline was constructed for automated data pre-processing and statistical testing, including modeling and graph generation, for various growth-related phenotypes. Using this system, 24 knockout mutant lines were analyzed, and significant growth phenotypes were found for five different genes. N2 - Sehr vereinfacht gesagt kann Blattwachstum auf zwei Prozesse reduziert werden, Zellteilung und Zellexpansion, gefolgt von Zellwandexpansion. Die Vakuole, das größte Organell der Zelle, übt durch die Kontrolle des Wasserhaushaltes der Pflanze eine wichtige Funktion im Zusammenhang mit der Zellexpansion aus. Dies geschieht durch die Regulierung des osmotischen Druckes, durch Import und Export von organischen und anorganischen Ionen über die Vakuolenmembran (den Tonoplast) und durch die Kontrolle ihrer Wasserkanäle (der Aquaporine). Es wird angenommen, dass die Regulierung des vakuolären osmotischen Druckes eine große Rolle bei der Zellexpansion spielt, da der osmotische Druck die Stärke der mechanischen Kraft des Tonoplast auf die Plasmamembran und die Zellwand bestimmt. In dieser Dissertation wird die Rolle von Tonoplastproteinen und ihrer Gene auf die Zellexpansion anhand der Modellpflanze Arabidopsis thaliana (Ackerschmalwand) untersucht, und Kandidaten für wachstumsrelevante Gene werden identifiziert. Da bisher noch kein Signal für die Lokalisierung von Proteinen im Tonoplast identifiziert wurde, gibt es keine Möglichkeit, genomweite Voraussagen über solche Proteinlokalisierungen zu machen. Daher haben wir eine Reihe von aktuellen Proteom-Studien genutzt, um eine Liste von 117 Genen, die für transmembrane tonoplastproteinkodierende Gene kodieren, zusammenzustellen. Zusätzlich wurden andere wachstumsrelevante Gene und Zellzyklus-Gene in die Liste aufgenommen (38 Gene). Die Expression der Gene während der Blattentwicklung sollte mittels einer sensitiven Technik, der quantitativen Polymerasekettenreaktion (qPCR), untersucht werden. Um rasch die für dieses Verfahren notwendigen Oligonukleotide zu entwerfen, wurde ein Computerprogramm („QuantPrime“) entwickelt. Das Programm entwirft automatisch solche Oligonukleotide und überprüft deren Spezifizität in silico auf Ebene der Transkriptome und Genome um Kreuz-Hybridisierungen zu vermeiden, die zu unspezifischen Amplifikationen führen würden. Die qPCR-Plattform wurde in einer Expressions-Studie eingesetzt, um wachstumsrelevante Gen-Kandidaten zu identifizieren. Um wachstumsaktive und nichtaktive Prozesse vergleichen zu können, wurden Proben von unterschiedlichen Bereichen des Blattes zu unterschiedlichen Wachstumsstadien beprobt. Eine musterbasierte Expressionsdatenanalyse wurde eingesetzt, um die Gene hinischtlich ihrer Assoziation mit der Blattexpansionen in eine Rangordnung zu bringen. Die Gene mit dem höchsten Rang wurden als Kandidaten für weitere Experimente ausgewählt. Um die funktionelle Beteiligung dieser Gene auf einer makroskopischen Ebene zu untersuchen, wurden Knockout-Mutanten für die Gen-Kandidaten hinsichtlich ihres Wachstums analysiert. Zu diesem Zweck wurde ein System für die automatisierte Phänotypisierung des Blattwachstums etabliert. Zum einen wurde ein Programm-Paket für detaillierte Annotation von Wachstumsstadien und zum anderen ein Analyse-Paket für automatisierte Datenvorbereitung und statistische Tests entwickelt. Das Analyse-Paket erlaubt die Modellierung und graphische Darstellung verschiedener wachstumsrelevanter Phänotypen. Mit Hilfe dieses Systems wurden 24 Knockout-Mutanten untersucht und signifikante Phänotypen wurden für fünf verschiedene Gene gefunden. KW - Ackerschmalwand KW - Wachstum KW - Tonoplast KW - qPCR KW - Phänotypisierung KW - Arabidopsis KW - Growth KW - Tonoplast KW - qPCR KW - Phenotyping Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52408 ER - TY - THES A1 - Rasch, Claudia T1 - Optische Spektroskopie zum Nachweis von Schimmelpilzen und deren Mykotoxine T1 - Optical spectroscopy for the determination of mould and mycotoxins N2 - Gesunde sowie qualitativ hochwertige Nahrungsmittel sind wichtige Voraussetzungen, um einerseits die Lebensmittelsicherheit entlang der Wertschöpfungskette (Wachstum, Verarbeitung, Lagerung und Transport) und andererseits einen vorbeugenden Verbraucherschutz zu gewährleisten. Die Belastung der Nahrung mit Rückständen jeglicher Art war in letzter Zeit häufig Mittelpunkt heftiger öffentlicher Diskussionen. Zahlreiche Untersuchungen haben gezeigt, dass unter bestimmten Bedingungen durch Pilze gebildete Giftstoffe, so genannte Mykotoxine, die Ernteprodukte belasten und es bei deren Verzehr durch Menschen oder Tiere zu Vergiftungen kommen kann. Die FAO schätzt, dass etwa 25% der Weltproduktion von Nahrungsmitteln mit Mykotoxinen kontaminiert und in 20% der Getreideernte der Europäischen Union messbare Konzentrationen an Mykotoxinen detektierbar sind. Damit die Lebensmittelsicherheit weiterhin gewährleistet bleibt, werden neben den Routinemethoden schnellere und zerstörungsfreie Methoden benötigt, um die Lebensmittel direkt vor Ort auf Schimmelpilze und deren Mykotoxine zu untersuchen. In dieser Arbeit wird das Potenzial von ausgewählten optisch-basierten spektroskopischen Methoden für die in-situ bzw. in-line Detektion von Schimmelpilzen sowie Mykotoxinen in Getreide(produkten) untersucht. Es werden Absorptions- und Reflexionsmethoden einerseits und Fluoreszenztechniken andererseits eingesetzt. Die spektroskopischen Methoden werden dabei auf Proben unterschiedlicher Komplexität angewandt - beginnend mit der Untersuchung der photophysikalischen Eigenschaften der reinen Mykotoxine in Lösung über künstlich mit verschiedenen Mykotoxinen kontaminierten Getreideproben bis hin zu mit Pilzen befallenem Getreide und hochveredelte Lebensmittel (Wein und Bier) als Proben höchster Komplexität. N2 - Problems of food safety have led to an increasing concern regarding contamination of foods and feeds with mycotoxins and the relevant toxigenic fungi, mainly Aspergillus, Penicillium and Fusarium genera. There is a real need for rapid, sensitive and inexpensive sensors for the detection of toxigenic fungi and mycotoxins, both in the field and after harvest in order to obtain real-time monitoring data on contamination and this assist in food safety assessment. This will result in an enormous cost saving to the farmers as well as to agro-food industry through the prevention and reduction of product recalls and reduced treatment costs. The German Ministry of Education and Research (BMBF) has provided funding of more than 1.9 million Euros from July 2006 to December 2009 for the large joint project "ProSeso.net2" on the development of innovative sensor-based techniques and processes in the field of food quality and safety. In this research-project "Exploration of sustainability potentials by use of sensor-based technologies and integrated assessment models in the production chain of plant related food" 13 partners from universities, non-university institutions and industry cooperate within seven subprojects. The expected results shall contribute to maintain freshness and improve safety of the food production chain. In the subproject “Indicators and sensor technology for the identification of mycotoxin producing fungi in the processing of grain” spectroscopic methods are tested for in-situ and in-line detection of moulds and/or mycotoxins. This presentation focuses on some possible spectroscopic methods for the rapid detection of mycotoxins and fungi on grains. Methods based on one- and two-photon-induced fluorescence spectroscopy are highly attractive because of their outstanding sensitivity and selectivity. In order to utilize a fluorescence technique for the analysis of the mycotoxins in food and feedstuff as well as for basic research on the fungal metabolism, the photochemistry and photophysics of the mycotoxins and fungi need to be elucidated in detail, especially the influence of solvent parameters such as polarity and pH value. Consequently, for a sensitive and selective spectroscopic analysis, it is indispensable to take the specific photophysic of the known mycotoxins into account in order to minimize serious limitations upon sensitivity, selectivity, and accuracy of a potential fluorescence-based sensing application. The spectroscopic techniques are complemented by chemometric tools (Principle Component Analysis) to extract the desired chemical information, e.g. with respect to presence of contaminations. The combination of data obtained from different spectroscopic methods (such as optimal excitation and emission wavelength, fluorescence decay times, and fluorescence quantum efficiency) on the one hand side and NIR spectroscopy on the other side shows promising results for the qualitative as well as quantitative identification of mycotoxins grains. Moreover, NIR reflectance spectra yield additional information on ingredients, moisture content, and the presence (or absence) of fungi in the sample. KW - Mykotoxine KW - Schimmelpilze KW - Fluoreszenz KW - Chemometrie KW - Zweiphotonenanregung KW - mycotoxins KW - mould KW - fluorescence KW - chemometrics KW - Two-Photon-Absorption Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50746 ER - TY - THES A1 - Thesen, Manuel Wolfram T1 - Synthese und Charakterisierung von phosphoreszenten Terpolymeren und nichtkonjugierten Matrixpolymeren für effiziente polymere Leuchtdioden T1 - Synthesis and characterization of phosphoreszent terpolymers and nonconjugated matrixpolymers for efficient polymer light emitting diodes N2 - Mit Seitenkettenpolystyrenen wurde ein neues Synthesekonzept für phosphoreszente polymere LED-Materialien aufgestellt und experimentell verifiziert. Zunächst erfolgten auf Grundlage strukturell einfacher Verbindungen Untersuchungen zum Einfluss von Spacern zwischen aktiven Seitengruppen und dem Polystyrenrückgrat. Es wurden Synthesemethoden für die Monomere etabliert, durch die aktive Elemente - Elektronen- und Lochleiter - mit und ohne diesen Spacer zugänglich sind. Durch Kombination dieser Monomere waren unter Hinzunahme von polymerisierbaren Iridium-Komplexen in unterschiedlicher Emissionswellenlänge statistische Terpolymere darstellbar. Es wurde gezeigt, dass die Realisierung bestimmter Verhältnisse zwischen Loch-, Elektronenleiter und Triplettemitter in ausreichender Molmasse möglich ist. Die Glasstufen der Polymere zeigten eine deutliche Strukturabhängigkeit. Auf die Lage der Grenzorbitale übten die Spacer nahezu keinen Einfluss aus. Die unterschiedlichen Makromoleküle kamen in polymeren Licht emittierenden Dioden (PLEDs) zum Einsatz, wobei ein deutlicher Einfluss der Spacereinheiten auf die Leistungscharakteristik der PLEDs festzustellen war: Sowohl Effizienz, Leuchtdichte wie auch Stromdichte waren durch den Einsatz der kompakten Makromoleküle ohne Spacer deutlich höher. Diese Beobachtungen begründeten sich hauptsächlich in der Verwendung der aliphatischen Spacer, die den Anteil im Polymer erhöhten, der keine Konjugation und damit elektrisch isolierende Eigenschaften besaß. Diese Schlussfolgerungen waren mit allen drei realisierten Emissionsfarben grün, rot und blau verifizierbar. Die besten Messergebnisse erzielte eine PLED aus einem grün emittierenden und spacerlosen Terpolymer mit einer Stromeffizienz von etwa 28 cd A-1 (bei 6 V) und einer Leuchtdichte von 3200 cd m-2 (bei 8 V). Ausgehend von obigen Ergebnissen konnten neue Matrixmaterialien aus dem Bereich verdampfbarer Moleküle geringer Molmasse in das Polystyrenseitenkettenkonzept integriert werden. Es wurden Strukturvariationen sowohl von loch- wie auch von elektronenleitenden Verbindungen als Homopolymere dargestellt und als molekular dotierte Systeme in PLEDs untersucht. Sieben verschiedene lochleitende Polymere mit Triarylamin-Grundkörper und drei elektronendefizitäre Polymere auf der Basis von Phenylbenzimidazol konnten erfolgreich in den Polymeransatz integriert werden. Spektroskopische und elektrochemische Untersuchungen zeigten kaum eine Veränderung der Charakteristika zwischen verdampfbaren Molekülen und den dargestellten Makromolekülen. Diese ladungstransportierenden Makro-moleküle wurden als polymere Matrizes molekular dotiert und lösungsbasiert zu Einschicht-PLEDs verarbeitet. Als aussichtsreichstes Lochleiterpolymer dieser Reihe, mit einer Strom-effizenz von etwa 33 cd A-1 (bei 8 V) und einer Leuchtdichte von 6700 cd m-2 (bei 10 V), stellte sich ein Triarylaminderivat mit Carbazolsubstituenten heraus. Als geeignetstes Matrixmaterial für die Elektronenleitung wurde ein meta-verknüpftes Di-Phenylbenzimidazol ausfindig gemacht, das in der PLED eine Stromeffizienz von etwa 20 cd A-1 (bei 8 V) und eine Leuchtdichte von 7100 cd m-2 (bei 10 V) erzielte. Anschließend wurden die geeignetsten Monomere zu Copolymeren kombiniert: Die lochleitende Einheit bildete ein carbazolylsubstituiertes Triarylamin und die elektronen-leitende Einheit war ein disubstituiertes Phenylbenzimidazol. Dieses Copolymer diente im Folgenden dazu, PLEDs zu realisieren und die Leistungsdaten mit denen eines Homopolymer-blends zu vergleichen, wobei der Blend die bessere Leistungscharakteristik zeigte. Mit dem Homopolymerblend waren Bauteileffizienzen von annähernd 30 cd A-1 (bei 10 V) und Leuchtdichten von 6800 cd m-2 neben einer Verringerung der Einsatzspannung realisierbar. Für die abschließende Darstellung bipolarer Blockcopolymere wurde auf die Nitroxid-vermittelte Polymerisation zurückgegriffen. Mit dieser Technik waren kontrollierte radikalische Polymersiationen mit ausgewählten Monomeren in unterschiedlichen Block-längen durchführbar. Diese Blockcopolymere kamen als molekular dotierte Matrizes in phosphoreszenten grün emittierenden PLEDs zum Einsatz. Die Bauteile wurden sowohl mit statistischen Copolymeren, wie auch mit Homopolymerblends in gleicher Zusammensetzung aber unterschiedlichem Polymerisationsgrad hinsichtlich der Leistungscharakteristik verglichen. Kernaussage dieser Untersuchungen ist, dass hochmolekulare Systeme eine bessere Leistungscharakteristik aufweisen als niedermolekulare Matrizes. Über Rasterkraft-mikroskopie konnte eine Phasenseparation in einem Größenbereich von etwa 10 nm für den hochmolekularen Homopolymerblend nachgewiesen werden. Für die Blockcopolymere war es nicht möglich eine Phasenseparation zu beobachten, was vorwiegend auf deren zu geringe Blocklänge zurückgeführt wurde. N2 - A new synthetic approach for the synthesis of side chain polystyrenes was established and their use as phosphorescent polymers for polymer light emitting diodes (PLEDs) is shown by experiments. An assay was introduced to clarify influences on electroluminescent behavior for RGB-colored phosphorescent terpolymers with N,N-Di-p-tolyl-aniline as hole-transporting unit, 2-(4-biphenyl)-5-(4-tert-butylphenyl)-1,3,4-oxadiazole (tert-BuPBD) as electron-transporting unit, and different iridium complexes in RGB-colors as triplet emitting materials. All monomers were attached with spacer moieties to the “para” position of a polystyrene. PLEDs were built to study the electro-optical behavior of these materials. The gist was a remarkable influence of hexyl-spacer units to the PLED performance. For all three colors only very restricted PLED performances were found. In comparison RGB-terpolymers were synthesized with directly attached charge transport materials to the polymer backbone. For this directly linked systems efficiencies were 28 cd A−1 @ 6 V (green), 4.9 cd A−1 @ 5 V (red) and 4.3 cd A−1 @ 6 V (bluish). In summary it is assumed that an improved charge percolation pathways regarding to the higher content of semiconducting molecules and an improved charge transfer to the phosphorescent dopand in the case of the copolymers without spacers are responsible for the better device performance comparing the copolymers with hexyl spacers. It was found that the approach of the directly connected charge transport materials at the nonconjugated styrene polymer backbone is favored for further investigations as shown in the following. A series of styrene derived monomers with triphenylamine-based units, and their polymers have been synthesized and compared with the well-known structure of polymer of N,N′-bis(3-methylphenyl)-N,N′-diphenylbenzidine with respect to their hole-transporting behavior in PLEDs. A vinyltriphenylamine structure was selected as a basic unit, functionalized at the para positions with the following side groups: diphenylamine, 3-methylphenyl-aniline, 1- and 2-naphthylamine, carbazole, and phenothiazine. The polymers are used in PLEDs as host polymers for blend systems. It is demonstrated that two polymers are excellent hole-transporting matrix materials for these blend systems because of their good overall electroluminescent performances and their comparatively high glass transition temperatures. For the carbazole-substituted polymer (Tg = 246 °C), a luminous efficiency of 35 cd A−1 and a brightness of 6700 cd m−2 at 10 V is accessible. The phenothiazine-functionalized polymer (Tg = 220 °C) shows nearly the same outstanding PLED behavior. Hence, both these polymers outperform the well-known polymer of N,N′-bis(3-methylphenyl)-N,N′-diphenylbenzidine, showing only a luminous efficiency of 7.9 cd A−1 and a brightness of 2500 cd m−2 (10 V). Furthermore, novel styrene functionalized monomers with phenylbenzo[d]imidazole units and the corresponding homopolymers are prepared. The macromolecules are used as matrices for phosphorescent dopants to prepare PLEDs. The devices exhibit current efficiencies up to 38.5 cd A−1 at 100 cd m−2 and maximum luminances of 7400 cd m−2 at 10 V. Afterwards the most efficient monomers of this investigations were combined and statistical copolymers were synthesized. As hole-transporting monomer the carbazole substituted triarylamine and as electron-transporting monomer a disubstituted phenylbenzoimidazole was selected. This statistical copolymer was used in the following as matrix material for phosporescent PLEDs and the device performance was compared with a matrix system of a polymer blend matrix system of corresponding homopolymers. With this homopolymer blend efficiencies of about 30 cd A-1 at 10 V and luminances of 6800 cd m-2 beside a decreased onset voltage were realized. Finally bipolar blockcopolymers of structural basic monomers were synthesized via nitroxide mediated polymerization. With these technique and the chosen hole- and electron-transporting monomers a controlled radical polymerization was realized leading to blockcopolymers in different block lengths. These blockcopolymers were used as molecular doped matrix systems in green phosphoreszent PLEDs. The devices were compared in regard to their performances with PLEDs made of statistical copolymers and homopolymer blends. It was found that high molecular systems show a better device performance compared to low molecular polymer matrices. With atomic force microscopy it is shown that a phase separation takes place for the high molecular blend of homopolymers. For the synthesized blockcopolymers no phase separation could be verified, mainly because of the comparatively low molecular weight of these systems. KW - phosphoreszente Terpolymere KW - Elektrolumineszenz KW - organische Licht emittierende Diode KW - Ladungstransport KW - bipolare Blockcopolymere KW - phosphorescent Terpolymers KW - electroluminsecence KW - organic light emitting diode KW - charge transport KW - bipolar blockcopolymers Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51709 ER - TY - THES A1 - Löwinger, Maria T1 - Sulforaphan und Selen : Einfluss auf Phase II Enzyme und Selenoproteine sowie deren Effekt auf die entzündungsvermittelte Dickdarmkanzerogenese T1 - Sulforaphane and Selenium : impact on phase II enzymes and selenoproteins, and the effect on the inflammation triggered colon carcinogenesis N2 - Das ITC SFN und der Mikronährstoff Se sind bekannt als chemopräventive Inhaltsstoffe von Gemüse der Brassica-Familie, welcher auch Brokkoli angehört. Die Wirkungen von sowohl SFN als auch Se beruhen auf zahlreichen verschiedenen Mechanismen. Es existieren jedoch Schnittstellen, an welchen Interaktionen beider Substanzen möglich sind. Basierend auf diesem Wissen wurden in dieser Arbeit Wechselwirkungen zwischen SFN und Se auf die Aktivität sowie Expression von Phase II Enzymen und Selenoproteinen untersucht. Der Einfluss der Kombination von SFN und Se auf die unter physiologischen Bedingungen stattfindende Proliferation und Apoptose war ebenso Gegenstand der Arbeit wie die Modulation von Entzündungsprozessen sowie der Tumorentstehung während der entzündungsverstärkten Colonkanzerogenese im Mausmodell. Das hinsichtlich seiner Wirksamkeit mit aus GRA hydrolysiertem SFN zunächst als vergleichbar befundene synthetische SFN wurde für die Untersuchung im AOM/DSS-induzierten Colontumormodell gewählt und in Kombination mit 3 verschiedenen Selendiäten verabreicht. Der Einfluss von SFN und Se auf Phase II Enzyme und Selenoproteine entlang des GIT war organabhängig und nach 4 Wochen geringer als nach 7 Tagen. Die schwächere Induktion deutet auf eine Anpassung des Organismus hin. Ein SFN-vermittelter Effekt auf NQO1 war im Selenmangel am deutlichsten. Die Aktivität des Selenoproteins TrxR wurde hingegen erst bei ausreichender Selenversorgung durch SFN beeinflusst. Die als Nrf2-Zielgen bekannte und in der Hierarchie der Selenoproteine einen hohen Rang einnehmende GPx2 konnte in bestimmten Organen bereits unter selenarmen Bedingungen durch SFN induziert werden. Eine Überexpression des Enzyms war jedoch nicht möglich. SFN steigerte, unabhängig vom Selenstatus, im oberen Abschnitt des GIT und im Colon die Aktivität der GST. Eine Induktion des eigenen Metabolismus wäre somit denkbar. Im Falle eines Mangels an GPx2 wurde GPx1 bei hinreichender Selenversorgung stärker exprimiert, allerdings konnte sie die Funktion von GPx2 nicht völlig erset-zen. Im Selenmangel kann die Aktivitätssteigerung der TrxR im Dünndarm, dem Ab-schnitt der Selenabsorption, als ein Versuch der GPx2-Kompensation angesehen werden. SFN war nicht in der Lage, über eine Aktivierung des Nrf2/ARE-Signalweges kompensatorische Effekte zu induzieren. Apoptotische Prozesse wurden unter physiologischen Bedingungen nur marginal durch SFN und Se moduliert. Das elektrophile ITC konnte lediglich im Selenmangel Apoptose im luminalen Bereich der Colonkrypten induzieren. Die durch supranutritive Selenkonzentration induzierte Apoptose im Kryptengrund wurde nicht durch SFN beeinflusst. Einer bei Abwesenheit der GPx2 erhöhten Apoptoserate im Kryptengrund wirkte SFN bei adäquater Selenversorgung entgegen, war indessen proapoptotisch unter selendefizienten Konditionen. Der Einfluss von SFN auf die Entzündung war deutlich abhängig vom Selenstatus. Während SFN im Selenmangel anscheinend prooxidative Prozesse induzierte und die Entzündungssymptome verschlimmerte, wirkte es unter adäquatem Selenstatus an-tiinflammatorisch. Den vergleichsweise milden Grad der Entzündung im selensupplementierten Status konnte SFN nicht zusätzlich beeinflussen. SFN veränderte die Inzi-denz colorektaler Tumore nicht. Ein, die Tumorinitiation blockierender SFN-Effekt durch direkte Hemmung der metabolischen Aktivierung des Prokanzerogens im selenadäquaten Zustand scheint offensichtlich. Eine Überversorgung mit Se kann protektiv im Hinblick auf Entzündung oder Colonkanzerogenese sein, jedoch bewirkt SFN keinen zusätzlichen Schutz. Kombinationseffekte von SFN und Se in Bezug auf Phase II Enzyme, Selenoproteine und Apoptose sowie die entzündungsverstärkte Colonkanzerogenese sind nicht eindeutiger Natur und können, abhängig vom Endpunkt, synergistische oder antagonistische Züge aufweisen. Eine bei Selendefizienz deutlichere Wirkung von SFN kann mit Hilfe der gesteigerten Aktivierung von Nrf2 erklärt werden, dies muss jedoch nicht von Vorteil sein. Bei adäquater Selenversorgung kann SFN kurzfristig antiinflammatorische und antikanzerogene Prozesse induzieren. Von einer längerfristigen ständigen SFN-Aufnahme in Form von GRA-reichen Brassicacea ist jedoch abzuraten, da von einer Adaptation auszugehen ist. Die Wirkung von SFN innerhalb der komplexen Pflanzenmatrix bleibt Gegenstand zukünftiger Untersuchungen. N2 - Sulforaphane (SFN), a versatile actor derived from broccoli or other brassicaceae, is proposed to be a dietary anticarcinogen. Together with an adequate selenium status, it has been associated with a decreased risk for developing certain forms of cancer. In our mouse model, we investigate the influence of SFN and Se on the expression and activity of selenoproteins and phase II enzymes as well as the effects on inflammation triggered colon carcinogenesis. SFN increased NQO1 activity and protein expression significantly in the ileum, in both, Se-deficiently and Se-adequately fed animals. TrxR activity was increased in Se-adequately compared to Se-deficiently fed mice, SFN positively affected TrxR activity only in the former ones. An increase of GPx2 protein expression by SFN was observed in the ileum of mice of both diets. GPx1 reacts sensitively on Se supply. GST was the only enzyme analyzed being significantly increased by SFN on activity level in the colon. All AOM/DSS treated animals showed an inflammation, which was attenuated by SFN within Se-adequacy. In contrast, Se-deficient animals showed a more severe inflammation. The administration of SFN therefore seemed to enhance this even more and to be not beneficial in this case. SFN inhibited colon carcinogenesis in Se-adequate mice when being administered together with AOM. To summarize, both, GPx2 and TrxR, require selenium in order to be synthesized. In contrast to TrxR, the SFN-mediated induction of GPx2, the highest ranking selenoprotein, does not depend on additional selenium supply. Whereas distinct effects by SFN were observed in the ileum, only GST was influenced by SFN in the colon. SFN seems to induce its own metabolism. In conclusion, SFN and Se attenuate inflammation and colon carcinogenesis, preferably by means of up-regulating the endogenous defense system and inhibiting the metabolic activation of AOM. KW - Sulforaphan KW - Selen KW - Dickdarmkanzerogenese KW - Phase II Enzyme KW - Selenoproteine KW - sulforaphane KW - selenium KW - colon carcinogenesis KW - phase II enzymes KW - selenoproteins Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51862 ER - TY - THES A1 - Bleßmann, Daniela T1 - Der Einfluss der Dynamik auf die stratosphärische Ozonvariabilität über der Arktis im Frühwinter T1 - Dynamical influence on stratospheric ozone variability over the Arctic in early winter N2 - Der frühwinterliche Ozongehalt ist ein Indikator für den Ozongehalt im Spätwinter/Frühjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivität von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilität weitestgehend auf dynamische Prozesse während der Wirbelbildungsphase des arktischen Polarwirbels zurückgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem früh- und spätwinterlichen Ozongehalt bezüglich Dynamik und Chemie aufgezeigt. Für die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die über die Fläche (45–75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fläche zeigt eine Verbindung zwischen der frühwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur für die untere Stratosphäre gültig, da die Vertikalkomponente die sich innerhalb der Stratosphäre ändernden Wellenausbreitungsbedingungen nicht erfasst. Für eine verbesserte Höhendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Größe definiert. Diese neue Größe verbindet die Wellenaktivität während der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung über die Breite. Eine verstärkte Wellenaktivität führt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Frühwinter zerstören chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablität, die durch dynamische Prozesse während der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter ermöglicht eine Abschätzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden für den Winter 1999–2000 Modellläufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen über den Erhalt der künstlichen Ozonvariabilität hinsichtlich Zeit, Höhe und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilität während der Wirbelbildungsphase länger im Inneren als im Äußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilität. In darunterliegenden Höhenbereichen ist der Anteil an der ursprünglichen Störung groß, bis zu 90% auf der 450K. Innerhalb dieses Höhenbereiches üben die dynamischen Prozesse während der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus. N2 - The ozone amount in early winter provides an indication of the ozone amount in late winter/early spring. The early winter amount is highly variable from year to year due to modification by subsidence, chemical loss and wave activity. This thesis shows that this variability is mainly caused by the dynamics during the Arctic polar vortex formation. Furthermore, it explains the still missing link between early and late winter ozone amount due to dynamics and chemistry. Observational ozone data from satellite based instruments, ozone probes and simulations are used for the investigation of the connection between the composition of the air and the ozone enclosed in the polar vortex. The simulations are calculated with the Lagrangian chemistry/transport model ATLAS. The over area (45–75°N) and time (August-November) averaged vertical component of the Eliassen-Palm flux at 100hPa points to a link between the early winter composition of the air enclosed in the polar vortex and the vortex formation phase. This is only valid for the lower stratosphere, because the component does not satisfy changing conditions for wave propagation throughout the stratosphere by itself. Due to this deficit a new integral quantity based on wave amplitude and properties of the Charney-Drazin criterion is defined to achieve an improvement with height. This new quantity connects the wave activity during vortex formation to the composition of air inside the vortex as well as the distribution of ozone over latitude. An enhanced wave activity leads to a higher proportion of ozone rich air from lower latitudes inside the polar vortex. But chemistry in autumn and early winter removes the interannual variability in the amount of ozone enclosed in the vortex induced by dynamical processes during the formation phase of the Artic polar vortex because ozone relaxes towards equilibrium. An estimation of how relevant these variable dynamical processes are for the Arctic winter ozone abundances is obtained by analysing which fraction of dynamically induced anomalies in ozone persists until mid winter. Model runs with the Lagrangian Chemistry-Transport-Model ATLAS for the winter 1999–2000 are used to assess the fate of ozone anomalies artificially introduced during the vortex formation phase. These runs provide detailed information about the persistence of the induced ozone variability over time, height and latitude. Overall, dynamically induced ozone variability from the vortex formation phase survives longer inside the polar vortex compared to outside and can not significantly contribute to mid-winter variability at levels above 750K potential temperature level. At lower levels increasingly larger fractions of the initial perturbation survive, reaching 90% at 450K potential temperature level. In this vertical range dynamical processes during the vortex formation phase are crucial for the ozone abundance in mid-winter. KW - Stratosphäre KW - Ozon KW - Variabilität KW - Dynamik KW - Chemie-Transport-Modell KW - stratosphere KW - ozone KW - variability KW - dynamics KW - chemistry-transport-model Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51394 ER - TY - THES A1 - Strehmel, Nadine T1 - GC-TOF-MS basierte Analyse von niedermolekularen Primär- und Sekundärmetaboliten agrarwirtschaftlich bedeutsamer Nutzpflanzen T1 - GC-TOF-MS based metabolite profiling of low molecular weight primary and secondary metabolites of agricultural meaningful crops N2 - Die Qualität von Nutzpflanzen ist von zahlreichen Einflussfaktoren wie beispielsweise Lagerbedingungen und Sorteneigenschaften abhängig. Um Qualitätsmängel zu minimieren und Absatzchancen von Nutzpflanzen zu steigern sind umfangreiche Analysen hinsichtlich ihrer stofflichen Zusammensetzung notwendig. Chromatographische Techniken gekoppelt an ein Massenspektrometer und die Kernspinresonanzspektroskopie wurden dafür bislang verwendet. In der vorliegenden Arbeit wurde ein Gaschromatograph an ein Flugzeitmassenspektrometer (GC-TOF-MS) gekoppelt, um physiologische Prozesse bzw. Eigenschaften (die Schwarzfleckigkeit, die Chipsbräunung, das Physiologische Alter und die Keimhemmung) von Nutzpflanzen aufzuklären. Als Pflanzenmodell wurde dafür die Kartoffelknolle verwendet. Dazu wurden neue analytische Lösungsansätze entwickelt, die eine zielgerichtete Auswertung einer Vielzahl von Proben, die Etablierung einer umfangreichen Referenzspektrenbibliothek und die sichere Archivierung aller experimentellen Daten umfassen. Das Verfahren der Probenvorbereitung wurde soweit modifiziert, dass gering konzentrierte Substanzen mittels GC-TOF-MS analysiert werden können. Dadurch wurde das durch die Probenvorbereitung limitierte Substanzspektrum erweitert. Anhand dieser Lösungsansätze wurden physiologisch relevante Stoffwechselprodukte identifiziert, welche indikativ (klassifizierend) bzw. prädiktiv (vorhersagend) für die physiologischen Prozesse sind. Für die Schwarzfleckigkeitsneigung und die Chipseignung wurde jeweils ein biochemisches Modell zur Vorhersage dieser Prozesse aufgestellt und auf eine Züchtungspopulation übertragen. Ferner wurden für die Schwarzfleckigkeit Stoffwechselprodukte des Respirationsstoffwechsels identifiziert sowie Aminosäuren, Glycerollipide und Phenylpropanoide für das Physiologische Alter als relevant erachtet. Das physiologische Altern konnte durch die Anwendung höherer Temperaturen beschleunigt werden. Durch Anwendung von Keimhemmern (Kümmelöl, Chlorpropham) wurde eine Verzögerung des physiologischen Alterns beobachtet. Die Applikation von Kümmelöl erwies sich dabei als besonders vorteilhaft. Kümmelöl behandelte Knollen wiesen im Vergleich zu unbehandelten Knollen nur Veränderungen im Aminosäure-, Zucker- und Sekundärstoffwechsel auf. Chlorpropham behandelte Knollen wiesen einen ähnlichen Stoffwechsel wie die unbehandelten Knollen auf. Für die bislang noch nicht identifizierten Stoffwechselprodukte wurden im Rahmen dieser Arbeit das Verfahren der „gezielten An-/Abreicherung“, der „gepaarten NMR/GC-TOF-MS Analyse“ und das „Entscheidungsbaumverfahren“ entwickelt. Diese ermöglichen eine Klassifizierung von GC-MS Signalen im Hinblick auf ihre chemische Funktionalität. Das Verfahren der gekoppelten NMR/GC-TOF-MS Analyse erwies sich dabei als besonders erfolgversprechend, da es eine Aufklärung bislang unbekannter gaschromatographischer Signale ermöglicht. In der vorliegenden Arbeit wurden neue Stoffwechselprodukte in der Kartoffelknolle identifiziert, wodurch ein wertvoller Beitrag zur Analytik der Metabolomik geleistet wurde. N2 - Several factors influence the quality of crops. These include particular storage conditions and cultivar properties. Minimization of quality defects requires the employment of comprehensive metabolic analysis to enhance the marketing potential of crops. From this point of view chromatographic techniques coupled either with a mass spectrometer or the combination with nuclear magnetic resonance spectroscopy have been successfully applied to solve the main tasks. In the present work, a gas chromatograph was coupled to a time of flight mass spectrometer (GC-TOF-MS) to analyze physiological processes and attitudes of crops like black spot bruising, chips tanning, physiological aging, and sprouting inhibition. For this purpose the potato tuber was employed as a model plant. Therefore, new analytical approaches were developed comprising the targeted analysis of a multitude of samples, the establishment of a comprehensive mass spectral reference library and the built up of a secure archival storage system. Furthermore, the sample preparation protocol was modified to analyze trace components with the help of GC-TOF-MS as well. This helped to extend the discovery of more endogenous metabolites. These analytical approaches were required to identify physiological relevant indicative and predictive metabolites. Consequently, a biochemical model was build up for the process of black spot bruising and chips tanning respectively. These models could be applied to an unknown breeding progeny. Metabolites of the respiratory chain were identified as relevant for the process of black spot bruising whereas amino acids, lipids and phenylpropanoids were of high importance for the process of physiological aging.  The process of physiological aging could be accelerated while applying higher temperatures and could be delayed while applying sprouting inhibitors, like caraway oil and chlorpropham. Compared to chlorpropham, caraway oil exhibited more advantages with respect to storage attitudes although it caused significant changes in the amino acid, sugar and secondary metabolism during a common storage period. However, the chlorpropham treated tubers showed a similar phenotype in comparison to the control tubers. In addition, several methods were developed with respect to the classification of yet unidentified signals. These cover the decision tree process, the targeted enrichment and depletion of specific metabolites with the help of solid phase extraction and the paired NMR and GC-MS analyses. The paired NMR and GC-MS analysis appears very promising because it allows for the identification of unknown GC-MS signals. Thus, this work makes a valuable contribution to the analytics of the metabolome, as new metabolites could be identified which are of physiological relevance for the potato tuber. KW - Stoffwechselprodukt KW - Kartoffelknolle KW - Identifizierung KW - analytische Lösungsansätze KW - Biomarker KW - metabolite KW - potato tuber KW - identification KW - analytical approaches KW - biomarker Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51238 ER - TY - THES A1 - Brauer, Falk T1 - Extraktion und Identifikation von Entitäten in Textdaten im Umfeld der Enterprise Search T1 - Extraction and identification of entities in text data in the field of enterprise search N2 - Die automatische Informationsextraktion (IE) aus unstrukturierten Texten ermöglicht völlig neue Wege, auf relevante Informationen zuzugreifen und deren Inhalte zu analysieren, die weit über bisherige Verfahren zur Stichwort-basierten Dokumentsuche hinausgehen. Die Entwicklung von Programmen zur Extraktion von maschinenlesbaren Daten aus Texten erfordert jedoch nach wie vor die Entwicklung von domänenspezifischen Extraktionsprogrammen. Insbesondere im Bereich der Enterprise Search (der Informationssuche im Unternehmensumfeld), in dem eine große Menge von heterogenen Dokumenttypen existiert, ist es oft notwendig ad-hoc Programm-module zur Extraktion von geschäftsrelevanten Entitäten zu entwickeln, die mit generischen Modulen in monolithischen IE-Systemen kombiniert werden. Dieser Umstand ist insbesondere kritisch, da potentiell für jeden einzelnen Anwendungsfall ein von Grund auf neues IE-System entwickelt werden muss. Die vorliegende Dissertation untersucht die effiziente Entwicklung und Ausführung von IE-Systemen im Kontext der Enterprise Search und effektive Methoden zur Ausnutzung bekannter strukturierter Daten im Unternehmenskontext für die Extraktion und Identifikation von geschäftsrelevanten Entitäten in Doku-menten. Grundlage der Arbeit ist eine neuartige Plattform zur Komposition von IE-Systemen auf Basis der Beschreibung des Datenflusses zwischen generischen und anwendungsspezifischen IE-Modulen. Die Plattform unterstützt insbesondere die Entwicklung und Wiederverwendung von generischen IE-Modulen und zeichnet sich durch eine höhere Flexibilität und Ausdrucksmächtigkeit im Vergleich zu vorherigen Methoden aus. Ein in der Dissertation entwickeltes Verfahren zur Dokumentverarbeitung interpretiert den Daten-austausch zwischen IE-Modulen als Datenströme und ermöglicht damit eine weitgehende Parallelisierung von einzelnen Modulen. Die autonome Ausführung der Module führt zu einer wesentlichen Beschleu-nigung der Verarbeitung von Einzeldokumenten und verbesserten Antwortzeiten, z. B. für Extraktions-dienste. Bisherige Ansätze untersuchen lediglich die Steigerung des durchschnittlichen Dokumenten-durchsatzes durch verteilte Ausführung von Instanzen eines IE-Systems. Die Informationsextraktion im Kontext der Enterprise Search unterscheidet sich z. B. von der Extraktion aus dem World Wide Web dadurch, dass in der Regel strukturierte Referenzdaten z. B. in Form von Unternehmensdatenbanken oder Terminologien zur Verfügung stehen, die oft auch die Beziehungen von Entitäten beschreiben. Entitäten im Unternehmensumfeld haben weiterhin bestimmte Charakteristiken: Eine Klasse von relevanten Entitäten folgt bestimmten Bildungsvorschriften, die nicht immer bekannt sind, auf die aber mit Hilfe von bekannten Beispielentitäten geschlossen werden kann, so dass unbekannte Entitäten extrahiert werden können. Die Bezeichner der anderen Klasse von Entitäten haben eher umschreibenden Charakter. Die korrespondierenden Umschreibungen in Texten können variieren, wodurch eine Identifikation derartiger Entitäten oft erschwert wird. Zur effizienteren Entwicklung von IE-Systemen wird in der Dissertation ein Verfahren untersucht, das alleine anhand von Beispielentitäten effektive Reguläre Ausdrücke zur Extraktion von unbekannten Entitäten erlernt und damit den manuellen Aufwand in derartigen Anwendungsfällen minimiert. Verschiedene Generalisierungs- und Spezialisierungsheuristiken erkennen Muster auf verschiedenen Abstraktionsebenen und schaffen dadurch einen Ausgleich zwischen Genauigkeit und Vollständigkeit bei der Extraktion. Bekannte Regellernverfahren im Bereich der Informationsextraktion unterstützen die beschriebenen Problemstellungen nicht, sondern benötigen einen (annotierten) Dokumentenkorpus. Eine Methode zur Identifikation von Entitäten, die durch Graph-strukturierte Referenzdaten vordefiniert sind, wird als dritter Schwerpunkt untersucht. Es werden Verfahren konzipiert, welche über einen exakten Zeichenkettenvergleich zwischen Text und Referenzdatensatz hinausgehen und Teilübereinstimmungen und Beziehungen zwischen Entitäten zur Identifikation und Disambiguierung heranziehen. Das in der Arbeit vorgestellte Verfahren ist bisherigen Ansätzen hinsichtlich der Genauigkeit und Vollständigkeit bei der Identifikation überlegen. N2 - The automatic information extraction (IE) from unstructured texts enables new ways to access relevant information and analyze text contents, which goes beyond existing technologies for keyword-based search in document collections. However, the development of systems for extracting machine-readable data from text still requires the implementation of domain-specific extraction programs. In particular in the field of enterprise search (the retrieval of information in the enterprise settings), in which a large amount of heterogeneous document types exists, it is often necessary to develop ad-hoc program-modules and to combine them with generic program components to extract by business relevant entities. This is particularly critical, as potentially for each individual application a new IE system must be developed from scratch. In this work we examine efficient methods to develop and execute IE systems in the context of enterprise search and effective algorithms to exploit pre-existing structured data in the business context for the extraction and identification of business entities in documents. The basis of this work is a novel platform for composition of IE systems through the description of the data flow between generic and application-specific IE modules. The platform supports in particular the development and reuse of generic IE modules and is characterized by a higher flexibility as compared to previous methods. A technique developed in this work interprets the document processing as data stream between IE modules and thus enables an extensive parallelization of individual modules. The autonomous execution of each module allows for a significant runtime improvement for individual documents and thus improves response times, e.g. for extraction services. Previous parallelization approaches focused only on an improved throughput for large document collections, e.g., by leveraging distributed instances of an IE system. Information extraction in the context of enterprise search differs for instance from the extraction from the World Wide Web by the fact that usually a variety of structured reference data (corporate databases or terminologies) is available, which often describes the relationships among entities. Furthermore, entity names in a business environment usually follow special characteristics: On the one hand relevant entities such as product identifiers follow certain patterns that are not always known beforehand, but can be inferred using known sample entities, so that unknown entities can be extracted. On the other hand many designators have a more descriptive character (concatenation of descriptive words). The respective references in texts might differ due to the diversity of potential descriptions, often making the identification of such entities difficult. To address IE applications in the presence of available structured data, we study in this work the inference of effective regular expressions from given sample entities. Various generalization and specialization heuristics are used to identify patterns at different syntactic abstraction levels and thus generate regular expressions which promise both high recall and precision. Compared to previous rule learning techniques in the field of information extraction, our technique does not require any annotated document corpus. A method for the identification of entities that are predefined by graph structured reference data is examined as a third contribution. An algorithm is presented which goes beyond an exact string comparison between text and reference data set. It allows for an effective identification and disambiguation of potentially discovered entities by exploitation of approximate matching strategies. The method leverages further relationships among entities for identification and disambiguation. The method presented in this work is superior to previous approaches with regard to precision and recall. KW - Informationsextraktion KW - Enterprise Search KW - Parallele Datenverarbeitung KW - Grammatikalische Inferenz KW - Graph-basiertes Ranking KW - information extraction KW - enterprise search KW - multi core data processing KW - grammar inference KW - graph-based ranking Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51409 ER - TY - THES A1 - Wegerich, Franziska T1 - Engineered human cytochrome c : investigation of superoxide and protein-protein interaction and application in bioelectronic systems T1 - Gentechnisch verändertes humanes Cytochrom c :Untersuchungen von Superoxid und Protein-Protein-Interaktionen sowie der Anwendung in bioelektronischen Systemen N2 - The aim of this thesis is the design, expression and purification of human cytochrome c mutants and their characterization with regard to electrochemical and structural properties as well as with respect to the reaction with the superoxide radical and the selected proteins sulfite oxidase from human and fungi bilirubin oxidase. All three interaction partners are studied here for the first time with human cyt c and with mutant forms of cyt c. A further aim is the incorporation of the different cyt c forms in two bioelectronic systems: an electrochemical superoxide biosensor with an enhanced sensitivity and a protein multilayer assembly with and without bilirubin oxidase on electrodes. The first part of the thesis is dedicated to the design, expression and characterization of the mutants. A focus is here the electrochemical characterization of the protein in solution and immobilized on electrodes. Further the reaction of these mutants with superoxide was investigated and the possible reaction mechanisms are discussed. In the second part of the work an amperometric superoxide biosensor with selected human cytochrome c mutants was constructed and the performance of the sensor electrodes was studied. The human wild-type and four of the five mutant electrodes could be applied successfully for the detection of the superoxide radical. In the third part of the thesis the reaction of horse heart cyt c, the human wild-type and seven human cyt c mutants with the two proteins sulfite oxidase and bilirubin oxidase was studied electrochemically and the influence of the mutations on the electron transfer reactions was discussed. Finally protein multilayer electrodes with different cyt form including the mutant forms G77K and N70K which exhibit different reaction rates towards BOD were investigated and BOD together with the wild-type and engineered cyt c was embedded in the multilayer assembly. The relevant electron transfer steps and the kinetic behavior of the multilayer electrodes are investigated since the functionality of electroactive multilayer assemblies with incorporated redox proteins is often limited by the electron transfer abilities of the proteins within the multilayer. The formation via the layer-by-layer technique and the kinetic behavior of the mono and bi-protein multilayer system are studied by SPR and cyclic voltammetry. In conclusion this thesis shows that protein engineering is a helpful instrument to study protein reactions as well as electron transfer mechanisms of complex bioelectronic systems (such as bi-protein multilayers). Furthermore, the possibility to design tailored recognition elements for the construction of biosensors with an improved performance is demonstrated. N2 - Ziel dieser Arbeit ist es genetisch veränderte Formen von humanem Cytochrom c herzustellen und diese einerseits hinsichtlich der Reaktion mit dem Sauerstoff-Radikal Superoxid aber auch mit anderen Proteinen zu untersuchen. Zusätzlich sollen die verschiedenen Protein-Mutanten in neuartige bioelektronische Systeme eingebracht werden. Es wurden insgesamt 20 Cytochrome c Mutanten designt, rekombinant exprimiert und aufgereinigt. Es konnte in dieser Arbeit gezeigt werden, dass sich die Reaktion von Cytochrom c mit dem negativ geladenen Superoxid durch gezielte Mutationen, die zusätzliche positive Ladungen in das Molekül bringen, um bis zu 30 % erhöhen lässt. Es wurde aber auch deutlich, dass andere Eigenschaften des Proteins sowie dessen Struktur durch die Mutationen geändert werden können. Cytochrom c Mutanten mit einer erhöhten Reaktionsrate mit Superoxid konnten erfolgreich in einen Superoxid-Biosensor mit erhöhter Sensitivität eingebracht werden. Weiterhin wurde einige Mutanten hinsichtlich Ihrer Interaktion mit den zwei Enzymen Sulfitoxidase und Bilirubinoxidase untersucht. Hier konnten ebenfalls unterschiedliche Reaktivitäten festgestellt werden. Schließlich wurden ausgewählte Protein-Varianten mit und ohne den zuvor untersuchten Enzymen in ein Multischicht-Elektroden-System eingebettet und dessen kinetisches Verhalten untersucht. Es wurde gefunden, dass die Schnelligkeit mit der Cytochrom c mit sich selbst Elektronen austauschen kann, eine Limitierung der Größenordnung der katalytischen Ströme darstellt. Diese Selbstaustausschrate wurde durch die eingeführten Mutationen verändert. So verdeutlicht diese Arbeit, dass „Protein-Engineering“ ein gutes Hilfsmittel sein kann, um einerseits Proteinreaktionen und komplexe Elektronentransferreaktionen in Multischichten zu untersuchen, aber auch ein potentes Werkzeug darstellt mit dem zugeschnittene Biokomponenten für Sensoren mit erhöhter Leistungsfähigkeit generiert werden können. KW - Cytochrom c KW - Protein-Engineering KW - Elektrochemie KW - Biosensor KW - Superoxid KW - cytochrome c KW - protein engineering KW - electrochemistry KW - biosensor KW - superoxide Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50782 ER - TY - THES A1 - Berger, Anja T1 - Entwicklung und Validierung eines Inventars zur Erfassung positiver und negativer Attribute des Geschlechtsrollenselbstkonzepts T1 - Development and validation of a gender role inventory with positive and negative attributes N2 - Das Geschlechtsrollenselbstkonzept, das sich im Laufe der Sozialisation in Auseinandersetzung mit den vorherrschenden Vorstellungen der umgebenden Kultur entwickelt, steht in Beziehung zu Affekten, Kognitionen und Verhaltensweisen in einer Vielzahl von Bereichen. Bisherige GSK-Instrumente messen jedoch nahezu ausschließlich den positiven Aspekt von Maskulinität und Femininität. Die Definition des allgemeinen Selbstkonzepts gibt diese Limitierung auf positive Valenz nicht vor, und aus gesundheitspsychologischer Sicht sowie der Gruppenforschung ist die Bedeutung negativer Eigenschaften zur Selbstbeschreibung bekannt. Vor diesem Hintergrund wurden sieben aufeinander aufbauende Studien durchgeführt mit dem Ziel ein neues Instrument zu entwickeln, deren Items zum einen kulturell aktuellen Eigenschaften zur Selbstbeschreibung entsprechen und zum anderen die Valenzunterschiede dieser Merkmalsbeschreibungen berücksichtigen. Nach einer kritischen empirischen Überprüfung des deutschen BSRI, um Schwächen der Items ausschließlich positiver Valenz aufzudecken, wurde eine neue Skala entwickelt, die von Beginn an auch negative Selbstbeschreibungen berücksichtigte um der Komplexität des geschlechtlichen Selbst gerecht zu werden. Aufgrund der Einschätzungen zur Typizität und sozialen Erwünschtheit sowie mit ersten Resultaten aus der Selbstbeschreibung wurde die Auswahl der Items für die Teilskalen vorgenommen. In zwei weiteren Studien wurden schließlich die vier neu entwickelten Teilskalen des neuen GSK-Inventars einer Validierung unterzogen. Jeder der Teilskalen wurden theoriegeleitet spezifische Konstrukte zugeordnet und es konnte nachgewiesen werden, dass alle Teilskalen ihren eigenen Beitrag zur Vorhersage psychologischer Konzepte leisten können. So standen beispielsweise die negativen maskulinen Eigenschaften in engerer Beziehung zu Aggressivität und machtbezogenen Werten als die positiven Aspekte der Maskulinität. Als Ergebnis dieser Entwicklung stehen am Ende vier kurze, unabhängige, reliable Teilskalen, die positive als auch negative Aspekte von Maskulinität und Femininität abbilden und mittels sehr unterschiedlicher psychologischer Erlebens- und Verhaltenskonstrukte validiert wurden, die die Unabhängigkeit der Skalen belegen und diese für einen Einsatz in der Forschung empfehlen. Die Einführung einer individuellen Wertkomponente im Zuge der Selbstbeschreibung, angelehnt an das bekannte Erwartungs-mal-Wert Modell der Motivations- und Einstellungsforschung, und die daraus mögliche multiplikative Verknüpfung von Selbsteinschätzung und persönlicher Wichtigkeit der Eigenschaften konnten den Aufklärungswert in Bezug auf unterschiedliche Validierungskonstrukte dagegen nicht verbessern und wurden daher nicht ins das Instrument integriert. N2 - The gender role self concept - developed throughout one’s socialisation - has strong relations to a number of affects, cognitions and behaviours. Instruments to asses that part of the self have yet only relied on mostly positive aspects of masculinity and femininity. However, the definition of the self concept is not limited to that kind of merely positive valence, and from health psychology as well as group research the relevance of negative traits for self description is known and proven. Hence, in a series of seven studies, new items were developed that reflect actual cultural descriptions of masculinity and femininity including both, traits of positive and negative valence. Following a critical reflection of the German BSRI, to once more identify its weaknesses of positive scales only, four new scales are introduced, based on evaluations of typicality and social desirability. In two studies those four scales were allocated to specific psychological constructs of emotions and behaviours. It was shown that each single scale has its own relevance regarding the gendered self in prediction of validation constructs: negative masculine traits e.g. had a stronger relationship to aggression and power compared to positive aspects of masculinity. The result of that development and validation process are four short, independent, and reliable scales, that reflect positive as well as negative aspects of masculinity and femininity. The introduction of an individual importance measure as part of the self description - comparable to the expectation-value-model in motivation and attitude research - could not add any predictive power in the validation process and therefore will not be included in the final instrument. KW - Geschlechtsrollenselbstkonzept KW - Maskulinität KW - Femininität KW - PoNeGri KW - Selbstzuschreibung KW - Gender role stereotypes KW - masculinity KW - femininity Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51215 ER - TY - THES A1 - Götze, Jan Philipp T1 - Influence of protein and solvent environments on quantum chemical properties of photosynthesis enzymes and photoreceptors T1 - Einfluss von Protein- und Lösungsmittelumgebungen auf quantenchemische Eigenschaften von Photosynthese-Enzymen und -Photorezeptoren N2 - This thesis contains quantum chemical models and force field calculations for the RuBisCO isotope effect, the spectral characteristics of the blue-light sensor BLUF and the light harvesting complex II. The work focuses on the influence of the environment on the corresponding systems. For RuBisCO, it was found that the isotopic effect is almost unaffected by the environment. In case of the BLUF domain, an amino acid was found to be important for the UV/vis spectrum, but unaccounted for in experiments so far (Ser41). The residue was shown to be highly mobile and with a systematic influence on the spectral shift of the BLUF domain chromophore (flavin). Finally, for LHCII it was found that small changes in the geometry of a Chlorophyll b/Violaxanthin chromophore pair can have strong influences regarding the light harvesting mechanism. Especially here it was seen that the proper description of the environment can be critical. In conclusion, the environment was observed to be of often unexpected importance for the molecular properties, and it seems not possible to give a reliable estimate on the changes created by the presence of the environment. N2 - Diese Arbeit beinhaltet quantenchemische und molekularmechanische Modelle zum Isotopeneffekt des Enzyms RuBisCO, der spektralen Charakterisierung des Blaulicht-Rezeptors BLUF und dem Lichtsammelkomplex II (LHCII). Es wurden vor allem die Einflüsse der Umgebung auf die entsprechenden Systeme untersucht. Für RuBisCO wurde gefunden, dass der Isotopeneffekt nur marginal von der Umgebung abhängt. Im Falle der BLUF Domäne wurde eine Aminosäure charakterisiert (Ser41), die bis dato experimentell noch nicht beschrieben war. Es wurde festgestellt, dass Ser41 hochmobil ist und einen systematischen Einfluss auf die spektrale Verschiebung des BLUF Chromophors (Flavin) hat. Schließlich wurde bei LHCII festgestellt, dass kleine Veränderungen in der Geometrie eines Chlorophyll b/Violaxanthin Chromophorenpaares bereits massive Einflüsse auf den Mechanismus des Lichtsammelprozesses haben können. Insbesondere hier zeigt sich, wie kritisch die genaue Beschreibung der Umgebung ist. Zusammenfassend wurde beobachtet, dass sich die Umgebung in oft unerwarteter Weise auf die molekularen Eigenschaften auswirken kann und es daher nicht möglich zu sein scheint, die entsprechenden Effekte vorher abzuschätzen. KW - Photosynthese KW - Molekülmodelle KW - RuBisCO KW - LHCII KW - Blaulichtsensoren KW - Photosynthesis KW - molecular modeling KW - RuBisCO KW - LHCII KW - Blue-light sensors Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51135 ER - TY - THES A1 - Kummer, Michael T1 - Die Fußballclubs Rot-Weiß Erfurt und Carl Zeiss Jena und ihre Vorgänger in der DDR : ein Vergleich ihrer Bedingungen T1 - The football clubs Rot-Weiss Erfurt and Carl Zeiss Jena and its predecessors in the GDR : a comparison of their conditions N2 - Der SC Motor/FC Carl Zeiss Jena war seit Ende der 50-er Jahre bis in die 80-er Jahre hinein ein vom DFV der DDR und vom DTSB immer wieder benannter und bestätigter Schwerpunktclub innerhalb der sogenannten zivilen Clubs. Der SC Turbine/FC Rot-Weiß Erfurt konnte diesen Status innerhalb des Fußballverbands dagegen nie erreichen. Die zentrale Frage dieser Dissertation nach den spezifischen Bedingungsgefügen des zivilen Schwerpunktclubs FC Carl Zeiss Jena (und Vorgänger) und des zivilen Nichtschwerpunktclubs FC Rot-Weiß Erfurt (und Vorgänger) im DDR-Fußballsystem ergab sich aus dieser unterschiedlichen Privilegierung und den ungleichen Erfolgsbilanzen dieser beiden Clubs. Die Hypothese der komparativ angelegten Fallstudie vermutete einen unmittelbaren Zusammenhang zwischen diesen deutlich sichtbaren Erfolgsunterschieden der beiden Mannschaften in der DDR und den erfolgten Schwerpunktfestlegungen. Zusätzlich konnte vermutet werden, dass ein beträchtlicher Anteil an den Jenaer Erfolgen auf die besonders starke Unterstützung des wirtschaftlich mächtigen VEB Carl Zeiss Jena zurückzuführen war. Um diesen Zusammenhängen nachzugehen, fragte der Autor nach den konkreten Bevorzugungen des Jenaer Schwerpunktclubs und den Benachteiligungen des Erfurter Nichtschwerpunktclubs und nach den spezifischen Bedingungen und Handlungsspielräumen der beiden Thüringer Mannschaften in der DDR. Daraus ergaben sich eine Reihe von detaillierten, auf einen Vergleich der verschiedenen Bedingungen in Erfurt und in Jena hin orientierte, Fragen, welche in der vorliegenden Untersuchung detailliert beantwortet werden: Wie sah die besondere Förderung des DFV bzw. des DTSB für einen Schwerpunktclub wie Jena überhaupt aus? Wer nahm Einfluss auf die Clubs, von wem waren diese abhängig, wer förderte sie durch welche Leistungen? Wie wurden diese Beschlüsse vor Ort umgesetzt? Wer waren die Trägerbetriebe und in welchem Maße und wodurch engagierten sich diese für den Fußball in Erfurt und Jena? Wie kamen die häufigen Wechsel der besten Spieler Erfurts nach Jena zustande? Warum war die Richtung dieser Wechsel insgesamt einseitig in Richtung Jena? Welche finanziellen, materiellen und sozialen Bedingungen konnten den Spielern in Jena und Erfurt geboten werden? Die vorliegenden Ergebnisse dieser erstmals für die zivilen Clubs auf der Mikroperspektive angelegten systematischen Untersuchung bestätigen das bereits von Hans Joachim Teichler als grundlegend für den DDR-Fußball beschriebene Konfliktmuster des „Fußball-Lokalpatriotismus versus Parteiräson“. Eigenmächtige Handlungen vieler Betriebsleiter und zahlreicher Partei- und Gewerkschaftsfunktionäre in den Trägerbetrieben konnten beispielsweise in Erfurt bei der eigenmächtigen Erhöhung der Aufnahmezahlen von Fußballern an die KJS Erfurt oder in Jena bei der Anstellung der Fußballer im Zeisswerk nachgewiesen werden. Das am sowjetischen Vorbild orientierte Sportsystem der DDR mit seinen engen Bindungen an die Trägerbetriebe provozierte geradezu verdeckte Zuwendungen der Betriebe, die über die Clubs an die Spieler weitergereicht wurden. Für die zentralen Instanzen des DDR-Fußballs war das ein Dauerproblem, weil sich damit ein Großteil der Vorgänge vor Ort der Steuerung entzog. Wie in der vorliegenden Arbeit beschrieben wird, war genau dies jedoch der Schlüssel für den Erfolg des SC Motor/FC Carl Zeiss Jena vom Ende der 50-er bis in den Anfang der 80-er Jahre bzw. für den vergleichsweisen Misserfolg des SC Turbine/FC Rot-Weiß Erfurt im gleichen Zeitraum. Dass letztlich die finanziellen, materiellen und sozialen Möglichkeiten die entscheidende Gründe für die Spieler waren, zu einem anderen Club oder einer BSG zu wechseln, mithin demnach Marktmechanismen, und hier in erster Linie der Grund für die Stärke des SC Motor/FC Carl Zeiss Jena zu suchen ist, ist eine zentrale Erkenntnis dieser Arbeit. N2 - The SC Motor/FC Carl Zeiss Jena was in the late 50's to the 80's one of the DFV der DDR and of the DTSB repeatedly nominated and confirmed priority club within the so-called civilian clubs. The SC Turbine/FC Rot-Weiss Erfurt could never reach this status within the Football Association. The central question of this thesis to the specific structure of conditions of the civilian priority club FC Carl Zeiss Jena (and earlier) and of the civilian non-focal clubs FC Rot-Weiss Erfurt (and earlier) in the East German football system resulted from these different privileges, and the uneven track records of these two clubs. The hypothesis of the comparative case study to suspected a direct relationship between these highly visible success differences between the two teams in the East and made the key requirements. Additionally it was suggested that a significant proportion of the Jena successes to the particularly strong support of the economically powerful VEB Carl Zeiss Jena was due. To investigate these relationships, the author asked about the specific preferences of the Jena focal club and the disadvantages of the Erfurt non-focal clubs and on the specific conditions and scope for action of the two Thuringian teams in the GDR. This resulted in a series of detailed, based on a comparison of the different conditions in Erfurt and Jena out questions that are answered in detail in this study: What was the specific support of the DFV or the DTSB for a priority club like Jena at all from? Who took effect on the club, by whom they were dependent on who they supported by what is included? How these decisions were implemented on site? Who were the carrier companies and to what extent and how dedicated these for football in Erfurt and Jena? How did the frequent change of the best players reached Erfurt in Jena? Why was the overall direction of these changes unilaterally in the direction of Jena? What financial, material and social conditions were the players in Jena and Erfurt are offered? The present results of this first time to the civilian clubs at the micro-perspective scale systematic study to confirm the already by Hans Joachim Teichler as fundamental to the East German football described patterns of conflict of "Football local patriotism versus party argue." Unauthorized actions of many managers and many party and union officials in the support operations for example, could be detected in Erfurt at the arbitrary increase in the numbers of pictures of football players at the KJS Erfurt in Jena or to the appointing of the footballers in the Zeiss factory. The Soviet model based on the GDR sports system provoked by his close ties to the carrier companies almost hidden benefits of companies that have been passed down through the clubs to the players. For the central authorities of the East German football was a constant problem because it deprived a large part of the operations of local control. As described in the present work, exactly that was, however, the key to the success of the SC Motor/FC Carl Zeiss Jena of the late 50's until the early 80's and for the comparative failure of the SC Turbine/FC Rot-Weiss Erfurt in the same period. That were the financial, physical and social opportunities the key reason for the players, ultimately, to move to another club or BSG, consequently, therefore market mechanisms, and this is primarily the reason for the strength of the SC Motor/FC Carl Zeiss Jena looking for is is a central finding of this study. KW - DDR-Fußball KW - FC Rot-Weiß Erfurt KW - FC Carl Zeiss Jena KW - Turbine Erfurt KW - Motor Jena KW - GDR-football KW - FC Rot-Weiss Erfurt KW - FC Carl Zeiss Jena KW - Turbine Erfurt KW - Motor Jena Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51065 ER - TY - THES A1 - Blum, Niklas T1 - Formalization of a converged internet and telecommunications service environment T1 - Formalisierung einer konvergenten Telekommunikations- undInternet-Dienstumgebung N2 - The programmable network envisioned in the 1990s within standardization and research for the Intelligent Network is currently coming into reality using IPbased Next Generation Networks (NGN) and applying Service-Oriented Architecture (SOA) principles for service creation, execution, and hosting. SOA is the foundation for both next-generation telecommunications and middleware architectures, which are rapidly converging on top of commodity transport services. Services such as triple/quadruple play, multimedia messaging, and presence are enabled by the emerging service-oriented IPMultimedia Subsystem (IMS), and allow telecommunications service providers to maintain, if not improve, their position in the marketplace. SOA becomes the de facto standard in next-generation middleware systems as the system model of choice to interconnect service consumers and providers within and between enterprises. We leverage previous research activities in overlay networking technologies along with recent advances in network abstraction, service exposure, and service creation to develop a paradigm for a service environment providing converged Internet and Telecommunications services that we call Service Broker. Such a Service Broker provides mechanisms to combine and mediate between different service paradigms from the two domains Internet/WWW and telecommunications. Furthermore, it enables the composition of services across these domains and is capable of defining and applying temporal constraints during creation and execution time. By adding network-awareness into the service fabric, such a Service Broker may also act as a next generation network-to-service element allowing the composition of crossdomain and cross-layer network and service resources. The contribution of this research is threefold: first, we analyze and classify principles and technologies from Information Technologies (IT) and telecommunications to identify and discuss issues allowing cross-domain composition in a converging service layer. Second, we discuss service composition methods allowing the creation of converged services on an abstract level; in particular, we present a formalized method for model-checking of such compositions. Finally, we propose a Service Broker architecture converging Internet and Telecom services. This environment enables cross-domain feature interaction in services through formalized obligation policies acting as constraints during service discovery, creation, and execution time. N2 - Das programmierbare Netz, das Ende des 20. Jahrhunderts in der Standardisierung und Forschung für das Intelligente Netz entworfen wurde, wird nun Realität in einem auf das Internet Protokoll basierendem Netz der nächsten Generation (Next Generation Network). Hierfür kommen Prinzipien aus der Informationstechnologie, insbesondere aus dem Bereich dienstorientierte Architekturen (Service-Oriented Architecture / SOA) für die Diensterstellung, -ausführung und -betrieb zum Tragen. SOA bietet hierbei die theoretische Grundlage für Telekommunikationsnetze, vor allem jedoch für die dazugehörigen Dienstplattformen. Diese erlauben dem Telekommunikationsbetreiber seine Position in einem offenen Marktplatz der Dienste auszubauen. Dazu bedarf es allerdings möglichst flexibler Dienstumgebungen, die die Kooperation zwischen Dienstanbietern und Nutzern aus unterschiedlichsten Domänen durch Unterstützung geeigneter Werkzeuge und Mechanismen fördert. Im Rahmen dieser Dissertation definieren wir aufbauend auf Forschungsergebnisse im Bereich Overlay-Netze, Netzabstraktion und Zugriff auf exponierte Dienste eine Service Broker genannte Dienstumgebung für konvergente Internet- und Telekommunikationsdienste. Dieser Service Broker stellt Mechanismen für die Komposition von Diensten und Mediation zwischen unterschiedlichen Dienstparadigmen und Domänenspezifika beim Dienstaufruf zur Verfügung. Der Forschungsbeitrag dieser Arbeit findet auf unterschiedlichen Ebenen statt: Aufbauend auf einer Analyse und Klassifikation von Technologien und Paradigmen aus den Bereichen Informationstechnologie (IT) und Telekommunikation diskutieren wir die Problemstellung der Kooperation von Diensten und deren Komposition über Domänengrenzen hinweg. In einem zweiten Schritt diskutieren wir Methoden der Dienstkomposition und präsentieren eine formalisierte Methode der modellbasierten Diensterstellung. Der Schwerpunkt der Arbeit liegt auf der Spezifikation der Service Broker Dienstumgebung und einem zugrundeliegenden Informations- und Datenmodell. Diese Architektur erlaubt die Komposition und Kooperation von Diensten über Domänengrenzen hinweg, um konvergente Internet- und Telekommunikationsdienste zu realisieren. Hierfür wird ein auf Obligationspolitiken basierendes Regelsystemformalisiert, das Interaktionen zwischen Dienstmerkmalen während der Diensterstellung und -ausführung definiert. KW - Telekommunikation KW - konvergente Dienste KW - Next Generation Network KW - Dienstplattform KW - Dienstkomposition KW - Service Delivery Platform KW - Next Generation Network KW - Service Creation KW - Service convergence KW - Policy Enforcement Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51146 ER - TY - THES A1 - Shirzaei, Manoochehr T1 - Crustal deformation source monitoring using advanced InSAR time series and time dependent inverse modeling T1 - Monitoring der Quellen von Krustendeformationen mit Hilfe modernster InSAR Zeitreihen und zeitabhängiger inverser Modellierung N2 - Crustal deformation can be the result of volcanic and tectonic activity such as fault dislocation and magma intrusion. The crustal deformation may precede and/or succeed the earthquake occurrence and eruption. Mitigating the associated hazard, continuous monitoring of the crustal deformation accordingly has become an important task for geo-observatories and fast response systems. Due to highly non-linear behavior of the crustal deformation fields in time and space, which are not always measurable using conventional geodetic methods (e.g., Leveling), innovative techniques of monitoring and analysis are required. In this thesis I describe novel methods to improve the ability for precise and accurate mapping the spatiotemporal surface deformation field using multi acquisitions of satellite radar data. Furthermore, to better understand the source of such spatiotemporal deformation fields, I present novel static and time dependent model inversion approaches. Almost any interferograms include areas where the signal decorrelates and is distorted by atmospheric delay. In this thesis I detail new analysis methods to reduce the limitations of conventional InSAR, by combining the benefits of advanced InSAR methods such as the permanent scatterer InSAR (PSI) and the small baseline subsets (SBAS) with a wavelet based data filtering scheme. This novel InSAR time series methodology is applied, for instance, to monitor the non-linear deformation processes at Hawaii Island. The radar phase change at Hawaii is found to be due to intrusions, eruptions, earthquakes and flank movement processes and superimposed by significant environmental artifacts (e.g., atmospheric). The deformation field, I obtained using the new InSAR analysis method, is in good agreement with continuous GPS data. This provides an accurate spatiotemporal deformation field at Hawaii, which allows time dependent source modeling. Conventional source modeling methods usually deal with static deformation field, while retrieving the dynamics of the source requires more sophisticated time dependent optimization approaches. This problem I address by combining Monte Carlo based optimization approaches with a Kalman Filter, which provides the model parameters of the deformation source consistent in time. I found there are numerous deformation sources at Hawaii Island which are spatiotemporally interacting, such as volcano inflation is associated to changes in the rifting behavior, and temporally linked to silent earthquakes. I applied these new methods to other tectonic and volcanic terrains, most of which revealing the importance of associated or coupled deformation sources. The findings are 1) the relation between deep and shallow hydrothermal and magmatic sources underneath the Campi Flegrei volcano, 2) gravity-driven deformation at Damavand volcano, 3) fault interaction associated with the 2010 Haiti earthquake, 4) independent block wise flank motion at the Hilina Fault system, Kilauea, and 5) interaction between salt diapir and the 2005 Qeshm earthquake in southern Iran. This thesis, written in cumulative form including 9 manuscripts published or under review in peer reviewed journals, improves the techniques for InSAR time series analysis and source modeling and shows the mutual dependence between adjacent deformation sources. These findings allow more realistic estimation of the hazard associated with complex volcanic and tectonic systems. N2 - Oberflächendeformationen können eine Folge von vulkanischen und tektonischen Aktivitäten sein, wie etwa Plattenverschiebungen oder Magmaintrusion. Die Deformation der Erdkruste kann einem Erdbeben oder einem Vulkanausbruch vorausgehen und/oder folgen. Um damit drohende Gefahren für den Menschen zu verringern, ist die kontinuierliche Beobachtung von Krustendeformationen eine wichtige Aufgabe für Erdobservatorien und Fast-Responce-Systems geworden. Auf Grund des starken nicht-linearen Verhaltens von Oberflächendeformationsgebiet in Zeit und Raum, die mit konventionellen Methoden nicht immer erfasst werden (z.B., Nivellements), sind innovative Beobachtungs- und Analysetechniken erforderlich. In dieser Dissertation beschreibe ich Methoden, welche durch Mehrfachbeobachtungen der Erdoberfläche nit satellitengestützem Radar eine präzise und akkurate Abbildung der raumzeitlichen Oberflächendeformationen ermöglichen. Um die Bildung und Entwicklung von solchen raumzeitlichen Deformationsgebieten besser zu verstehen, zeige ich weiterhin neuartige Ansätze zur statischen und zeitabhängigen Modellinversion. Radar-Interferogramme weisen häufig Gebiete auf, in denen das Phasensignal dekorreliert und durch atmosphärische Laufzeitverzögerung verzerrt ist. In dieser Arbeit beschreibe ich wie Probleme des konventionellen InSAR überwunden werden können, indem fortgeschrittene InSAR-Methoden, wie das Permanent Scatterer InSAR (PSI) und Small Baseline Subsets (SBAS), mit einer Wavelet-basierten Datenfilterung verknüpft werden. Diese neuartige Analyse von InSAR Zeitreihen wird angewendet, um zum Beispiel nicht-lineare Deformationsprozesse auf Hawaii zu überwachen. Radar-Phasenänderungen, gemessen auf der Pazifikinsel, beruhen auf Magmaintrusion, Vulkaneruption, Erdbeben und Flankenbewegungsprozessen, welche durch signifikante Artefakte (z.B. atmosphärische) überlagert werden. Mit Hilfe der neuen InSAR-Analyse wurde ein Deformationsgebiet ermittelt, welches eine gute Übereinstimmung mit kontinuierlich gemessenen GPS-Daten aufweist. Auf der Grundlage eines solchen, mit hoher Genauigkeit gemessenen, raumzeitlichen Deformationsgebiets wird für Hawaii eine zeitabhängige Modellierung der Deformationsquelle ermöglicht. Konventionelle Methoden zur Modellierung von Deformationsquellen arbeiten normalerweise mit statischen Daten der Deformationsgebiete. Doch um die Dynamik einer Deformationsquelle zu untersuchen, sind hoch entwickelte zeitabhängige Optimierungsansätze notwendig. Dieses Problem bin ich durch eine Kombination von Monte-Carlo-basierten Optimierungsansätzen mit Kalman-Filtern angegangen, womit zeitlich konsistente Modellparameter der Deformationquelle gefunden werden. Ich fand auf der Insel Hawaii mehrere, raumzeitlich interagierende Deformationsquellen, etwa Vulkaninflation verknüpft mit Kluftbildungen und Veränderungen in bestehenden Klüften sowie zeitliche Korrelationen mit stillen Erdbeben. Ich wendete die neuen Methoden auf weitere tektonisch und vulkanisch aktive Gebiete an, wo häufig die eine Interaktion der Deformationsquellen nachgewiesen werden konnte und ihrer bedeutung untersucht wurde. Die untersuchten Gebiete und Deformationsquellen sind 1) tiefe und oberflächliche hydrothermale und magmatische Quellen unterhalb des Campi Flegrei Vulkans, 2) gravitationsbedingte Deformationen am Damawand Vulkan, 3) Störungsdynamik in Verbindung mit dem Haiti Beben im Jahr 2010, 4) unabhängige blockweise Flankenbewegung an der Hilina Störungszone, und 5) der Einfluss eines Salzdiapirs auf das Qeshm Erdbeben im Süd-Iran im Jahr 2005. Diese Dissertation, geschrieben als kumulative Arbeit von neun Manuskripten, welche entweder veröffentlicht oder derzeit in Begutachtung bei ‘peer-review’ Zeitschriften sind, technische Verbesserungen zur Analyse von InSAR Zeitreihen vor sowie zur Modellierung von Deformationsquellen. Sie zeigt die gegenseitige Beeinflussung von benachbarten Deformationsquellen, und sie ermöglicht, realistischere Einschätzungen von Naturgefahren, die von komplexen vulkanischen und tektonischen Systemen ausgehen. KW - InSAR KW - Vulkan KW - Erdbeben KW - inverse Modellierung KW - InSAR KW - Vulcano KW - earthquake KW - inverse modeling Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50774 ER - TY - THES A1 - Frohwerk, Sascha T1 - Asymmetrien in der Neuen Ökonomischen Geographie T1 - Asymmetries in new economic geography BT - Modelle, Simulationsmethoden und wirtschaftspolitische Diskussion BT - models, simulation methods and economic discussion T2 - Potsdamer Schriften zur Raumwirtschaft N2 - Die Neue Ökonomische Geographie (NEG) erklärt Agglomerationen aus einem mikroökonomischen Totalmodell heraus. Zur Vereinfachung werden verschiedene Symmetrieannahmen getätigt. So wird davon ausgegangen, dass die betrachteten Regionen die gleiche Größe haben, die Ausgabenanteile für verschiedene Gütergruppen identisch sind und die Transportkosten für alle Industrieprodukte die selben sind. Eine Folge dieser Annahmen ist es, dass zwar erklärt werden kann, unter welchen Bedingungen es zur Agglomerationsbildung kommt, nicht aber wo dies geschieht. In dieser Arbeit werden drei Standardmodelle der NEG um verschiedene Asymmetrien erweitert und die Veränderung der Ergebnisse im Vergleich zum jeweiligen Basismodell dargestellt. Dabei wird neben der Theorie auf die Methoden der Simulation eingegangen, die sich grundsätzlich auf andere Modelle übertragen lassen. Darauf aufbauend wird eine asymmetrische Modellvariante auf die wirtschaftliche Entwicklung Deutschlands angewandt. So lässt sich das Ausbleiben eines flächendeckenden Aufschwungs in den neuen Ländern, die starken Wanderungsbewegungen in die alten Länder und das dauerhafte Lohnsatzgefälle in einem Totalmodell erklären. N2 - The new economic geography explains agglomerations based on a microeconomic general equilibrium model, witch is usually assumed to be symmetric in the sense, that regions are of the same size and transport costs and expenditure shares are the same. As a result, the models can explain why an agglomeration occurs, but not in witch region. This book modifies three of the most influential models of the new economic geography and assumes various asymmetries. It compares the results to the symmetric cases. Not only theoretical aspects but also methods of simulation are discussed in detail. This methods can be applied to a wide variety of models. To show the political implications of the theoretical results, one of the asymmetric models is applied to the economical development in germany after reunification. The model is able to explain the persistent difference in wages between east and west and the simultaneous incomplete agglomeration in the west. T3 - Potsdamer Schriften zur Raumwirtschaft - 3 KW - Neue Ökonomische Geographie KW - Simulationsmethoden KW - Agglomeration KW - Regionale Entwicklung KW - new economic geography KW - methods of simulation KW - agglomeration KW - regional development Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49158 SN - 978-3-86956-089-2 SN - 2190-8702 SN - 2190-8710 IS - 3 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Di Giacomo, Domenico T1 - Determination of the energy magnitude ME : application to rapid response purposes and insights to regional/local variabilities T1 - Bestimmung der Erdbeben-Magnitude ME : Anwendung für Echtzeitzwecke und regionale/lokale Variabilitäten N2 - Recent large earthquakes put in evidence the need of improving and developing robust and rapid procedures to properly calculate the magnitude of an earthquake in a short time after its occurrence. The most famous example is the 26 December 2004 Sumatra earthquake, when the limitations of the standard procedures adopted at that time by many agencies failed to provide accurate magnitude estimates of this exceptional event in time to launch early enough warnings and appropriate response. Being related to the radiated seismic energy ES, the energy magnitude ME is a good estimator of the high frequency content radiated by the source which goes into the seismic waves. However, a procedure to rapidly determine ME (that is to say, within 15 minutes after the earthquake occurrence) was required. Here it is presented a procedure able to provide in a rapid way the energy magnitude ME for shallow earthquakes by analyzing teleseismic P‑waves in the distance range 20-98. To account for the energy loss experienced by the seismic waves from the source to the receivers, spectral amplitude decay functions obtained from numerical simulations of Greens functions based on the average global model AK135Q are used. The proposed method has been tested using a large global dataset (~1000 earthquakes) and the obtained rapid ME estimations have been compared to other magnitude scales from different agencies. Special emphasis is given to the comparison with the moment magnitude MW, since the latter is very popular and extensively used in common seismological practice. However, it is shown that MW alone provide only limited information about the seismic source properties, and that disaster management organizations would benefit from a combined use of MW and ME in the prompt evaluation of an earthquake’s tsunami and shaking potential. In addition, since the proposed approach for ME is intended to work without knowledge of the fault plane geometry (often available only hours after an earthquake occurrence), the suitability of this method is discussed by grouping the analyzed earthquakes according to their type of mechanism (strike-slip, normal faulting, thrust faulting, etc.). No clear trend is found from the rapid ME estimates with the different fault plane solution groups. This is not the case for the ME routinely determined by the U.S. Geological Survey, which uses specific radiation pattern corrections. Further studies are needed to verify the effect of such corrections on ME estimates. Finally, exploiting the redundancy of the information provided by the analyzed dataset, the components of variance on the single station ME estimates are investigated. The largest component of variance is due to the intra-station (record-to-record) error, although the inter-station (station-to-station) error is not negligible and is of several magnitude units for some stations. Moreover, it is shown that the intra-station component of error is not random but depends on the travel path from a source area to a given station. Consequently, empirical corrections may be used to account for the heterogeneities of the real Earth not considered in the theoretical calculations of the spectral amplitude decay functions used to correct the recorded data for the propagation effects. N2 - Starke Erdbeben in letzter Zeit zeigten deutlich den steigenden Bedarf nach einer Verbesserung und Entwicklung von stabilen und schnellen Methoden, um die Magnitude eines Erdbebens korrekt innerhalb kürzester Zeit nach dessen Auftreten zu ermitteln. Das bisher bekannteste Fallbeispiel in diesem Zusammenhang stellt das Sumatra-Erdbeben vom 26 Dezember 2004 dar. Dieses außergewöhnliche Ereignis zeigte deutlich die Grenzen der bisher gängigen und von den meisten Behörden zu dieser Zeit verwendeten Methoden zur Ermittlung der Erdbebenmagnitude. So konnte für dieses Beben mit den gängigen Ansätzen zeitnah die Magnitude nicht korrekt bestimmt werden , um eine angemessene Frühwarnung und entsprechende Gegenmaßnahmen einzuleiten. Die Energiemagnitude ME steht in direkter Verbindung mit der abgestrahlten seismischen Energie ES und stellt somit eine guten Abschätzung für den Hochfrequenzanteil dar, der von der Quelle ausgestrahlt wird und in die seismischen Wellen einfließt. Eine Methode, welche eine schnelle Ermittlung von ME ermöglicht (d.h. innerhalb von maximal 15 Minuten nach dem Erdbeben) wäre in diesem Falle benötigt worden. Im Rahmen dieser Arbeit wird eine Methode vorgestellt, die eine solche schnelle Ermittlung der Energiemagnitude ME für oberflächennahe Erdbeben ermöglicht, indem teleseismische P-Wellen im Bereich von 20°-98° analysiert werden. Um den Energieverlust der seismischen Wellen von deren Quelle bis zu den Empfängern angemessen zu berücksichtigen, werden spektrale Amplituden-Abnahmefunktionen verwendet, welche aus numerischen Simulationen von Greenschen Funktionen basierend auf dem durchschnittlichen globalen Modell AK135Q abgeleitet werden. Die vorgestellte Methode wurde mit einem umfangreichen globalen Datensatz (ca. 1000 Erdbeben) getestet, und die zeitnah ermittelten ME-Abschätzungen wurden mit anderen Magnitudenskalen verschiedener Behörden verglichen. Ein Vergleich mit der Momentenmagnitude MW war hierbei von besonderem Interesse, da diese Skala heutzutage weitverbreitet ist und häufig zum Einsatz kommt. Es zeigt sich jedoch, dass MW alleine nur begrenzte Informationen über die seismischen Herdeigenschaften liefern kann, und dass Organisationen des Katastrophenmagements von einer kombinierten Nutzung von MW und ME gerade hinsichtlich der unmittelbaren Evaluierung des tsunamigenen Potentials und der Erschütterungswirkung eines Erdbebens profitieren könnten. Die verwendete Methode zur Ermittlung von ME kommt ohne Wissen über die geometrischen Eigenschaften der Verwerfungszone aus (diese sind meist erst Stunden nach einem Erbeben verfügbar). Entsprechend wird die Eignung dieser Methode durch Eingruppierungen der analysierten Erdbeben nach ihrem Wirkungsmechanismus (Scherbruch, Abschiebung, Aufschiebung, etc.) diskutiert. Für die schnelle Abschätzung von ME ist kein klarer Trend unter Verwendung der verschiedenen Herdflächenlösungen erkennbar. Für ME-Werte, welche standardmäßig vom U.S. Geological Survey mit speziellen Korrekturwerten für die Abstrahlungscharakteristika ermittelt werden, trifft dies jedoch nicht zu. Weitere Untersuchungen sind nötig, um die Auswirkungen solcher Korrekturen auf die ME-Abschätzungen zu verifizieren. Indem die Redundanz der Informationen des analysierten Datensatzes ausgenutzt wurde, konnte die Varianz bei den Einzelstations-ME-Abschätzungen untersucht werden. Die größte Abweichung zeigt sich aufgrund von Intra-Stations-Fehlern (record-to-record), wenngleich auch der Inter-Stations-Fehler (station-to-station) nicht vernachlässigbar ist; so nimmt er für einige Stationen mehrere Magnitudeneinheiten an. Des Weiteren konnte gezeigt werden, dass der Intra-Stations-Anteil des Gesamtfehlers nicht zufällig ist, sondern abhängig vom Wellenweg von einem Quellgebiet zu einer bestimmten Station. Folglich können empirische Korrekturen dazu benutzt werden, den Heterogenitäten der realen Erde gerecht zu werden, welche heutzutage nicht in den theoretischen Kalkulationen der spektralen Amplituden-Abnahmefunktionen zur Korrektur der aufgezeichneten Daten verwendet werden. KW - Erdbeben-Magnitude KW - Quellenparameter KW - Earthquake magnitude KW - source parameters KW - inter- and intra-station variability Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50768 ER - TY - THES A1 - Landgraf, Angela T1 - Fault interaction at different time- and length scales : the North Tehran thrust and Mosha-Fasham fault (Alborz mountains, Iran) T1 - Störungsinteraktion auf verschiedenen räumlichen und zeitlichen Skalen : die Nord-Teheran Überschiebung und die Mosha-Fasham Störung, Elburs Gebirge, Iran N2 - The seismically active Alborz mountains of northern Iran are an integral part of the Arabia-Eurasia collision. Linked strike-slip and thrust/reverse-fault systems in this mountain belt are characterized by slow loading rates, and large earthquakes are highly disparate in space and time. Similar to other intracontinental deformation zones such a pattern of tectonic activity is still insufficiently understood, because recurrence intervals between seismic events may be on the order of thousands of years, and are thus beyond the resolution of short term measurements based on GPS or instrumentally recorded seismicity. This study bridges the gap of deformation processes on different time scales. In particular, my investigation focuses on deformation on the Quaternary time scale, beyond present-day deformation rates, and it uses present-day and paleotectonic characteristics to model fault behavior. The study includes data based on structural and geomorphic mapping, faultkinematic analysis, DEM-based morphometry, and numerical fault-interaction modeling. In order to better understand the long- to short term behavior of such complex fault systems, I used geomorphic surfaces as strain markers and dated fluvial and alluvial surfaces using terrestrial cosmogenic nuclides (TCN, 10Be, 26Al, 36Cl) and optically stimulated luminescence (OSL). My investigation focuses on the seismically active Mosha-Fasham fault (MFF) and the seismically virtually inactive North Tehran Thrust (NTT), adjacent to the Tehran metropolitan area. Fault-kinematic data reveal an early mechanical linkage of the NTT and MFF during an earlier dextral transpressional stage, when the shortening direction was oriented northwest. This regime was superseded by Pliocene to Recent NE-oriented shortening, which caused thrusting and sinistral strike-slip faulting. In the course of this kinematic changeover, the NTT and MFF were reactivated and incorporated into a nascent transpressional duplex, which has significantly affected landscape evolution in this part of the range. Two of three distinctive features which characterize topography and relief in the study area can be directly related to their location inside the duplex array and are thus linked to interaction between eastern MFF and NTT, and between western MFF and Taleghan fault, respectively. To account for inferred inherited topography from the previous dextral-transpression regime, a new concept of tectonic landscape characterization has been used. Accordingly, I define simple landscapes as those environments, which have developed during the influence of a sustained tectonic regime. In contrast, composite landscapes contain topographic elements inherited from previous tectonic conditions that are inconsistent with the regional present-day stress field and kinematic style. Using numerical fault-interaction modeling with different tectonic boundary conditions, I calculated synoptic snapshots of artificial topography to compare it with the real topographic metrics. However, in the Alborz mountains, E-W faults are favorably oriented to accommodate the entire range of NW- to NE-directed compression. These faults show the highest total displacement which might indicate sustained faulting under changing boundary conditions. In contrast to the fault system within and at the flanks of the Alborz mountains, Quaternary deformation in the adjacent Tehran plain is characterized by oblique motion and thrust and strike-slip fault systems. In this morphotectonic province fault-propagation folding along major faults, limited strike-slip motion, and en-échelon arrays of second-order upper plate thrusts are typical. While the Tehran plain is characterized by young deformation phenomena, the majority of faulting took place in the early stages of the Quaternary and during late Pliocene time. TCN-dating, which was performed for the first time on geomorphic surfaces in the Tehran plain, revealed that the oldest two phases of alluviation (units A and B) must be older than late Pleistocene. While urban development in Tehran increasingly covers and obliterates the active fault traces, the present-day kinematic style, the vestiges of formerly undeformed Quaternary landforms, and paleo earthquake indicators from the last millennia attest to the threat that these faults and their related structures pose for the megacity. N2 - Das seismisch aktive Elburs Gebirge im Nordiran ist Bestandteil der Arabisch-Eurasischen Kollisionszone. Gekoppelte Blattverschiebungs- und Überschiebungssysteme dieses Gebirges zeichnen sich durch geringe Spannungsaufbauraten aus. Dementsprechend treten große Erdbeben räumlich und zeitlich weit verteilt voneinander auf und Wiederkehrperioden solcher Erdbeben können tausende von Jahren dauern und wurden noch nicht von kurzzeitigen Messmethoden, wie GPS oder instrumenteller Seismologie erfasst. Diese Arbeit überbrückt verschiedene Zeitskalen. Diese Studie beinhaltet insbesondere Auswertungen struktureller und geomorphologischer Kartierungen, störungskinematische Analysen, auf digitalen Höhenmodellen basierende Morphometrie und numerische Modellierung von Störungsinteraktion. Um das lang- und kurzfristige Verhalten solcher komplexen Schwächezonen besser zu verstehen, benutze ich geomorphologische Oberflächen als Deformationsmarker und datiere alluviale und fluviatile Oberflächen mittels kosmogener Nuklide (TCN, 10Be, 26Al, 36Cl) und optisch stimulierter Lumineszenz (OSL). Mein Untersuchungsgebiet umfasst die seismisch aktive Mosha-Fasham Störung (MFF) und die als seismisch quasi inaktiv geltende Nordteheranstörung (NTT), die sich in unmittelbarer Nähe zum Teheraner Ballungsgebiet befinden. Die Ergebnisse zeigen, dass sich das Deformationfeld mit der Zeit verändert hat. Die störungskinematischen Daten haben ergeben, dass NTT und MFF bereits seit einer früheren dextral-transpressionalen Phase unter NW-gerichteter Einengung mechanisch gekoppelt sind. Dieses System wurde von pliozäner und bis heute andauernder NE-gerichteter Einengung ersetzt, woraufhin sich Überschiebungen und linkslaterale Blattverschiebungen herausbildeten. Während dieses kinematischen Wechsels wurden NTT und MFF reaktiviert und in ein beginnendes transpressionales Duplexsystem eingebunden, welches die Landschaftentwicklung in diesem Teil des Gebirges signifikant beeinflusst hat. Zwei von drei ausgeprägten topographischen Besonderheiten des Untersuchungsgebietes können direkt mit deren Lage in der Duplexanordnung in Verbindung gebracht werden und spiegeln Interaktion zwischen den östlichen Segmenten von NTT und MFF, bzw., zwischen dem westlichen Segment der MFF und der parallelen Taleghan Schwächezone wider. Um diejenige Topographie auszuweisen, die möglicherweise aus der vorhergehenden Phase vererbt wurde, wurde ein neues Konzept tektonischer Landschaftscharakterisierung benutzt. Einfache Landschaften sind unter dem Einfluß gleichbleibender tektonischer Randbedingungen entstanden. Dagegen enthalten zusammengesetzte Landschaften vererbte Elemente vergangener tektonischer Randbedingungen, die mit dem heutigen Spannungsfeld und kinematischen Stil unvereinbar sind. Mittels numerischer Störungsinteraktionsmodellierungen teste ich verschiedene Randbedingungen und berechne synoptische Momentaufnahmen künstlicher Topographie um sie mit reellen topographischen Maßen zu vergleichen. Im Elburs Gebirge treten allerdings auch E-W streichende Schwächezonen auf, die so günstig orientiert sind, dass sie Verformung unter der gesamten Einengungsspanne von Nordwest nach Nordost zeigen. Diese weisen den höchsten totalen Versatz auf. Hier tritt das Grundgebirge zutage und wird versetzt, was, wie die Modellierungen vermuten lassen, auf langanhaltende Verformung unter sich ändernden Randbedingungen hinweisen kann. Quartäre Deformation in der benachbarten Teheran Ebene ist durch Schrägbewegungen, Überschiebungen und Blattverschiebungssyteme gekennzeichnet, die typischerweise in Auffaltungen entlang von Hauptstörungen, vereinzelten Blattverschiebungen und en-échelon Anordnungen untergeordneter oberflächlicher Überschiebungen resultieren. Junge Deformation tritt auf, die Hauptbewegungen fanden allerdings im frühen Quartär und wahrscheinlich späten Pliozän statt. TCN-Datierungen, die erstmalig an geomorphologischen Oberflächen in der Teheran Ebene durchgeführt wurden, ergeben dass die beiden älteren Sedimentationsphasen (Einheiten A und B) älter sind als spätes Pleistozän. Obwohl die urbane Entwicklung im Teheraner Ballungsraum die aktiven Störungslinien zunehmend verdeckt und ausradiert, zeugen der heutige kinematische Stil, die Überreste ehemals unverstellter Quartärer Landschaftsformen und Hinweise auf Paläoerdbeben während der letzten Jahrtausende von der Gefahr, die diese Schwächezonen für die Megastadt bedeuten. KW - Störungsinteraktion KW - Tektonische Geomorphologie KW - Kosmogene Nuklide KW - Elburs KW - Iran KW - Fault interaction KW - Tectonic geomorphology KW - Cosmogenic nuclides KW - Alborz KW - Iran Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50800 ER - TY - THES A1 - Natkhin, Marco T1 - Modellgestützte Analyse der Einflüsse von Veränderungen der Waldwirtschaft und des Klimas auf den Wasserhaushalt grundwasserabhängiger Landschaftselemente T1 - Model-based Analysis of the Impact of Changing Climate and Forest Cultivation on the Water Balance of Groundwater-Dependent Landscape Elements N2 - In den letzten drei Jahrzehnten wurden in einigen Seen und Feuchtgebieten in bewaldeten Einzugsgebieten Nordost-Brandenburgs sinkende Wasserstände beobachtet. In diesen Gebieten bestimmt die Grundwasserneubildung im Einzugsgebiet maßgeblich das Wasserdargebot der Seen und Feuchtgebiete, die deshalb hier als grundwasserabhängige Landschaftselemente bezeichnet werden. Somit weisen die sinkenden Wasserstände auf einen Rückgang der wegen des geringen Niederschlagsdargebotes ohnehin schon geringen Grundwasserneubildung hin. Die Höhe der Grundwasserneubildung ist neben den hydroklimatischen Randbedingungen auch von der Landnutzung abhängig. Veränderungen in der Waldvegetation und der hydroklimatischen Randbedingungen bewirken Änderungen der Grundwasserneubildung und beeinflussen somit auch den Wasserhaushalt der Seen und Feuchtgebiete. Aktuell wird die Waldvegetation durch Kiefernmonokulturen dominiert, mit im Vergleich zu anderen Baumarten höherer Evapotranspiration. Entwicklungen in der Forstwirtschaft streben die Verringerung von Kiefernmonokulturen an. Diese sollen langfristig auf geeigneten Standorten durch Laubmischwälder ersetzt werden. Dadurch lassen sich eine geringere Evapotranspiration und damit eine höhere Grundwasserneubildung erreichen. In der vorliegenden Arbeit werden am Beispiel des Redernswalder Sees und des Briesensees die Ursachen der beobachteten sinkenden Wasserstände analysiert. Ihre Wasserstände nahmen in den letzten 25 Jahren um mehr als 3 Meter ab. Weiterhin wird untersucht, wie die erwarteten Klimaänderungen und Veränderungen in der Waldbewirtschaftung die zukünftige Grundwasserneubildung und den Wasserhaushalt von Seen beeinflussen können. Die Entwicklung der Grundwasserneubildung im Untersuchungsgebiet wurde mit dem Wasserhaushaltsmodell WaSiM-ETH simuliert. Die Analyse der Wechselwirkungen der Seen mit dem regionalen quartären Grundwasserleitersystem erfolgte mit dem 3D-Grundwassermodell FEFLOW. Mögliche zukünftige Veränderungen der Grundwasserneubildung und der Seewasserstände durch Klimaänderungen und Waldumbau wurden mit Szenarienrechnungen bis zum Jahr 2100 analysiert. Die modellgestützte Analyse zeigte, dass die beobachteten abnehmenden Wasserstände zu etwa gleichen Anteilen durch Veränderungen der hydroklimatischen Randbedingungen sowie durch Veränderungen in der Waldvegetation und damit abnehmenden Grundwasserneubildungsraten zu erklären sind. Die zukünftigen Entwicklungen der Grundwasserneubildung und der Wasserstände sind geprägt von sich ändernden hydroklimatischen Randbedingungen und einem sukzessiven Wandel der Kiefernbestände zu Laubwäldern. Der Waldumbau hat positive Wirkungen auf die Grundwasserneubildung und damit auf die Wasserstände. Damit können die Einflüsse des eingesetzten REMO-A1B-Klimaszenarios zum Ende des Modellzeitraumes durch den Waldumbau nicht kompensiert werden, das Sinken des Wasserstandes wird jedoch wesentlich reduziert. Bei dem moderateren REMO-B1-Klimaszenario werden die Wasserstände des Jahres 2008 durch den Waldumbau bis zum Jahr 2100 überschritten. N2 - Declining water levels have been observed in some lakes and wetlands in forested catchments in North-East Brandenburg (Germany). Groundwater recharge mainly controls the supply of water available for lakes and wetlands, therefore determining them as groundwater-dependent landscape elements. Thus, the declining water levels indicate a reduction of groundwater recharge. Aspects such as climate change and different forest management practices have been considered as main factors affecting the regional groundwater regime. Currently, forest landscapes in North-East Brandenburg are dominated by pine monoculture. Depending on the climate conditions, groundwater recharge can be significantly lower under pine than under broad-leaved species like beech or oak. Regional forest administration is currently planning to expand the share of broad-leaved trees among mixed deciduous forest in the future. For this study, two lakes were chosen, the Redernswalder See and the Briesensee at Poratz. Water gauge measurements over the last 25 years showed a decline in lake water level by more than 3 m. To identify and quantify the share of changes in both, climate and forest management, the principal processes were evaluated using field measurements and water balance modelling. In the following step, alternative climate change and forestry scenarios were analysed to discover their impacts on the regional distribution of groundwater recharge. At first, the causes of the declining observed water levels were analysed. For this purpose, the physically based and fully distributed water balance model WaSiM-ETH was used to simulate groundwater recharge in the catchment and evaporation from the lake surfaces from 1958 to 2007. To analyse the geohydrological conditions, a FEFLOW 3D groundwater model was built up for the underlying Quaternary aquifer system. Possible development directions of the water balance were simulated under the influence of climate change and forest conversion until 2100. The model based analysis showed that the observed declining water levels are caused by both changes in climatic boundary conditions and in forest vegetation (age distribution and understorey) followed by decreasing groundwater recharge with an equal magnitude. The future developments of groundwater recharge and water levels are governed by changes in climatic boundary conditions and a transition from pine monoculture to broad-leaved trees. Forest conversion will show a positive effect on groundwater recharge and likely increase the water levels of lakes and wetlands. The forest conversation can not completely compensate the impact of climate change to the lake water levels, but the decrease can be significantly limited. KW - Seewasserhaushalt KW - Waldumbau KW - Grundwasserneubildung KW - Nordostdeutsches Tiefland KW - Klimaänderungen KW - lakes water balance KW - forest conversion KW - groundwater recharge KW - North-East German Plain KW - climate change Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50627 ER - TY - THES A1 - Jamil, Abdlhamed T1 - Fernerkundung und GIS zur Erfassung, Modellierung und Visualisierung orientalischer Stadtstrukturen : das Beispiel Sanaa (Jemen) T1 - Acquisition, modelling and visualisation of oriental city structures with remote sensing and GIS : the case of Sanaa (Yemen) N2 - Gegenstand dieser Arbeit ist die Konzeption, Entwicklung und exemplarische Implementierung eines generischen Verfahrens zur Erfassung, Verarbeitung, Auswertung und kartographischen Visualisierung urbaner Strukturen im altweltlichen Trockengürtel mittels hochauflösender operationeller Fernerkundungsdaten. Das Verfahren wird am Beispiel der jemenitischen Hauptstadt Sanaa einer Vertreterin des Typus der Orientalischen Stadt angewandt und evaluiert. Das zu entwickelnde Verfahren soll auf Standardverfahren und Systemen der raumbezogenen Informationsverarbeitung basieren und in seinen wesentlichen Prozessschritten automatisiert werden können. Daten von hochauflösenden operationellen Fernerkundungssystemen (wie z.B. QuickBird, Ikonos u. a.) erlauben die Erkennung und Kartierung urbaner Objekte, wie Gebäude, Straßen und sogar Autos. Die mit ihnen erstellten Karten und den daraus gewonnenen Informationen können zur Erfassung von Urbanisierungsprozessen (Stadt- und Bevölkerungswachstum) herangezogen werden. Sie werden auch zur Generierung von 3D-Stadtmodellen genutzt. Diese dienen z.B. der Visualisierung für touristische Anwendungen, für die Stadtplanung, für Lärmanalysen oder für die Standortplanung von Mobilfunkantennen. Bei dem in dieser Arbeit erzeugten 3D-Visualisierung wurden jedoch keine Gebäudedetails erfasst. Entscheidend war vielmehr die Wiedergabe der Siedlungsstruktur, die im Vorhandensein und in der Anordnung der Gebäude liegt. In dieser Arbeit wurden Daten des Satellitensensors Quickbird von 2005 verwendet. Sie zeigen einen Ausschnitt der Stadt Sanaa in Jemen. Die Fernerkundungsdaten wurden durch andere Daten, u.a. auch Geländedaten, ergänzt und verifiziert. Das ausgearbeitete Verfahren besteht aus der Klassifikation der Satellitenbild-aufnahme, die u.a. pixelbezogen und für jede Klasse einzeln (pixelbezogene Klassifikation auf Klassenebene) durchgeführt wurde. Zusätzlich fand eine visuelle Interpretation der Satellitenbildaufnahme statt, bei der einzelne Flächen und die Straßen digitalisiert und die Objekte mit Symbolen gekennzeichnet wurden. Die aus beiden Verfahren erstellten Stadtkarten wurden zu einer fusioniert. Durch die Kombination der Ergebnisse werden die Vorteile beider Karten in einer vereint und ihre jeweiligen Schwächen beseitigt bzw. minimiert. Die digitale Erfassung der Konturlinien auf der Orthophotomap von Sanaa erlaubte die Erstellung eines Digitalen Geländemodells, das der dreidimensionalen Darstellung des Altstadtbereichs von Sanaa diente. Die 3D-Visualisierung wurde sowohl von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene als auch von der digitalen Erfassung der Objekte erstellt. Die Ergebnisse beider Visualisierungen wurden im Anschluss in einer Stadtkarte vereint. Bei allen Klassifikationsverfahren wurden die asphaltierten Straßen, die Vegetation und einzeln stehende Gebäude sehr gut erfasst. Die Klassifikation der Altstadt gestaltete sich aufgrund der dort für die Klassifikation herrschenden ungünstigen Bedingungen am problematischsten. Die insgesamt besten Ergebnisse mit den höchsten Genauigkeitswerten wurden bei der pixelbezogenen Klassifikation auf Klassenebene erzielt. Dadurch, dass jede Klasse einzeln klassifiziert wurde, konnte die zu einer Klasse gehörende Fläche besser erfasst und nachbearbeitet werden. Die Datenmenge wurde reduziert, die Bearbeitungszeit somit kürzer und die Speicherkapazität geringer. Die Auswertung bzw. visuelle Validierung der pixel-bezogenen Klassifikationsergebnisse auf Klassenebene mit dem Originalsatelliten-bild gestaltete sich einfacher und erfolgte genauer als bei den anderen durch-geführten Klassifikationsverfahren. Außerdem war es durch die alleinige Erfassung der Klasse Gebäude möglich, eine 3D-Visualisierung zu erzeugen. Bei einem Vergleich der erstellten Stadtkarten ergibt sich, dass die durch die visuelle Interpretation erstellte Karte mehr Informationen enthält. Die von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene erstellte Karte ist aber weniger arbeits- und zeitaufwendig zu erzeugen. Zudem arbeitet sie die Struktur einer orientalischen Stadt mit den wesentlichen Merkmalen besser heraus. Durch die auf Basis der 2D-Stadtkarten erstellte 3D-Visualisierung wird ein anderer räumlicher Eindruck vermittelt und bestimmte Elemente einer orientalischen Stadt deutlich gemacht. Dazu zählen die sich in der Altstadt befindenden Sackgassen und die ehemalige Stadtmauer. Auch die für Sanaa typischen Hochhäuser werden in der 3D-Visualisierung erkannt. Insgesamt wurde in der Arbeit ein generisches Verfahren entwickelt, dass mit geringen Modifikationen auch auf andere städtische Räume des Typus orientalische Stadt angewendet werden kann. N2 - This study aims at the development and implementation of a generic procedure for the acquisition, processing, analysis and cartographic visualisation of urban space in arid zone cities based on operational remote sensing imagery. As a proof of concept the Yemeni capital Sanaa has been selected as a use case. The workflow developed is based on standard procedures and systems of spatial information processing and allows for subsequent automation oft its essential processes. Today, high-resolution remote sensing data from operational satellite systems (such as QuickBird, Ikonos etc) facilitate the recognition and mapping of urban objects such as buildings, streets and even cars which, in the past could only be acquired by non-operational aerial photography. The satellite imagery can be used to generate maps and even 3D-representation of the urban space. Both maps and 3D-visualisations can be used for up-to-date land use mapping, zoning and urban planning purposes etc. The 3D-visualisation provides a deeper understanding of urban structures by integrating building height into the analysis. For this study remote sensing data of the Quickbird satellite data of 2005 were used. They show a section of the city of Sanaa in Yemen. The remote sensing data were supplemented and verified by other data, including terrain data. The image data are then subjected to thorough digital image. This procedure consists of a pixel-oriented classification of the satellite image acquisition at class level. In addition, a visual interpretation of the satellite image has been undertaken to identify and label individual objects (areas, surfaces, streets) etc. which were subsequently digitised. The town maps created in both procedures were merged to one. Through this combination of the results, the advantages of both maps are brought together and their respective weaknesses are eliminated or minimized. The digital collection of the contour lines on the orthophoto map of Sanaa allowed for the creation of a digital terrain model, which was used for the three-dimensional representation of Sanaa's historic district. The 3D-visualisation was created from the classification results as well as from the digital collection of the objects and the results of both visualisations were combined in a city map. In all classification procedures, paved roads, vegetation and single buildings were detected very well. The best overall results with the highest accuracy values achieved in the pixel-oriented classification at class level. Because each class has been classified separately, size belonging to that class can be better understood and optimised. The amount of data could be reduced, thus requiring less memory and resulting in a shorter processing time. The evaluation and validation of the pixel-oriented visual classification results at class level with the original satellite imagery was designed more simply and more accurately than other classification methods implemented. It was also possible by the separate recording of the class building to create a 3D-visualisation. A comparison of the maps created found that the map created from visual interpretation contains more information. The map based on pixel-oriented classification results at class level proved to be less labor- and time-consuming, and the structure of an oriental city with the main features will be worked out better. The 2D-maps and the 3D-visualisation provide a different spatial impression, and certain elements of an oriental city clearly detectable. These include the characteristic dead ends in the old town and the former city wall. The typical high-rise houses of Sanaa are detected in the 3D-visualisation. This work developed a generic procedure to detect, analyse and visualise urban structures in arid zone environments. The city of Sanaa served as a proof of concept. The results show that the workflow developed is instrumental in detecting typical structures of oriental cities. The results achieved in the case study Sanaa prove that the process can be adapted to the investigation of other arid zone cities in the Middle East with minor modifications. KW - Fernerkundung KW - 3D-Visualisierung KW - Klassifikation KW - 2D-Stadtmodell KW - orientalische Stadt KW - remote sensing KW - 3D visualization KW - classification KW - 2D city model KW - oriental city Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50200 ER - TY - THES A1 - Wolff, Markus T1 - Geovisual methods and techniques for the development of three-dimensional tactical intelligence assessments T1 - Methoden und Techniken zur Entwicklung dreidimensionaler Lagebilder für Belange der zivilen Sicherheit N2 - This thesis presents methods, techniques and tools for developing three-dimensional representations of tactical intelligence assessments. Techniques from GIScience are combined with crime mapping methods. The range of methods applied in this study provides spatio-temporal GIS analysis as well as 3D geovisualisation and GIS programming. The work presents methods to enhance digital three-dimensional city models with application specific thematic information. This information facilitates further geovisual analysis, for instance, estimations of urban risks exposure. Specific methods and workflows are developed to facilitate the integration of spatio-temporal crime scene analysis results into 3D tactical intelligence assessments. Analysis comprises hotspot identification with kernel-density-estimation techniques (KDE), LISA-based verification of KDE hotspots as well as geospatial hotspot area characterisation and repeat victimisation analysis. To visualise the findings of such extensive geospatial analysis, three-dimensional geovirtual environments are created. Workflows are developed to integrate analysis results into these environments and to combine them with additional geospatial data. The resulting 3D visualisations allow for an efficient communication of complex findings of geospatial crime scene analysis. N2 - Diese Arbeit präsentiert Methoden, Techniken und Werkzeuge für die Entwicklung dreidi-mensionaler Lagebilder. Zu diesem Zweck werden Verfahren der Geoinformatik mit solchen der raumbezogenen Straftatenanalyse kombiniert. Das Spektrum der angewandten Methoden und Techniken umfasst raumzeitliche GIS-Analysen ebenso wie 3D Geovisualisierungen und GIS-Anwendungsprogrammierung. Um komplexe geovisuelle Analysen auf Basis virtueller 3D-Stadtmodelle zu ermöglichen, werden Datenbanken digitaler Stadtmodelle um anwendungsspezifische Fachinformationen ergänzt. Dies ermöglicht weiterführende Analysen, zum Beispiel zur räumlichen Verteilung urbaner Risiken. Weiterhin präsentiert die Arbeit Methoden und Verfahren zur Integration der Ergebnisse komplexer raumzeitlicher Straftatenanalysen in dreidimensionale Lagebilder. Die durchgeführten Analysen umfassen die Identifikation von Brennpunkten spezifischer Delikte mittels Techniken der Kerndichteschätzung, die Verifikation dieser Hotspots durch LISA-Statistiken, GIS-basierte räumliche Charakterisierungen von Brennpunkten sowie Analysen zur wiederholten Viktimisierung. Zur Visualisierung der Ergebnisse komplexer raumzeitlicher Analysen werden dreidimensionale geovirtuelle Umgebungen erzeugt. Um weitere raumbezogene Daten ergänzt, werden sämtliche Analyseergebnisse in diese Umgebungen integriert. Die resultierenden 3D-Visualisierungen erlauben eine effiziente Kommunikation der Ergebnisse komplexer raumbezogener Straftatenanalysen. KW - raumbezogene Straftatenanalyse KW - GIS KW - geovirtuelle Umgebungen KW - 3D-Geovisualisierung KW - 3D-Stadtmodelle KW - Crime mapping KW - GIS KW - geovirtual environments KW - 3D geovisualisation KW - 3D city models Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50446 ER - TY - THES A1 - Glöckner, Olaf T1 - Immigrated Russian Jewish elites in Israel and Germany after 1990 T1 - Russisch-jüdische Eliten in Israel und Deutschland nach 1990 BT - their integration, self image and role in community building BT - Integration, Selbstbild und Rolle in Immigranten-Netzwerken N2 - Russian Jews who left the Former Soviet Union (FSU) and its Successor States after 1989 are considered as one of the best qualified migrants group worldwide. In the preferred countries of destination (Israel, the United States and Germany) they are well-known for cultural self-assertion, strong social upward mobility and manifold forms of self organisation and empowerment. Using Suzanne Kellers sociological model of “Strategic Elites”, it easily becomes clear that a huge share of the Russian Jewish Immigrants in Germany and Israel are part of various elites due to their qualification and high positions in the FSU – first of all professional, cultural and intellectual elites (“Intelligentsija”). The study aimed to find out to what extent developments of cultural self-assertion, of local and transnational networking and of ethno-cultural empowerment are supported or even initiated by the immigrated (Russian Jewish) Elites. The empirical basis for this study have been 35 half-structured expert interviews with Russian Jews in both countries (Israel, Germany) – most of them scholars, artists, writers, journalists/publicists, teachers, engineers, social workers, students and politicians. The qualitative analysis of the interview material in Israel and Germany revealed that there are a lot of commonalities but also significant differences. It was obvious that almost all of the interview partners remained to be linked with Russian speaking networks and communities, irrespective of their success (or failure) in integration into the host societies. Many of them showed self-confidence with regard to the groups’ amazing professional resources (70% of the adults with academic degree), and the cultural, professional and political potential of the FSU immigrants was usually considered as equal to those of the host population(s). Thus, the immigrants’ interest in direct societal participation and social acceptance was accordingly high. Assimilation was no option. For the Russian Jewish “sense of community” in Israel and Germany, Russian Language, Arts and general Russian culture have remained of key importance. The Immigrants do not feel an insuperable contradiction when feeling “Russian” in cultural terms, “Jewish” in ethnical terms and “Israeli” / “German” in national terms – in that a typical case of additive identity shaping what is also significant for the Elites of these Immigrants. Tendencies of ethno-cultural self organisation – which do not necessarily hinder impressing individual careers in the new surroundings – are more noticeable in Israel. Thus, a part of the Russian Jewish Elites has responded to social exclusion, discrimination or blocking by local population (and by local elites) with intense efforts to build (Russian Jewish) Associations, Media, Educational Institutions and even Political Parties. All in all, the results of this study do very much contradict popular stereotypes of the Russian Jewish Immigrant as a pragmatic, passive “Homo Sovieticus”. Among the Interview Partners in this study, civil-societal commitment was not the exception but rather the rule. Traditional activities of the early, legendary Russian „Intelligentsija“ were marked by smooth transitions from arts, education and societal/political commitment. There seem to be certain continuities of this self-demand in some of the Russian Jewish groups in Israel. Though, nothing comparable could be drawn from the Interviews with the Immigrants in Germany. Thus, the myth and self-demand of Russian “Intelligentsija” is irrelevant for collective discourses among Russian Jews in Germany. N2 - Russischsprachige Juden, die nach 1989 die Sowjetunion und ihre Nachfolgestaaten verlassen haben, zählen weltweit zu den bestqualifizierten Migranten. In ihren bevorzugten Zielländern (Israel, USA, Deutschland) zeichnen sie sich durch sichtbare Formen der kulturellen Selbstbehauptung, eine starke Aufstiegsmobilität und einen relativ hohen Grad der Selbstorganisation aus. Auf Grund des hohen Bildungsgrades und der dominierenden Berufsbilder konnte in Anlehnung an das Modell der „Strategic Elites“ von Suzanne Keller ein generell hoher Anteil an Eliten in der untersuchten Gruppe von Immigranten in Deutschland und Israel ausgemacht werden – v.a. professionelle, kulturelle und intellektuelle Eliten. Die Studie fragte danach, inwiefern Prozesse der kulturellen Selbstbehauptung, der lokalen und transnationalen Vernetzung und der ethno-kulturellen Selbstorganisation von den zugewanderten Eliten unterstützt oder sogar selbst befördert werden. Als empirische Grundlage dienten je 35 Experten-Interviews mit russisch-jüdischen Immigranten in beiden Ländern – dabei vorwiegend Wissenschaftler, Künstler, Schriftsteller, Publizisten/Journalisten, Lehrer, Ingenieure, Sozialarbeiter, Studenten und Politiker. Die qualitative Auswertung des Interviewmaterials in Deutschland und Israel ergab zahlreiche Gemeinsamkeiten, aber auch markante Unterschiede. Auffällig war, dass fast alle Interviewpartner mit russischsprachigen Netzwerken und Community-Strukturen gut verbunden blieben – unabhängig vom bisherigen Erfolg ihrer individuellen Integration. Fast durchweg waren sie sich ihrer überdurchschnittlichen beruflichen Kompetenzen (70% Akademiker) bewusst, die kulturellen, beruflichen und häufig auch politischen Ressourcen wurden mindestens als ebenbürtig zu jenen der Aufnahmegesellschaften betrachtet. Das Interesse an direkter gesellschaftlicher Partizipation und Akzeptanz war entsprechend hoch. Für das Zusammengehörigkeitsgefühl der Immigranten in Israel und Deutschland bilden russische Sprache, Kunst und (Alltags-) Kultur nach wie vor eine Schlüssel-Rolle. Dabei entsteht für die meisten Immigranten kein zwingender Widerspruch, sich "russisch" im kulturellen, "jüdisch" im ethnischen und "israelisch" / "deutsch" im nationalen Sinne zu fühlen - insofern ein klassischer Fall von additiver Identitätsbildung, der auch die zugewanderten Eliten charakterisiert. Assimilation in die Mehrheitsgesellschaft ist keine Option. Tendenzen ethno-kultureller Selbstorganisation, die erfolgreiche individuelle Integrationsverläufe im neuen Umfeld keineswegs ausschließen, zeigten sich am intensivsten in Israel. So reagiert ein Teil der russisch-jüdischen Eliten auf allgemeine Ausgrenzungserfahrungen und/oder Schließungsprozesse der lokalen Eliten bewusst mit der Bildung eigener Vereine, Medien, Bildungseinrichtungen und sogar politischer Parteien. Insgesamt widersprechen die Ergebnisse der Studie dem weitverbreiteten Stereotyp vom russisch-jüdischen Migranten als eines pragmatisch-passiven „Homo Sovieticus“. Zivilgesellschaftliches Engagement war bei den untersuchten Eliten eher der Regelfall. Zu den Traditionen der frühen, legendären russischen „Intelligentsija“ gehörten fließende Übergänge zwischen Kunst, Bildung und gesellschaftspolitischem Engagement. Dies setzt sich in Israel in einigen Gruppierungen der russisch-jüdischen Immigranten nahtlos fort. Dagegen machten die Experten-Interviews in Deutschland deutlich, dass ein vergleichbarer „Intelligentsija“-Effekt hier nicht zu erwarten ist - und daher für kollektive Orientierungsprozesse der russischen Juden irrelevant bleibt. KW - Immigration KW - Russisch-jüdische Eliten KW - Integration KW - Kollektive Identität KW - Transnationale Diaspora KW - Immigration KW - Russian-Jewish Elites KW - Cultural Integration KW - Collective Identity KW - Transnational Diaspora Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50369 ER - TY - THES A1 - Böniger, Urs T1 - Attributes and their potential to analyze and interpret 3D GPR data T1 - Attribute und deren Potenzial zur Analyse und Interpretation von 3D Georadardaten N2 - Based on technological advances made within the past decades, ground-penetrating radar (GPR) has become a well-established, non-destructive subsurface imaging technique. Catalyzed by recent demands for high-resolution, near-surface imaging (e.g., the detection of unexploded ordnances and subsurface utilities, or hydrological investigations), the quality of today's GPR-based, near-surface images has significantly matured. At the same time, the analysis of oil and gas related reflection seismic data sets has experienced significant advances. Considering the sensitivity of attribute analysis with respect to data positioning in general, and multi-trace attributes in particular, trace positioning accuracy is of major importance for the success of attribute-based analysis flows. Therefore, to study the feasibility of GPR-based attribute analyses, I first developed and evaluated a real-time GPR surveying setup based on a modern tracking total station (TTS). The combination of current GPR systems capability of fusing global positioning system (GPS) and geophysical data in real-time, the ability of modern TTS systems to generate a GPS-like positional output and wireless data transmission using radio modems results in a flexible and robust surveying setup. To elaborate the feasibility of this setup, I studied the major limitations of such an approach: system cross-talk and data delays known as latencies. Experimental studies have shown that when a minimal distance of ~5 m between the GPR and the TTS system is considered, the signal-to-noise ratio of the acquired GPR data using radio communication equals the one without radio communication. To address the limitations imposed by system latencies, inherent to all real-time data fusion approaches, I developed a novel correction (calibration) strategy to assess the gross system latency and to correct for it. This resulted in the centimeter trace accuracy required by high-frequency and/or three-dimensional (3D) GPR surveys. Having introduced this flexible high-precision surveying setup, I successfully demonstrated the application of attribute-based processing to GPR specific problems, which may differ significantly from the geological ones typically addressed by the oil and gas industry using seismic data. In this thesis, I concentrated on archaeological and subsurface utility problems, as they represent typical near-surface geophysical targets. Enhancing 3D archaeological GPR data sets using a dip-steered filtering approach, followed by calculation of coherency and similarity, allowed me to conduct subsurface interpretations far beyond those obtained by classical time-slice analyses. I could show that the incorporation of additional data sets (magnetic and topographic) and attributes derived from these data sets can further improve the interpretation. In a case study, such an approach revealed the complementary nature of the individual data sets and, for example, allowed conclusions about the source location of magnetic anomalies by concurrently analyzing GPR time/depth slices to be made. In addition to archaeological targets, subsurface utility detection and characterization is a steadily growing field of application for GPR. I developed a novel attribute called depolarization. Incorporation of geometrical and physical feature characteristics into the depolarization attribute allowed me to display the observed polarization phenomena efficiently. Geometrical enhancement makes use of an improved symmetry extraction algorithm based on Laplacian high-boosting, followed by a phase-based symmetry calculation using a two-dimensional (2D) log-Gabor filterbank decomposition of the data volume. To extract the physical information from the dual-component data set, I employed a sliding-window principle component analysis. The combination of the geometrically derived feature angle and the physically derived polarization angle allowed me to enhance the polarization characteristics of subsurface features. Ground-truth information obtained by excavations confirmed this interpretation. In the future, inclusion of cross-polarized antennae configurations into the processing scheme may further improve the quality of the depolarization attribute. In addition to polarization phenomena, the time-dependent frequency evolution of GPR signals might hold further information on the subsurface architecture and/or material properties. High-resolution, sparsity promoting decomposition approaches have recently had a significant impact on the image and signal processing community. In this thesis, I introduced a modified tree-based matching pursuit approach. Based on different synthetic examples, I showed that the modified tree-based pursuit approach clearly outperforms other commonly used time-frequency decomposition approaches with respect to both time and frequency resolutions. Apart from the investigation of tuning effects in GPR data, I also demonstrated the potential of high-resolution sparse decompositions for advanced data processing. Frequency modulation of individual atoms themselves allows to efficiently correct frequency attenuation effects and improve resolution based on shifting the average frequency level. GPR-based attribute analysis is still in its infancy. Considering the growing widespread realization of 3D GPR studies there will certainly be an increasing demand towards improved subsurface interpretations in the future. Similar to the assessment of quantitative reservoir properties through the combination of 3D seismic attribute volumes with sparse well-log information, parameter estimation in a combined manner represents another step in emphasizing the potential of attribute-driven GPR data analyses. N2 - Geophysikalische Erkundungsmethoden haben in den vergangenen Jahrzehnten eine weite Verbreitung bei der zerstörungsfreien beziehungsweise zerstörungsarmen Erkundung des oberflächennahen Untergrundes gefunden. Im Vergleich zur Vielzahl anderer existierender Verfahrenstypen ermöglicht das Georadar (auch als Ground Penetrating Radar bezeichnet) unter günstigen Standortbedingungen Untersuchungen mit der höchsten räumlichen Auflösung. Georadar zählt zu den elektromagnetischen (EM) Verfahren und beruht als Wellenverfahren auf der Ausbreitung von hochfrequenten EM-Wellen, das heisst deren Reflektion, Refraktion und Transmission im Untergrund. Während zweidimensionale Messstrategien bereits weit verbreitet sind, steigt gegenwärtig das Interesse an hochauflösenden, flächenhaften Messstrategien, die es erlauben, Untergrundstrukturen dreidimensional abzubilden. Ein dem Georadar prinzipiell ähnliches Verfahren ist die Reflexionsseismik, deren Hauptanwendung in der Lagerstättenerkundung liegt. Im Laufe des letzten Jahrzehnts führte der zunehmende Bedarf an neuen Öl- und Gaslagerstätten sowie die Notwendigkeit zur optimalen Nutzung existierender Reservoirs zu einer verstärkten Anwendung und Entwicklung sogenannter seismischer Attribute. Attribute repräsentieren ein Datenmaß, welches zu einer verbesserten visuellen Darstellung oder Quantifizierung von Dateneigenschaften führt die von Relevanz für die jeweilige Fragestellung sind. Trotz des Erfolgs von Attributanalysen bei reservoirbezogenen Anwendungen und der grundlegenden Ähnlichkeit von reflexionsseismischen und durch Georadar erhobenen Datensätzen haben attributbasierte Ansätze bisher nur eine geringe Verbreitung in der Georadargemeinschaft gefunden. Das Ziel dieser Arbeit ist es, das Potential von Attributanalysen zur verbesserten Interpretation von Georadardaten zu untersuchen. Dabei liegt der Schwerpunkt auf Anwendungen aus der Archäologie und dem Ingenieurwesen. Der Erfolg von Attributen im Allgemeinen und von solchen mit Berücksichtigung von Nachbarschaftsbeziehungen im Speziellen steht in engem Zusammenhang mit der Genauigkeit, mit welcher die gemessenen Daten räumlich lokalisiert werden können. Vor der eigentlichen Attributuntersuchung wurden deshalb die Möglichkeiten zur kinematischen Positionierung in Echtzeit beim Georadarverfahren untersucht. Ich konnte zeigen, dass die Kombination von modernen selbstverfolgenden Totalstationen mit Georadarinstrumenten unter Verwendung von leistungsfähigen Funkmodems eine zentimetergenaue Positionierung ermöglicht. Experimentelle Studien haben gezeigt, dass die beiden potentiell limitierenden Faktoren - systeminduzierte Signalstöreffekte und Datenverzögerung (sogenannte Latenzzeiten) - vernachlässigt beziehungsweise korrigiert werden können. In der Archäologie ist die Untersuchung oberflächennaher Strukturen und deren räumlicher Gestalt wichtig zur Optimierung geplanter Grabungen. Das Georadar hat sich hierbei zu einem der wohl am meisten genutzten zerstörungsfreien geophysikalischen Verfahren entwickelt. Archäologische Georadardatensätze zeichnen sich jedoch oft durch eine hohe Komplexität aus, was mit der wiederholten anthropogenen Nutzung des oberflächennahen Untergrundes in Verbindung gebracht werden kann. In dieser Arbeit konnte gezeigt werden, dass die Verwendung zweier unterschiedlicher Attribute zur Beschreibung der Variabilität zwischen benachbarten Datenspuren eine deutlich verbesserte Interpretation in Bezug auf die Fragestellung ermöglicht. Des Weiteren konnte ich zeigen, dass eine integrative Auswertung von mehreren Datensätzen (methodisch sowie bearbeitungstechnisch) zu einer fundierteren Interpretation führen kann, zum Beispiel bei komplementären Informationen der Datensätze. Im Ingenieurwesen stellen Beschädigungen oder Zerstörungen von Versorgungsleitungen im Untergrund eine große finanzielle Schadensquelle dar. Polarisationseffekte, das heisst Änderungen der Signalamplitude in Abhängigkeit von Akquisitions- sowie physikalischen Parametern stellen ein bekanntes Phänomen dar, welches in der Anwendung bisher jedoch kaum genutzt wird. In dieser Arbeit wurde gezeigt, wie Polarisationseffekte zu einer verbesserten Interpretation verwendet werden können. Die Überführung von geometrischen und physikalischen Attributen in ein neues, so genanntes Depolarisationsattribut hat gezeigt, wie unterschiedliche Leitungstypen extrahiert und anhand ihrer Polarisationscharakteristika klassifiziert werden können. Weitere wichtige physikalische Charakteristika des Georadarwellenfeldes können mit dem Matching Pursuit-Verfahren untersucht werden. Dieses Verfahren hatte in den letzten Jahren einen großen Einfluss auf moderne Signal- und Bildverarbeitungsansätze. Matching Pursuit wurde in der Geophysik bis jetzt hauptsächlich zur hochauflösenden Zeit-Frequenzanalyse verwendet. Anhand eines modifizierten Tree-based Matching Pursuit Algorithmus habe ich demonstriert, welche weiterführenden Möglichkeiten solche Datenzerlegungen für die Bearbeitung und Interpretation von Georadardaten eröffnen. Insgesamt zeigt diese Arbeit, wie moderne Vermessungstechniken und attributbasierte Analysestrategien genutzt werden können um dreidimensionale Daten effektiv und genau zu akquirieren beziehungsweise die resultierenden Datensätze effizient und verlässlich zu interpretieren. KW - Attributanalyse KW - Georadar KW - Bildbearbeitung KW - attribute analysis KW - ground penetrating radar KW - image processing Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50124 ER - TY - THES A1 - Schwabedal, Justus Tilmann Caspar T1 - Phase dynamics of irregular oscillations N2 - In der vorliegenden Dissertation wird eine Beschreibung der Phasendynamik irregulärer Oszillationen und deren Wechselwirkungen vorgestellt. Hierbei werden chaotische und stochastische Oszillationen autonomer dissipativer Systeme betrachtet. Für eine Phasenbeschreibung stochastischer Oszillationen müssen zum einen unterschiedliche Werte der Phase zueinander in Beziehung gesetzt werden, um ihre Dynamik unabhängig von der gewählten Parametrisierung der Oszillation beschreiben zu können. Zum anderen müssen für stochastische und chaotische Oszillationen diejenigen Systemzustände identifiziert werden, die sich in der gleichen Phase befinden. Im Rahmen dieser Dissertation werden die Werte der Phase über eine gemittelte Phasengeschwindigkeitsfunktion miteinander in Beziehung gesetzt. Für stochastische Oszillationen sind jedoch verschiedene Definitionen der mittleren Geschwindigkeit möglich. Um die Unterschiede der Geschwindigkeitsdefinitionen besser zu verstehen, werden auf ihrer Basis effektive deterministische Modelle der Oszillationen konstruiert. Hierbei zeigt sich, dass die Modelle unterschiedliche Oszillationseigenschaften, wie z. B. die mittlere Frequenz oder die invariante Wahrscheinlichkeitsverteilung, nachahmen. Je nach Anwendung stellt die effektive Phasengeschwindigkeitsfunktion eines speziellen Modells eine zweckmäßige Phasenbeziehung her. Wie anhand einfacher Beispiele erklärt wird, kann so die Theorie der effektiven Phasendynamik auch kontinuierlich und pulsartig wechselwirkende stochastische Oszillationen beschreiben. Weiterhin wird ein Kriterium für die invariante Identifikation von Zuständen gleicher Phase irregulärer Oszillationen zu sogenannten generalisierten Isophasen beschrieben: Die Zustände einer solchen Isophase sollen in ihrer dynamischen Entwicklung ununterscheidbar werden. Für stochastische Oszillationen wird dieses Kriterium in einem mittleren Sinne interpretiert. Wie anhand von Beispielen demonstriert wird, lassen sich so verschiedene Typen stochastischer Oszillationen in einheitlicher Weise auf eine stochastische Phasendynamik reduzieren. Mit Hilfe eines numerischen Algorithmus zur Schätzung der Isophasen aus Daten wird die Anwendbarkeit der Theorie anhand eines Signals regelmäßiger Atmung gezeigt. Weiterhin zeigt sich, dass das Kriterium der Phasenidentifikation für chaotische Oszillationen nur approximativ erfüllt werden kann. Anhand des Rössleroszillators wird der tiefgreifende Zusammenhang zwischen approximativen Isophasen, chaotischer Phasendiffusion und instabilen periodischen Orbits dargelegt. Gemeinsam ermöglichen die Theorien der effektiven Phasendynamik und der generalisierten Isophasen eine umfassende und einheitliche Phasenbeschreibung irregulärer Oszillationen. N2 - Many natural systems embedded in a complex surrounding show irregular oscillatory dynamics. The oscillations can be parameterized by a phase variable in order to obtain a simplified theoretical description of the dynamics. Importantly, a phase description can be easily extended to describe the interactions of the system with its surrounding. It is desirable to define an invariant phase that is independent of the observable or the arbitrary parameterization, in order to make, for example, the phase characteristics obtained from different experiments comparable. In this thesis, we present an invariant phase description of irregular oscillations and their interactions with the surrounding. The description is applicable to stochastic and chaotic irregular oscillations of autonomous dissipative systems. For this it is necessary to interrelate different phase values in order to allow for a parameterization-independent phase definition. On the other hand, a criterion is needed, that invariantly identifies the system states that are in the same phase. To allow for a parameterization-independent definition of phase, we interrelate different phase values by the phase velocity. However, the treatment of stochastic oscillations is complicated by the fact that different definitions of average velocity are possible. For a better understanding of their differences, we analyse effective deterministic phase models of the oscillations based upon the different velocity definitions. Dependent on the application, a certain effective velocity is suitable for a parameterization-independent phase description. In this way, continuous as well pulse-like interactions of stochastic oscillations can be described, as it is demonstrated with simple examples. On the other hand, an invariant criterion of identification is proposed that generalizes the concept of standard (Winfree) isophases. System states of the same phase are identified to belong to the same generalized isophase using the following invariant criterion: All states of an isophase shall become indistinguishable in the course of time. The criterion is interpreted in an average sense for stochastic oscillations. It allows for a unified treatment of different types of stochastic oscillations. Using a numerical estimation algorithm of isophases, the applicability of the theory is demonstrated by a signal of regular human respiration. For chaotic oscillations, generalized isophases can only be obtained up to a certain approximation. The intimate relationship between these approximate isophase, chaotic phase diffusion, and unstable periodic orbits is explained with the example of the chaotic \roes oscillator. Together, the concept of generalized isophases and the effective phase theory allow for a unified, and invariant phase description of stochastic and chaotic irregular oscillations. T2 - Phasendynamik irregulärer Oszillationen KW - Phasendynamik KW - Stochastische Oszillationen KW - Chaotische Oszillationen KW - Phasenkopplung KW - Zeitreihenanalyse KW - phase dynamics KW - stochastic oscillations KW - chaotic oscillations KW - phase coupling KW - time series analysis Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50115 ER - TY - THES A1 - Tronci, Giuseppe T1 - Synthesis, characterization, and biological evaluation of gelatin-based scaffolds T1 - Synthese, Charakterisierung und biologische Evaluierung Gelatine-basierter Scaffolds N2 - This work presents the development of entropy-elastic gelatin based networks in the form of films or scaffolds. The materials have good prospects for biomedical applications, especially in the context of bone regeneration. Entropy-elastic gelatin based hydrogel films with varying crosslinking densities were prepared with tailored mechanical properties. Gelatin was covalently crosslinked above its sol gel transition, which suppressed the gelatin chain helicity. Hexamethylene diisocyanate (HDI) or ethyl ester lysine diisocyanate (LDI) were applied as chemical crosslinkers, and the reaction was conducted either in dimethyl sulfoxide (DMSO) or water. Amorphous films were prepared as measured by Wide Angle X-ray Scattering (WAXS), with tailorable degrees of swelling (Q: 300-800 vol. %) and wet state Young’s modulus (E: 70 740 kPa). Model reactions showed that the crosslinking reaction resulted in a combination of direct crosslinks (3-13 mol.-%), grafting (5-40 mol.-%), and blending of oligoureas (16-67 mol.-%). The knowledge gained with this bulk material was transferred to the integrated process of foaming and crosslinking to obtain porous 3-D gelatin-based scaffolds. For this purpose, a gelatin solution was foamed in the presence of a surfactant, Saponin, and the resulting foam was fixed by chemical crosslinking with a diisocyanate. The amorphous crosslinked scaffolds were synthesized with varied gelatin and HDI concentrations, and analyzed in the dry state by micro computed tomography (µCT, porosity: 65±11–73±14 vol.-%), and scanning electron microscopy (SEM, pore size: 117±28–166±32 µm). Subsequently, the work focused on the characterization of the gelatin scaffolds in conditions relevant to biomedical applications. Scaffolds showed high water uptake (H: 630-1680 wt.-%) with minimal changes in outer dimension. Since a decreased scaffold pore size (115±47–130±49 µm) was revealed using confocal laser scanning microscopy (CLSM) upon wetting, the form stability could be explained. Shape recoverability was observed after removal of stress when compressing wet scaffolds, while dry scaffolds maintained the compressed shape. This was explained by a reduction of the glass transition temperature upon equilibration with water (dynamic mechanical analysis at varied temperature (DMTA)). The composition dependent compression moduli (Ec: 10 50 kPa) were comparable to the bulk micromechanical Young’s moduli, which were measured by atomic force microscopy (AFM). The hydrolytic degradation profile could be adjusted, and a controlled decrease of mechanical properties was observed. Partially-degraded scaffolds displayed an increase of pore size. This was likely due to the pore wall disintegration during degradation, which caused the pores to merge. The scaffold cytotoxicity and immunologic responses were analyzed. The porous scaffolds enabled proliferation of human dermal fibroblasts within the implants (up to 90 µm depth). Furthermore, indirect eluate tests were carried out with L929 cells to quantify the material cytotoxic response. Here, the effect of the sterilization method (Ethylene oxide sterilization), crosslinker, and surfactant were analyzed. Fully cytocompatible scaffolds were obtained by using LDI as crosslinker and PEO40 PPO20-PEO40 as surfactant. These investigations were accompanied by a study of the endotoxin material contamination. The formation of medical-grade materials was successfully obtained (<0.5 EU/mL) by using low-endotoxin gelatin and performing all synthetic steps in a laminar flow hood. N2 - Diese Arbeit beschreibt die Entwicklung Entropie-elastischer Gelatine-basierter Netzwerke als Filme und Scaffolds. Mögliche Anwendungen für die entwickelten Materialien liegen im biomedizinischen Bereich, insbesondere der Knochenregeneration. Im ersten Schritt der Arbeit wurden Entropie-elastische, Gelatine-basierte Hydrogel-Filme entwickelt, deren mechanische Eigenschaften durch die Veränderung der Quervernetzungsdichte eingestellt werden konnten. Dazu wurde Gelatine in Lösung oberhalb der Gel-Sol-Übergangstemperatur kovalent quervernetzt, wodurch die Ausbildung helikaler Konformationen unterdrückt wurde. Als Quervernetzer wurden Hexamethylendiisocyanat (HDI) oder Lysindiisocyanat ethylester (LDI) verwendet, und die Reaktionen wurden in Dimethylsulfoxid (DMSO) oder Wasser durchgeführt. Weitwinkel Röntgenstreuungs Spektroskopie (WAXS) zeigte, dass die Netzwerke amorph waren. Der Quellungsgrad (Q: 300-800 vol. %) und der Elastizitätsmodul (E: 70 740 kPa) konnten dabei durch die systematische Veränderung der Quervernetzungsdichte eingestellt werden. Die Analyse der Quervernetzungsreaktion durch Modellreaktionen zeigte, dass die Stabilisierung der Hydrogele sowohl auf kovalente Quervernetzungen (3-13 mol.-%) als auch auf Grafting von (5-40 mol.-%) und Verblendung mit Oligoharnstoffen (16-67 mol.-%) zurückgeführt werden kann. Die Erkenntnisse aus dem Umgang mit dem Bulk-Material wurden dann auf einen integrierten Prozess der Verschäumung und chemischen Quervernetzung transferiert, so dass poröse, dreidimensionale Scaffolds erhalten wurden. Dafür wurde eine wässrige Gelatinelösung in Gegenwart eines Tensids, Saponin, verschäumt, und durch chemische Quervernetzung mit einem Diisocyanat zu einem Scaffold fixiert. Die Scaffolds hergestellt mit unterschiedlichen Mengen HDI und Gelatine, wurden im trockenen Zustand mittels Mikro Computertomographie (µCT, Porosität: 65±11–73±14 vol.-%) und Rasterelektronenmikroskopie (SEM, Porengröße: 117±28–166±32) charakterisiert. Anschließend wurden die Scaffolds unter Bedingungen charakterisiert, die für biomedizinische Anwendungen relevant sind. Die Scaffolds nahmen große Mengen Wasser auf (H: 630 1680 wt.-%) bei nur minimalen Änderungen der äußeren Dimensionen. Konfokale Laser Scanning Mikroskopie zeigte, dass die Wasseraufnahme zu einer verminderten Porengröße führte (115±47–130±49 µm), wodurch die Formstabilität erklärbar ist. Eine Formrückstellung der Scaffolds wurde beobachtet, wenn Scaffolds im nassen Zustand komprimiert wurden und dann entlastet wurden, während trockene Proben in der komprimierten Formen blieben (kalte Deformation). Dieses Entropie-elastische Verhalten der nassen Scaffolds konnte durch die Verminderung der Glasübergangstemperatur des Netzwerks nach Wasseraufnahme erklärt werden (DMTA). Die zusammensetzungsabhängigen Kompressionsmoduli (Ec: 10 50 kPa) waren mit den mikromechanischen Young’s moduli vergleichbar, die mittels Rasterkraftmikroskopie (AFM) gemessen wurden. Das hydrolytische Degradationsprofil konnte variiert werden, und während des Abbaus kam es nur zu kontrolliert-graduellen Änderungen der mechanischen Eigenschaften. Während der Degradation konnte ein Anstieg der mittleren Porengröße beobachtet werden, was durch das Verschmelzen von Poren durch den Abbau der Wände erklärt werden kann. Die Endotoxinbelastung und die Zytotoxizität der Scaffolds wurden untersucht. Humane Haut-Fibroblasten wuchsen auf und innerhalb der Scaffolds (bis zu einer Tiefe von 90 µm). Indirekte Eluat-Tests mit L929 Mausfibroblasten wurden genutzt, um die Zytotoxizität der Materialien, insbesondere den Einfluss des Quervernetzertyps und des Tensids, zu bestimmen. Vollständig biokompatible Materialien wurden erzielt, wenn LDI als Quervernetzer und PEO40 PPO20-PEO40 als Tensid verwendet wurden. Durch den Einsatz von Gelatine mit geringem Endotoxin-Gehalt, und die Synthese in einer Sterilarbeitsblank konnten Materialien für medizinische Anwendungen (Endotoxin-Gehalt < 0.5 EU/mL) hergestellt werden. KW - Hydrogele KW - Polymer-Netzwerke KW - Gelatine KW - poröse Gerüste KW - Abbau KW - regenerative Medizin KW - hydrogels KW - polymer networks KW - gelatin KW - porous scaffolds KW - degradation KW - regenerative medicine Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49727 ER - TY - THES A1 - Scherler, Dirk T1 - Climate variability and glacial dynamics in the Himalaya T1 - Klimavariabilität und Gletscherdynamik im Himalaya N2 - In den Hochgebirgen Asiens bedecken Gletscher eine Fläche von ungefähr 115,000 km² und ergeben damit, neben Grönland und der Antarktis, eine der größten Eisakkumulationen der Erde. Die Sensibilität der Gletscher gegenüber Klimaschwankungen macht sie zu wertvollen paläoklimatischen Archiven in Hochgebirgen, aber gleichzeitig auch anfällig gegenüber rezenter und zukünftiger globaler Erwärmung. Dies kann vor allem in dicht besiedelten Gebieten Süd-, Ost- und Zentralasiens zu großen Problem führen, in denen Gletscher- und Schnee-Schmelzwässer eine wichtige Ressource für Landwirtschaft und Stromerzeugung darstellen. Eine erfolgreiche Prognose des Gletscherverhaltens in Reaktion auf den Klimawandel und die Minderung der sozioökonomischen Auswirkungen erfordert fundierte Kenntnisse der klimatischen Steuerungsfaktoren und der Dynamik asiatischer Gletscher. Aufgrund ihrer Abgeschiedenheit und dem erschwerten Zugang gibt es nur wenige glaziologische Geländestudien, die zudem räumlich und zeitlich sehr begrenzt sind. Daher fehlen bisher grundlegende Informationen über die Mehrzahl asiatischer Gletscher. In dieser Arbeit benutze ich verschiedene Methoden, um die Dynamik asiatischer Gletscher auf mehreren Zeitskalen zu untersuchen. Erstens teste ich eine Methode zur präzisen satelliten-gestützten Messung von Gletscheroberflächen-Geschwindigkeiten. Darauf aufbauend habe ich eine umfassende regionale Erhebung der Fliessgeschwindigkeiten und Frontdynamik asiatischer Gletscher für die Jahre 2000 bis 2008 durchgeführt. Der gewonnene Datensatz erlaubt einmalige Einblicke in die topographischen und klimatischen Steuerungsfaktoren der Gletscherfließgeschwindigkeiten in den Gebirgsregionen Hochasiens. Insbesondere dokumentieren die Daten rezent ungleiches Verhalten der Gletscher im Karakorum und im Himalaja, welches ich auf die konkurrierenden klimatischen Einflüsse der Westwinddrift im Winter und des Indischen Monsuns im Sommer zurückführe. Zweitens untersuche ich, ob klimatisch bedingte Ost-West Unterschiede im Gletscherverhalten auch auf längeren Zeitskalen eine Rolle spielen und gegebenenfalls für dokumentierte regional asynchrone Gletschervorstöße relevant sind. Dazu habe ich mittels kosmogener Nuklide Oberflächenalter von erratischen Blöcken auf Moränen ermittelt und eine glaziale Chronologie für das obere Tons Tal, in den Quellgebieten des Ganges, erstellt. Dieses Gebiet befindet sich in der Übergangszone von monsunaler zu Westwind beeinflusster Feuchtigkeitszufuhr und ist damit ideal gelegen, um die Auswirkungen dieser beiden atmosphärischen Zirkulationssysteme auf Gletschervorstöße zu untersuchen. Die ermittelte glaziale Chronologie dokumentiert mehrere Gletscherschwankungen während des Endstadiums der letzten Pleistozänen Vereisung und während des Holzäns. Diese weisen darauf hin, dass Gletscherschwankungen im westlichen Himalaja weitestgehend synchron waren und auf graduelle glaziale-interglaziale Temperaturveränderungen, überlagert von monsunalen Niederschlagsschwankungen höherer Frequenz, zurück zu führen sind. In einem dritten Schritt kombiniere ich Satelliten-Klimadaten mit Eisfluss-Abschätzungen und topographischen Analysen, um den Einfluss der Gletscher Hochasiens auf die Reliefentwicklung im Hochgebirge zu untersuchen. Die Ergebnisse dokumentieren ausgeprägte meridionale Unterschiede im Grad und im Stil der Vergletscherung und glazialen Erosion in Abhängigkeit von topographischen und klimatischen Faktoren. Gegensätzlich zu bisherigen Annahmen deuten die Daten darauf hin, dass das monsunale Klima im zentralen Himalaja die glaziale Erosion schwächt und durch den Erhalt einer steilen orographischen Barriere das Tibet Plateau vor lateraler Zerschneidung bewahrt. Die Ergebnisse dieser Arbeit dokumentieren, wie klimatische und topographische Gradienten die Gletscherdynamik in den Hochgebirgen Asiens auf Zeitskalen von 10^0 bis 10^6 Jahren beeinflussen. Die Reaktionszeit der Gletscher auf Klimaveränderungen sind eng an Eigenschaften wie Schuttbedeckung und Neigung gekoppelt, welche ihrerseits von den topographischen Verhältnissen bedingt sind. Derartige Einflussfaktoren müssen bei paläoklimatischen Rekonstruktion und Vorhersagen über die Entwicklung asiatischer Gletscher berücksichtigt werden. Desweiteren gehen die regionalen topographischen Unterschiede der vergletscherten Gebiete Asiens teilweise auf klimatische Gradienten und den langfristigen Einfluss der Gletscher auf die topographische Entwicklung des Gebirgssystems zurück. N2 - In the high mountains of Asia, glaciers cover an area of approximately 115,000 km² and constitute one of the largest continental ice accumulations outside Greenland and Antarctica. Their sensitivity to climate change makes them valuable palaeoclimate archives, but also vulnerable to current and predicted Global Warming. This is a pressing problem as snow and glacial melt waters are important sources for agriculture and power supply of densely populated regions in south, east, and central Asia. Successful prediction of the glacial response to climate change in Asia and mitigation of the socioeconomic impacts requires profound knowledge of the climatic controls and the dynamics of Asian glaciers. However, due to their remoteness and difficult accessibility, ground-based studies are rare, as well as temporally and spatially limited. We therefore lack basic information on the vast majority of these glaciers. In this thesis, I employ different methods to assess the dynamics of Asian glaciers on multiple time scales. First, I tested a method for precise satellite-based measurement of glacier-surface velocities and conducted a comprehensive and regional survey of glacial flow and terminus dynamics of Asian glaciers between 2000 and 2008. This novel and unprecedented dataset provides unique insights into the contrasting topographic and climatic controls of glacial flow velocities across the Asian highlands. The data document disparate recent glacial behavior between the Karakoram and the Himalaya, which I attribute to the competing influence of the mid-latitude westerlies during winter and the Indian monsoon during summer. Second, I tested whether such climate-related longitudinal differences in glacial behavior also prevail on longer time scales, and potentially account for observed regionally asynchronous glacial advances. I used cosmogenic nuclide surface exposure dating of erratic boulders on moraines to obtain a glacial chronology for the upper Tons Valley, situated in the headwaters of the Ganges River. This area is located in the transition zone from monsoonal to westerly moisture supply and therefore ideal to examine the influence of these two atmospheric circulation regimes on glacial advances. The new glacial chronology documents multiple glacial oscillations during the last glacial termination and during the Holocene, suggesting largely synchronous glacial changes in the western Himalayan region that are related to gradual glacial-interglacial temperature oscillations with superimposed monsoonal precipitation changes of higher frequency. In a third step, I combine results from short-term satellite-based climate records and surface velocity-derived ice-flux estimates, with topographic analyses to deduce the erosional impact of glaciations on long-term landscape evolution in the Himalayan-Tibetan realm. The results provide evidence for the long-term effects of pronounced east-west differences in glaciation and glacial erosion, depending on climatic and topographic factors. Contrary to common belief the data suggest that monsoonal climate in the central Himalaya weakens glacial erosion at high elevations, helping to maintain a steep southern orographic barrier that protects the Tibetan Plateau from lateral destruction. The results of this thesis highlight how climatic and topographic gradients across the high mountains of Asia affect glacier dynamics on time scales ranging from 10^0 to 10^6 years. Glacial response times to climate changes are tightly linked to properties such as debris cover and surface slope, which are controlled by the topographic setting, and which need to be taken into account when reconstructing mountainous palaeoclimate from glacial histories or assessing the future evolution of Asian glaciers. Conversely, the regional topographic differences of glacial landscapes in Asia are partly controlled by climatic gradients and the long-term influence of glaciers on the topographic evolution of the orogenic system. KW - Gletscher KW - Himalaya KW - Klimawandel KW - Fernerkundung KW - Kosmogene Nuklide KW - Glaciers KW - Himalaya KW - Climate change KW - Remote sensing KW - Cosmogenic nuclides Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49871 ER - TY - THES A1 - Alff, Henryk T1 - Zwischen Geburtsort und Land der Vorväter : die sozialen Netzwerke von Kasachen aus der Mongolei und ihre Rolle im postsowjetischen Migrations- und Inkorporationsprozess T1 - Between place of birth and land of forefathers : the social networks of Kazakhs from Mongolia and their role in the post-soviet migration and incorporation process N2 - Seit dem Zusammenbruch der Sowjetunion kamen in diesem Raum neue Migrationsprozesse wie die Arbeitsmigration zwischen den südlichen GUS-Republiken und Russland, aber auch grenzüberschreitende Bevölkerungsbewegungen ethnischer Gruppen in ihre „historischen Herkunftsgebiete“ auf. Die in der vorliegenden Arbeit untersuchten, dynamischen Wanderungsprozesse von Kasachen zwischen der Mongolei und Kasachstan weisen Kennzeichen dieses Migrationstypus, aber auch einige Besonderheiten auf. Die vorliegende Arbeit hat längere Forschungsaufenthalte in Kasachstan und der Mongolei von 2006 bis 2009 zur Grundlage. Aus der Mongolei stammende kasachische Migranten im Umland von Almaty und Kasachen im westlichsten aymag der Mongolei, Bayan-Ölgiy, wurden mittels quantitativer und qualitativer Methoden empirischer Sozialforschung befragt. Ergänzend wurden in beiden Staaten Befragungen von Experten aus gesellschaftlichen, wissenschaftlichen und politischen Institutionen durchgeführt, um eine möglichst ausgeglichene Sicht auf die postsowjetischen Migrations- und Inkorporationsprozesse zwischen beiden Staaten sicherzustellen. Zwischen den Migranten in Kasachstan und ihren – noch bzw. wieder – in der Mongolei lebenden Verwandten haben sich in den letzten Jahrzehnten enge soziale Netzwerke entwickelt. Die Aufrechterhaltung der Bindungen wird durch eine Verbesserung der Transport- und Kommunikationsmöglichkeiten zwischen beiden Staaten gefördert. Zirkuläre Migrationsmuster, regelmäßige Besuche und Telefongespräche sowie grenzüberschreitende sozioökonomische Unterstützungsmechanismen haben sich insbesondere in den vergangenen Jahren intensiviert. Diese Interaktionen sind im Kontext der rechtlichen, politischen und wirtschaftlichen Bedingungen im Migrationssystem Mongolei-Kasachstan – und insbesondere in Wechselwirkung mit der staat¬lichen Migrations- und Inkorpora-tionspolitik – einzuordnen. Die Erkenntnisse der vorliegenden Untersuchung lassen sich in aller Kürze so zusammenfassen: (I) Die in sozialen Netzwerken organisierten Interaktionen der Kasachen aus der Mongolei weisen Merkmale von, aber auch Unterschiede zu Konzepten des Transnationalismus-Ansatzes auf. (II) Die sozialen Bindungen zwischen Verwandten generieren Sozialkapital und tragen zur alltäglichen Unterstützung bei. (III) Die lokalen und grenzüberschreitenden Aktivitäten der Migranten sind als Strategien der sozioökonomischen Eingliederung zu deuten. (IV) Ein wesentlicher Teil der aus der Mongolei stammenden Kasachen artikuliert von der Mehrheitsbevölkerung abweichende, hybride Identifikationsmuster, die die politischen Eliten in Kasachstan bisher zu wenig wahrnehmen. N2 - Since the collapse of the USSR new migration processes such as labour migration between the southern republics of CIS and Russia, and transborder mobility of ethnic groups to their „regions of historical provenance“ emerged on its territory. The dynamic migration processes of ethnic Kazakhs between Mongolia and Kazakhstan analyzed here shows features of the latter type of migration, but also some specific characters. The present dissertation is based on sustained fieldwork carried out in Kazakhstan and Mongolia from 2006 to 2009. Surveys and in-depth interviews were conducted among Mongolian-Kazakh migrants in the environs of Almaty and Kazakhs in Mongolia’s westernmost aymag Bayan-Ölgiy. Additional interviews were held among experts from public, scientific and political institutions to ensure a balanced view on the post-soviet migration and incorporation processes. In the last two decades dense social networks developed between Mongolian-Kazakh migrants in Kazakhstan and their relatives – still or again – living in Mongolia. These networks were perpetuated by the improvement of transportation and communication links connecting both states. Circular migration patterns, regular visits and phone calls as mechanisms of transborder socioeconomic support have intensified during the last years. This interaction has to be classified in the context of legal, political and economical conditions, and, especially, in interdependency with the migration and incorporation policies of the state. The insight of the present analysis can be summarized in short in the following way: (I) The transborder interaction of the Mongolian Kazakhs, which is organized in social networks, is characterized by features of, but in the same way differs from concepts of transnationalism theory. (II) The social relations among Mongolian-Kazakh relatives generate social capital and contribute to everyday support. (III) The local and transborder activities of the Mongolian Kazakhs are to be explained as strategies of socioeconomic incorporation. (IV) A significant part of Mongolian Kazakhs articulate hybrid identification patterns that differ from the majority population and that are yet insufficiently perceived by the political elites in Kazakhstan. KW - Mongolei KW - Kasachstan KW - transnationale Migration KW - Inkorporation KW - soziale Netzwerke KW - Mongolia KW - Kazakhstan KW - transnational migration KW - inkorporation KW - social networks Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49886 ER - TY - THES A1 - Strohm, Daniela T1 - Modulation der Insulinsignalgebung durch Prostaglandin E2 und Endocannabinoide T1 - Modulation of insulin signaling by prostaglandin E2 and endocannabinoids N2 - Die adipositasbedingte Insulinresistenz geht mit einer unterschwelligen Entzündungsreaktion einher. Als Antwort auf dieses Entzündungsgeschehen wird PGE2 unter anderem von Kupffer Zellen der Leber freigesetzt und kann seine Wirkung über vier PGE2-Rezeptorsubtypen (EP1-EP4) vermitteln. In vorangegangenen Arbeiten konnte gezeigt werden, dass PGE2 in Rattenhepatozyten über den EP3 R ERK1/2-abhängig die intrazelluläre Weiterleitung des Insulinsignals hemmt. Über die Modulation der Insulinrezeptorsignalkette durch andere EP-Rezeptoren war bisher nichts bekannt. Daher sollte in stabil transfizierten Zelllinien, die jeweils nur einen der vier EP-Rezeptorsubtypen exprimierten, der Einfluss von PGE2 auf die Insulinrezeptorsignalkette untersucht werden. Es wurden HepG2-Zellen, die keinen funktionalen EP-Rezeptor aufwiesen, sowie HepG2-Zellen, die stabil den EP1-R (HepG2-EP1), den EP3β-R (HepG2 EP3β) oder den EP4-R (HepG2 EP4) exprimierten, sowie die humane fötale Hepatozytenzelllinie, Fh hTert, die den EP2- und den EP4-R exprimierte, für die Untersuchungen verwendet. Die Zellen wurden für 330 min mit PGE2 (10 µM) vorinkubiert, um die pathophysiologische Situation nachzustellen und anschließend mit Insulin (10 nM) für 15 min stimuliert. Die insulinabhängige Akt- und ERK1/2-Phosphorylierung wurde im Western-Blot bestimmt. In allen Hepatomzelllinien die EP-R exprimierten, nicht aber in der Zelllinie, die keinen EP R exprimierte, hemmte PGE2 die insulinstimulierte Akt-Phosphorylierung. In allen drei stabil transfizierten Zelllinien, nicht jedoch in den Fh-hTert-Zellen, steigerte PGE2 die basale und insulinstimulierte Phosphorylierung der Serin/Threoninkinase ERK1/2. In den HepG2 EP1- und den HepG2-EP3β-Zellen steigerte PGE2 mutmaßlich über die ERK1/2-Aktivierung die Serinphosphorylierung des IRS, welche die Weiterleitung des Insulinsignals blockiert. Die Hemmung der Aktivierung von ERK1/2 hob in EP3 R-exprimierenden Zellen die Abschwächung der Insulinsignalübertragung teilweise auf. In diesen Zellen scheint die ERK1/2-Aktivierung die größte Bedeutung für die Hemmung der insulinstimulierten Akt-Phosphorylierung zu haben. Da durch die Hemmstoffe die PGE2-abhängige Modulation nicht vollständig aufgehoben wurde, scheinen darüber hinaus aber noch andere Mechanismen zur Modulation beizutragen. In den Fh hTert-Zellen wurde die Insulinrezeptorsignalkette offensichtlich über einen ERK1/2-unabhängigen, bisher nicht identifizierten Weg unterbrochen. Eine gesteigerte PGE2-Bildung im Rahmen der Adipositas ist nicht auf die peripheren Gewebe beschränkt. Auch im Hypothalamus können bei Adipositas Zeichen einer Entzündung nachgewiesen werden, die mit einer gesteigerten PGE2-Bildung einhergehen. Daher wurde das EP R-Profil von primären hypothalamischen Neuronen und neuronalen Modellzelllinien charakterisiert, um zu prüfen, ob PGE2 in hypothalamischen Neuronen die Insulinsignalkette in ähnlicher Weise unterbricht wie in Hepatozyten. In allen neuronalen Zellen hemmte die Vorinkubation mit PGE2 die insulinstimulierte Akt-Phosphorylierung nicht. In der neuronalen hypothalamischen Zelllinie N 41 wirkte PGE2 eher synergistisch mit Insulin. In durch Retinsäure ausdifferenzierten SH SY5Y-Zellen waren die Ergebnisse allerdings widersprüchlich. Dies könnte darauf zurückzuführen sein, dass die Expression der EP Rezeptoren im Verlauf der Kultur stark schwankte und somit die EP R-Ausstattung der Zellen zwischen den Zellversuchen variierte. Auch in den primären hypothalamischen Neuronen variierte die EP R-Expression abhängig vom Differenzierungszustand und PGE2 beeinflusste die insulinstimulierte Akt-Phosphorylierung nicht. Obwohl in allen neuronalen Zellen die Akt-Phosphorylierung durch Insulin gesteigert wurde, konnte in keiner der Zellen eine insulinabhängige Regulation der Expression von Insulinzielgenen (POMC und AgRP) nachgewiesen werden. Das liegt wahrscheinlich an dem niedrigen Differenzierungsgrad der untersuchten Zellen. Im Rahmen der Adipositas kommt es zu einer Überaktivierung des Endocannabinoidsystems. Endocannabinoidrezeptoren sind mit den EP Rezeptoren verwandt. Daher wurde geprüft, ob Endocannabinoide die Insulinsignalweiterleitung in ähnlicher Weise beeinflussen können wie PGE2. Die Vorinkubation der N 41-Zellen für 330 min mit einem Endocannabinoidrezeptoragonisten steigerte die insulinstimulierte Akt-Phosphorylierung, was auf einen insulinsensitiven Effekt von Endocannabinoiden hindeutet. Dies steht im Widerspruch zu der in der Literatur beschriebenen endocannabinoidabhängigen Insulinresistenz, die aber auf indirekte, durch Endocannabinoide ausgelöste Veränderungen zurückzuführen sein könnte. N2 - The obesity related insulin resistance is accompanied by a low grade inflammation. In response to inflammatory stimuli, PGE2 is released from Kupffer cells and signals through four G-Protein coupled PGE2-receptors (EP1-EP4). Previous work showed that PGE2 attenuated insulin signaling in rat hepatocytes through an EP3ß- and ERK1/2-dependent mechanism. Since EP-receptor expression on hepatocytes varies between species and physiological conditions, the effect of the individual EP receptor subtypes on insulin signaling was studied in hepatoma cell lines expressing individual EP receptor subtypes. HepG2 cells lacking functional EP-receptors, and derivatives stably expressing either EP1 receptor (HepG2-EP1), EP3ß receptor (HepG2-EP3ß) or EP4 receptor (HepG2-EP4) and Fh-hTert cells expressing EP2- and EP4-receptor were pre-incubated with PGE2 for 330 min to mimic the sub-acute inflammation. The cells were subsequently stimulated with insulin for 15 min. Akt and ERK1/2 activation was determined by Western Blotting with phospho-specific antibodies. PGE2 inhibited insulin stimulated Akt phosphorylation in all cell lines expressing EP receptors, except in HepG2 cells which are lacking functional EP receptors. PGE2 increased insulin stimulated phosphorylation of the serine/threonine kinase ERK1/2 in all EP R expressing HepG2 cell lines except in Fh-hTert cells. In HepG2-EP1 and HepG2 EP3ß cells PGE2 increased the serine phosphorylation of the insulin receptor substrate, presumably through an ERK1/2 activation. This IRS-serine phosphorylation leads to attenuation of insulin signal transduction. Inhibiting ERK1/2 activation with a specific inhibitor attenuated the PGE2-dependent inhibition of insulin signal transmission in HepG2 EP3ß cells to some extent. ERK1/2 activation in these cells seems to be of major importance for the observed attenuation of insulin stimulated Akt phosphorylation. Application of inhibitors in the other cell lines stably expressing EP receptors provided evidence that other mechanisms contributed to the attenuation of insulin signaling. Insulin signal transduction in Fh-hTert cells by PGE2 was apparently blocked by an ERK1/2-independent mechanism. Increased PGE2 production during obesity is not limited to the periphery. Signs of inflammation have been detected in the hypothalamus, which might be associated with an increased PGE2 production. Therefore, the EP receptor profile of primary neurons as well as neuronal cell models was characterised in order to investigate, whether PGE2 attenuates insulin signal transduction in neuronal cells similar to what was observed in hepatocytes. Pre-incubation with PGE2 did not attenuate insulin stimulated Akt phosphorylation in all neuronal cells. The EP receptor profile in SH SY5Y cells and in primary neurons varied depending on the differentiation status of the cells. Although Akt-kinase was phosphorylated in response to insulin stimulation in all neuronal cells studied, gene expression of insulin target genes (POMC, AgRP) was not modulated by insulin. This might be due to the low level of differentiation of the investigated cells. In the course of obesity, an over-activation of the endocannabinoid system is detected. Since endocannabinoid receptors are related to EP receptors, it was investigated whether endocannabinoids can interfere with insulin signaling in a similar way as PGE2. Pre-incubation of the neuronal cell line N 41 for 330 min with an endocannabinoid receptor agonist, increased insulin stimulated Akt phosphorylation. This implies an insulin sensitising effect of endocannabinoids. This is contradictory to the endocannabinoid-dependent insulin resistance described in the literature and might be caused by indirect endocannabinoid-triggered mechanisms. KW - Insulin KW - Prostaglandin E2 KW - Endocannabinoide KW - Signalübertragung KW - Insulin KW - prostaglandin E2 KW - endocannabinoids KW - signal transduction Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49678 ER - TY - THES A1 - Reinke, Sebastian T1 - Privatisierung des Maßregelvollzugs nach §§ 63, 64 StGB, § 7 JGG und der Aufgaben nach §§ 81, 126a StPO - dargestellt am Beispiel des Brandenburger Modells T1 - Privatisation of the hospital order treatment after §§ 63, 64 StGB, § 7 JGG and the duties after §§ 81, 126a StPO - shown with the help of the Brandenburg model N2 - Obwohl Privatisierung in den letzten Jahren und Jahrzehnten ein Kernthema nicht nur der rechtswissenschaftlichen Debatte gewesen ist, wurde der Bereich der Privatisierung des Maßregelvollzugs nach §§ 63, 64 StGB, § 7 JGG sowie der Aufgaben nach §§ 81, 126a StPO insoweit vernachlässigt. Vor dem Hintergrund hauptsächlich fiskalischer Erwägungen und den Möglichkeiten einer Flucht aus dem Beamten- und dem Haushaltsrecht geraten zunehmend auch solche Bereiche in den Blickpunkt von Privatisierungsüberlegungen, die bisher selbstverständlich dem Bereich staatlicher Tätigkeit zugerechnet werden. Der Staat versteht sich zunehmend als Gewährleistungsstaat, der staatliche Aufgaben nicht mehr eigenhändig erfüllt, sondern sich hierfür der Leistung Dritter bedient. Bislang wurden der Maßregelvollzug nach §§ 63, 64 StGB und § 7 JGG sowie die Unterbringung zur Beobachtung des Beschuldigten nach § 81 StPO und die einstweilige Unterbringung nach § 126a StPO durch den Staat in den (staatlichen) Landeskliniken vollzogen. Auf der im Jahr 2004 eingeführten Rechtsgrundlage des § 36 Abs. 3 S. 2 und S. 5 BbgPsychKG entwickelte das Land Brandenburg ein Modell, um die Durchführung der genannten Aufgaben zu privatisieren, und gliederte die Landeskliniken im Jahr 2006 aus der Landesverwaltung aus. Der Autor untersucht die verfassungsrechtliche Zulässigkeit dieses Privatisierungsvorhabens in formeller und materieller Hinsicht. Eine Besonderheit der Veröffentlichung besteht darin, dass die Arbeit konkrete Aussagen zur Ausgestaltung des Regel-Ausnahme-Verhältnisses des Funktionsvorbehalts nach Art. 33 Abs. 4 GG enthält. Daran fehlte es bislang. Daneben untersucht der Autor einfachgesetzliche Grenzen für Privatisierungen des Maßregellzugs nach §§ 63, 64 StGB, § 7 JGG und der Aufgaben nach §§ 81, 126a StPO sowie solche Privatisierungsgrenzen, die sich aus internationalen Menschenrechtsstandards ergeben. N2 - Although privatisation has been a main subject not only the legal-scientific debate during the last years and decades, the area of the privatisation of the hospital order treatment after §§ 63, 64 StGB, § 7 JGG and the duties after §§ 81, 126a StPO was neglected in this respect. Before the background of primarily fiscal considerations and the possibilities of an escape from the official's right and the budgetary right, such areas get increasingly also in the point of view of the privatisation considerations which are added up to now of course to the area of state activity. The state gets on increasingly as a guarantee state which does not fulfil state duties any more own-handed, but for this of the achievement third helps himself. Up to now the hospital order treatment after §§ 63, 64 StGB and § 7 JGG as well as the accommodation to the observation of the culprit after § 81 StPO and the temporary accommodation after § 126a StPO were carried out by the state in the (state) land medical centres. On the legal basis § 36 paragraph 3 p. 2 and p. 5 BbgPsychKG, introduced in 2004, the State of Brandenburg developed a model to privatise the realisation of the called duties, and separated the land medical centres in 2006 from the land management. The author examines the constitutional-juridical admissibility of this privatisation plan in formal and material regard. A specific feature of the publication consists in it, that the work concrete statements to the arrangement of the control exception relation of the functional reservation after article 33 paragraphs 4 GG contains enough. There was not this up to now. Besides the author examines easy-legal borders for privatisations of the hospital order treatment after §§ 63, 64 StGB, § 7 JGG and the duties after §§ 81, 126a StPO as well as such privatisation borders which arise from international standards of human rights. KW - Privatisierung KW - Maßregelvollzug KW - §§ 81 KW - 126a StPO KW - Funktionsvorbehalt KW - Brandenburg KW - privatisation KW - hospital order treatment KW - §§ 81 KW - 126a StPO KW - functional reservation KW - Brandenburg Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48428 SN - 978-3-86956-101-1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Guse, Björn Felix T1 - Improving flood frequency analysis by integration of empirical and probabilistic regional envelope curves T1 - Verbesserung der Hochwasserstatistik durch eine Integration von empirischen und probabilistischen regionalen Hüllkurven N2 - Flood design necessitates discharge estimates for large recurrence intervals. However, in a flood frequency analysis, the uncertainty of discharge estimates increases with higher recurrence intervals, particularly due to the small number of available flood data. Furthermore, traditional distribution functions increase unlimitedly without consideration of an upper bound discharge. Hence, additional information needs to be considered which is representative for high recurrence intervals. Envelope curves which bound the maximum observed discharges of a region are an adequate regionalisation method to provide additional spatial information for the upper tail of a distribution function. Probabilistic regional envelope curves (PRECs) are an extension of the traditional empirical envelope curve approach, in which a recurrence interval is estimated for a regional envelope curve (REC). The REC is constructed for a homogeneous pooling group of sites. The estimation of this recurrence interval is based on the effective sample years of data considering the intersite dependence among all sites of the pooling group. The core idea of this thesis was an improvement of discharge estimates for high recurrence intervals by integrating empirical and probabilistic regional envelope curves into the flood frequency analysis. Therefore, the method of probabilistic regional envelope curves was investigated in detail. Several pooling groups were derived by modifying candidate sets of catchment descriptors and settings of two different pooling methods. These were used to construct PRECs. A sensitivity analysis shows the variability of discharges and the recurrence intervals for a given site due to the different assumptions. The unit flood of record which governs the intercept of PREC was determined as the most influential aspect. By separating the catchments into nested and unnested pairs, the calculation algorithm for the effective sample years of data was refined. In this way, the estimation of the recurrence intervals was improved, and therefore the use of different parameter sets for nested and unnested pairs of catchments is recommended. In the second part of this thesis, PRECs were introduced into a distribution function. Whereas in the traditional approach only discharge values are used, PRECs provide a discharge and its corresponding recurrence interval. Hence, a novel approach was developed, which allows a combination of the PREC results with the traditional systematic flood series while taking the PREC recurrence interval into consideration. An adequate mixed bounded distribution function was presented, which in addition to the PREC results also uses an upper bound discharge derived by an empirical envelope curve. By doing so, two types of additional information which are representative for the upper tail of a distribution function were included in the flood frequency analysis. The integration of both types of additional information leads to an improved discharge estimation for recurrence intervals between 100 and 1000 years. N2 - Abschätzungen von Abflüssen mit hohen Wiederkehrintervallen werden vor allem für die Bemessung von Extremhochwässern benötigt. In der Hochwasserstatistik bestehen insbesondere für hohe Wiederkehrintervalle große Unsicherheiten, da nur eine geringe Anzahl an Messwerten für Hochwasserereignisse verfügbar ist. Zudem werden zumeist Verteilungsfunktionen verwendet, die keine obere Grenze beinhalten. Daher müssen zusätzliche Informationen zu den lokalen Pegelmessungen berücksichtigt werden, die den Extrembereich einer Verteilungsfunktion abdecken. Hüllkurven ermitteln eine obere Grenze von Hochwasserabflüssen basierend auf beobachteten maximalen Abflusswerten. Daher sind sie eine geeignete Regionalisierungsmethode. Probabilistische regionale Hüllkurven sind eine Fortentwicklung des herkömmlichen Ansatzes der empirischen Hüllkurven. Hierbei wird einer Hüllkurve einer homogenen Region von Abflusspegeln ein Wiederkehrintervall zugeordnet. Die Berechnung dieses Wiederkehrintervalls basiert auf der effektiven Stichprobengröße und berücksichtigt die Korrelationsbeziehungen zwischen den Pegeln einer Region. Ziel dieser Arbeit ist eine Verbesserung der Abschätzung von Abflüssen mit großen Wiederkehrintervallen durch die Integration von empirischen und probabilistischen Hüllkurven in die Hochwasserstatistik. Hierzu wurden probabilistische Hüllkurven detailliert untersucht und für eine Vielzahl an homogenen Regionen konstruiert. Hierbei wurden verschiedene Kombinationen von Einzugsgebietsparametern und Variationen von zwei Gruppierungsmethoden verwendet. Eine Sensitivitätsanalyse zeigt die Variabilität von Abfluss und Wiederkehrintervall zwischen den Realisationen als Folge der unterschiedlichen Annahmen. Die einflussreichste Größe ist der maximale Abfluss, der die Höhe der Hüllkurve bestimmt. Eine Einteilung in genestete und ungenestete Einzugsgebiete führt zu einer genaueren Ermittlung der effektiven Stichprobe und damit zu einer verbesserten Abschätzung des Wiederkehrintervalls. Daher wird die Verwendung von zwei getrennten Parametersätzen für die Korrelationsfunktion zur Abschätzung des Wiederkehrintervalls empfohlen. In einem zweiten Schritt wurden die probabilistischen Hüllkurven in die Hochwasserstatistik integriert. Da in traditionellen Ansätzen nur Abflusswerte genutzt werden, wird eine neue Methode präsentiert, die zusätzlich zu den gemessenen Abflusswerten die Ergebnisse der probabilistischen Hüllkurve – Abfluss und zugehöriges Wiederkehrintervall - berücksichtigt. Die Wahl fiel auf eine gemischte begrenzte Verteilungsfunktion, die neben den probabilistischen Hüllkurven auch eine absolute obere Grenze, die mit einer empirischen Hüllkurve ermittelt wurde, beinhaltet. Damit werden zwei Arten von zusätzlichen Informationen verwendet, die den oberen Bereich einer Verteilungsfunktion beschreiben. Die Integration von beiden führt zu einer verbesserten Abschätzung von Abflüssen mit Wiederkehrintervallen zwischen 100 und 1000 Jahren. KW - Hochwasserstatistik KW - Hochwasserregionalisierung KW - Probabilistische Regionale Hüllkurven KW - Verteilungsfunktionen mit einer oberen Grenze KW - Flood frequency analysis KW - Flood regionalisation KW - Probabilistic regional envelope curves KW - Distribution functions with upper bound Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49265 ER - TY - THES A1 - Stock, Maria T1 - Charakterisierung der troposphärischen Aerosolvariabilität in der europäischen Arktis T1 - Characterization of tropospheric aerosol variability in the european Arctic N2 - Auf der Grundlage von Sonnenphotometermessungen an drei Messstationen (AWIPEV/ Koldewey in Ny-Ålesund (78.923 °N, 11.923 °O) 1995–2008, 35. Nordpol Driftstation – NP-35 (84.3–85.5 °N, 41.7–56.6 °O) März/April 2008, Sodankylä (67.37 °N, 26.65 °O) 2004–2007) wird die Aerosolvariabilität in der europäischen Arktis und deren Ursachen untersucht. Der Schwerpunkt liegt dabei auf der Frage des Zusammenhanges zwischen den an den Stationen gemessenen Aerosolparametern (Aerosol optische Dicke, Angström Koeffizient, usw.) und dem Transport des Aerosols sowohl auf kurzen Zeitskalen (Tagen) als auch auf langen Zeitskalen (Monate, Jahre). Um diesen Zusammenhang herzustellen, werden für die kurzen Zeitskalen mit dem Trajektorienmodell PEP-Tracer 5-Tage Rückwärtstrajektorien in drei Starthöhen (850 hPa, 700 hPa, 500 hPa) für die Uhrzeiten 00, 06, 12 und 18 Uhr berechnet. Mit Hilfe der nicht-hierarchischen Clustermethode k-means werden die berechneten Rückwärtstrajektorien dann zu Gruppen zusammengefasst und bestimmten Quellgebieten und den gemessenen Aerosol optischen Dicken zugeordnet. Die Zuordnung von Aerosol optischer Dicke und Quellregion ergibt keinen eindeutigen Zusammenhang zwischen dem Transport verschmutzter Luftmassen aus Europa oder Russland bzw. Asien und erhöhter Aerosol optischer Dicke. Dennoch ist für einen konkreten Einzelfall (März 2008) ein direkter Zusammenhang von Aerosoltransport und hohen Aerosol optischen Dicken nachweisbar. In diesem Fall gelangte Waldbrandaerosol aus Südwestrussland in die Arktis und konnte sowohl auf der NP-35 als auch in Ny-Ålesund beobachtet werden. In einem weiteren Schritt wird mit Hilfe der EOF-Analyse untersucht, inwieweit großskalige atmosphärische Zirkulationsmuster für die Aerosolvariabilität in der europäischen Arktis verantwortlich sind. Ähnlich wie bei der Trajektorienanalyse ist auch die Verbindung der atmosphärischen Zirkulation zu den Photometermessungen an den Stationen in der Regel nur schwach ausgeprägt. Eine Ausnahme findet sich bei der Betrachtung des Jahresganges des Bodendruckes und der Aerosol optischen Dicke. Hohe Aerosol optische Dicken treten im Frühjahr zum einen dann auf, wenn durch das Islandtief und das sibirische Hochdruckgebiet Luftmassen aus Europa oder Russland/Asien in die Arktis gelangen, und zum anderen, wenn sich ein kräftiges Hochdruckgebiet über Grönland und weiten Teilen der Arktis befindet. Ebenso zeigt sich, dass der Übergang zwischen Frühjahr und Sommer zumindest teilweise bedingt ist durch denWechsel vom stabilen Polarhoch im Winter und Frühjahr zu einer stärker von Tiefdruckgebieten bestimmten arktischen Atmosphäre im Sommer. Die geringere Aerosolkonzentration im Sommer kann zum Teil mit einer Zunahme der nassen Deposition als Aerosolsenke begründet werden. Für Ny-Ålesund wird neben den Transportmustern auch die chemische Zusammensetzung des Aerosols mit Hilfe von Impaktormessungen an der Zeppelinstation auf dem Zeppelinberg (474m ü.NN) nahe Ny-Ålesund abgeleitet. Dabei ist die positive Korrelation der Aerosoloptischen Dicke mit der Konzentration von Sulfationen und Ruß sehr deutlich. Beide Stoffe gelangen zu einem Großteil durch anthropogene Emissionen in die Atmosphäre. Die damit nachweisbar anthropogen geprägte Zusammensetzung des arktischen Aerosols steht im Widerspruch zum nicht eindeutig herstellbaren Zusammenhang mit dem Transport des Aerosols aus Industrieregionen. Dies kann nur durch einen oder mehrere gleichzeitig stattfindende Transformationsprozesse (z. B. Nukleation von Schwefelsäurepartikeln) während des Transportes aus den Quellregionen (Europa, Russland) erklärt werden. N2 - On the base of sun photometer measurements conducted at three different research stations (AWIPEV/Koldewey in Ny-Ålesund (78.923 °N, 11.923 °E) 1995-2008, 35. Northpole Drifting Station – NP-35 (84.3–85.5 °N, 41.7–56.6 °E) March/April 2008, Sodankylä (67.37 °N, 26.65 °E) 2004-2007) the aerosol variability in the european Arctic and their cause is analyzed. The main focus is to quantify the correlation between the measured aerosol parameters (aerosol optical depth, Angström coefficient, etc.) and the transport of aerosol from Europe and Russia on short timescales (days) as well as on long timescales (months, years). For the short timescales 5-day backward trajectories were calculated with the trajectory model PEP-Tracer at three different starting heights (850 hPa, 700 hPa, 500 hPa) four times the day (00:00, 06:00, 12:00, 18:00 UTC). Afterwards the non-hierarchical cluster method k-means is used to group the backward trajectories in differend aerosol source regions and allocate to the respective sun photometer measurements. This allocation of aerosol source region and sun photometer measurements does not show a correlation between polluted air mass of european or russian/asian origin and enhanced aerosol optical depth. However, in one case (March 2008) a clear influence of anthropogenic aerosol on the photometer measurements occurs. In March 2008, aerosol originating at forest fires in southeast Russia was transported into the Arctic and detected over NP-35 as well as Ny-Ålesund. Furthermore, the EOF method is used to verify if large-scale atmospheric circulation patterns determine the arctic aerosol variability. However, the connection to the sun photometer measurements is very weak except for seasonal variability. It is shown, that in spring-time due to the Iclandic low and the Siberian high, air masses from Europe and Russia as well as a strong high pressure system at Greenland and most parts of the Arctic cause higher aerosol optical depths in Ny-Ålesund. The transition from spring to summer aerosol concentration can at least partially be assigned to the replacement of the stable polar high in winter and spring by low pressure systems in summer. In addition to the transport pattern, chemical composition of the scattering aerosol in Ny-Ålesund was deduced from measurements by the Zeppelin station at the Zeppelin mountain (474m above sea level) near Ny-Ålesund. A clear positive correlation between sulfate and black carbon concentration was found. Both chemicals are mostly emitted through anthropogenic processes (e.g. combustion). The verifiable anthropogenic influence on the composition of arctic aerosols disagree with the missing linkage of transport from industrial regions to aerosol optical depth. It can only be explained by one or more transformation processes (e.g. nucleation of sulfuric acid) during the transport from the source regions (Europe, Russia) to the Arctic. KW - Aerosol KW - Arktis KW - Trajektorien KW - EOF KW - Luftmassentransport KW - aerosol KW - Arctic KW - trajectories KW - EOF KW - air mass transport Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49203 ER - TY - THES A1 - Karnahl, Brita T1 - Vergleichende Untersuchungen von Leistungs- und Stoffwechselparametern im ergometrischen Test an Land und im Wasser T1 - Comparative studies on performance and metabolic parameters in the ergometric test on land and in water N2 - Einleitung: Vorliegende empirische Daten verdeutlichen, dass in der Fachwelt zwar weites gehend Einigkeit über die Wirkung des Mediums Wasser auf den Organismus in Ruhe (metabolisch und endokrin) besteht, aber differente Aussagen bei Immersion und Bewegung (hämodynamisch, metabolisch und endokrin) getroffen werden. Wie unterscheidet sich die physische Beanspruchung an Land und im Wasser? Gelten die allgemeingültigen Empfehlungen an Land zur Steuerung erwünschter Trainings- bzw. Belastungseffekte auch für aquale Bewegungs- und Trainingsformen? Ergebnisse und Diskussion: Die Herzfrequenz, der systolische Blutdruck und der Sauerstoffverbrauch waren in Ruhe (baseline) an der anaeroben Schwelle und während der Ausbelastung auf dem Land und im Wasser ähnlich. Der Respiratorische Quotient wurde gering reduziert, als die Probanden im Wasser trainierten. Die Glukose- und Laktatkonzentration wurden vermindert, wohingegen die freie Fettsäurekonzentration mit der Belastung im Wasser erhöht wurde. Wasserimmersion senkte die Adrenalin- und Noradrenalinkonzentration und erhöhte die vermehrte ANP-Produktion während der Belastung. Belastungsinduzierte Anstiege endokriner Parameter (Adrenalin und Noradrenalin) sind im Wasser geringer ausgeprägt als an Land. Hinsichtlich der Stoffwechselregulation konnte beobachtet werden, dass ANP eine Rolle bei der Regulation des Fettstoffwechsels spielt. Die Ergebnisse lassen vermuten, dass Belastungen im Wasser vor allem eine spezifische humorale und metabolische Antwort des Organismus entlocken. Belastungsinduzierte Anstiege endokriner Parameter (Katecholamine) im Wasser sind geringer ausgeprägt als an Land. Immersions- und Belastungseffekte scheinen teilweise konträre Reize zu sein. Es sind daher weiterhin experimentelle Untersuchungen notwendig, um die Regulationsmechanismen des Organismus zur Kompensation eines erhöhten venösen Rückstroms bei Immersion ohne und vor allem mit Bewegung zu klären. Auf Grund der geringen Unterschiede in der hämodynamischen Reaktion des Körpers bei vergleichbarer körperlicher Belastung Land vs. Wasser kann sich an den allgemeingültigen Empfehlungen an Land zur Steuerung erwünschter Trainings-bzw. Belastungseffekte auch für aquale Bewegungs- und Trainingsformen orientiert werden. N2 - Introduction: The empirical data we have shows clearly that that there may be a large area of agreement among professionals on the effect of water as a medium on the organism at rest (metabolic and endocrinal), but different conclusions have been drawn about immersion and exercise (hemodynamic, metabolic and endocrinal). How does physical stress differ on dry land and in the water? Do the general recommendations on land apply to control of desired training or stress effects as well as for aquatic types of exercise and training? Results and discussion: The heart rate, systolic blood pressure and uptake of oxygen at rest (baseline) were similar at the anaerobic threshold and during a workout on land and in the water. The respiratory quotient was slightly reduced when the test subjects were training in the water. Their glucose and lactate concentration was lowered, whereas the free fatty acid concentration was raised during physical workload in the water. Water immersion lowered adrenalin and noradrenalin concentration and raised the increased production of ANP during workload. Load-induced increases in endocrinal parameters (adrenalin and noradrenalin) are less marked in water than on land. When it comes to regulating the metabolism, it was possible to observe that ANP plays a role in regulating lipid metabolism. The results suggest that workloads in water elicit especially a specific humoral and metabolic response from the organism. Load-induced increases of endocrinal parameters (catecholamines) in water are less marked than on land. Immersion and load effects appear to be partly contrary stimuli. For this reason, further experimental tests are required in order to clarify the organism’s regulatory mechanisms to compensate for increased venous back current when immersed without and especially with exercise. Because of the slight differences in the body’s hemodynamic response at comparable physical loads on land versus water, the generally accepted recommendations to control the desired training and physical workload effects on land can be used as the basis for aquatic types of exercise and training as well. KW - Immersion KW - Aqua-Cycling KW - ANP KW - Aqua-Fitness KW - Lipolyse KW - Immersion KW - Aqua-Cycling KW - ANP KW - Aqua-Fitness KW - Lipolyse Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49523 ER - TY - THES A1 - Awad, Ahmed Mahmoud Hany Aly T1 - A compliance management framework for business process models T1 - Ein Compliance-Management-Framework für Geschäftsprozessmodelle N2 - Companies develop process models to explicitly describe their business operations. In the same time, business operations, business processes, must adhere to various types of compliance requirements. Regulations, e.g., Sarbanes Oxley Act of 2002, internal policies, best practices are just a few sources of compliance requirements. In some cases, non-adherence to compliance requirements makes the organization subject to legal punishment. In other cases, non-adherence to compliance leads to loss of competitive advantage and thus loss of market share. Unlike the classical domain-independent behavioral correctness of business processes, compliance requirements are domain-specific. Moreover, compliance requirements change over time. New requirements might appear due to change in laws and adoption of new policies. Compliance requirements are offered or enforced by different entities that have different objectives behind these requirements. Finally, compliance requirements might affect different aspects of business processes, e.g., control flow and data flow. As a result, it is infeasible to hard-code compliance checks in tools. Rather, a repeatable process of modeling compliance rules and checking them against business processes automatically is needed. This thesis provides a formal approach to support process design-time compliance checking. Using visual patterns, it is possible to model compliance requirements concerning control flow, data flow and conditional flow rules. Each pattern is mapped into a temporal logic formula. The thesis addresses the problem of consistency checking among various compliance requirements, as they might stem from divergent sources. Also, the thesis contributes to automatically check compliance requirements against process models using model checking. We show that extra domain knowledge, other than expressed in compliance rules, is needed to reach correct decisions. In case of violations, we are able to provide a useful feedback to the user. The feedback is in the form of parts of the process model whose execution causes the violation. In some cases, our approach is capable of providing automated remedy of the violation. N2 - Firmen entwickeln Prozessmodelle um ihre Geschäftstätigkeit explizit zu beschreiben. Geschäftsprozesse müssen verschiedene Arten von Compliance-Anforderungen einhalten. Solche Compliance-Anforderungen entstammen einer Vielzahl von Quellen, z.B. Verordnung wie dem Sarbanes Oxley Act von 2002, interne Richtlinien und Best Practices. Die Nichteinhaltung von Compliance-Anforderungen kann zu gesetzlichen Strafen oder dem Verlust von Wettbewerbsvorteilen und somit dem Verlust von Marktanteilen führen. Im Gegensatz zum klassischen, domänen-unabhängigen Begriff der Korrektheit von Geschäftsprozessen, sind Compliance-Anforderungen domain-spezifisch und ändern sich im Laufe der Zeit. Neue Anforderungen resultieren aus neuen Gesetzen und der Einführung neuer Unternehmensrichtlinien. Aufgrund der Vielzahl der Quellen für Compliance-Anforderungen, können sie unterschiedliche Ziele verfolgen und somit widersprüchliche Aussagen treffen. Schließlich betreffen Compliance-Anforderungen verschiedene Aspekte von Geschäftsprozessen, wie Kontrollfluss- und Datenabhängigkeiten. Auf Grund dessen können Compliance-Prüfungen nicht direkt Hard-coded werden. Vielmehr ist ein Prozess der wiederholten Modellierung von Compliance-Regeln und ihrer anschließenden automatischen Prüfung gegen die Geschäftsprozesse nötig. Diese Dissertation stellt einen formalen Ansatz zur Überprüfung der Einhaltung von Compliance-Regeln während der Spezifikation von Geschäftsprozessen vor. Mit visuellen Mustern ist es möglich, Compliance-Regeln hinsichtlich Kontrollfluss- und Datenabhängigkeiten sowie bedingte Regeln zu spezifizieren. Jedes Muster wird in eine Formel der temporalen Logik abgebildet. Die Dissertation behandelt das Problem der Konsistenzprüfung zwischen verschiedenen Compliance-Anforderungen, wie sie sich aus unterschiedlichen Quellen ergeben können. Ebenfalls zeigt diese Dissertation, wie Compliance-Regeln gegen die Geschäftsprozesse automatisch mittels Model Checking geprüft werden. Es wird aufgezeigt, dass zusätzliche Domänen-Kenntnisse notwendig sind, um richtige Entscheidungen zu treffen. Der vorgestelle Ansatz ermöglicht nützliches Feedback für Modellierer im Fall eines Compliance-Verstoßes. Das Feedback wird in Form von Teilen des Prozessmodells gegeben, deren Ausführung die Verletzung verursacht. In einigen Fällen ist der vorgestellte Ansatz in der Lage, den Compliance-Verstoß automatisch zu beheben. KW - Geschäftsprozessmodelle KW - Compliance KW - Temporallogik KW - Verletzung Erklärung KW - Verletzung Auflösung KW - Business Process Models KW - Compliance KW - Temporal Logic KW - Violation Explanation KW - Violation Resolution Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49222 ER - TY - THES A1 - Mörbt, Nora T1 - Differential proteome analysis of human lung epithelial cells following exposure to aromatic volatile organic compounds T1 - Differentielle Proteomeanalyse humaner Lungenepithelzellen nach Exposition mit aromatischen flüchtigen Substanzen N2 - The widespread usage of products containing volatile organic compounds (VOC) has lead to a general human exposure to these chemicals in work places or homes being suspected to contribute to the growing incidence of environmental diseases. Since the causal molecular mechanisms for the development of these disorders are not completely understood, the overall objective of this thesis was to investigate VOC-mediated molecular effects on human lung cells in vitro at VOC concentrations comparable to exposure scenarios below current occupational limits. Although differential expression of single proteins in response to VOCs has been reported, effects on complex protein networks (proteome) have not been investigated. However, this information is indispensable when trying to ascertain a mechanism for VOC action on the cellular level and establishing preventive strategies. For this study, the alveolar epithelial cell line A549 has been used. This cell line, cultured in a two-phase (air/liquid) model allows the most direct exposure and had been successfully applied for the analysis of inflammatory effects in response to VOCs. Mass spectrometric identification of 266 protein spots provided the first proteomic map of A549 cell line to this extent that may foster future work with this frequently used cellular model. The distribution of three typical air contaminants, monochlorobenzene (CB), styrene and 1,2 dichlorobenzene (1,2-DCB), between gas and liquid phase of the exposure model has been analyzed by gas chromatography. The obtained VOC partitioning was in agreement with available literature data. Subsequently the adapted in vitro system has been successfully employed to characterize the effects of the aromatic compound styrene on the proteome of A549 cells (Chapter 4). Initially, the cell toxicity has been assessed in order to ensure that most of the concentrations used in the following proteomic approach were not cytotoxic. Significant changes in abundance and phosphorylation in the total soluble protein fraction of A549 cells have been detected following styrene exposure. All proteins have been identified using mass spectrometry and the main cellular functions have been assigned. Validation experiments on protein and transcript level confirmed the results of the 2-DE experiments. From the results, two main cellular pathways have been identified that were induced by styrene: the cellular oxidative stress response combined with moderate pro-apoptotic signaling. Measurement of cellular reactive oxygen species (ROS) as well as the styrene-mediated induction of oxidative stress marker proteins confirmed the hypothesis of oxidative stress as the main molecular response mechanism. Finally, adducts of cellular proteins with the reactive styrene metabolite styrene 7,8 oxide (SO) have been identified. Especially the SO-adducts observed at both the reactive centers of thioredoxin reductase 1, which is a key element in the control of the cellular redox state, may be involved in styrene-induced ROS formation and apoptosis. A similar proteomic approach has been carried out with the halobenzenes CB and 1,2-DCB (Chapter 5). In accordance with previous findings, cell toxicity assessment showed enhanced toxicity compared to the one caused by styrene. Significant changes in abundance and phosphorylation of total soluble proteins of A549 cells have been detected following exposure to subtoxic concentrations of CB and 1,2-DCB. All proteins have been identified using mass spectrometry and the main cellular functions have been assigned. As for the styrene experiment, the results indicated two main pathways to be affected in the presence of chlorinated benzenes, cell death signaling and oxidative stress response. The strong induction of pro-apoptotic signaling has been confirmed for both treatments by detection of the cleavage of caspase 3. Likewise, the induction of redox-sensitive protein species could be correlated to an increased cellular level of ROS observed following CB treatment. Finally, common mechanisms in the cellular response to aromatic VOCs have been investigated (Chapter 6). A similar number (4.6-6.9%) of all quantified protein spots showed differential expression (p<0.05) following cell exposure to styrene, CB or 1,2-DCB. However, not more than three protein spots showed significant regulation in the same direction for all three volatile compounds: voltage-dependent anion-selective channel protein 2, peroxiredoxin 1 and elongation factor 2. However, all of these proteins are important molecular targets in stress- and cell death-related signaling pathways. N2 - Die vermehrte Verwendung von Produkten, welche flüchtige organische Substanzen (VOC - volatile organic compound) enthalten, hat eine generelle Exposition der Bevölkerung mit diesen Substanzen an Arbeitsplätzen aber auch in Wohnräumen bedingt. VOCs stehen im Verdacht, zur zunehmenden Inzidenz umweltbedingter Erkrankungen beizutragen. Da die molekularen Ursachen dieser Erkrankungen bisher noch unverstanden sind, war es ein übergeordnetes Ziel dieser Arbeit, VOC-vermittelte molekulare Effekte in menschlichen Lungenepithelzellen anhand eines in vitro Modells zu untersuchen. Dabei sollten vor allem Konzentrationen unterhalb der gültigen Arbeitsplatzgrenzwerte untersucht werden. Obwohl Effekte auf einzelne Proteine bekannt sind, wurden bisher keine Effekte der VOC-Exposition auf das komplexe Netzwerk der zellulären Proteine (Proteom) untersucht. Dieses Wissen ist essentiell, um induzierte zelluläre Mechanismen zu verstehen und Strategien zu deren Vermeidung zu entwickeln. Für die hier durchgeführten Untersuchungen wurde die Lungenepithelzelllinie A549 in einem Zweiphasenexpositionsmodell eingesetzt. Dieses ermöglichte eine möglichst direkte zelluläre Exposition und wurde bereits erfolgreich verwendet, um durch VOC hervorgerufene Entzündungseffekte zu identifizieren. Die massen-spektrometrische Identifikation von 266 Proteinflecken lieferte die erste umfassende Proteomkarte der A549 Zelllinie, welche nachfolgende Untersuchungen mit diesem häufig verwendeten Zelltyp erleichtern wird. Zusätzlich wurde die Verteilung der drei gängigen Luftkontaminanten Chlorbenzol (CB), Styrol and 1,2-Dichlorobenzol (1,2-DCB) zwischen den beiden Phasen (gas/flüssig) des Expositionsmodells gaschromatographisch bestimmt. Die Verteilung entsprach den verfügbaren Literaturdaten. Anschließend wurde das modifizierte Expositionsmodell erfolgreich eingesetzt, um styrol-vermittelte Effekte auf das Proteom der A549 Zellen zu charakterisieren (Kapitel 4). Zu Beginn erfolgte die Erfassung der Zelltoxizität der Substanz, um sicher zu stellen, daß der überwiegende Teil der späteren Expositionsexperimente mit subtoxischen Konzentrationen durchgeführt wird. Es konnte eine signifikant veränderte Expression und Phosphorylierung der löslichen Proteinfraktion der A549 Zellen als Reaktion auf die Styrolexposition festgestellt werden. Die regulierten Proteine wurden massenspektrometrisch identifiziert und ihre wichtigsten Funktionen wurden zugewiesen. Validierungsexperimente auf Protein- und auf Transkriptebene bestätigten die 2-DE Ergebnisse. Insgesamt konnte die zelluläre Reaktion durch die styrol-vermittelte Induktion zweier zentraler Mechanismen erklärt werden: oxidativer zellulärer Stress und beginnende Apoptose. Folgeexperimente wie die Messung der Menge der zellulären reaktiven Sauerstoffspezies (ROS) und die Induktion von redox-sensitiven Markerproteinen konnte die Hypothese eines styrol-induzierten oxidativen Milieus bestätigen. Schließlich wurden Proteinaddukte des reaktiven Styrolmetaboliten Styrol 7,8 epoxide (SO) identifiziert. Besonders die SO-Addukte, welche and den beiden aktiven Zentren der Thioredoxin Reduktase 1 gefunden wurden könnten eine wichtige Rolle bei der styrol-induzierten ROS-Bildung sowie der beginnenden Apoptose spielen. In Analogie zum Styrolexperiment wurden die Effekte der halogenierten Benzole CB und 1,2-DCB untersucht (Kapitel 5). Es konnten ebenfalls sämtliche Proteine identifiziert und die wichtigsten zellulären Funktionen zugewiesen werden. Diese Substanzen modulierten ebenfalls apoptotische Signalwege und die zelluläre Antwort auf oxidativen Streß. Der beobachtete starke pro-apoptotische Effekt konnte für beide Substanzen mit der Spaltung der Caspase 3 nachgewiesen werden. Weiterhin konnte für CB die Induktion redox-sensitiver Proteinspezies mit einem beobachteten höherem Gehalt an ROS erklärt werden. Schließlich wurden ähnliche Mechanismen der zellulären Antwort auf die Exposition mit den drei untersuchten aromatischen VOCs diskutiert (Kapitel 6). Alle getesteten VOCs verursachten eine vergleichbare differentielle Expression (p<0,05) von 4,6-6,9% aller quantifizierten Proteinspezies. Nur drei Proteinspots wurden dabei gemeinsam für alle VOCs reguliert: voltage-dependent anion-selective channel protein 2, peroxiredoxin 1 and elongation factor 2. Allerdings gehören diese drei Proteine zu wichtigen zellulären Zielstrukturen der Signalwege für Stressantwort und Zelltod. KW - VOC KW - Proteom KW - Styrol KW - chlorbenzol KW - dichlorbenzol KW - VOC KW - proteome KW - styrene KW - monochlorobenzene KW - dichlorobenzene Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49257 ER - TY - THES A1 - Ruch, Joël T1 - Volcano deformation analysis in the Lazufre area (central Andes) using geodetic and geological observations T1 - Vulkan Deformationsanalyse im Bereich Lazufre (Zentral-Anden) mit geodätischen und geologischen Beobachtungen N2 - Large-scale volcanic deformation recently detected by radar interferometry (InSAR) provides new information and thus new scientific challenges for understanding volcano-tectonic activity and magmatic systems. The destabilization of such a system at depth noticeably affects the surrounding environment through magma injection, ground displacement and volcanic eruptions. To determine the spatiotemporal evolution of the Lazufre volcanic area located in the central Andes, we combined short-term ground displacement acquired by InSAR with long-term geological observations. Ground displacement was first detected using InSAR in 1997. By 2008, this displacement affected 1800 km2 of the surface, an area comparable in size to the deformation observed at caldera systems. The original displacement was followed in 2000 by a second, small-scale, neighbouring deformation located on the Lastarria volcano. We performed a detailed analysis of the volcanic structures at Lazufre and found relationships with the volcano deformations observed with InSAR. We infer that these observations are both likely to be the surface expression of a long-lived magmatic system evolving at depth. It is not yet clear whether Lazufre may trigger larger unrest or volcanic eruptions; however, the second deformation detected at Lastarria and the clear increase of the large-scale deformation rate make this an area of particular interest for closer continuous monitoring. N2 - Vulkanische Deformationen in großem Maßstab, die mittels InSAR gemessen wurden, liefern neue Informationen und dadurch einen neuen Blickwinkel auf vulkan-tektonische Aktivitäten und das Verständnis von langlebigen, magmatischen Systemen. Die Destabilisierung eines solchen Systems in der Tiefe beeinflusst dauerhaft die Oberfläche durch Versatz des Bodens, magmatische Einflüsse und vulkanische Unruhen. Mit der Kombination aus kleinräumigem Bodenversatz gemessen mittels InSAR, numerischer Modellierung und langfristigen geologischen Beobachtungen, analysieren wir die Gegend um den Vulkan Lazufre in den Zentralanden, um die raumzeitliche Entwicklung der Region zu bestimmen. Bodenversatz wurde hierbei im Jahr 1997 mittels Radar-Interferrometrie (InSAR) gemessen, was eine Fläche von 1800 km² ausmacht, vergleichbar mit der Größe der Deformation des Kraters. Im Jahr 2000 wurde zusätzlich eine kleinräumige Deformation am Nachbarvulkan Lastarria entdeckt. Wir sehen räumliche als auch zeitliche Verbindungen zwischen der Deformation des Vulkans und vulkanischen Strukturen innerhalb der betroffenen Gegend. Wir folgern daraus, dass diese Beobachtungen der Ausdruck eines langlebigen, magmatischen Systems in der Tiefe an der Oberfläche sind. Es ist noch nicht klar, ob Lazufre größere vulkanische Unruhen, wie zum Beispiel Eruptionen auslösen könnte, aber die Deformation am Vulkan Lastarria und ein Anstieg der großräumigen Deformationsrate, machen diese Region interessant für eine zukünftige, kontinuierliche Überwachung. KW - Vulkan Verformung KW - InSAR KW - zentralen Anden KW - Spannungsfeld KW - volcano deformation KW - InSAR KW - central Andes KW - stress field Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47361 ER - TY - THES A1 - Ksianzou, Viachaslau T1 - Second-order nonlinear optical interactions and cascading effects in thinorganic films T1 - Nichtlineare optische Wechselwirkung zweiter Ordnung und Cascading in dünnen organischen Schichten N2 - The presented work describes new concepts of fast switching elements based on principles of photonics. The waveguides working in visible and infra-red ranges are put in a basis of these elements. And as materials for manufacturing of waveguides the transparent polymers, dopped by molecules of the dyes possessing second order nonlinear-optical properties are proposed. The work shows how nonlinear-optical processes in such structures can be implemented by electro-optical and opto-optical control circuit signals. In this paper we consider the complete cycle of fabrication of several types of integral photonic elements. The theoretical analysis of high-intensity beam propagation in media with second-order optical nonlinearity is performed. Quantitative estimations of necessary conditions of occurrence of the nonlinear-optical phenomena of the second order taking into account properties of used materials are made. The paper describes the various stages of manufacture of the basic structure of the integrated photonics: a planar waveguide. Using the finite element method the structure of the electromagnetic field inside the waveguide in different modes was analysed. A separate part of the work deals with the creation of composite organic materials with high optical nonlinearity. Using the methods of quantum chemistry, the dependence of nonlinear properties of dye molecules from its structure were investigated in details. In addition, the paper discusses various methods of inducing of an optical nonlinearity in dye-doping of polymer films. In the work, for the first time is proposed the use of spatial modulation of nonlinear properties of waveguide according Fibonacci law. This allows involving several different nonlinear optical processes simultaneously. The final part of the work describes various designs of integrated optical modulators and switches constructed of organic nonlinear optical waveguides. A practical design of the optical modulator based on Mach-Zehnder interferometer made by a photolithography on polymer film is presented. N2 - Die vorliegende Arbeit beschreibt neue Konzepte für schnelle photonische Schaltelemente. Diese Elemente basieren auf optischer Wellenleitung im sichtbaren und nahen infraroten Spektralbereich. Die Arbeit ist auf organische Wellenleiter aus transparenten, farbstoffdotierten Polymeren fokussiert, welche Chromophore mit besonders großen optischen Nichtlinearitäten zweiter Ordnung enthalten. Insbesondere wird dargestellt, wie nichtlineare optische Prozesse in derartigen Bauelementen genutzt werden können, wenn man elektrische oder optische Steuersignale einsetzt. Es wird der gesamte Her-stellungszyklus verschiedener integrierter photonischer Bauelemente betrachtet. Die Arbeit umfasst weiterhin eine detaillierte theoretische Analyse der Wellenausbreitung in Medien mit großer nichtlinearer optischer Suszeptibilität zweiter Ordnung bei hoher Lichtintensität. Unter Annahme optischer Materialkonstanten, welche den experimentell ermittelten Werten entsprechen, erfolgte eine quantitative Abschätzung für das Auftreten von Szenarien, bei denen messbare Abwei-chungen der Strahlausbreitung vom linearen Regime auftreten, z:B. das Auftreten von zeitlichen, räumlichen und spektralen Satteliten zu den im Material propagierenden Laserpulsen. Es gelang, we-sentliche Aspekte der Strahlpropagationsprozesse durch Anwendung von Jacobi-Integralfunktionen in geschlossener mathematischer Form darzustellen. Darüber hinausgehende theoretische Untersuchungen nutzten die Finite-Elemente-Methode, um die Verteilung des elektromagnetischen Feldes im Inneren optischer Wellenleiter für verschiedene Pro-pagationsmoden zu analysieren. Ein weiterer Teil der Arbeit beschäftigt sich mit organischen Kompositmaterialen, welche große opti-sche Nichtlinearitäten aufweisen. Mittels quantenchemischer Verfahren erfolgte eine detaillierte Un-tersuchung der Zusammenhänge zwischen der molekularen Struktur und den linearen sowie den nichtlinearen optischen Eigenschaften der untersuchten Farbstoffmoleküle und Polymere. In Bezug auf die Probenpräparation sind unterschiedliche Verfahren zur Schichtbildung und zur molekularen Orientierung miteinander verglichen und bewertet worden, da letztere eine Voraussetzung für das Auftreten nichtlinearer optischer Prozesse zweiter Ordnung bildet. Die Untersuchungen erstreckten sich auf Vakuumaufdampfschichten aus niedermolekularen Chromophoren und auf Polymerschich-ten, welche durch Vakuumabscheidung sowie durch Spincoating oder andere Flüssigphasenabschei-dungsverfahren hergestellt worden sind. Auf orientierenden Substraten (z.B. geriebene Schichten aus Polytetrafluoräthylen) konnte eine spontane Orientierung der deponierten Chromophore nachgewie-sen werden. Die Chromophore in Polymerschichten wurden durch Coronapolung orientiert. In der Arbeit ist zum ersten Mal vorgeschlagen worden, eine räumliche Modulation der nichtlinearen optischen Eigenschaften durch gezielte lokale Coronapolung oder andere Orientierungstechniken derart zu generieren, dass die Abfolge gepolter Domänen dem Bildungsgesetz einer modifizierten Fibonacci-Reihe mit gebrochen rationalen Zahlen gehorcht. Der Vorteil von optischen Wellenleitern mit dieser Struktur darin, dass diese mehrere unterschiedli-che nichtlineare optische Prozesse gleichzeitig unterstützen und somit eine Vielzahl neuartiger Phä-nomene auftreten kann, welche man in neuartigen photonischen Bauelementen, z.B. für die optische Informations- und Kommunikationstechnik nutzen kann. Der letzte Teil der Arbeit beschreibt den Aufbau verschiedener integrierter optischer Modulatoren und Schalter, die sich mit Hilfe das neu entwickelten Verfahrens herstellen lassen. Zukünftige Entwicklungen in der Photonik, insbesondere der optischen Informations- und Kommuni-kationstechnik werden im abschließenden Teil der Arbeit diskutiert. KW - NLO KW - SHG KW - QPM KW - Cascading KW - NLO KW - SHG KW - QPM KW - Cascading Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49186 ER - TY - THES A1 - Niederleithinger, Ernst T1 - Optimierung und Erweiterung der Parallel-Seismik-Methode zur Bestimmung der Länge von Fundamentpfählen T1 - Optimization and extension of the parallel seismic method for the determination of foundation pile length N2 - Das Parallel-Seismik-Verfahren dient vor allem der nachträglichen Längenmessung von Fundamentpfählen oder ähnlichen Elementen zur Gründung von Bauwerken. Eine solche Messung wird beispielsweise notwendig, wenn ein Gebäude verstärkt, erhöht oder anders als bisher genutzt werden soll, aber keine Unterlagen mehr über die Fundamente vorhanden sind. Das Messprinzip des schon seit einigen Jahrzehnten bekannten Verfahrens ist relativ einfach: Auf dem Pfahlkopf wird meist durch Hammerschlag eine Stoßwelle erzeugt, die durch den Pfahl nach unten läuft. Dabei wird Energie in den Boden abgegeben. Die abgestrahlten Wellen werden von Sensoren in einem parallel zum Pfahl hergestellten Bohrloch registriert. Aus den Laufzeiten lassen sich die materialspezifischen Wellengeschwindigkeiten im Pfahl und im Boden sowie die Pfahllänge ermitteln. Bisher wurde meist ein sehr einfaches Verfahren zur Datenauswertung verwendet, das die Länge der Pfähle systematisch überschätzt. In der vorliegenden Dissertation wurden die mathematisch-physikalischen Grundlagen beleuchtet und durch Computersimulation die Wellenausbreitung in Pfahl und Boden genau untersucht. Weitere Simulationen klärten den Einfluss verschiedener Mess- und Strukturparameter, beispielsweise den Einfluss von Bodenschichtung oder Fehlstellen im Pfahl. So konnte geklärt werden, in welchen Fällen mit dem Parallel-Seismik-Verfahren gute Ergebnisse erzielt werden können (z. B. bei Fundamenten in Sand oder Ton) und wo es an seine Grenzen stößt (z. B. bei Gründung im Fels). Auf Basis dieser Ergebnisse entstand ein neuer mathematischer Formalismus zur Auswertung der Laufzeiten. In Verbindung mit einem Verfahren zur Dateninversion, d. h. der automatischen Anpassung der Unbekannten in den Gleichungen an die Messergebnisse, lassen sich sehr viel genauere Werte für die Pfahllänge ermitteln als mit allen bisher publizierten Verfahren. Zudem kann man nun auch mit relativ großen Abständen zwischen Bohrloch und Pfahl (2 - 3 m) arbeiten. Die Methode wurde an simulierten Daten ausführlich getestet. Die Messmethode und das neue Auswerteverfahren wurden in einer Reihe praktischer Anwendungen getestet – und dies fast immer erfolgreich. Nur in einem Fall komplizierter Fundamentgeometrie bei gleichzeitig sehr hoher Anforderung an die Genauigkeit war schon nach Simulationen klar, dass hier ein Einsatz nicht sinnvoll ist. Dafür zeigte es sich, dass auch die Länge von Pfahlwänden und Spundwänden ermittelt werden kann. Die Parallel-Seismik-Methode funktioniert als einziges verfügbares Verfahren zur Fundamentlängenermittlung zugleich in den meisten Bodenarten sowie an metallischen und nichtmetallischen Fundamenten und kommt ohne Kalibrierung aus. Sie ist nun sehr viel breiter einsetzbar und liefert sehr viel genauere Ergebnisse. Die Simulationen zeigten noch Potential für Erweiterungen, zum Beispiel durch den Einsatz spezieller Sensoren, die zusätzliche Wellentypen empfangen und unterscheiden können. N2 - The Parallel Seismic (PS) method is used for determination of the unknown or undocumented depth/length of unknown foundations, mostly piles. Parallel Seismic is an established but rather not commonly used geophysical technique, which has been developed several decades ago. Currently, this method is standardized in France and included in the method catalog of the US FHWA. The principle behind PS is quite simple: an impulse is generated on top of the pile by a hammer stroke, generating elastic waves (mainly compressional) traveling downward through the pile. Due to the high impedance contrast between pile and soil, the main part of the energy remains in the pile, but some is transmitted as guided waves into the surrounding soil. After reaching the pile toe, transmitted/diffracted waves of nearly spherical front are generated. These waves are recorded by sensors (hydrophones or geophones) in a nearby borehole. From the first arrival times registered at the sensors, the apparent wave velocity is calculated, which is different above the pile toe (pile velocity) and below (soil velocity). In the conventional data analysis, the pile length is estimated based on the intersection of the two travel time branches, leading to a systematic overestimation of the length of the pile. This thesis provides a systematic treatise of the mathematical and physical foundations of wave propagation in piles and soil. Extensive numerical simulations and parametric studies have been carried out to investigate the nature of the wave-field and influence of measurement and structural parameters. The results revealed the range of applicability of Parallel Seismic, but also some limitations, e. g. in the case of rock socketed foundations or piles containing flaws. A new mathematical algorithm for data interpretation was developed based on the simulation results, which takes into account the soil layers and the borehole inclination. This novel data interpretation scheme was used in combination with different data inversion methods. A comparison of the results showed that the commonly used Levenberg-Marquardt type least squares approach gives sufficiently accurate estimations in most common scenarios. The VFSA (very fast simulated annealing) method offers some advantages (e. g. avoiding local minima under certain conditions) but is much more time consuming. The new interpretation method was successfully validated using several sets of simulated data. It proved to be not only more accurate than all other available methods, but also to extend the maximum allowable pile-borehole distance to 2 – 3 m. Besides the numerical study, several field investigations have been carried out for the purpose of this study and also in the framework of real world projects. The foundation types included secant pile walls and sheet piles. The method performed successfully in all cases but one: a highly accurate determination of the connection of a T-shaped footing. In this particular case, the inapplicability of the method was concluded after some preliminary simulations, thus avoiding unnecessary costs to the client. Performing simulations prior to the actual testing is recommended in dealing with all non-standard cases. Today, Parallel Seismic is the only method applicable on metallic and non metallic foundations which can be used without calibration. It has the largest range of all borehole methods. KW - Fundament KW - Pfahl KW - Zerstörungsfreie Prüfung KW - Parallel Seismik KW - Inversion KW - foundation KW - pile KW - non-destructive testing KW - parallel seismic KW - inversion Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49191 ER - TY - THES A1 - Borković, Vladimir T1 - Evaluation kommunaler Sportprojekte zur sozialen Integration von Heranwachsenden T1 - Evaluation of community sports projects focusing on the social integration of adolescents N2 - Gegenstand der Studie ist die Evaluation eines kommunalen Sportprojekts. Die Forschungsarbeit entstand aus der wachsenden Erkenntnis heraus, dass es nicht mehr nur um die Entwicklung und Durchführung kommunaler oder sozialer Projekte geht, sondern zunehmend darauf ankommt, die Projektarbeit zu evaluieren, um ihren Einfluss auf die kommunale, soziale und personale Entwicklung zu prüfen und in der Folge die Implementierung zu optimieren. Die unterschiedlichen Schritte in der Definition des theoretischen Rahmens, der Datenanalyse sowie der Erarbeitung der evaluativen Empfehlungen wurden unternommen mit dem Anspruch auf Modellcharakter, um für zukünftige Evaluationsvorhaben entsprechende Standards zu setzen. Die Grundidee des kommunalen Sportprojekts „Straßenfußball für Toleranz“ ist innovativ: Mädchen und Jungen erobern durch gemeinsames Fußballspielen den öffentlichen Raum. Sie spielen ohne Schiedsrichter und nach speziellen Regeln. Das Projekt richtet sich ausdrücklich an sozial benachteiligte Jugendliche und bezieht gleichermaßen Jungen wie Mädchen ein. N2 - The objective of the study is the evaluation of a community sports project. The thesis originated from the growing perception that it is not only about initiating and implementing a communal or social project but that the focus is increasingly also on the evaluation of the project work in order to measure its impact on communal, social and personal development and to optimise the implementation as a consequence. The different steps in the definition of the theoretical framework, the data analysis as well as the formulation of the evaluative recommendations were conducted with the pretension to set standards for future evaluation projects. The basic concept of the community sports project “Street Football for Tolerance” is innovative: boys and girls jointly conquer public spaces by playing football. They play without a referee and according to special rules. The project explicitly reaches out to socially disadvantaged adolescents, with the aim that boys and girls are equally involved. KW - Evaluation KW - Sozialisation KW - soziale Integration KW - Straßenfußball KW - evaluation KW - socialisation KW - social integration KW - street football Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48186 SN - 978-3-86956-051-9 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Liesenjohann, Thilo T1 - Foraging in space and time T1 - Nahrungssuche unter variablen zeitlichen und räumlichen Bedingungen N2 - All animals are adapted to the environmental conditions of the habitat they chose to live in. It was the aim of this PhD-project, to show which behavioral strategies are expressed as mechanisms to cope with the constraints, which contribute to the natural selection pressure acting on individuals. For this purpose, small mammals were exposed to different levels and types of predation risk while actively foraging. Individuals were either exposed to different predator types (airborne or ground) or combinations of both, or to indirect predators (nest predators). Risk was assumed to be distributed homogeneously, so changing the habitat or temporal adaptations where not regarded as potential options. Results show that wild-caught voles have strategic answers to this homogeneously distributed risk, which is perceived by tactile, olfactory or acoustic cues. Thus, they do not have to know an absolut quality (e.g., in terms of food provisioning and risk levels of all possible habitats), but they can adapt their behavior to the actual circumstances. Deriving risk uniform levels from cues and adjusting activity levels to the perceived risk is an option to deal with predators of the same size or with unforeseeable attack rates. Experiments showed that as long as there are no safe places or times, it is best to reduce activity and behave as inconspicuous as possible as long as the costs of missed opportunities do not exceed the benefits of a higher survival probability. Test showed that these costs apparently grow faster for males than for females, especially in times of inactivity. This is supported by strong predatory pressure on the most active groups of rodents (young males, sexually active or dispersers) leading to extremely female-biased operative sex ratios in natural populations. Other groups of animals, those with parental duties such as nest guarding, for example, have to deal with the actual risk in their habitat as well. Strategies to indirect predation pressure were tested by using bank vole mothers, confronted with a nest predator that posed no actual threat to themselves but to their young (Sorex araneus). They reduced travelling and concentrated their effort in the presence of shrews, independent of the different nutritional provisioning of food by varying resource levels due to the different seasons. Additionally, they exhibited nest-guarding strategies by not foraging in the vicinity of the nest site in order to reduce conspicuous scent marks. The repetition of the experiment in summer and autumn showed that changing environmental constraints can have a severe impact on results of outdoor studies. In our case, changing resource levels changed the type of interaction between the two species. The experiments show that it is important to analyze decision making and optimality models on an individual level, and, when that is not possible (maybe because of the constraints of field work), groups of animals should be classified by using the least common denominator that can be identified (such as sex, age, origin or kinship). This will control for the effects of the sex or stage of life history or the individual´s reproductive and nutritional status on decision making and will narrow the wide behavioral variability associated with the complex term of optimality. N2 - Das Verhalten von Tieren ist das Ergebnis eines kontinuierlichen Anpassungsprozesses im Laufe der Evolution einer Art und damit der Veränderung der Umgebung in der es lebt und der Interaktion mit anderen Arten. Dies wird besonders deutlich im Verhalten von potentiellen Beutetieren, ihre Strategien beinhalten meist ein möglichst unauffälliges Verhalten im Zusammenspiel mit reduzierter Bewegung und möglichst guter Tarnung. Dementgegen stehen essentielle Bedürfnisse, wie zum Beispiel die Nahrungssuche, die Verteidigung von Ressourcen (zum Beispiel Territorien, Futterstellen) und die Suche nach Paarungspartnern. Beutetiere leben also in einem Spannungsfeld indem sie Ihr Verhalten optimieren müssen. Hierbei stehen die Ernährung, erfolgreiche Verpaarung und andere Chancen auf der einen Seite, die Vermeidung von Begegnungen mit Prädatoren auf der anderen. Vor allem Kleinsäuger sind häufig als Beutetiere mit einer Vielzahl von Prädatoren aus der Luft und auf dem Boden konfrontiert. Sie müssen für die verschiedenen Bedrohungen adaptive Verhaltensanpassungen bereit haben und in der Lage sein, auf die optischen, olfaktorischen oder akustischen Signale, die die Gefahr durch Prädatoren anzeigen, mit plastischen Verhaltensmustern zu reagieren. Die vorliegende Dissertation beschäftigt sich mit bisher als Konstanten behandelten Faktoren und untersucht anhand von Verhaltensexperimenten mit wilden Wühlmäusen (Microtus arvalis) folgende Fragestellungen: - Wie verhalten sich Tiere, die einer homogenen Risikoverteilung ausgesetzt sind, zum Beispiel weil ihr Prädator genauso gross ist wie sie, im gleichen Habitat lebt und es keinen sicheren Ort gibt? - Mit welchen Anpassungen reagieren Tiere, wenn sie gleichzeitig verschiedenen Prädatoren ausgesetzt sind? - Wie unterscheiden sich die Nahrungssuchstrategien von Männchen und Weibchen? - Wie verhalten sich laktierende Weibchen, die einer permanenten, indirekten Gefahr, z.B. durch einen Nestprädator ausgesetzt sind? Die Ergebnisse der verschiedenen Versuche in künstlichen Arenen und Aussengehegen zeigen, dass die Mäuse in der Lage sind, adaptive Verhaltensanpassung an homogenes Risiko und verschiedene Prädationstypen abzurufen. So sind sie in der Lage, Luft- von Bodenprädatoren zu unterscheiden und jeweils das Verhalten zu zeigen, dass die größtmögliche Sicherheit mit sich bringt. Die simultane Kombination von verschiedenen Prädatoren bewirkt hierbei additive Effekte. Gibt es keine Auswahl zwischen Habitaten, sondern nur unterschiedliche homogene Risikolevel, reagieren sie auf steigendes Risiko immer mit verminderter Aktivität und konzentrieren ihre Nahrungssuche auf weniger Futterstellen, beuten diese dafür jedoch länger aus. Die Wertigkeit von Futterstellen und alternativen Optionen verändert sich also mit dem Risikolevel. Ähnliches zeigt sich auch in den unterschiedlichen Futtersuchstrategien von Männchen und Weibchen. Die untersuchte Art ist polygyn und multivoltin, dementsprechend verbinden die Männchen mit ihrer Nahrungssuche Aktivitäten wie die Suche nach Paarungspartnern und unterscheiden sich die Aktivitätsmuster zwischen Männchen und Weibchen. Zusätzlich zeigen die Ergebnisse, das laktierende Weibchen in der Lage sind, das Risiko für sich und für Ihre Jungen abzuschätzen, wenn sie mit einem Nestprädator (Sorex araneus) konfrontiert werden. Für die Interaktion zwischen diesen beiden Arten ist jedoch die Saison (und damit die Ressourcenlage), in der sie sich begegnen, von entscheidender Bedeutung. Wühlmäuse reagieren mit entsprechenden Verhaltensanpassungen zum Schutz des Nestes um die Überlebenschancen ihrer letzten Würfe im Herbst zu erhöhen. Die vorliegende Arbeit konnte grundsätzliche Probleme der antiprädatorischen Verhaltensanpassung von Beutetieren klären und wichtige Faktoren der Entscheidungsfindung unter Prädationsdruck analysieren. Sie zeigt, dass Tiere das Risiko in ihrer Umgebung nicht unbedingt über direkt Signale wahrnehmen, sondern ihre Verhaltensstrategien einem empfundenen Gesamtrisikolevel anpassen. Dies ermöglicht ihnen, adaptive Strategien zu verfolgen, auch wenn sie keine Auswahl an sicheren Habitaten haben. Sie zeigt auch die unterschiedliche Wahrnehmung von Risiken durch Männchen und Weibchen, die durch die unterschiedlichen mit der Aktivität zusätzlich wahrgenommenen Chancen verknüpft zu sein scheint. Zusätzlich wurde der Einfluss des reproduktiven Status (z.B. laktierend), sowie der Ressourcenlage (z. B. je nach Saison) nachgewiesen. KW - Nahrungssuche KW - Microtus KW - Wühlmaus KW - Prädation KW - Optimalität KW - Predation KW - Microtus KW - Optimality KW - Seasonality KW - Foraging Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48562 ER - TY - THES A1 - Kauffmann, Albrecht T1 - Das Städtesystem der Russischen Föderation aus Sicht der Neuen Ökonomischen Geographie T1 - The Russian system of cities from the perspective of New Economic Geography N2 - Der Anstieg der Energiepreise kann zu einer länger anhaltenden Verteuerung von Gütertransporten führen. Welche Auswirkungen haben steigende Transportkosten auf die Entwicklung von Städtesystemen? Ein solcher Transportkostenanstieg hat in der Russischen Föderation nach der Preisliberalisierung 1992 real, d.h. in Relation zu den Preisen anderer Gütergruppen stattgefunden. Gleichzeitig stellt die Bevölkerungsstatistik der Russischen Föderation Daten bereit, mit deren Hilfe Hypothesen zur Entwicklung von Städtesystemen unter dem Einfluss steigender Transportkosten geprüft werden können. Diese Daten werden in der vorliegenden Arbeit umfassend ausgewertet. Den theoretischen Hintergrund liefert die Modellierung eines Städtesystems mit linearer Raumstruktur im Rahmen der Neuen Ökonomischen Geographie. Damit wird ein Werkzeug geschaffen, das auch auf weiträumige Städtesysteme mit ausgeprägter Bandstruktur angewendet werden kann. Die hier erstmals erfolgte ausführliche Erläuterung des zu Grunde liegenden Theorieansatzes versteht sich als Ergänzung der Standardlehrbücher der Raumwirtschaftstheorie. Die Ergebnisse der empirischen Untersuchung bestätigen die Prognose des Modells, dass in großflächigen Ländern bzw. Regionen mit Ähnlichkeit zur unterstellten Raumstruktur ein Anstieg der Transportkosten Konzentrationstendenzen in den Zentren befördert, während die peripheren Regionen zunehmend abgekoppelt werden. N2 - The rise in energy prices may result in long-lasting rise in costs of freight transports. Which effects do rising freight transport costs have for the development of urban systems? Such rise of transport costs in real terms has happened in Russia after price liberalisation in 1992. At the same time, the Russian official demographic statistics provides data that can be used to test hypotheses concerning the development of urban systems affected by rising transport costs. In the present study, these data are comprehensively evaluated. The theoretical background is provided by modelling of a linear shaped urban system in the framework of New Economic Geography. By means of this tool, analysis can be applied to spacious urban systems with large transport distances. For the first time, the underlying theoretical approach is explained in detail. The empirical results provide evidence for the outcomes of the theoretical model: In spacious countries or regions, respectively, whose urban systems are drawn-out on long lines, rising costs of freight transport are conducive to tendencies of concentration of population in large cities in the centre of the system, while peripheral regions are increasingly disconnected. T3 - Potsdamer Schriften zur Raumwirtschaft - 2 KW - Russland KW - Städtesysteme KW - Neue Ökonomische Geographie KW - Wanderungen KW - Russia KW - urban systems KW - New Economic Geography KW - migration Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44520 SN - 978-3-86956-074-8 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Creutzfeldt, Noah Angelo Benjamin T1 - The effect of water storages on temporal gravity measurements and the benefits for hydrology T1 - Der Effekt von Wasserspeicher auf zeitabhängige Gravitationsmessungen und der Nutzen für die Hydrologie N2 - Temporal gravimeter observations, used in geodesy and geophysics to study variation of the Earth’s gravity field, are influenced by local water storage changes (WSC) and – from this perspective – add noise to the gravimeter signal records. At the same time, the part of the gravity signal caused by WSC may provide substantial information for hydrologists. Water storages are the fundamental state variable of hydrological systems, but comprehensive data on total WSC are practically inaccessible and their quantification is associated with a high level of uncertainty at the field scale. This study investigates the relationship between temporal gravity measurements and WSC in order to reduce the hydrological interfering signal from temporal gravity measurements and to explore the value of temporal gravity measurements for hydrology for the superconducting gravimeter (SG) of the Geodetic Observatory Wettzell, Germany. A 4D forward model with a spatially nested discretization domain was developed to simulate and calculate the local hydrological effect on the temporal gravity observations. An intensive measurement system was installed at the Geodetic Observatory Wettzell and WSC were measured in all relevant storage components, namely groundwater, saprolite, soil, top soil and snow storage. The monitoring system comprised also a suction-controlled, weighable, monolith-filled lysimeter, allowing an all time first comparison of a lysimeter and a gravimeter. Lysimeter data were used to estimate WSC at the field scale in combination with complementary observations and a hydrological 1D model. Total local WSC were derived, uncertainties were assessed and the hydrological gravity response was calculated from the WSC. A simple conceptual hydrological model was calibrated and evaluated against records of a superconducting gravimeter, soil moisture and groundwater time series. The model was evaluated by a split sample test and validated against independently estimated WSC from the lysimeter-based approach. A simulation of the hydrological gravity effect showed that WSC of one meter height along the topography caused a gravity response of 52 µGal, whereas, generally in geodesy, on flat terrain, the same water mass variation causes a gravity change of only 42 µGal (Bouguer approximation). The radius of influence of local water storage variations can be limited to 1000 m and 50 % to 80 % of the local hydro¬logical gravity signal is generated within a radius of 50 m around the gravimeter. At the Geodetic Observatory Wettzell, WSC in the snow pack, top soil, unsaturated saprolite and fractured aquifer are all important terms of the local water budget. With the exception of snow, all storage components have gravity responses of the same order of magnitude and are therefore relevant for gravity observations. The comparison of the total hydrological gravity response to the gravity residuals obtained from the SG, showed similarities in both short-term and seasonal dynamics. However, the results demonstrated the limitations of estimating total local WSC using hydrological point measurements. The results of the lysimeter-based approach showed that gravity residuals are caused to a larger extent by local WSC than previously estimated. A comparison of the results with other methods used in the past to correct temporal gravity observations for the local hydrological influence showed that the lysimeter measurements improved the independent estimation of WSC significantly and thus provided a better way of estimating the local hydrological gravity effect. In the context of hydrological noise reduction, at sites where temporal gravity observations are used for geophysical studies beyond local hydrology, the installation of a lysimeter in combination with complementary hydrological measurements is recommended. From the hydrological view point, using gravimeter data as a calibration constraint improved the model results in comparison to hydrological point measurements. Thanks to their capacity to integrate over different storage components and a larger area, gravimeters provide generalized information on total WSC at the field scale. Due to their integrative nature, gravity data must be interpreted with great care in hydrological studies. However, gravimeters can serve as a novel measurement instrument for hydrology and the application of gravimeters especially designed to study open research questions in hydrology is recommended. N2 - Zeitabhängigen Gravimetermessungen, die in der Geodäsie und der Geophysik eingesetzt werden, um Variationen des Erdschwerefelds zu messen, werden durch lokale Wasserspeicheränderungen beeinflusst und verursachen – aus dieser Perspektive – ein hydrologisches Störsignal in den Gravimetermessungen. Gleichzeitig bietet der Teil des Gravimetersignals, der durch Wasserspeicheränderungen hervorgerufen wird, das Potential wichtige Informationen über hydrologische Speicher zu gewinnen, da zwar Wasserspeicher eine grundlegende Zustandsgröße hydrologischer Systeme darstellt, jedoch ihre Quantifizierung mit einem hohen Maß an Unsicherheiten auf der Feldskala behaftet ist. Diese Studie untersucht die Beziehung zwischen zeitabhängigen Gravimetermessungen und Wasserspeicheränderungen, um die Gravimetermessungen von dem hydrologischen Störsignal zu bereinigen und um den Nutzen der Gravimetermessungen für die Hydrologie zu erkunden. Dies geschieht am Beispiel des Supraleitgravimeters (SG) des Geodätischen Observatoriums Wettzell in Deutschland. Ein 4D Vorwärtsmodel mit einer räumlich genesteten Diskretisierungsdomäne wurde entwickelt, um die lokalen hydrologischen Masseneffekte auf Gravimetermessungen zu simulieren. Des Weiteren wurde ein intensives Messsystem am Geodätischen Observatorium Wettzell installiert, um die Wasserspeicheränderungen in allen relevanten Speicherkomponenten, also im dem Grundwasser, in der ungesättigten Zone und im Schneespeicher zu messen. Das Monitoringsystem beinhaltete auch einen wägbaren, monolithischen Lysimeter mit Matrixpotentialübertragung, der es uns ermöglichte, zum ersten Mal einen Lysimeter direkt mit einem Gravimeter zu vergleichen. Die Lysimetermessungen wurden in Kombination mit komplementären hydrologischen Beobachtungen und einem 1D-Modell verwendet, um die Wasserspeicheränderungen auf der Feldskala zu bestimmen. Die Gesamtwasserspeicheränderungen wurden bestimmt, Unsicherheiten abgeschätzt und der hydrologische Masseneffekt auf Gravimetermessungen berechnet. Schlussendlich wurde ein einfaches, konzeptionelles, hydrologisches Modell mittels der Zeitreihen von dem SG, Bodenfeuchte- und Grundwassermessungen kalibriert und evaluiert. Das Modell wurde durch einen “Split-Sample-Test” evaluiert und basierend auf unabhängig bestimmten Wasserspeicheränderungen bestimmt auf Grundlage der Lysimetermessungen validiert. Die Simulation des hydrologischen Masseneffektes auf Gravimetermessungen zeigte, dass Wasserspeicheränderungen von einem Meter Höhe entlang der Topographie, einen Erdschwereeffekt von 52 µGal hervorriefen, während in der Geodäsie im Allgemeinen die gleiche Wassermassenvariation in flachem Terrain eine Erdschwereeffekt von nur 42 µGal (Bouguer-Platte) hervorruft. Der Einflussradius der lokalen Wasserspeicheränderungen kann auf 1000 m begrenzt werden, und 50 % bis 80 % des lokalen hydrologischen Erdschweresignals wird in einem Radius von 50 m um den Gravimeter generiert. Wasserspeichervariationen in der Schneedecke, im Oberboden, dem ungesättigten Saprolith und im gelüfteten Aquifer, sind allesamt wichtige Größen der lokalen Wasserbilanz. Mit der Ausnahme von Schnee beeinflussen alle Speicheränderungen die Gravimetermessungen in derselben Größenordnung und sind daher für die Gravimetermessungen von Bedeutung. Ein Vergleich des lokalen hydrologischen Gravitationseffektes mit den SG Residuen zeigte sowohl ereignisbezogene als auch saisonalen Übereinstimmungen. Weiterhin zeigten die Ergebnisse jedoch auch die Grenzen bei der Bestimmung der gesamten lokalen Wasserspeichervariationen mithilfe hydrologischer Punktmessungen auf. Die Ergebnisse des Lysimeter-basierten Ansatzes zeigten, dass SG Residuen mehr noch, als bisher aufgezeigt, durch lokale Wasserspeicheränderungen hervorgerufen werden. Ein Vergleich der Resultate mit anderen Methoden, die in der Vergangenheit zur Korrektur zeitabhängiger Erdschwerebeobachtungen durch Bestimmung des lokalen hydrologischen Masseneffekte verwendet wurden, zeigte, dass die unabhängige Berechnung von Wasserspeicheränderungen durch Lysimetermessungen erheblich verbessert werden kann und dass diese somit eine verbesserte Methode zur Bestimmung des lokalen hydrologischen Erdschwereeffekts darstellt. Die Installation eines Lysimeters ist somit im Zusammenhang mit einer Reduzierung des hydrologischen Störsignals und an Standorten, wo zeitabhängige Erdschwerebeobachtungen für geophysikalische Studien, die über die lokale Hydrologie hinausgehen verwendet werden, zu empfehlen. Aus hydrologischer Sicht zeigte diese Studie, dass die Verwendung von zeitabhängigen Gravimetermessungen als Kalibrierungsdaten die Modellergebnisse im Vergleich zu hydrologischen Punktmessungen verbesserten. Auf Grund ihrer Fähigkeit, über verschiedene Speicherkomponenten und ein größeres Gebiet zu integrieren, bieten Gravimeter verallgemeinerte Informationen über die Gesamtwasserspeicherveränderungen auf der Feldskala. Diese integrative Eigenschaft macht es notwendig, Erdschweredaten in hydrologischen Studien mit großer Vorsicht zu interpretieren. Dennoch können Gravimeter der Hydrologie als neuartiges Messinstrument dienen und die Nutzung von Gravimetern, die speziell für die Beantwortung noch offener Forschungsfragen der Hydrologie entwickelt wurden wird hier empfohlen. KW - Hydrogeopyhsik KW - zeitabhängige Gravitationsvariation KW - Wasserspeicheränderungen KW - Supraleitender Gravimeter (SG) KW - hydrologische Modellierung KW - Hydrogeophysics KW - temporal gravity variations KW - water storage changes KW - superconducting gravimeter (SG) KW - hydrological monitoring and modelling Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48575 ER -