TY - THES A1 - Lontsi, Agostiny Marrios T1 - 1D shallow sedimentary subsurface imaging using ambient noise and active seismic data T1 - 1D Bildgebung oberflächennaher Sedimente mit Hilfe von Daten der allgemeinen, seismischen Bodenunruhe und Daten der aktiven Seismik N2 - The Earth’s shallow subsurface with sedimentary cover acts as a waveguide to any incoming wavefield. Within the framework of my thesis, I focused on the characterization of this shallow subsurface within tens to few hundreds of meters of sediment cover. I imaged the seismic 1D shear wave velocity (and possibly the 1D compressional wave velocity). This information is not only required for any seismic risk assessment, geotechnical engineering or microzonation activities, but also for exploration and global seismology where site effects are often neglected in seismic waveform modeling. First, the conventional frequency-wavenumber (f - k) technique is used to derive the dispersion characteristic of the propagating surface waves recorded using distinct arrays of seismometers in 1D and 2D configurations. Further, the cross-correlation technique is applied to seismic array data to estimate the Green’s function between receivers pairs combination assuming one is the source and the other the receiver. With the consideration of a 1D media, the estimated cross-correlation Green’s functions are sorted with interstation distance in a virtual 1D active seismic experiment. The f - k technique is then used to estimate the dispersion curves. This integrated analysis is important for the interpretation of a large bandwidth of the phase velocity dispersion curves and therefore improving the resolution of the estimated 1D Vs profile. Second, the new theoretical approach based on the Diffuse Field Assumption (DFA) is used for the interpretation of the observed microtremors H/V spectral ratio. The theory is further extended in this research work to include not only the interpretation of the H/V measured at the surface, but also the H/V measured at depths and in marine environments. A modeling and inversion of synthetic H/V spectral ratio curves on simple predefined geological structures shows an almost perfect recovery of the model parameters (mainly Vs and to a lesser extent Vp). These results are obtained after information from a receiver at depth has been considered in the inversion. Finally, the Rayleigh wave phase velocity information, estimated from array data, and the H/V(z, f) spectral ratio, estimated from a single station data, are combined and inverted for the velocity profile information. Obtained results indicate an improved depth resolution in comparison to estimations using the phase velocity dispersion curves only. The overall estimated sediment thickness is comparable to estimations obtained by inverting the full micortremor H/V spectral ratio. N2 - Oberflächennahe Sedimente wirken oft als Verstärker für einfallende seismische Wellenfelder. Im Rahmen meiner Doktorarbeit konzentriere ich mich auf die Eigenschaften des oberflächennahen Untergrundes von einigen zehn bis zu hundert Metern Sedimentabdeckung. Dabei leite ich Tiefenprofile (1D) der seismische Scherwellengeschwindigkeit (Vs) und wenn möglich auch der Kompressionswellengeschwindigkeit (Vp) aus seismischen Daten ab. Diese Informationen sind nicht nur für jede Erdbebenrisikobewertung, Geotechnik- oder Mikrozonierungsaktivität erforderlich, sondern sind auch für die seismische Erkundung und globale Seismologie von Bedeutung, da Standorteffekte in seismischen Wellenformmodellierungen oft vernachlässigt werden. Zuerst wird die herkömmliche Frequenz-Wellenzahl (f - k) Technik verwendet, um die Dispersionskurven der Phasengeschwindigkeit von Oberflächenwellen abzuleiten. Die zugrundeliegenden Daten stammen von Seismometerarrays in unterschiedlichen 1D- und 2D-Konfigurationen. In einem weiteren Schritt wird die Green’s Funktion zwischen verschiedenen Empfängerpaaren aus den Daten des seismischen Arrays geschätzt. Dabei wird die Kreuzkorrelationstechnik verwendet. In einem virtuellen 1D Experiment der aktiven Seismik werden die abgeleiteten Green’s Funktionen der Interstationsdistanz nach geordnet. Dann wird die f-k Technik verwendet um wiederum Dispersionskurven abzuleiten. Dieser integrierte Ansatz ermöglicht die Analyse einer grösseren Bandbreite für die Dispersionskurven und daher eine verbesserte Auflösung des 1D Tiefenprofils der Scherwellengeschwindigkeit (Vs). In einem zweiten Schritt wird ein neuer Ansatz, basierend auf der diffusen Wellenfeldannahme (engl., Diffuse Field Assumption, DFA), zur Interpretation beobachteter horizontal zu vertikalen Spektralamplitudenverhältnissen (H/V-Spektralverhältnisse), die aus allgemeiner Bodenunruhe abgeleited wurden,genutzt. Diese Theorie wurde im Rahmen der vorliegenden Arbeit erweitert, um nicht nur an der Oberfläche gemessene H/V- Spektralverhältnisse interpretieren zu können sondern auch Messungen in der Tiefe (Bohrloch) und in mariner Umgebung (Ozeanboden). Eine Modellierung und Inversion von synthetischen HV- Spektralverhältnissen für vordefinierte, einfache geologische Strukturen zeigt eine nahezu perfekte Identifikation/Rekonstruktion der Modellparameter (im wesentlichen Vs und in geringerem Maße Vp), wenn die zusätzliche Information von HV- Spektralverhältnissen eines Empfängers in der Tiefe bei der Inversion berücksichtigt wird. Letztlich wurden (i) Phasengeschwindigkeiten von Rayleighwellen, die aus einem Arraydatensatz geschätzt wurden, mit (ii) H/V-Spektralverhältnissen einer Einzelstation kombiniert invertiert, um Tiefen-profile seismischer Geschwindigkeiten (Vs, Vp) zu bestimmen. Die Ergebnisse deuten daraufhin, dass sich mit einer kombinierte Inversion seismische Geschwindigkeiten bis in größere Tiefen bestimmen lassen, verglichen mit der Inversion von nur Phasengeschwindigkeiten allein. Die geschätzte Gesamtmächtigkeit von Oberflächensedimenten aufgrund der kombinierten Inversion ist vergleichbar mit der, abgleitet von nur H/V-Spektralverhältnissen. KW - active seismic KW - passive seismic KW - virtual active seismic KW - dispersion curves KW - inversion KW - Vs profiles KW - inverse theory KW - interferometry KW - site effects KW - aktive Seismik KW - passive Seismik KW - virtuelle aktive Seismik KW - Dispersionskurven KW - Inversion KW - Vs Profile KW - Inversionstheorie KW - Interferometrie KW - Standorteffekte Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103807 ER - TY - THES A1 - Falter, Daniela T1 - A novel approach for large-scale flood risk assessments T1 - Ein neuartiger Ansatz für großskalige Hochwasserrisikoanalysen BT - continuous and long-term simulation of the full flood risk chain BT - kontinuierliche Langzeitsimulation der gesamten Hochwasserrisikokette N2 - In the past, floods were basically managed by flood control mechanisms. The focus was set on the reduction of flood hazard. The potential consequences were of minor interest. Nowadays river flooding is increasingly seen from the risk perspective, including possible consequences. Moreover, the large-scale picture of flood risk became increasingly important for disaster management planning, national risk developments and the (re-) insurance industry. Therefore, it is widely accepted that risk-orientated flood management ap-proaches at the basin-scale are needed. However, large-scale flood risk assessment methods for areas of several 10,000 km² are still in early stages. Traditional flood risk assessments are performed reach wise, assuming constant probabilities for the entire reach or basin. This might be helpful on a local basis, but where large-scale patterns are important this approach is of limited use. Assuming a T-year flood (e.g. 100 years) for the entire river network is unrealistic and would lead to an overestimation of flood risk at the large scale. Due to the lack of damage data, additionally, the probability of peak discharge or rainfall is usually used as proxy for damage probability to derive flood risk. With a continuous and long term simulation of the entire flood risk chain, the spatial variability of probabilities could be consider and flood risk could be directly derived from damage data in a consistent way. The objective of this study is the development and application of a full flood risk chain, appropriate for the large scale and based on long term and continuous simulation. The novel approach of ‘derived flood risk based on continuous simulations’ is introduced, where the synthetic discharge time series is used as input into flood impact models and flood risk is directly derived from the resulting synthetic damage time series. The bottleneck at this scale is the hydrodynamic simu-lation. To find suitable hydrodynamic approaches for the large-scale a benchmark study with simplified 2D hydrodynamic models was performed. A raster-based approach with inertia formulation and a relatively high resolution of 100 m in combination with a fast 1D channel routing model was chosen. To investigate the suitability of the continuous simulation of a full flood risk chain for the large scale, all model parts were integrated into a new framework, the Regional Flood Model (RFM). RFM consists of the hydrological model SWIM, a 1D hydrodynamic river network model, a 2D raster based inundation model and the flood loss model FELMOps+r. Subsequently, the model chain was applied to the Elbe catchment, one of the largest catchments in Germany. For the proof-of-concept, a continuous simulation was per-formed for the period of 1990-2003. Results were evaluated / validated as far as possible with available observed data in this period. Although each model part introduced its own uncertainties, results and runtime were generally found to be adequate for the purpose of continuous simulation at the large catchment scale. Finally, RFM was applied to a meso-scale catchment in the east of Germany to firstly perform a flood risk assessment with the novel approach of ‘derived flood risk assessment based on continuous simulations’. Therefore, RFM was driven by long term synthetic meteorological input data generated by a weather generator. Thereby, a virtual time series of climate data of 100 x 100 years was generated and served as input to RFM providing subsequent 100 x 100 years of spatially consistent river discharge series, inundation patterns and damage values. On this basis, flood risk curves and expected annual damage could be derived directly from damage data, providing a large-scale picture of flood risk. In contrast to traditional flood risk analysis, where homogenous return periods are assumed for the entire basin, the presented approach provides a coherent large-scale picture of flood risk. The spatial variability of occurrence probability is respected. Additionally, data and methods are consistent. Catchment and floodplain processes are repre-sented in a holistic way. Antecedent catchment conditions are implicitly taken into account, as well as physical processes like storage effects, flood attenuation or channel–floodplain interactions and related damage influencing effects. Finally, the simulation of a virtual period of 100 x 100 years and consequently large data set on flood loss events enabled the calculation of flood risk directly from damage distributions. Problems associated with the transfer of probabilities in rainfall or peak runoff to probabilities in damage, as often used in traditional approaches, are bypassed. RFM and the ‘derived flood risk approach based on continuous simulations’ has the potential to provide flood risk statements for national planning, re-insurance aspects or other questions where spatially consistent, large-scale assessments are required. N2 - In der Vergangenheit standen bei der Betrachtung von Hochwasser insbesondere technische Schutzmaßnahmen und die Reduzierung der Hochwassergefahr im Mittelpunkt. Inzwischen wird Hochwasser zunehmend aus der Risikoperspektive betrachtet, d.h. neben der Gefährdung werden auch die Auswirkungen berücksichtigt. In diesem Zuge wurde auch die Notwendigkeit von großräumigen Hochwasserrisikoanalysen für das Management von Naturgefahren und als Planungsgrundlage auf nationaler Ebene sowie für die Rückversicherungsindustrie erkannt. Insbesondere durch die Einführung der Europäischen Hochwasserrisikomanagement Richtlinie sind risikoorientierte Managementpläne auf Einzugsgebietsebene obligatorisch. Allerdings befinden sich großräumige Hochwasserrisikoanalysen von mehreren 10.000 km², noch in den Anfängen. Traditionell werden Hochwasserrisikoanalysen für Gewässerabschnitte durchgeführt, wobei homogene Wiederkehrintervalle für das ganze Untersuchungsgebiet angenommen werden. Für lokale Fragestellungen ist diese Vorgehensweise sinnvoll, dies gilt allerdings nicht für die großräumige Analyse des Hochwasserrisikos. Die Annahme eines beispielsweise 100-jährigen Hochwassers im gesamten Gebiet ist unrealistisch und das Hochwasserrisiko würde dabei stark überschätzt werden. Aufgrund unzureichender Schadensdaten werden bei der Berechnung des Risikos oftmals die Wahrscheinlichkeiten des Niederschlags oder der Hochwasserscheitelabflüsse als Annäherung für die Wahrscheinlichkeit des Schadens angenommen. Durch eine kontinuierliche Langzeit-Simulation der gesamten Hochwasserrisikokette könnte sowohl die räumliche Verteilung der Wiederkehrintervalle berücksichtig werden, als auch das Hochwasserrisiko direkt aus Schadenszeitreihen abgeleitet werden. Die Zielsetzung dieser Arbeit ist die Entwicklung und Anwendung einer, für großräumige Gebiete geeigneten, kontinuierlichen Hochwasserrisikomodellkette. Damit wird ein neuartiger Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ eingeführt, der das Hochwasserrisiko direkt aus den simulierten Abflusszeitreichen und den daraus resultierenden Schadenzeitreihen ableitet. Die größte Herausforderung der Hochwasserrisikokette liegt bei den sehr rechenintensiven, detaillierten hydraulischen Simulationen. Um geeignete hydraulische Modelle für die großräumige Anwendung zu identifizieren, wurde eine Benchmark-Studie mit 2D Modellen unterschiedlicher Komplexität durchgeführt. Auf dieser Grundlage wurde für die Hochwasserrisikomodellkette ein rasterbasierter Ansatz mit einer relativ hohen Auflösung von 100 m in Kombination mit einem schnellen 1D Fließgewässermodell ausgewählt. Um die Eignung einer kontinuierlichen Simulation der gesamten Hochwasserrisikokette für großräumige Anwendungen zu prüfen, wurden zunächst alle Komponenten der Modellkette im ‚Regional Flood Model‘ (RFM) zusammengeführt. RFM besteht aus dem hydrologischen Modell SWIM, 1D und 2D hydraulischen Modellen, sowie dem Schadensmodell FELMOps+r. Nachfolgend wurde die Modellkette für das Elbe-Einzugsgebiet (>60.000 km²) angewendet. Es wurde eine kontinuierliche Simulation für den Zeitraum 1990-2003 durchgeführt. Die Ergebnisse wurden nach Möglichkeit mit vorhandenen Messdaten validiert/evaluiert. Auch wenn jede Komponente zu Unsicherheiten in den Ergebnissen der Modellkette beiträgt, sind die Ergebnisse und Rechenzeiten für die Anwendung auf großskaliger Einzugsgebietsebene als adäquat anzusehen. Schließlich wurde RFM in einem mesoskaligen Einzugsgebiet (6.000 km²) im Osten von Deutschland angewendet, um erstmals eine Hochwasserrisikoanalyse mit dem neuartigen Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ durchzuführen. Als Input wurde eine 100 x 100-jährige Zeitreihe meteorologischer Daten von einem Wettergenerator erzeugt. Die somit erzeugte 100 x 100-jährige konsistente Abflusszeitreihe, Überschwemmungsmuster und Schadenswerte dienten als Basis für die nachfolgende Erstellung von Hochwasserrisikokurven und Schadenserwartungswerten für das Untersuchungsgebiet. Diese ermöglichen eine großräumige Analyse des Hochwasserrisikos. Dabei wurde die räumliche Variation der Wahrscheinlichkeiten berücksichtigt. Die verwendeten Daten und Methoden waren außerdem im gesamten Untersuchungsgebiet einheitlich. Einzugsgebietsprozesse und Prozesse der Überschwemmungsflächen werden holistisch dargestellt. Die Vorbedingungen im Einzugsgebiet sowie physikalische Prozesse, wie Rückhalteeffekte, Überlagerungseffekte im Gewässernetz oder Interaktionen zwischen Fluss und Überschwemmungsflächen, werden implizit berücksichtigt. Die Simulation von 100 x 100 Jahren und die daraus resultierende große Anzahl an Schadensdaten ermöglichen die direkte Berechnung des Hochwasserrisikos aus Schadenswahrscheinlichkeiten. Die Probleme, die durch die Übertragung von Wahrscheinlichkeiten von Niederschlag oder Scheitelabfluss auf die Wahrscheinlichkeiten im Schaden resultieren, werden umgangen. RFM und der Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ haben das Potential Hochwasserrisikoaussagen für nationale Planungen, Rückversicherungsaspekte oder andere Fragestellungen, bei denen räumlich konsistente und großräumige Analysen nötig sind, zu treffen. KW - flood risk KW - hydraulic simulation KW - flood risk analysis KW - risk model chain KW - floodplain inundation KW - Hochwasserrisikoanalysen KW - Hochwasserrisikokette KW - Überschwemmungsflächen KW - kontinuierlicher Simulationsansatz Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90239 ER - TY - THES A1 - Räling, Romy T1 - Age of acquisition and semantic typicality effects T1 - Erwerbsalter- und semantische Typikalitätseffekte BT - evidences for distinct processing origins from behavioural and ERP data in healthy and impaired semantic processing BT - Evidenzen für distinktive Verarbeitungsursprünge aus behavioralen und elektrophysiologischen Daten der sprachgesunden und beeinträchtigten semantischen Verarbeitung N2 - Age of acquisition (AOA) is a psycholinguistic variable that significantly influences behavioural measures (response times and accuracy rates) in tasks that require lexical and semantic processing. Its origin is – unlike the origin of semantic typicality (TYP), which is assumed at the semantic level – controversially discussed. Different theories propose AOA effects to originate either at the semantic level or at the link between semantics and phonology (lemma-level). The dissertation aims at investigating the influence of AOA and its interdependence with the semantic variable TYP on particularly semantic processing in order to pinpoint the origin of AOA effects. Therefore, three studies have been conducted that considered the variables AOA and TYP in semantic processing tasks (category verifications and animacy decisions) by means of behavioural and partly electrophysiological (ERP) data and in different populations (healthy young and elderly participants and in semantically impaired individuals with aphasia (IWA)). The behavioural and electrophysiological data of the three studies provide evidence for distinct processing levels of the variables AOA and TYP. The data further support previous assumptions on a semantic origin for TYP but question the same for AOA. The findings, however, support an origin of AOA effects at the transition between the word form (phonology) and the semantic level that can be captured at the behavioural but not at the electrophysiological level. N2 - Das Erwerbsalter (engl. age of acquisition, AOA) ist eine psycholinguistische Variable, die Verhaltensdaten (Reaktionszeiten und Fehlerraten) von sprachgesunden Studienteilnehmern in Aufgaben zur lexikalisch-semantischen Verarbeitung nachweislich beeinflusst. Während für die Typikalität (engl. typicality, TYP), eine weitere wichtige psycholinguistische Variable, der Verarbeitungsursprung auf der semantischen Ebene als sicher angenommen werden kann, wird der Ursprung des Erwerbsalters bis heute kontrovers diskutiert. Verschiedene Theorien erwägen den Ursprung von Erwerbsaltereffekten entweder auf der semantischen Ebene oder auf der Verbindungsroute zwischen der Semantik und der Phonologie (Lemma-Level). Das Ziel der Dissertation ist die Evaluation eines semantischen Ursprunges von Erwerbsaltereffekten sowie des Wechselspiels des Erwerbsalters mit der semantischen Variable Typikalität. Im Rahmen des Promotionsprojektes wurden drei Studien durchgeführt, die die Variablen Erwerbsalter und Typikalität in Aufgaben zum Sprachverständnis (Belebtheits-Entscheiden und Kategorie-Vertreter-Verifikation) mit Hilfe unterschiedlicher Methoden (Verhaltens- und EEG-Messungen) und Populationen (junge und ältere Sprachgesunde und Aphasiker mit einem spezifisch semantischen Defizit) untersuchen. Die erhobenen Daten der drei Studien liefern Evidenzen für unterschiedliche Verarbeitungsursprünge der Variablen Erwerbsalter und Typikalität. Während die Daten bisherige Annahmen eines semantischen Ursprunges von Typikalitätseffekten unterstützen, stellen sie entsprechendes für Erwerbsaltereffekte in Frage. Insbesondere die behavioralen Ergebnisse liefern jedoch Evidenzen für einen Verarbeitungsursprung des Erwerbsalters auf den Verbindungsrouten zwischen den Wortformebenen (phonologisches bzw. graphematisches Inputlexikon) und der semantischen Ebene. KW - semantische Typikalität KW - Erwerbsalter KW - Aphasie KW - semantische Verarbeitung KW - ereigniskorrelierte Potentiale KW - semantic typicality KW - age of acquisition KW - aphasia KW - semantic processing KW - event-related potentials Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-95943 ER - TY - THES A1 - Steeples, Elliot T1 - Amino acid-derived imidazolium salts: platform molecules for N-Heterocyclic carbene metal complexes and organosilica materials T1 - Imidazolium-Salze aus Aminosäure: Bausteine für N-Heterozyklische-Carben Metallkomplexe und Organosilicamaterialien N2 - In the interest of producing functional catalysts from sustainable building-blocks, 1, 3-dicarboxylate imidazolium salts derived from amino acids were successfully modified to be suitable as N-Heterocyclic carbene (NHC) ligands within metal complexes. Complexes of Ag(I), Pd(II), and Ir(I) were successfully produced using known procedures using ligands derived from glycine, alanine, β-alanine and phenylalanine. The complexes were characterized in solid state using X-Ray crystallography, which allowed for the steric and electronic comparison of these ligands to well-known NHC ligands within analogous metal complexes. The palladium complexes were tested as catalysts for aqueous-phase Suzuki-Miyaura cross-coupling. Water-solubility could be induced via ester hydrolysis of the N-bound groups in the presence of base. The mono-NHC–Pd complexes were seen to be highly active in the coupling of aryl bromides with phenylboronic acid; the active catalyst of which was determined to be mostly Pd(0) nanoparticles. Kinetic studies determined that reaction proceeds quickly in the coupling of bromoacetophenone, for both pre-hydrolyzed and in-situ hydrolysis catalyst dissolution. The catalyst could also be recycled for an extra run by simply re-using the aqueous layer. The imidazolium salts were also used to produce organosilica hybrid materials. This was attempted via two methods: by post-grafting onto a commercial organosilica, and co-condensation of the corresponding organosilane. The co-condensation technique harbours potential for the production of solid-support catalysts. N2 - Um Katalysatoren aus nachhaltigen Chemikalien herzustellen, wurden 1,3-Dicarbonsäure-Imidazolium-Salze, welche aus Aminosäuren synthetisiert wurden als N-heterozyklische-Carben-Liganden (NHC) in Metallkomplexen modifiziert. Liganden aus Glycin, Alanin, β-Alanin und Phenylalanin wurden wiederum genutzt, um Metallkomplexe aus Silber(I), Palladium(II) und Iridium(I) darzustellen. Alle Komplexverbindungen wurden mit Röntgenkristallographie charakterisiert. Die Palladiumkomplexe wurden als Katalysatoren in der Suzuki-Miyaura Reaktion eingesetzt. Durch zusätzliche Hydrolyse der Ester-Gruppen konnte eine gute Wasserlöslichkeit erreicht werden. Die hohe Aktivität der Mono-NHC–Palladium-Komplexe konnte bei der Kupplung von Arylbromiden mit Phenylboronsäuren aufgezeigt werden. Die aktive Spezies wurde hauptsächlich Pd(0) Nanopartikeln zugeschrieben. Nach erfolgreichem Recycling konnte der Katalysator noch einmal wiederverwendet werden. Die Imidazolium-Salze wurden ebenfalls herangezogen, um Organosilicamaterialien zu synthetisieren. Die Herstellung wurde durch zwei Methoden erreicht. Zum einen durch nachträgliches Aufbringen auf kommerzielle Siliziummaterialien, sowie durch Co-Kondensation auf das entsprechende Organosilan. Diese Co-Kondensation birgt Potential zur Herstellung von festen Trägerkatalysatoren. KW - synthesis KW - Synthese KW - sustainable chemistry KW - nachhaltige Chemie KW - organometallics KW - Metallorganischen KW - water KW - Wasser Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-101861 ER - TY - THES A1 - Shikangalah, Rosemary Ndawapeka T1 - An ecohydrological impact assessment in urban areas BT - urban water erosion in Windhoek, Namibia N2 - Over the last decades, the world’s population has been growing at a faster rate, resulting in increased urbanisation, especially in developing countries. More than half of the global population currently lives in urbanised areas with an increasing tendency. The growth of cities results in a significant loss of vegetation cover, soil compaction and sealing of the soil surface which in turn results in high surface runoff during high-intensity storms and causes the problem of accelerated soil water erosion on streets and building grounds. Accelerated soil water erosion is a serious environmental problem in cities as it gives rise to the contamination of aquatic bodies, reduction of ground water recharge and increase in land degradation, and also results in damages to urban infrastructures, including drainage systems, houses and roads. Understanding the problem of water erosion in urban settings is essential for the sustainable planning and management of cities prone to water erosion. However, in spite of the vast existence of scientific literature on water erosion in rural regions, a concrete understanding of the underlying dynamics of urban erosion still remains inadequate for the urban dryland environments. This study aimed at assessing water erosion and the associated socio-environmental determinants in a typical dryland urban area and used the city of Windhoek, Namibia, as a case study. The study used a multidisciplinary approach to assess the problem of water erosion. This included an in depth literature review on current research approaches and challenges of urban erosion, a field survey method for the quantification of the spatial extent of urban erosion in the dryland city of Windhoek, and face to face interviews by using semi-structured questionnaires to analyse the perceptions of stakeholders on urban erosion. The review revealed that around 64% of the literatures reviewed were conducted in the developed world, and very few researches were carried out in regions with extreme climate, including dryland regions. Furthermore, the applied methods for erosion quantification and monitoring are not inclusive of urban typical features and they are not specific for urban areas. The reviewed literature also lacked aspects aimed at addressing the issues of climate change and policies regarding erosion in cities. In a field study, the spatial extent and severity of an urban dryland city, Windhoek, was quantified and the results show that nearly 56% of the city is affected by water erosion showing signs of accelerated erosion in the form of rills and gullies, which occurred mainly in the underdeveloped, informal and semi-formal areas of the city. Factors influencing the extent of erosion in Windhoek included vegetation cover and type, socio-urban factors and to a lesser extent slope estimates. A comparison of an interpolated field survey erosion map with a conventional erosion assessment tool (the Universal Soil Loss Equation) depicted a large deviation in spatial patterns, which underlines the inappropriateness of traditional non-urban erosion tools to urban settings and emphasises the need to develop new erosion assessment and management methods for urban environments. It was concluded that measures for controlling water erosion in the city need to be site-specific as the extent of erosion varied largely across the city. The study also analysed the perceptions and understanding of stakeholders of urban water erosion in Windhoek, by interviewing 41 stakeholders using semi-structured questionnaires. The analysis addressed their understanding of water erosion dynamics, their perceptions with regards to the causes and the seriousness of erosion damages, and their attitudes towards the responsibilities for urban erosion. The results indicated that there is less awareness of the process as a phenomenon, instead there is more awareness of erosion damages and the factors contributing to the damages. About 69% of the stakeholders considered erosion damages to be ranging from moderate to very serious. However, there were notable disparities between the private householders and public authority groups. The study further found that the stakeholders have no clear understanding of their responsibilities towards the management of the control measures and payment for the damages. The private householders and local authority sectors pointed fingers at each other for the responsibilities for erosion damage payments and for putting up prevention measures. The reluctance to take responsibility could create a predicament for areas affected, specifically in the informal settlements where land management is not carried out by the local authority and land is not owned by the occupants. The study concluded that in order to combat urban erosion, it is crucial to understand diverse dynamics aggravating the process of urbanisation from different scales. Accordingly, the study suggests that there is an urgent need for the development of urban-specific approaches that aim at: (a) incorporating the diverse socio-economic-environmental aspects influencing erosion, (b) scientifically improving natural cycles that influence water storages and nutrients for plants in urbanised dryland areas in order to increase the amount of vegetation cover, (c) making use of high resolution satellite images to improve the adopted methods for assessing urban erosion, (d) developing water erosion policies, and (e) continuously monitoring the impact of erosion and the influencing processes from local, national and international levels. N2 - In den letzten Jahrzehnten ist die Erdbevölkerung mit großer Geschwindigkeit gewachsen. Das hatte eine verstärkte Urbanisierung zur Folge, insbesondere in den Entwicklungsländern. Zurzeit lebt über die Hälfte der globalen Bevölkerung in Stadtgebieten, mit steigender Tendenz. Städtewachstum geht mit einem signifikanten Verlust von Vegetationsbedeckung, sowie mit Bodenverdichtung und -versiegelung einher. Diese Faktoren führen bei Starkregenereignissen zu einem hohen Oberflächenabfluss, und zu Problemen durch beschleunigte wasserbedingte Bodenerosion in Straßen und auf Baugelände. In Städten ist eine beschleunigte wasserbedingte Bodenerosion ist ein ernstzunehmendes Umweltproblem, denn sie verursacht eine Verschmutzung der Gewässer, eine verminderte Grundwasserneubildung und erhöhte Landdegradierung. Darüber hinaus kommt es zu erosionsbedingten Schäden in der städtischen Infrastruktur, inklusive der Entwässerungssysteme, sowie an Häusern und Straßen. Für ein nachhaltiges Planen und Management von erosionsanfälligen Städten ist es von essentieller Bedeutung, die Probleme der Wassererosion in städtischen Gebieten zu verstehen. Trotz der großen Anzahl wissenschaftlicher Studien über Wassererosion in ländlichen Gegenden bleibt unser Verständnis der zu Grunde liegenden Erosionsdynamiken in urbanen Trockengebieten unzureichend. Diese Studie zielt darauf ab, Wassererosion, sowie die dazu beitragenden sozio-ökologischen Faktoren, in einem typischen urbanen Trockengebiet zu erfassen. Hierzu wurde ein fachübergreifender Ansatz am Fallbeispiel der Stadt Windhoek, Namibia, gewählt. Die Arbeit umfasst eine detaillierte Literaturanalyse der aktuellen Forschungsansätze zur urbanen Wassererosion und den damit verbundenen Herausforderungen. Außerdem wurde eine feldstudienbasierte Methode entwickelt, mit der das Ausmaß der Wassererosion in der Stadt Windhoek quantifiziert und räumlich erfasst wurde. Schließlich wurden persönliche Befragungen mit halbstrukturierten Fragebögen durchgeführt, um die Wahrnehmung der verschiedenen Interessenvertreter zum Thema Erosion in Stadtgebieten zu analysieren. Die Literaturanalyse hat gezeigt, dass 64% der untersuchten Studien in der entwickelten Welt durchgeführt wurden und nur sehr wenige Regionen mit extremen Klimabedingungen, einschließlich Trockengebieten, untersucht wurden. Hinzu kommt, dass die verwendeten Methoden zur Erosionsquantifizierung und -beobachtung die für urbane Gebiete typischen Merkmale nicht beinhalten und dafür auch nicht ausgerichtet sind. Des Weiteren mangelt es der untersuchten Literatur an Ansätzen, die den Einfluss des Klimawandels und politische Aspekte in Bezug auf Erosion in Stadtgebieten thematisieren. In einer Feldstudie wurde das Ausmaß von Wassererosion in der trocken gelegenen Stadt Windhoek quantifiziert und räumlich erfasst. Beinahe 56% der Stadt waren von Wassererosion betroffen und wiesen Anzeichen beschleunigter Erosion in Form von Rinnen und Rillen auf. Letztere traten vor allem in den unterentwickelten, informellen und semi-formellen Stadtgebieten auf. Das Ausmaß der Erosion in Windhoek wurde unter anderem von der Vegetationsbedeckung und dem Vegetationstyp, von sozial-urbanen Faktoren, und zu einem geringeren Grad von dem geschätzten Gefälle bestimmt. Der Vergleich einer interpolierten feldstudienbasierten Erosionskarte mit Ergebnissen, die auf einer konventionellen Methode zur Erosionserfassung (der Allgemeinen Bodenabtragsgleichung (ABAG)) basieren, ergab eine starke Abweichung in den räumlichen Mustern. Das verdeutlicht die Unzulänglichkeit einer direkten Übertragung von traditionellen nicht-urbanen Methoden zur Erosionserfassung auf ein urbanes Umfeld und betont die Notwendigkeit, neue Methoden sowohl zur Erfassung als auch zum Management von Erosion für urbane Gebiete zu entwickeln. Aus der großen Variabilität des Erosionsausmaßes innerhalb der Stadt lässt sich folgern, dass Methoden zur Kontrolle von Wassererosion in Städten standortspezifisch sein sollten. Anhand von halbstrukturierten Fragebögen wurde in einem weiteren Teil der Arbeit die Wahrnehmung und das Verständnis der unterschiedlichen Interessenvertreter zum Thema urbane Wassererosion in Windhoek untersucht. Insgesamt wurden 41 Interessenvertreter zu ihrem Verständnis der Wassererosionsdynamiken, zu ihrer Wahrnehmung in Bezug auf mögliche Ursachen und zum Ausmaß der Erosionsschäden, sowie zu ihrer Einstellung zur Verantwortlichkeit für die Erosion in der Stadt befragt. Die Ergebnisse deuten darauf hin, dass es eine geringe Wahrnehmung für das Phänomen der Erosion als Prozess gibt, dafür aber eine im Vergleich erhöhte Wahrnehmung der Erosionsschäden und der Faktoren, die zu den Schäden beitragen. Ungefähr 69% der Interessenvertreter stuften die Erosionsschäden als moderat bis sehr ernsthaft ein. Dabei gab es erkennbare Differenzen zwischen der Gruppe der privaten Haushalte und der der öffentlichen Behörden. Des Weiteren hat die Untersuchung ergeben, dass die Interessenvertreter kein klares Verständnis ihrer Verantwortung in Bezug auf das Management der Kontrollmaßnahmen, sowie ihrer finanziellen Verantwortung für die Schäden haben. Die privaten Haushalte und die örtlichen Behörden wiesen sich gegenseitig die Zahlungsverantwortung für die Erosionsschäden und für vorbeugende Maßnahmen zu. Der Unwille der einzelnen Akteure, Verantwortung zu übernehmen, könnte eine Zwickmühle für die betroffenen Gebiete werden. Dies gilt insbesondere für die informellen Siedlungen, in denen von den örtlichen Behörden kein Landmanagement durchgeführt wird, das Land aber auch nicht Eigentum der Bewohnern ist. Abschließend hat die Studie ergeben, dass es für eine effektive Erosionsbekämpfung in der Stadt von ausschlaggebender Bedeutung ist, die verschiedenen, den Prozess der Urbanisierung auf negative Weise verstärkenden Dynamiken, auf ihren unterschiedlichen Skalen zu verstehen. Auf Grundlage der hier präsentierten Ergebnisse wird eine Entwicklung speziell auf Stadtgebiete ausgerichteter Ansätze mit folgenden Zielen dringend nahegelegt: (a) Einer Integration von diversen sozio-ökonomisch-ökologischen Aspekten, die sich auf Erosion auswirken; (b) Einer wissenschaftlich begründeten Verbesserung der natürlichen Kreisläufe, die sich positiv auf die Wasserspeicherung im Boden und die Nährstoffverfügbarkeit für Pflanzen auswirken, um dadurch einen höheren Vegetationsbedeckungsgrad zu erreichen; (c) Der Nutzung hoch aufgelöster Satellitendaten, um die Methoden zur Erosionserfassung für urbane Gebiete zu verbessern; (d) Der Entwicklung politischer Maßnahmen zur Bekämpfung von Wassererosion. KW - urban soil erosion KW - water erosion KW - risk mapping KW - urbane Bodenerosion KW - Wassererosion KW - Risikoabbildung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102356 ER - TY - THES A1 - Al-Saffar, Loay Talib Ahmed T1 - Analysing prerequisites, expectations, apprehensions, and attitudes of university students studying Computer science T1 - Analyse von Voraussetzungen, Erwartungen, Haltungen, Einstellungen und Befürchtungen von Bachelor-Studierenden der Informatik N2 - The main objective of this dissertation is to analyse prerequisites, expectations, apprehensions, and attitudes of students studying computer science, who are willing to gain a bachelor degree. The research will also investigate in the students’ learning style according to the Felder-Silverman model. These investigations fall in the attempt to make an impact on reducing the “dropout”/shrinkage rate among students, and to suggest a better learning environment. The first investigation starts with a survey that has been made at the computer science department at the University of Baghdad to investigate the attitudes of computer science students in an environment dominated by women, showing the differences in attitudes between male and female students in different study years. Students are accepted to university studies via a centrally controlled admission procedure depending mainly on their final score at school. This leads to a high percentage of students studying subjects they do not want. Our analysis shows that 75% of the female students do not regret studying computer science although it was not their first choice. And according to statistics over previous years, women manage to succeed in their study and often graduate on top of their class. We finish with a comparison of attitudes between the freshman students of two different cultures and two different university enrolment procedures (University of Baghdad, in Iraq, and the University of Potsdam, in Germany) both with opposite gender majority. The second step of investigation took place at the department of computer science at the University of Potsdam in Germany and analyzes the learning styles of students studying the three major fields of study offered by the department (computer science, business informatics, and computer science teaching). Investigating the differences in learning styles between the students of those study fields who usually take some joint courses is important to be aware of which changes are necessary to be adopted in the teaching methods to address those different students. It was a two stage study using two questionnaires; the main one is based on the Index of Learning Styles Questionnaire of B. A. Solomon and R. M. Felder, and the second questionnaire was an investigation on the students’ attitudes towards the findings of their personal first questionnaire. Our analysis shows differences in the preferences of learning style between male and female students of the different study fields, as well as differences between students with the different specialties (computer science, business informatics, and computer science teaching). The third investigation looks closely into the difficulties, issues, apprehensions and expectations of freshman students studying computer science. The study took place at the computer science department at the University of Potsdam with a volunteer sample of students. The goal is to determine and discuss the difficulties and issues that they are facing in their study that may lead them to think in dropping-out, changing the study field, or changing the university. The research continued with the same sample of students (with business informatics students being the majority) through more than three semesters. Difficulties and issues during the study were documented, as well as students’ attitudes, apprehensions, and expectations. Some of the professors and lecturers opinions and solutions to some students’ problems were also documented. Many participants had apprehensions and difficulties, especially towards informatics subjects. Some business informatics participants began to think of changing the university, in particular when they reached their third semester, others thought about changing their field of study. Till the end of this research, most of the participants continued in their studies (the study they have started with or the new study they have changed to) without leaving the higher education system. N2 - Thema der Dissertation ist die Untersuchung von Voraussetzungen, Erwartungen, Haltungen, Einstellungen und Befürchtungen von Bachelor Studierenden der Informatik. Darüber hinaus werden in der vorliegenden Analyse anhand des Solomon/Felder-Modells Lerntypen unter den Informatik-Studierenden untersucht mit dem Ziel, mittels einer vorteilhafter gestalteten Lernumgebung zur Lernwirksamkeit und zur Reduktion der Abbrecherquote beizutragen. Zunächst werden anhand einer Vergleichsstudie zwischen Informatik-Studierenden an der Universität Bagdad und an der Universität Potsdam sowie jeweils zwischen männlichen und weiblichen Studierenden Unterschiede in der Wahrnehmung des Fachs herausgearbeitet. Hierzu trägt insbesondere das irakische Studienplatzvergabeverfahren bei, das den Studierenden nur wenig Freiheiten lässt, ein Studienfach zu wählen mit dem Ergebnis, dass viele Studierende, darunter überwiegend weibliche Studierende, gegen ihre Absicht Informatik studieren. Dennoch arrangieren sich auch die weiblichen Studierenden mit dem Fach und beenden das Studium oft mit Best-Noten. Der zweite Teil der Dissertation analysiert Lernstile von Studierenden des Instituts für Informatik der Universität Potsdam auf der Grundlage des Modells von Solomon/Felder mit dem Ziel, Hinweise für eine verbesserte Gestaltung der Lehrveranstaltungen zu gewinnen, die Lernende in der für sie geeigneten Form anspricht. Die Ergebnisse zeigen die Schwierigkeit, dieses Ziel zu erreichen, denn sowohl männliche und weibliche Studierende als auch Studierende von Informatik, Wirtschaftsinformatik und Lehramt Informatik weisen deutliche Unterschiede in den präferierten Lernstilen auf. In einer dritten qualitativen Studie wurden mit Studierenden von Informatik, Wirtschaftsinformatik und Lehramt Informatik Interviews über einen Zeitraum der ersten drei Studiensemester geführt, um einen detaillierten Einblick in Haltungen, Einstellungen und Erwartungen zum Studium zu gewinnen sowie Probleme zu ermitteln, die möglicherweise zum Abbruch des Studiums oder zum Wechsel des Fachs oder der Universität führen können. KW - computer science education KW - dropout KW - changing the university KW - changing the study field KW - Computer Science KW - business informatics KW - study problems KW - tutorial section KW - higher education KW - teachers KW - professors KW - Informatikvoraussetzungen KW - Studentenerwartungen KW - Studentenhaltungen KW - Universitätseinstellungen KW - Bachelorstudierende der Informatik KW - Abbrecherquote KW - Wirtschaftsinformatik KW - Informatik KW - Universität Potsdam KW - Universität Bagdad KW - Probleme in der Studie KW - Lehrer KW - Professoren KW - Theoretischen Vorlesungen KW - Programmierung KW - Anleitung KW - Hochschulsystem KW - Informatik-Studiengänge KW - Didaktik der Informatik Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98437 ER - TY - THES A1 - Antoniewicz, Franziska T1 - Automatic evaluations of exercising T1 - Automatische Evaluationen von Sport N2 - Changing the perspective sometimes offers completely new insights to an already well-known phenomenon. Exercising behavior, defined as planned, structured and repeated bodily movements with the intention to maintain or increase the physical fitness (Caspersen, Powell, & Christenson, 1985), can be thought of as such a well-known phenomenon that has been in the scientific focus for many decades (Dishman & O’Connor, 2005). Within these decades a perspective that assumes rational and controlled evaluations as the basis for decision making, was predominantly used to understand why some people engage in physical activity and others do not (Ekkekakis & Zenko, 2015). Dual-process theories (Ekkekakis & Zenko, 2015; Payne & Gawronski, 2010) provide another perspective, that is not exclusively influenced by rational reasoning. These theories differentiate two different processes that guide behavior “depending on whether they operate automatically or in a controlled fashion“ (Gawronski & Creighton, 2012, p. 282). Following this line of thought, exercise behavior is not solely influenced by thoughtful deliberations (e.g. concluding that exercising is healthy) but also by spontaneous affective reactions (e.g. disliking being sweaty while exercising). The theoretical frameworks of dual-process models are not new in psychology (Chaiken & Trope, 1999) and have already been used for the explanation of numerous behaviors (e.g. Hofmann, Friese, & Wiers, 2008; Huijding, de Jong, Wiers, & Verkooijen, 2005). However, they have only rarely been used for the explanation of exercise behavior (e.g. Bluemke, Brand, Schweizer, & Kahlert, 2010; Conroy, Hyde, Doerksen, & Ribeiro, 2010; Hyde, Doerksen, Ribeiro, & Conroy, 2010). The assumption of two dissimilar behavior influencing processes, differs fundamentally from previous theories and thus from the research that has been conducted in the last decades in exercise psychology. Research mainly concentrated on predictors of the controlled processes and addressed the identified predictors in exercise interventions (Ekkekakis & Zenko, 2015; Hagger, Chatzisarantis, & Biddle, 2002). Predictors arising from the described automatic processes, for example automatic evaluations for exercising (AEE), have been neglected in exercise psychology for many years. Until now, only a few researchers investigated the influence of these AEE for exercising behavior (Bluemke et al., 2010; Brand & Schweizer, 2015; Markland, Hall, Duncan, & Simatovic, 2015). Marginally more researchers focused on the impact of AEE for physical activity behavior (Calitri, Lowe, Eves, & Bennett, 2009; Conroy et al., 2010; Hyde et al., 2010; Hyde, Elavsky, Doerksen, & Conroy, 2012). The extant studies mainly focused on the quality of AEE and the associated quantity of exercise (exercise much or little; Bluemke et al., 2010; Calitri et al., 2009; Conroy et al., 2010; Hyde et al., 2012). In sum, there is still a dramatic lack of empirical knowledge, when applying dual-process theories to exercising behavior, even though these theories have proven to be successful in explaining behavior in many other health-relevant domains like eating, drinking or smoking behavior (e.g. Hofmann et al., 2008). The main goal of the present dissertation was to collect empirical evidence for the influence of AEE on exercise behavior and to expand the so far exclusively correlational studies by experimentally controlled studies. By doing so, the ongoing debate on a paradigm shift from controlled and deliberative influences of exercise behavior towards approaches that consider automatic and affective influences (Ekkekakis & Zenko, 2015) should be encouraged. All three conducted publications are embedded in dual-process theorizing (Gawronski & Bodenhausen, 2006, 2014; Strack & Deutsch, 2004). These theories offer a theoretical framework that could integrate the established controlled variables of exercise behavior explanation and additionally consider automatic factors for exercise behavior like AEE. Taken together, the empirical findings collected suggest that AEE play an important and diverse role for exercise behavior. They represent exercise setting preferences, are a cause for short-term exercise decisions and are decisive for long-term exercise adherence. Adding to the few already present studies in this field, the influence of (positive) AEE for exercise behavior was confirmed in all three presented publications. Even though the available set of studies needs to be extended in prospectively studies, first steps towards a more complete picture have been taken. Closing with the beginning of the synopsis: I think that time is right for a change of perspectives! This means a careful extension of the present theories with controlled evaluations explaining exercise behavior. Dual-process theories including controlled and automatic evaluations could provide such a basis for future research endeavors in exercise psychology. N2 - Ein anderer Blickwinkel eröffnet manchmal komplett neue Erkenntnisse in so manches bekanntes Phänomen. Sporttreiben, definiert als geplante, strukturierte und wiederholt ablaufende Körperbewegungen mit der Intention die körperliche Fitness aufrecht zu erhalten oder zu verbessern (Caspersen, Powell & Christenson, 1985), kann als ein solches bekanntes Phänomen angesehen werden, welches seit vielen Dekaden im wissenschaftlichen Fokus steht (Dishman & O’Connor, 2005). Um zu verstehen warum manche Menschen körperlich aktiv sind und andere nicht, wurde in den letzten Dekaden meist angenommen, dass rationale und kontrollierte Bewertungen Entscheidungen beeinflussen (Ekkekakis & Zenko, 2015). Zwei-Prozess Theorien (Payne & Garwonski, 2010) bieten eine andere Perspektive, welche nicht nur durch rationales Überlegen beeinflusst ist. Diese Theorien unterscheiden zwei unterschiedliche Prozesse welche Verhalten beeinflussen „depending on whether they operate automatically or in a controlled fashion“ (Gawronski & Creighton, 2012, S. 282). Sportprädiktoren mit dem Ursprung in automatischen Prozessen, z.B. automatische Evaluationen von Sport (AES), wurden in der sportpsychologischen Forschung seit vielen Jahren vernachlässigt. Bisher haben nur wenige Wissenschaftler die Rolle von AES untersucht (Brand & Schweizer, 2015; Markland, Hall, Duncan, & Simatovic, 2015). Das Hauptziel der vorliegenden Dissertation ist es, empirische Belege für den Einfluss von AES auf Sportverhalten zu sammeln und die bisher ausschließlich korrelativen Studien um experimentelle zu erweitern. Meine erste Publikation adressierte eine Kernannahme von AES, die Eigenschaft der Automatizität der erfassten affektiven Evaluationen. Der methodische Ansatz der Studie über ein subliminales AMP (Murphy & Zajonc, 1993; Payne, Cheng, Govorun, & Stewart, 2005) ermöglichte die Schlussfolgerung, dass automatische affektive Evaluationen nach der Stimulusdarstellung ausgelöst wurden. Der Einfluss von AES auf qualitative Sportcharakteristika, die Präferenz eines bestimmten Sportsettings, wurde aufgezeigt. Meine zweite Publikation beabsichtigte notwendige Informationen für die Implementation von Sportinterventionen zu liefern, welche die automatische Komponente von Sportverhalten fokussieren. Das Adressieren automatischer Komponenten in Sportintervention wurde erst kürzlich gefordert (Marteau, Hollands, & Fletcher, 2012). In einer Abfolge von drei Studien wurde die experimentelle Zugänglichkeit, die sinnvolle Manipulation in eine gesundheitsrelevante Richtung und die damit verbundenen Verhaltenskonsequenzen von veränderten AES untersucht. Positive AES wurden durch Evaluatives Konditionieren (EK; Hofmann, De Houwer, Perugini, Baeyens, & Crombez, 2010) induziert. Dabei werden systematisch Bilder von Sporttreiben mit Bildern welche angenehme Empfindungen wecken kombiniert. Nicht-sportassoziierte Bilder werden hingegen konsequent von Bildern gefolgt, die unangenehme Emotionen hervorrufen. Die experimentelle Manipulation führte zur Wahl höherer Sportintensitäten in einer nachfolgenden Sportaufgabe. Darüber hinaus deuteten die Analysen darauf hin, dass das assoziative Erlernen positiver AES nicht in gleichen Anteilen durch den Erwerb positiver Assoziationen zu Sport und negativer Assoziationen mit Nicht-Sport gesteuert wurde. Meine dritte Publikation adressierte unterschiedlichen Anteile von AES im Hinblick auf langfristiges Sportverhalten, speziell die Sportkursadhärenz in einem 14-wöchigen Sportprogramm. Sportverhalten, wie das Besuchen eines Aerobickurses, kann mit positiven affektiven Assoziationen (PAA; z.B. Sport mit Musik ist angenehm) und negativen affektiven Assoziationen (NAA; z.B. Muskelkater ist unangenehm) gleichermaßen verbunden sein. Wissen über den individuellen Einfluss der einzelnen Komponenten auf Sportverhalten würde das Verständnis von AES erleichtern. Die bisher dominierenden Befunde von AES als Prädiktor für kurzfristiges Sportverhalten (z.B.Hyde et al., 2012) wurden erweitert und der Einfluss der AES für sportspezifische Entscheidungen (Brand & Schweizer, 2015) auf eine langfristige Perspektive erweitert. Da Adhärenz in Sportkursen ein gewaltiges Problem in aktuellen Gesundheitsprogrammen (Marcus et al., 2000) darstellt, ist zusätzliches Wissen über Prädiktoren der Sportadhärenz (wie AES) wertvoll für die erfolgreiche Implementation von Sportinterventionen. Die vorgestellten Studien meiner Dissertation hatten das Ziel empirische Belege für die Bedeutung von AES für Sportverhalten zu bieten. Zusammengefasst legen die gesammelten Befunde nahe, dass AES eine wichtige und vielfältige Rolle für Sportverhalten. Diese repräsentieren Präferenzen für Sportsettings, stellen eine Ursache für kurzfristige Sportentscheidungen dar und sind entscheidend für langfristige Sportadhärenz. In Ergänzung zu den wenigen bisher existierenden Studien in dem Feld, wurde der Einfluss von (positiven) AES für Sportverhalten in allen drei beschriebenen Studien bestätigt. KW - automaticity KW - dual-processes KW - exercise KW - health KW - implicit KW - automatisch KW - Zwei-Prozess Modelle KW - Sport KW - Gesundheit KW - implizit Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-92280 ER - TY - THES A1 - Frahnow, Turid T1 - Bioinformatische Analyse der NUGAT-Studie (NUtriGenomic Analysis in Twins) T1 - Bioinformatic analysis of the NUGAT study (NUtriGenomic Analysis in Twins) BT - Verfahren zur Integration lipidomischer, transkriptomischer und metabolischer Daten BT - methods for the integration of lipidomic, transcriptomic and metabolic data N2 - Durch die Zunahme metabolischer Stoffwechselstörungen und Erkrankungen in der Weltbevölkerung wird in der Medizin und den Lebenswissenschaften vermehrt nach Präventionsstrategien und Ansatzpunkten gesucht, die die Gesundheit fördern, Erkrankungen verhindern helfen und damit auch die Gesamtlast auf die Gesundheitssysteme erleichtern. Ein Ansatzpunkt wird dabei in der Ernährung gesehen, da insbesondere der Konsum von gesättigten Fetten die Gesundheit nachträglich zu beeinflussen scheint. Dabei wird übersehen, dass in vielen Studien Hochfettdiäten nicht ausreichend von den Einflüssen einer zum Bedarf hyperkalorischen Energiezufuhr getrennt werden, sodass die Datenlage zu dem Einfluss von (gesättigten) Fetten auf den Metabolismus bei gleichbleibender Energieaufnahme noch immer unzureichend ist. In der NUtriGenomic Analysis in Twins-Studie wurden 46 Zwillingspaare (34 monozygot, 12 dizygot) über einen Zeitraum von sechs Wochen mittels einer kohlenhydratreichen, fettarmen Diät nach Richtlinien der Deutschen Gesellschaft für Ernährung für ihr Ernährungsverhalten standardisiert, ehe sie zu einer kohlenhydratarmen, fettreichen Diät, die insbesondere gesättigte Fette enthielt, für weitere sechs Wochen wechselten. Beide Diäten waren dem individuellen Energiebedarf der Probanden angepasst, um so sowohl akut nach einerWoche als auch längerfristig nach sechs Wochen Änderungen des Metabolismus beobachten zu können, die sich in der vermehrten Aufnahme von (gesättigten) Fetten begründeten. Die über die detaillierte Charakterisierung der Probanden an den klinischen Untersuchungstagen generierten Datensätze wurden mit statistischen und mathematischen Methoden (z.B. lineare gemischte Modellierung) analysiert, die der Größe der Datensätze und damit ihrem Informationsvolumen angepasst waren. Es konnte gezeigt werden, dass die metabolisch gesunden und relativ jungen Probanden, die eine gute Compliance zeigten, im Hinblick auf ihren Glukosestoffwechsel adaptieren konnten, indem die Akutantwort nach einer Woche im Nüchterninsulin und dem Index für Insulinresistenz in den weiteren fünf Wochen ausgeglichen wurde. Der Lipidstoffwechsel in Form der klassischen Marker wie Gesamtcholesterin, LDL und HDL war dagegen stärker beeinflusst und auch nach insgesamt sechs Wochen deutlich erhöht. Letzteres unterstützt die Beobachtung im Transkriptom des weißen, subkutanen Fettgewebes, bei der eine Aktivierung der über die Toll-like receptors und das Inflammasom vermittelten subklinischen Inflammation beobachtet werden konnte. Die auftretenden Veränderungen in Konzentration und Komposition des Plasmalipidoms zeigte ebenfalls nur eine teilweise und auf bestimmte Spezies begrenzte Gegenregulation. Diesbezüglich kann also geschlussfolgert werden, dass auch die isokalorische Aufnahme von (gesättigten) Fetten zu Veränderungen im Metabolismus führt, wobei die Auswirkungen in weiteren (Langzeit-)Studien und Experimenten noch genauer untersucht werden müssen. Insbesondere wäre dabei ein längerer Zeitraum unter isokalorischen Bedingungen von Interesse und die Untersuchung von Probanden mit metabolischer Vorbelastung (z.B. Insulinresistenz). Darüber hinaus konnte in NUGAT aber ebenfalls gezeigt werden, dass die Nutrigenetik und Nutrigenomik zwei nicht zu vernachlässigende Faktoren darstellen. So zeigten unter anderem die Konzentrationen einiger Lipidspezies eine starke Erblichkeit und Abhängigkeit der Diät. Zudem legen die Ergebnisse nahe, dass laufende wie geplante Präventionsstrategien und medizinische Behandlungen deutlich stärker den Patienten als Individuum mit einbeziehen müssen, da die Datenanalyse interindividuelle Unterschiede identifizierte und Hinweise lieferte, dass einige Probanden die nachteiligen, metabolischen Auswirkungen einer Hochfettdiät besser ausgleichen konnten als andere. N2 - Based on the increasing incidence of metabolic disorders and diseases in the world population, medicine and life sciences aim for (new) prevention strategies and targets to promote health, prevent diseases and thereby ease the overall financial burden on health systems. One approach is seen in diet and nutrition. According to recent studies and nutritional guide lines, especially the consumption of saturated fats affects health negatively. Nevertheless, in many studies high fat diets are not separated from the influences of a hypercaloric energy intake. In conclusion the available data for the isolated effects of (saturated) fats on metabolism are still insufficient. In the NUtriGenomic Analysis in Twins study, 46 healthy twin pairs (34 monozygotic, 12 dizygotic) were standardized for their nutritional behavior over a period of six weeks on a high-carbohydrate, low-fat diet according to the DGE guidelines. This standardization was followed by an interventional low-carbohydrate, high-fat diet for another six weeks. Both diets were isocaloric to the individuals' requirements in order to evaluate rapid after 1 week) and long-term (after 6 weeks) effects on metabolism, which were based on the higher intake of (saturated) fatty acids. The data sets, which were generated by a detailed characterization of the subjects at the clinical investigation days, were analyzed with statistical and mathematical methods (e.g. linear mixed modeling), which aimed to cover the size of the data sets and thereby the whole amount of information within the data sets. We could show that the metabolically healthy and relatively young subjects, who showed good compliance, were able to adapt in terms of their glucose metabolism, since the acute increase after one week in fasting insulin and the loss of insulin sensitivity was balanced after additional five weeks. In contrast, lipid metabolism, represented by the classical marker total cholesterol as well as LDL and HDL, was more strongly influenced and still increased after six weeks on high-fat diet. The latter supports the observations in the transcriptome of white, subcutaneous adipose tissue, where Toll-like receptors and inflammasome seemed to mediate the activation of a low-grade inflammation. The changes occurring in the concentration and composition of the plasma lipidome also showed a partial counterregulation limited to certain lipid species. In this regard, we conclude that independent of the energy intake, the consumption of (saturated) fatty acids leads to changes in metabolism, although further studies and experiments are needed to investigate the isolated effects further. Especially studies of extended periods under isocaloric conditions and studies in patients with pathological conditions (e.g. insulin resistance) would be of interest. Nevertheless, the results in NUGAT emphasize the importance of nutrigenetics and nutrigenomics, since the concentrations of some lipid species seemed to be highly heritable and diet-dependent. Moreover, our results suggest that ongoing and planned prevention strategies and medical treatments have to treat patients much more as individuals. Our analysis identified interindividual differences and indicated that some participants were able to compensate the adverse and unfavorable metabolic effects of a high fat diet better than others. KW - Hochfettdiät KW - Zwillingsstudie KW - Lipidomics KW - Heritabilität KW - linear gemischte Modelle KW - twin study KW - high fat diet KW - lipidomics KW - heritability KW - linear mixed models Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-394902 ER - TY - THES A1 - Stolzenburg, Antje T1 - Bittergeschmacksrezeptoren des peripheren und zentralen Nervensystems T1 - Bitter taste receptors of the peripheral and central nervous system N2 - Der Bittergeschmack warnt den Organismus vor potentiell verdorbener oder giftiger Nahrung und ist somit ein wichtiger Kontrollmechanismus. Die initiale Detektion der zahlreich vorkommenden Bitterstoffe erfolgt bei der Maus durch 35 Bitterrezeptoren (Tas2rs), die sich im Zungengewebe befinden. Die Geschmacksinformation wird anschließend von der Zunge über das periphere (PNS) ins zentrale Nervensystem (ZNS) geleitet, wo deren Verarbeitung stattfindet. Die Verarbeitung der Geschmacksinformation konnte bislang nicht gänzlich aufgeklärt werden. Neue Studien deuten auf eine Expression von Tas2rs auch im PNS und ZNS entlang der Geschmacksbahn hin. Über Vorkommen und Aufgaben dieser Rezeptoren bzw. Rezeptorzellen im Nervensystem ist bislang wenig bekannt. Im Rahmen dieser Arbeit wurde die Tas2r-Expression in verschiedenen Mausmodellen untersucht, Tas2r-exprimierende Zellen identifiziert und deren Funktionen bei der Übertragung der Geschmacksinformationen analysiert. Im Zuge der Expressionsanalysen mittels qRT-PCR konnte die Expression von 25 der 35 bekannten Bittergeschmacksrezeptoren im zentralen Nervensystem der Maus nachgewiesen werden. Die Expressionsmuster im PNS sowie im ZNS lassen darüber hinaus Vermutungen zu Funktionen in verschiedenen Bereichen des Nervensystems zu. Basierend auf den Ergebnissen der Expressionsanalysen war es möglich, stark exprimierte Tas2rs mittels In-situ-Hybridisierung in verschiedenen Zelltypen zu visualisieren. Des Weiteren konnten immunhistochemische Färbungen unter Verwendung eines genetisch modifizierten Mausmodells die Ergebnisse der Expressionsanalysen bestätigen. Sie zeigten eine Expression von Tas2rs, am Beispiel des Tas2r131-Rezeptors, in cholinergen, dopaminergen, GABAergen, noradrenergen und glycinerg-angesteuerten Projektionsneuronen sowie in Interneuronen. Die Ergebnisse der vorliegenden Arbeit zeigen daher erstmals das Vorkommen von Tas2rs in verschiedenen neuronalen Zelltypen in weiten Teilen des ZNS. Dies lässt den Schluss zu, dass Tas2r-exprimierende Zellen potentiell multiple Funktionen innehaben. Anhand von Verhaltensexperimenten in genetisch modifizierten Mäusen wurde die mögliche Funktion von Tas2r131-exprimierenden Neuronen (Tas2r131-Neurone) bei der Geschmackswahrnehmung untersucht. Die Ergebnisse weisen auf eine Beteiligung von Tas2r131-Neuronen an der Signalweiterleitung bzw. -verarbeitung der Geschmacksinformation für eine Auswahl von Bittersubstanzen hin. Die Analysen zeigen darüber hinaus, dass Tas2r131-Neuronen nicht an der Geschmackswahrnehmung anderer Bitterstoffe sowie Geschmacksstimuli anderer Qualitäten (süß, umami, sauer, salzig), beteiligt sind. Eine spezifische „Tas2r131-Bittergeschmacksbahn“, die mit anderen potentiellen „Bitterbahnen“ teils unabhängige, teils überlappende Signalwege bzw. Verarbeitungsbereiche besitzt, bildet eine mögliche zelluläre Grundlage zur Unterscheidung von Bitterstoffen. Die im Rahmen dieser Arbeit entstandene Hypothese einer potentiellen Diskriminierung von Bitterstoffen soll daher in weiterführenden Studien durch die Etablierung eines Verhaltenstest mit Mäusen geprüft werden. N2 - Bitter taste warns the organism about potentially spoiled or toxic food and is thus an important control mechanism. The initial detection of numerous occurring bitter substances is done in mice by 35 bitter taste receptors (Tas2rs), located in tongue tissue. From the tongue the gustatory information is then passed via the peripheral (PNS) to the central nervous system (CNS), where it is processed. The processing of taste information couldn’t yet be clarified entirely. Recent studies point to an expression of Tas2rs also in the PNS and CNS along the taste transmission pathway. However, little is known concerning occurrence and functions of Tas2rs or Tas2r-expressing cells in the nervous system. In this work the Tas2r expression was examined in different mouse models, Tas2r-expressing cells were identified and their functions in transmission of taste information analyzed. Expression analyses using qRT-PCR showed an expression of 25 of the 35 known murine bitter taste receptors in the central nervous system. The expression patterns in the PNS and CNS suggests functions in different areas of the nervous system. Based on the results of the expression analysis it was possible to visualize highly expressed Tas2rs by in-situ-hybridization in various cell types. Furthermore, immunohistochemical staining using a genetically modified mouse model confirmed the results of the expression analysis. They showed an expression of Tas2rs, on the example of the Tas2r131 receptor, in the cholinergic, dopaminergic, GABAergic, noradrenergic and glycinerg-driven projection neurons and interneurons. The results of the present work show for the first time the presence of Tas2rs in different neuronal cell types in many parts of the CNS. This leads to the conclusion that Tas2r-expressing cells hold potentially multiple functions. Based on behavioral experiments in genetically modified mice, the possible taste function of Tas2r131-expressing neurons (Tas2r131 neurons) was studied. The results showed the involvement of Tas2r131 neurons in signal transduction and processing of gustatory information for a selection of bitter substances. Besides, the analyses show that Tas2r131 neurons aren’t involved in taste perception for another selection of bitter substances and taste stimuli of other qualities (sweet, umami, sour, salty). A specific "Tas2r131-bitter-pathway" which forms partly independent and partly overlapping signaling pathways or processing areas with other potential "bitter-pathways", provides a cellular basis for the distinction of specific bitter compounds. The resulting hypothesis of a potential discrimination of bitter substances should therefore be examined in further studies by establishing a behavioral test with mice. KW - Geschmack KW - Bittergeschmack KW - Bittergeschmacksrezeptoren KW - Tas2r KW - Verhaltensstudien KW - zentrales Nervensystem KW - peripheres Nervensystem KW - Neurone KW - Maus KW - taste KW - bitter taste KW - bitter taste receptors KW - Tas2rs KW - peripheral nervous system KW - central nervous system KW - neuron KW - behavioral experiments KW - expression analysis KW - mouse Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-92397 ER - TY - THES A1 - Brauer, Dorothée T1 - Chemo-kinematic constraints on Milky Way models from the spectroscopic surveys SEGUE & RAVE T1 - Beschränkungen von Modellen der Milchstraße auf Basis der chemisch-kinematischen Analyse von Beobachtungsdaten der spektroskopischen Himmelsdurchmusterungen SEGUE und RAVE N2 - The Milky Way is only one out of billions of galaxies in the universe. However, it is a special galaxy because it allows to explore the main mechanisms involved in its evolution and formation history by unpicking the system star-by-star. Especially, the chemical fingerprints of its stars provide clues and evidence of past events in the Galaxy’s lifetime. These information help not only to decipher the current structure and building blocks of the Milky Way, but to learn more about the general formation process of galaxies. In the past decade a multitude of stellar spectroscopic Galactic surveys have scanned millions of stars far beyond the rim of the solar neighbourhood. The obtained spectroscopic information provide unprecedented insights to the chemo-dynamics of the Milky Way. In addition analytic models and numerical simulations of the Milky Way provide necessary descriptions and predictions suited for comparison with observations in order to decode the physical properties that underlie the complex system of the Galaxy. In the thesis various approaches are taken to connect modern theoretical modelling of galaxy formation and evolution with observations from Galactic stellar surveys. With its focus on the chemo-kinematics of the Galactic disk this work aims to determine new observational constraints on the formation of the Milky Way providing also proper comparisons with two different models. These are the population synthesis model TRILEGAL based on analytical distribution functions, which aims to simulate the number and distribution of stars in the Milky Way and its different components, and a hybrid model (MCM) that combines an N-body simulation of a Milky Way like galaxy in the cosmological framework with a semi-analytic chemical evolution model for the Milky Way. The major observational data sets in use come from two surveys, namely the “Radial Velocity Experiment” (RAVE) and the “Sloan Extension for Galactic Understanding and Exploration” (SEGUE). In the first approach the chemo-kinematic properties of the thin and thick disk of the Galaxy as traced by a selection of about 20000 SEGUE G-dwarf stars are directly compared to the predictions by the MCM model. As a necessary condition for this, SEGUE's selection function and its survey volume are evaluated in detail to correct the spectroscopic observations for their survey specific selection biases. Also, based on a Bayesian method spectro-photometric distances with uncertainties below 15% are computed for the selection of SEGUE G-dwarfs that are studied up to a distance of 3 kpc from the Sun. For the second approach two synthetic versions of the SEGUE survey are generated based on the above models. The obtained synthetic stellar catalogues are then used to create mock samples best resembling the compiled sample of observed SEGUE G-dwarfs. Generally, mock samples are not only ideal to compare predictions from various models. They also allow validation of the models' quality and improvement as with this work could be especially achieved for TRILEGAL. While TRILEGAL reproduces the statistical properties of the thin and thick disk as seen in the observations, the MCM model has shown to be more suitable in reproducing many chemo-kinematic correlations as revealed by the SEGUE stars. However, evidence has been found that the MCM model may be missing a stellar component with the properties of the thick disk that the observations clearly show. While the SEGUE stars do indicate a thin-thick dichotomy of the stellar Galactic disk in agreement with other spectroscopic stellar studies, no sign for a distinct metal-poor disk is seen in the MCM model. Usually stellar spectroscopic surveys are limited to a certain volume around the Sun covering different regions of the Galaxy’s disk. This often prevents to obtain a global view on the chemo-dynamics of the Galactic disk. Hence, a suitable combination of stellar samples from independent surveys is not only useful for the verification of results but it also helps to complete the picture of the Milky Way. Therefore, the thesis closes with a comparison of the SEGUE G-dwarfs and a sample of RAVE giants. The comparison reveals that the chemo-kinematic relations agree in disk regions where the samples of both surveys show a similar number of stars. For those parts of the survey volumes where one of the surveys lacks statistics they beautifully complement each other. This demonstrates that the comparison of theoretical models on the one side, and the combined observational data gathered by multiple surveys on the other side, are key ingredients to understand and disentangle the structure and formation history of the Milky Way. N2 - Die Milchstraße ist nur eine unter Milliarden von Galaxien im Universum, dennoch ist sie besonders. Sie bietet die einzigartige Möglichkeit anhand ihrer einzeln auflösbaren Sterne und deren im Detail beobachtbaren Eigenschaften die Mechanismen ihrer Evolutions- und Entstehungsgeschichte genau zu studieren und damit Rückschlüsse auf die Entwicklungsprozesse von Galaxien im Allgemeinen zu ziehen. Insbesondere der chemische Fingerabdruck ihrer Sterne liefert dabei Indizien und Beweise für Ereignisse im Leben der Galaxie. In den letzten 15 Jahren wurden daher in einer Vielzahl von Himmeldurchmusterungen Millionen von Sternen in der Milchstraße spektroskopisch beobachtet. Die so gewonnenen Informationen bieten detaillierte Einblicke in die Substrukturen unserer Galaxie und deren chemisch-kinematische Struktur. Ergänzend dazu liefern analytische Modelle und numerische Simulationen der Milchstraße wichtige Beschreibungen, die sich zum Vergleich mit Beobachtungen eignen, um die dem komplexen System der Galaxie zugrunde liegenden exakten physikalischen Eigenschaften entschlüsseln zu können. Die vorliegende Arbeit nutzt verschiedene Ansätze, um moderne theoretische Modelle der Galaxienentstehung und -evolution mit Daten aus stellaren Beobachtungskampagnen zu vergleichen. Die dazu analysierten Beobachtungsdatensätze stammen aus zwei großen Himmelsdurchmusterungen, dem „Radial Velocity Experiment“ (RAVE) und dem „Sloan Extension for Galactic Understanding and Exploration“ (SEGUE). Mit dem Fokus auf der chemisch-kinematischen Struktur der galaktischen Scheibe geht es im Wesentlichen darum, zwei Modelle der Milchstraße zu testen, nämlich ein Populationssynthesemodell (TRILEGAL) und ein Hybridmodell (MCM). Während TRILEGAL auf analytischen Verteilungsfunktionen basiert und zum Ziel hat, die Anzahl und Verteilung der Sterne innerhalb der Galaxie und ihrer unterschiedlichen Komponenten zu simulieren, verbindet das MCM Modell eine kosmologische N-Körper Simulation einer der Milchstraße ähnlichen Galaxie mit einem semi-analytischen Modell zur Beschreibung der chemischen Evolution der Milchstraße. Auf Grundlage einer Auswahl von etwa 20000 SEGUE G-Zwergsternen werden in einem ersten Ansatz die aus den Messdaten gewonnenen chemisch-kinematischen Eigenschaften der dünnen und dicken Scheibe der Milchstraße mit den direkten Vorhersagen des MCM Modells verglichen. Eine notwendige Bedingung dafür ist die Korrektur der Beobachtungsdaten für systematische Fehler bei der Objektauswahl der Beobachtungskampagne. Zudem werden mittels einer Bayesischen Methode spektro-photometrische Distanzen mit Fehlern kleiner als 15% für die Auswahl an SEGUE Sternen berechnet, die sich in einer Entfernung von bis zu 3 kpc von der Sonne befinden. Für den zweiten Ansatz werden basierend auf den oben genannten Modellen zwei synthetische Versionen der SEGUE Himmelsdurchmusterung generiert. Diese künstlichen stellaren Kataloge werden dann verwendet, um Vergleichspseudodatensätze für die verwendeten Zwergsterndaten anzufertigen. Solche synthetischen Testdatensätze eignen sich nicht nur, um die Vorhersagen verschiedener Modelle zu vergleichen, sie können auch zur Validierung der Qualität einzelner Modelle herangezogen werden. Während sich in der Analyse zeigt, dass TRILEGAL sich besonders gut eignet, statistische Eigenschaften der dünnen und dicken galaktischen Scheibe zu reproduzieren, spiegelt das MCM Modell viele der in der Milchstraße beobachtbaren chemisch-kinematischen Korrelationen gut wieder. Trotzdem finden sich Beweise dafür, dass dem MCM Modell eine stellare Komponente fehlt, deren Eigenschaften der in den Beobachtungen sichtbaren dicken Scheibe ähnlich sind. Meist sind spektroskopische Beobachtungskampagnen auf ein bestimmtes Volumen um die Sonne beschränkt. Oftmals verhindert dies die Möglichkeit einen globalen Blick auf die chemisch-kinematischen Eigenschaften der galaktischen Scheibe zu erlangen. Die Kombination von stellaren Daten unabhängiger Kampagnen ist daher nicht nur nützlich für die Verifikation von Ergebnissen, es hilft auch ein ganzheitlicheres Bild der Galaxie zu erlangen. Die vorliegende Arbeit schließt daher mit einem Vergleich der SEGUE G-Zwergsterne und einer Auswahl von RAVE Riesensternen. Es zeigt sich eine gute Übereinstimmung bzgl. der chemisch-kinematischen Struktur der galaktischen Scheibe besonders in denjenigen Regionen, die von einer Vielzahl von SEGUE und RAVE Objekten abgedeckt werden. Für Regionen des Beobachtungsvolumens, in dem die eine oder die andere der beiden Beobachtungskampagnen eine geringere Statistik von beobachteten Sternen aufweist, ergänzen sich RAVE und SEGUE gut. Dies zeigt, dass nicht nur der Vergleich von Beobachtungen und theoretischen Modellen, sondern auch die Kombination von Messdaten aus verschiedenen Himmelsdurchmusterungen wichtig ist, um die Struktur und die Entstehungsgeschichte der Milchstraße zu verstehen und zu entschlüsseln. KW - galaktische Astronomie KW - galactic astronomy KW - Entstehung der Milchstraße KW - Milky Way formation KW - Evolution der Milchstraße KW - Milky Way evolution KW - Milky Way chemo-kinematics KW - Chemokinematik der Milchstraße KW - SEGUE survey KW - SEGUE Beobachtungskampagne KW - RAVE survey KW - RAVE Beobachtungskampagne KW - mock data catalogues KW - Pseudodatensätze Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403968 ER - TY - THES A1 - Olonscheck, Mady T1 - Climate change impacts on electricity and residential energy demand T1 - Auswirkungen des Klimawandels auf den Stromsektor und den Energiebedarf von Wohngebäuden N2 - The energy sector is both affected by climate change and a key sector for climate protection measures. Energy security is the backbone of our modern society and guarantees the functioning of most critical infrastructure. Thus, decision makers and energy suppliers of different countries should be familiar with the factors that increase or decrease the susceptibility of their electricity sector to climate change. Susceptibility means socioeconomic and structural characteristics of the electricity sector that affect the demand for and supply of electricity under climate change. Moreover, the relevant stakeholders are supposed to know whether the given national energy and climate targets are feasible and what needs to be done in order to meet these targets. In this regard, a focus should be on the residential building sector as it is one of the largest energy consumers and therefore emitters of anthropogenic CO 2 worldwide. This dissertation addresses the first aspect, namely the susceptibility of the electricity sector, by developing a ranked index which allows for quantitative comparison of the electricity sector susceptibility of 21 European countries based on 14 influencing factors. Such a ranking has not been completed to date. We applied a sensitivity analysis to test the relative effect of each influencing factor on the susceptibility index ranking. We also discuss reasons for the ranking position and thus the susceptibility of selected countries. The second objective, namely the impact of climate change on the energy demand of buildings, is tackled by means of a new model with which the heating and cooling energy demand of residential buildings can be estimated. We exemplarily applied the model to Germany and the Netherlands. It considers projections of future changes in population, climate and the insulation standards of buildings, whereas most of the existing studies only take into account fewer than three different factors that influence the future energy demand of buildings. Furthermore, we developed a comprehensive retrofitting algorithm with which the total residential building stock can be modeled for the first time for each year in the past and future. The study confirms that there is no correlation between the geographical location of a country and its position in the electricity sector susceptibility ranking. Moreover, we found no pronounced pattern of susceptibility influencing factors between countries that ranked higher or lower in the index. We illustrate that Luxembourg, Greece, Slovakia and Italy are the countries with the highest electricity sector susceptibility. The electricity sectors of Norway, the Czech Republic, Portugal and Denmark were found to be least susceptible to climate change. Knowledge about the most important factors for the poor and good ranking positions of these countries is crucial for finding adequate adaptation measures to reduce the susceptibility of the electricity sector. Therefore, these factors are described within this study. We show that the heating energy demand of residential buildings will strongly decrease in both Germany and the Netherlands in the future. The analysis for the Netherlands focused on the regional level and a finer temporal resolution which revealed strong variations in the future heating energy demand changes by province and by month. In the German study, we additionally investigated the future cooling energy demand and could demonstrate that it will only slightly increase up to the middle of this century. Thus, increases in the cooling energy demand are not expected to offset reductions in heating energy demand. The main factor for substantial heating energy demand reductions is the retrofitting of buildings. We are the first to show that the given German and Dutch energy and climate targets in the building sector can only be met if the annual retrofitting rates are substantially increased. The current rate of only about 1 % of the total building stock per year is insufficient for reaching a nearly zero-energy demand of all residential buildings by the middle of this century. To reach this target, it would need to be at least tripled. To sum up, this thesis emphasizes that country-specific characteristics are decisive for the electricity sector susceptibility of European countries. It also shows for different scenarios how much energy is needed in the future to heat and cool residential buildings. With this information, existing climate mitigation and adaptation measures can be justified or new actions encouraged. N2 - Der Energiesektor ist sowohl vom Klimawandel betroffen als auch ein Schlüsselsektor für Maßnahmen zum Klimaschutz. Energiesicherheit ist das Rückgrat unserer modernen Gesellschaft und gewährleistet das Funktionieren der meisten kritischen Infrastrukturen. Daher sollten Entscheidungsträger und Energieversorger verschiedener Länder mit den Faktoren vertraut sein, welche die Anfälligkeit ihres Elektrizitätssektors gegenüber dem Klimawandel beeinflussen. Anfälligkeit meint die sozio-ökonomischen und strukturellen Eigenschaften des Elektrizitätssektors, die die Nachfrage nach und das Angebot an Strom unter sich änderndem Klima erhöhen oder verringern. Darüber hinaus sollten die relevanten Akteure wissen, ob die gesetzten nationalen Energie- und Klimaziele umsetzbar sind und was getan werden muss, um diese Ziele zu erreichen. In diesem Zusammenhang sollte ein Schwerpunkt auf dem Wohngebäudesektor liegen, da dieser einer der größten Energieverbraucher und damit anthropogen bedingter CO2-Emittenten weltweit ist. Diese Dissertation befasst sich mit dem ersten Aspekt, der Anfälligkeit des Elektrizitätssektors, durch die Entwicklung eines Rankings, welches einen quantitativen Vergleich der Anfälligkeit des Elektrizitätssektors von 21 europäischen Ländern anhand von 14 Einflussfaktoren ermöglicht. Solch ein Ranking wurde bisher noch nicht erstellt. Wir führten eine Sensitivitätsanalyse durch, um den relativen Einfluss eines jeden Einflussfaktors auf das Ranking gemäß der Anfälligkeit zu testen. Wir diskutieren zudem Gründe für die Ranking-Position und damit die Anfälligkeit ausgewählter Länder. Das zweite Thema, der Einfluss des Klimawandels auf den Gebäudeenergiebedarf, wird mittels eines neuen Modells bearbeitet, mit welchem der Heiz- und Kühlenergiebedarf von Wohngebäuden abgeschätzt werden kann. Wir wandten das Modell exemplarisch für Deutschland und die Niederlande an. Es berücksichtigt Prognosen für zukünftige Veränderungen der Bevölkerung, des Klimas und des Dämmstandards von Gebäuden, während die meisten der bestehenden Studien nur weniger als drei verschiedene Faktoren berücksichtigen, die den zukünftigen Energiebedarf von Gebäuden beeinflussen. Darüber hinaus haben wir einen umfassenden Sanierungsalgorithmus entworfen, mit welchem der gesamte Wohngebäudebestand erstmals für jedes Jahr in der Vergangenheit und Zukunft modelliert werden kann. Die Studie bestätigt, dass es keinen Zusammenhang zwischen der geographischen Lage eines Landes und seiner Position im Ranking gemäß der Anfälligkeit seines Elektrizitätssektors gibt. Wir fanden auch kein deutliches Muster der Einflussfaktoren für die Anfälligkeit zwischen Ländern, die beim Ranking schlechter oder besser abschnitten. Wir verdeutlichen, dass Luxemburg, Griechenland, die Slowakei und Italien die Länder mit der höchsten Anfälligkeit ihres Elektrizitätssektors sind. Die Elektrizitätssektoren von Norwegen, Tschechien, Portugal und Dänemark zeigten sich als am wenigsten anfällig gegenüber dem Klimawandel. Kenntnisse hinsichtlich der wichtigsten Faktoren für die schlechte bzw. gute Rankingposition dieser Länder sind von entscheidender Bedeutung, um geeignete Anpassungsmaßnahmen zu finden, welche die Anfälligkeit des Elektrizitätssektors reduzieren. Daher werden solche Faktoren in dieser Studie beschrieben. Wir zeigen, dass der Heizenergiebedarf von Wohngebäuden sowohl in Deutschland als auch in den Niederlanden in der Zukunft stark abnehmen wird. Die Analyse für die Niederlande konzentrierte sich auf die regionale Ebene und hatte eine feinere zeitliche Auflösung, wodurch starke zukünftige Veränderungen beim Heizenergiebedarf pro Provinz und Monat deutlich wurden. In der deutschen Studie untersuchten wir zusätzlich den zukünftigen Kühlenergiebedarf und konnten darlegen, dass dieser bis zur Mitte dieses Jahrhunderts nur leicht zunehmen wird. So werden Steigerungen beim Kühlenergiebedarf voraussichtlich nicht die Reduktionen des Heizenergiebedarfs wettmachen. Der wichtigste Faktor für beträchtliche Heizenergiebedarfssenkungen ist die Sanierung von Gebäuden. Wir sind die ersten, die zeigen, dass die festgelegten deutschen und niederländischen Energie- und Klimaziele im Gebäudesektor nur dann erfüllt werden können, wenn die jährliche Sanierungsrate deutlich erhöht wird. Die derzeitige Rate von nur etwa 1% des Gesamtgebäudebestandes pro Jahr reicht nicht aus, dass bis zur Mitte dieses Jahrhunderts alle Wohngebäude einen nahezu energieneutralen Standard erreichen. Dafür müsste sie mindestens verdreifacht werden. Diese Arbeit betont, dass länderspezifische Merkmale eine entscheidende Rolle spielen für die Anfälligkeit des Elektrizitätssektors europäischer Länder. Sie zeigt zudem für verschiedene Szenarien, wie viel Energie in der Zukunft benötigt wird, um Wohngebäude zu heizen und zu kühlen. Mit diesen Informationen lassen sich bestehende Klimaschutz- und Anpassungsmaßnahmen rechtfertigen oder neue Maßnahmen anregen. KW - climate change KW - energy demand KW - residential buildings KW - mitigation KW - susceptibility of the European electricity sector KW - Klimawandel KW - Stromsektor KW - Sanierung KW - Gebäudenergiebedarf KW - Haushalte KW - Europa Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98378 ER - TY - THES A1 - Castino, Fabiana T1 - Climate variability and extreme hydro-meteorological events in the Southern Central Andes, NW Argentina T1 - Klimavariabilität und extreme hydro-meteorologische Ereignisse in den südlichen Zentralanden, NW Argentinien N2 - Extreme hydro-meteorological events, such as severe droughts or heavy rainstorms, constitute primary manifestations of climate variability and exert a critical impact on the natural environment and human society. This is particularly true for high-mountain areas, such as the eastern flank of the southern Central Andes of NW Argentina, a region impacted by deep convection processes that form the basis of extreme events, often resulting in floods, a variety of mass movements, and hillslope processes. This region is characterized by pronounced E-W gradients in topography, precipitation, and vegetation cover, spanning low to medium-elevation, humid and densely vegetated areas to high-elevation, arid and sparsely vegetated environments. This strong E-W gradient is mirrored by differences in the efficiency of surface processes, which mobilize and transport large amounts of sediment through the fluvial system, from the steep hillslopes to the intermontane basins and further to the foreland. In a highly sensitive high-mountain environment like this, even small changes in the spatiotemporal distribution, magnitude and rates of extreme events may strongly impact environmental conditions, anthropogenic activity, and the well-being of mountain communities and beyond. However, although the NW Argentine Andes comprise the catchments for the La Plata river that traverses one of the most populated and economically relevant areas of South America, there are only few detailed investigations of climate variability and extreme hydro-meteorological events. In this thesis, I focus on deciphering the spatiotemporal variability of rainfall and river discharge, with particular emphasis on extreme hydro-meteorological events in the subtropical southern Central Andes of NW Argentina during the past seven decades. I employ various methods to assess and quantify statistically significant trend patterns of rainfall and river discharge, integrating high-quality daily time series from gauging stations (40 rainfall and 8 river discharge stations) with gridded datasets (CPC-uni and TRMM 3B42 V7), for the period between 1940 and 2015. Evidence for a general intensification of the hydrological cycle at intermediate elevations (~ 0.5 – 3 km asl) at the eastern flank of the southern Central Andes is found both from rainfall and river-discharge time-series analysis during the period from 1940 to 2015. This intensification is associated with the increase of the annual total amount of rainfall and the mean annual discharge. However, most pronounced trends are found at high percentiles, i.e. extreme hydro-meteorological events, particularly during the wet season from December to February.An important outcome of my studies is the recognition of a rapid increase in the amount of river discharge during the period between 1971 and 1977, most likely linked to the 1976-77 global climate shift, which is associated with the North Pacific Ocean sea surface temperature variability. Interestingly, after this rapid increase, both rainfall and river discharge decreased at low and intermediate elevations along the eastern flank of the Andes. In contrast, during the same time interval, at high elevations, extensive areas on the arid Puna de Atacama plateau have recorded increasing annual rainfall totals. This has been associated with more intense extreme hydro-meteorological events from 1979 to 2014. This part of the study reveals that low-, intermediate, and high-elevation sectors in the Andes of NW Argentina respond differently to changing climate conditions. Possible forcing mechanisms of the pronounced hydro-meteorological variability observed in the study area are also investigated. For the period between 1940 and 2015, I analyzed modes of oscillation of river discharge from small to medium drainage basins (102 to 104 km2), located on the eastern flank of the orogen. First, I decomposed the relevant monthly time series using the Hilbert-Huang Transform, which is particularly appropriate for non-stationary time series that result from non-linear natural processes. I observed that in the study region discharge variability can be described by five quasi-periodic oscillatory modes on timescales varying from 1 to ~20 years. Secondly, I tested the link between river-discharge variations and large-scale climate modes of variability, using different climate indices, such as the BEST ENSO (Bivariate El Niño-Southern Oscillation Time-series) index. This analysis reveals that, although most of the variance on the annual timescale is associated with the South American Monsoon System, a relatively large part of river-discharge variability is linked to Pacific Ocean variability (PDO phases) at multi-decadal timescales (~20 years). To a lesser degree, river discharge variability is also linked to the Tropical South Atlantic (TSA) sea surface temperature anomaly at multi-annual timescales (~2-5 years). Taken together, these findings exemplify the high degree of sensitivity of high-mountain environments with respect to climatic variability and change. This is particularly true for the topographic transitions between the humid, low-moderate elevations and the semi-arid to arid highlands of the southern Central Andes. Even subtle changes in the hydro-meteorological regime of these areas of the mountain belt react with major impacts on erosional hillslope processes and generate mass movements that fundamentally impact the transport capacity of mountain streams. Despite more severe storms in these areas, the fluvial system is characterized by pronounced variability of the stream power on different timescales, leading to cycles of sediment aggradation, the loss of agriculturally used land and severe impacts on infrastructure. N2 - Extreme hydro-meteorologische Ereignisse, wie langanhaltende Dürren oder Starkregen, gelten als Haupterscheinungsform der Klimavariabilität und haben einen entscheidenden Einfluss auf Umwelt und Gesellschaft. Dies gilt im Besonderen für die großen Gebirgsregionen dieser Erde. In einer extrem sensiblen Hochgebirgsregion wie den NW argentinischen Anden haben selbst geringe Veränderungen in der Intensität solcher Extremereignisse, sowie deren Häufigkeit und räumliche Verteilung, nicht nur einen großen Einfluss auf die Landschaftsentwicklung; flussabwärtsliegende Gemeinden sind zudem wirtschaftlich als auch humanitär einem hohen Risiko ausgesetzt. Die vorliegende Arbeit befasst sich im Wesentlichen mit der räumlich-zeitlichen Verteilung von Niederschlags- und Abflussmengen über den Zeitraum der letzten sieben Jahrzente, mit besonderem Fokus auf extreme hydro-meteorologische Ereignisse der subtropischen Zentralanden NW-Argentiniens. Um räumliche und zeitliche statistisch signifikante Trends der Niederschlags- und Abflussmengen bestimmen und quantifizieren zu können, finden in dieser Arbeit verschiedene Methoden Anwendung, in denen hochaufgelöste Zeitreihen von Niederschlags- und Abflussmengenstationen mit diversen Rasterdatensätzen von 1940 bis 2015 kombiniert werden. Über den betrachteten Zeitraum hinweg lässt sich eine allgemeine Intensivierung des hydrologischen Kreislaufes auf mittleren Höhen (500 - 3.000 m ü. NN) belegen. Diese Intensivierung steht einerseits im Zusammenhang mit dem Ansteigen von Extremwetterereignissen, besonders während der Regenzeit von Dezember bis Februar. Der beobachtete Anstieg in der Intensität dieser Wetterlagen deutet auf einen Zusammenhang der schweren Regenstürme und der Verlandung der Abflussbecken in der untersuchten, intermontanen Region hin. Ein rapider Anstieg in der Abflussmenge in Flüssen um bis zu 40% ist für den Zeitraum zwischen 1971 und 1977 dokumentiert. Dieser steht höchstwahrscheinlich mit der globalen Klimaverschiebung von 1976-77 in Zusammenhang, welche wiederum durch die Variabilität der Oberflächentemperatur des Pazifischen Ozeans beeinflusst wird. Nach diesem starken Anstieg können jedoch abnehmende Trends in Niederschlags- wie auch Abflussmengen auf niedrigen und mittleren Höhen der Ostflanken der Anden beobachtet werden. Im Gegensatz dazu belegen ein Anstieg der jährlichen Gesamtniederschlagsmenge sowie der Magnitude von extremen hydro-meterologischen Ereignissen in hohen Höhenlagen der trockenen Puna de Atacama Plateaus, dass niedrige, mittlere und hohe Sektoren der NW argentinischen Anden unterschiedlich auf Änderungen des Klimas reagieren. Schlussendlich kann die in der Region beobachtete, stark ausgeprägte Variabilität in der Hydro-meteorologie über jährliche Zeiträume zum größten Teil mit dem Südamerikanischen Monsunsystem erklärt werden. Jedoch sind große Anteile in der Variabilität der Abflussmenge auch stark an die Pazifische Dekaden-Oszillation (PDO) in Zeiträumen über mehrereJahrzehnte (~20 Jahre) gekoppelt und zu einem geringeren Anteil auch an die Meeresoberflächentemperatur-Anomalie des tropischen Südatlantiks (TSA) über mehrjährige Zeiträume hinweg (~2-5 Jahre). Interessanterweise wurden nur weniger stark ausgeprägte Zusammenhänge zwischen der Abflussvariabilität und El Niño-Southern Oscillation in unserem Untersuchungsgebiet gefunden. KW - climate variability KW - extreme hydrometeorological events KW - Central Andes KW - Klimavariabilität KW - extreme hydro-meteorologische Ereignisse KW - Zentralanden Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396815 ER - TY - THES A1 - Linnik, Anastasia T1 - Coherence and structure in aphasic and non-aphasic spoken discourse T1 - Kohärenz und Struktur im aphasischen und nicht-aphasischen gesprochenen Diskurs N2 - Discourse production is crucial for communicative success and is in the core of aphasia assessment and treatment. Coherence differentiates discourse from a series of utterances/sentences; it is internal unity and connectedness, and, as such, perhaps the most inherent property of discourse. It is unclear whether people with aphasia, who experience various language production difficulties, preserve the ability to produce coherent discourse. A more general question of how coherence is established and represented linguistically has been addressed in the literature, yet remains unanswered. This dissertation presents an investigation of discourse production in aphasia and the linguistic mechanisms of establishing coherence. N2 - Die Diskursproduktion ist entscheidend für den kommunikativen Erfolg und ist ausschlaggebend für die Diagnostik und Behandlung von Aphasie. Durch Kohärenz wird eine Reihe von Äußerungen oder Sätzen zum Diskurs. Kohärenz stellt die innere Einheit und Verbundenheit eines Textes dar und ist damit vielleicht die zentrale Eigenschaft des Diskurses. Es ist unklar, ob Menschen mit Aphasie, die Schwierigkeiten bei der Sprachproduktion haben, die Fähigkeit bewahren, einen kohärenten Diskurs zu konstruieren. Die Frage, was genau Sprache kohärent macht, wurde in der Literatur behandelt, ist aber nicht vollständig verstanden. Diese Dissertation stellt eine Untersuchung der aphasischen Diskursproduktion und der linguistischen Mechanismen zur Herstellung von Kohärenz dar. KW - aphasia KW - discourse production KW - rhetorical structure theory KW - coherence KW - Aphasie KW - Diskursproduktion KW - rhetorische Struktur KW - Kohärenz Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423202 ER - TY - THES A1 - Schmidt, Peter T1 - Contributions to EU regional policy T1 - Beiträge zur EU-Regionalpolitik BT - reconsidering theoretical and empirical perspectives on the Structural Funds BT - neue theoretische und empirische Perspektiven auf die Strukturfonds N2 - This cumulative dissertation contains four self-contained articles which are related to EU regional policy and its structural funds as the overall research topic. In particular, the thesis addresses the question if EU regional policy interventions can at all be scientifically justified and legitimated on theoretical and empirical grounds from an economics point of view. The first two articles of the thesis (“The EU structural funds as a means to hamper migration” and “Internal migration and EU regional policy transfer payments: a panel data analysis for 28 EU member countries”) enter into one particular aspect of the debate regarding the justification and legitimisation of EU regional policy. They theoretically and empirically analyse as to whether regional policy or the market force of the free flow of labour (migration) in the internal European market is the better instrument to improve and harmonise the living and working conditions of EU citizens. Based on neoclassical market failure theory, the first paper argues that the structural funds of the EU are inhibiting internal migration, which is one of the key measures in achieving convergence among the nations in the single European market. It becomes clear that European regional policy aiming at economic growth and cohesion among the member states cannot be justified and legitimated if the structural funds hamper instead of promote migration. The second paper, however, shows that the empirical evidence on the migration and regional policy nexus is not unambiguous, i.e. different empirical investigations show that EU structural funds hamper and promote EU internal migration. Hence, the question of the scientific justification and legitimisation of EU regional policy cannot be readily and unambiguously answered on empirical grounds. This finding is unsatisfying but is in line with previous theoretical and empirical literature. That is why, I take a step back and reconsider the theoretical beginnings of the thesis, which took for granted neoclassical market failure theory as the starting point for the positive explanation as well as the normative justification and legitimisation of EU regional policy. The third article of the thesis (“EU regional policy: theoretical foundations and policy conclusions revisited”) deals with the theoretical explanation and legitimisation of EU regional policy as well as the policy recommendations given to EU regional policymakers deduced from neoclassical market failure theory. The article elucidates that neoclassical market failure is a normative concept, which justifies and legitimates EU regional policy based on a political and thus subjective goal or value-judgement. It can neither be used, therefore, to give a scientifically positive explanation of the structural funds nor to obtain objective and practically applicable policy instruments. Given this critique of neoclassical market failure theory, the third paper consequently calls into question the widely prevalent explanation and justification of EU regional policy given in static neoclassical equilibrium economics. It argues that an evolutionary non-equilibrium economics perspective on EU regional policy is much more appropriate to provide a realistic understanding of one of the largest policies conducted by the EU. However, this does neither mean that evolutionary economic theory can be unreservedly seen as the panacea to positively explain EU regional policy nor to derive objective policy instruments for EU regional policymakers. This issue is discussed in the fourth article of the thesis (“Market failure vs. system failure as a rationale for economic policy? A critique from an evolutionary perspective”). This article reconsiders the explanation of economic policy from an evolutionary economics perspective. It contrasts the neoclassical equilibrium notions of market and government failure with the dominant evolutionary neo-Schumpeterian and Austrian-Hayekian perceptions. Based on this comparison, the paper criticises the fact that neoclassical failure reasoning still prevails in non-equilibrium evolutionary economics when economic policy issues are examined. This is surprising, since proponents of evolutionary economics usually view their approach as incompatible with its neoclassical counterpart. The paper therefore argues that in order to prevent the otherwise fruitful and more realistic evolutionary approach from undermining its own criticism of neoclassical economics and to create a consistent as well as objective evolutionary policy framework, it is necessary to eliminate the equilibrium spirit. Taken together, the main finding of this thesis is that European regional policy and its structural funds can neither theoretically nor empirically be justified and legitimated from an economics point of view. Moreover, the thesis finds that the prevalent positive and instrumental explanation of EU regional policy given in the literature needs to be reconsidered, because these theories can neither scientifically explain the emergence and development of this policy nor are they appropriate to derive objective and scientific policy instruments for EU regional policymakers. N2 - Diese kumulative Dissertation umfasst vier eigenständige Artikel zur EU-Regionalpolitik und ihren Strukturfonds als dem übergreifenden Forschungsthema der Dissertation. Die Arbeit beschäftigt sich mit der Fragestellung, ob sich aus ökonomischer Sicht die EU-Regionalpolitik überhaupt wissenschaftlich, sowohl empirisch als auch theoretisch, begründen lässt. Die ersten beiden Artikel der Dissertation (“The EU structural funds as a means to hamper migration” und “Internal migration and EU regional policy transfer payments: a panel data analysis for 28 EU member countries”) greifen einen bestimmten Aspekt der Debatte um die Rechtfertigung von Eingriffen der EU-Regionalpolitik in den EU-Binnenmarkt auf. Die beiden Artikel analysieren theoretisch und empirisch, ob die Regionalpolitik oder die freien Marktkräfte in Form von freier Migration im europäischen Binnenmarkt besser geeignet sind, um die Lebens- und Beschäftigungsbedingungen der EU-Bürger zu verbessern und anzugleichen. Basierend auf der neoklassischen Theorie des Marktversagens, argumentiert das erste Papier, dass die Strukturfonds der EU Migration, die einen wesentlichen Mechanismus zur Erreichung von Konvergenz der europäischen Mitgliedsstaaten darstellt, verhindern. Es wird deutlich, dass die EU-Regionalpolitik, welche auf Wachstum und Konvergenz der EU-Mitgliedsstaaten abzielt, nicht gerechtfertigt werden kann, wenn die Strukturfonds Migration in der EU behindern, anstatt sie zu fördern. Der zweite Artikel zeigt jedoch, dass die empirische Evidenz bezüglich des Zusammenhangs von EU-Regionalpolitik und Migration nicht eindeutig ist, d.h. verschiedene empirische Untersuchungen zeigen, dass die Strukturfonds Migration behindern aber auch fördern. Daher ist die Frage der wissenschaftlichen Rechtfertigung der EU-Regionalpolitik auf empirischer Grundlage nicht einfach und eindeutig. Dieses Ergebnis ist unbefriedigend, steht aber im Einklang mit der bisherigen theoretischen und empirischen Literatur. Daher geht die Arbeit an dieser Stelle einen Schritt zurück und überprüft die zu Beginn unterstellte theoretische Grundlage ihrer Analyse der Erklärung und Rechtfertigung der EU-Regionalpolitik, die in der vorherrschenden neoklassischen Marktversagenstheorie zu sehen und zu finden ist. Der dritte Artikel („EU regional policy: theoretical foundations and policy conclusions revisited“) behandelt die theoretische Erklärung und Rechtfertigung, als auch die Politikempfehlungen an EU-Regionalpolitiker, welche aus der neoklassischen Marktversagenstheorie abgleitet werden. Der Artikel führt aus, dass das neoklassische Marktversagenskonzept normativ ist und die EU-Regionalpolitik dadurch mit Hilfe eines politischen und damit subjektiven Werturteils rechtfertigt und legitimiert. Dieses Konzept kann jedoch keine wissenschaftlich positive Erklärung der EU-Strukturfonds liefern, noch können daraus objektive und praktisch anwendbare Politikinstrumente abgeleitet werden. Diese Kritik an der neoklassischen Marktversagenstheorie gegeben, stellt das dritte Papier konsequenterweise die vorherrschende Erklärung und Rechtfertigung der EU-Regionalpolitik, welche in der statisch-neoklassischen Gleichgewichtsökonomik geliefert wird, in Frage. Es wird argumentiert, dass eine evolutorische Nicht-Gleichgewichtsperspektive auf die EU-Regionalpolitik wesentlich geeigneter erscheint eine realistische Erklärung für eine der größten Politiken der EU zu geben. Allerdings heißt dies nicht, dass die evolutorische Ökonomik unvoreingenommen als Allheilmittel für eine positive Erklärung und die Ableitung objektiver Politikinstrumente herangezogen werden kann. Warum dies so ist, wird im vierten Artikel der Dissertation („Market failure vs. system failure as a rationale for economic policy? A critique from an evolutionary perspective“) diskutiert. Dieser Artikel greift die Erklärung von Wirtschaftspolitik, die aus evolutorischer Perspektive gegeben wird, neu auf. Die neoklassischen Gleichgewichtsvorstellungen des Markt- und Staatsversagens werden mit den vorherrschenden evolutorischen neo-Schumpeterschen und Österreichisch-Hayekiansichen Vorstellungen die Wirtschaftspolitik betreffend verglichen. Auf diesem Vergleich aufbauend kritisiert das Papier, dass neoklassisches Versagensdenken in der evolutorischen Nicht-Gleichgewichtsökonomik weiterhin zu finden ist, wenn wirtschaftspolitische Fragestellungen erörtert werden. Dies ist sehr überraschend, da die Vertreter der evolutorischen Ökonomik ihren Ansatz normalerweise als inkompatibel zu ihrem neoklassischen Pendant ansehen. Der letzte Artikel argumentiert deshalb, dass der Gleichgewichtsgedanke eliminiert werden muss, um die ansonsten sehr fruchtbare und wesentlich realistischere evolutorische Ökonomik vor der Unterminierung ihrer eigenen Kritik an der Neoklassik zu schützen und einen konsistenten als auch objektiven evolutorischen Analyserahmen für wirtschaftspolitische Fragestellungen zu schaffen. Fasst man das Resultat der Dissertation zusammen, bleibt festzuhalten, dass die EU-Regionalpolitik und ihre Strukturfonds aus ökonomischer Sicht weder theoretisch noch empirisch rechtfertigt und legitimiert werden können. Darüber hinaus kommt die Arbeit zu dem Schluss, dass die vorherrschende positive und instrumentelle Erklärung der EU-Regionalpolitik, die in der Literatur gegeben wird, neu gedacht werden muss, da mit Hilfe dieser Theorien weder das Aufkommen und die Entwicklung dieser Politik erklärbar sind, noch geeignete objektive und wissenschaftliche Politikinstrumente für EU-Regionalpolitiker abgeleitet werden können. KW - EU regional policy KW - structural funds KW - internal migration KW - market failures KW - non-equilibrium economics KW - evolutionary economics KW - system failure KW - economic policy KW - European integration KW - EU-Regionalpolitik KW - Strukturfonds KW - interne Migration KW - Marktversagen KW - Nicht-Gleichgewichtsökonomik KW - Evolutorische Ökonomik KW - Systemversagen KW - Wirtschaftspolitik KW - Europäische Integration Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90837 ER - TY - THES A1 - Schrön, Martin T1 - Cosmic-ray neutron sensing and its applications to soil and land surface hydrology T1 - Neutronen aus kosmischer Strahlung und deren Anwendung für Boden- und Landoberflächen-Hydrologie BT - on neutron physics, method development, and soil moisture estimation across scales N2 - Water scarcity, adaption on climate change, and risk assessment of droughts and floods are critical topics for science and society these days. Monitoring and modeling of the hydrological cycle are a prerequisite to understand and predict the consequences for weather and agriculture. As soil water storage plays a key role for partitioning of water fluxes between the atmosphere, biosphere, and lithosphere, measurement techniques are required to estimate soil moisture states from small to large scales. The method of cosmic-ray neutron sensing (CRNS) promises to close the gap between point-scale and remote-sensing observations, as its footprint was reported to be 30 ha. However, the methodology is rather young and requires highly interdisciplinary research to understand and interpret the response of neutrons to soil moisture. In this work, the signal of nine detectors has been systematically compared, and correction approaches have been revised to account for meteorological and geomagnetic variations. Neutron transport simulations have been consulted to precisely characterize the sensitive footprint area, which turned out to be 6--18 ha, highly local, and temporally dynamic. These results have been experimentally confirmed by the significant influence of water bodies and dry roads. Furthermore, mobile measurements on agricultural fields and across different land use types were able to accurately capture the various soil moisture states. It has been further demonstrated that the corresponding spatial and temporal neutron data can be beneficial for mesoscale hydrological modeling. Finally, first tests with a gyrocopter have proven the concept of airborne neutron sensing, where increased footprints are able to overcome local effects. This dissertation not only bridges the gap between scales of soil moisture measurements. It also establishes a close connection between the two worlds of observers and modelers, and further aims to combine the disciplines of particle physics, geophysics, and soil hydrology to thoroughly explore the potential and limits of the CRNS method. N2 - Wasserknappheit, Anpassung an Klimaveränderungen, und Gefahrenabschätzungen von Dürren und Fluten sind heutzutage dringende Themen für Forschung und Gesellschaft. Vorallem um die Auswirkungen auf Wetter und Landwirtschaft zu verstehen und vorherzusagen, ist es wichtig, den Wasserkreislauf der Erde zu beobachten und zu simulieren. In diesem System spielt Bodenfeuchte eine Schlüsselrolle, welche den Wasseraustausch zwischen Boden, Luft, und Pflanzen bestimmt. Daher sind ausgeklügelte Messtechnologien erforderlich, welche Bodenfeuchte von kleinen Ackerschlägen bis hin zu großen Gebieten erfassen können. Die neuartige Methode, Neutronen aus kosmischer Strahlung zu messen (CRNS), ist eine vielversprechende Technologie um die Lücke zwischen Punktmessungen und Fernerkundungen zu schließen, da der Einflussbereich des Sensors bei ca. 30 ha liegen soll. Allerdings ist intensive interdisziplinäre Forschung nötig, um die Beziehung zwischen Neutronen und Bodefeuchte zu verstehen. In dieser Arbeit wurden erstmals verschiedene Sensoren systematisch miteinander verglichen, und die bisherigen Korrekturen für meteorologische und geomagnetische Einflüsse näher untersucht. Darüber hinaus wurden Simulationen der Neutronenphysik herangezogen, um den Einflussbereich des Sensors genauestens zu charakterisieren. Demnach ist der Sensor je nach Umgebungsfeuchte hauptsächlich in der Fläche von ca. 6--18 ha, sowie besonders im Nahbereich, sensitiv. Diese Resultate konnten durch Experimente nahe Gewässern und Straßen bestätigt werden. Dennoch ist die Methode nachwievor sehr gut in der Lage, die Bodenfeuchte in Ackerflächen, Grasland und auch Wäldern zu erfassen. Zudem wurde gezeigt, dass sich die räumlichen und zeitlichen Neutronen-Daten gut für die hydrologische Modellierung eignen. Abschließend wurde eine neue Möglichkeit untersucht, um Neutronen aus der Luft mit einem Traghubschrauber in noch größeren Gebieten zu messen. Diese Dissertation untersucht die CRNS-Methode auf verschiedenen Skalen, und verknüpft dabei Beobachtung mit Modellierung. Außerdem verbindet diese Arbeit die verschiedenen Disziplinen der Teilchenphysik, Geophysik, und Bodenhydrologie, um das Potential und die Grenzen der Methode ganzheitlich zu beurteilen. KW - soil moisture KW - hydrology KW - cosmic rays KW - neutrons KW - water monitoring KW - Bodenfeuchte KW - Hydrologie KW - kosmische Strahlung KW - Neutronen KW - Wasser-Monitoring Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395433 SN - 978-3-8439-3139-7 PB - Verlag Dr. Hut GmbH CY - München ER - TY - THES A1 - Ittner, Helmut T1 - Das Widerspenstige bändigen T1 - Restrain the recalcitrant BT - eine empirische Analyse zu den Begründungen von Lehrkräften beruflicher Schulen für ihr pädagogisches Handeln BT - an empiric investigation to grounds of teachers of vocational schools for their pedagogical action N2 - Dem Handeln von Lehrkräften wird in der schulischen Praxis wie in der wissenschaftlichen Literatur ein wesentlicher Einfluss auf die Qualität von schulischem Unterricht zugesprochen. Auch wenn umfangreiche normative Vorstellungen über ein gutes Lehr-Handeln bestehen, so gibt es wenig Erkenntnis darüber, welche Gründe Lehrkräfte für ihr pädagogisches Handeln haben. Das Handeln von Lehrkräften kann nur dann adäquat erfasst werden, wenn Bildung einerseits als Weitergabe von Kultur an die nachfolgende Generation und andererseits als eine vom sich bildenden Subjekt ausgehende Selbst- und Weltverständigung verstanden wird. Damit einhergehende Anforderungen an die Lehrkraft stehen notwendigerweise in Widerspruch zueinander; dies gilt besonders für eine Gesellschaft mit großer kultureller und sozialer Heterogenität. Bei der Suche nach Zusammenhängen zwischen Persönlichkeit, pädagogischem Wissen oder Kompetenzen und einem unterrichtlichen Handeln wird häufig von einer Bedingtheit dieses Handelns ausgegangen und dieses auf kognitive Aspekte und an externen Normen orientierte Merkmale verkürzt. Ertragreicher für eine Antwort auf die Frage nach den Begründungen sind wissenschaftliche Arbeiten, die Professionalität als eine Bezugnahme auf einen besonderen strukturellen Rahmen beschreiben, der durch Widersprüche geprägt ist und Entscheidungen zu den Spannungsfeldern pädagogischer Verhältnisse erfordert. Die subjektwissenschaftliche Lerntheorie bietet eine Basis für ein Verständnis eines Lernens in institutionellen Kontexten ausgehend von den Lerninteressen der Schülerinnen und Schüler. Lehren kann darauf bezugnehmend als Unterstützung von Selbst- und Weltverständigungsprozessen durch Wertschätzung, Verstehen und Angebote alternativer Bedeutungshorizonte verstanden werden. Das Handeln von Lehrkräften ist als sinngebende Bezugnahme auf daraus resultierende sowie institutionelle Anforderungen mittels gesellschaftlicher Bedeutungsstrukturen verstehbar. Das handelnde Subjekt erschließt sich selbst und die Welt mit Hilfe von Bedeutungen. Diese können verstanden werden als der Besonderheit der Biographie, der gesellschaftlichen Position sowie der Lebenslage geschuldete Reinterpretationen gesellschaftlicher Bedeutungsstrukturen. Im empirischen Verfahren können mittels eines Übergangs von sequentiellen zu komparativen Analysen Positionierungen als thematisch spezifische und über die konkrete Handlungssituation hinausreichende Bedeutungs-Begründungs-Zusammenhänge rekonstruiert werden. Daraus werden situationsunabhängige Strukturmomente des Gegenstands Lehren an beruflichen Schulen aber auch komplexe, situationsbezogene subjektive Bedeutungs-Begründungs-Muster abgeleitet. Als wesentliche strukturelle Merkmale lassen sich die Schlüsselkategorien ‚Deutungsmacht‘ und ‚instrumentelle pädagogische Beziehung‘ aus dem empirischen Material unter Zuhilfenahme weiterer theoretischer Folien entwickeln. Da Deutungsmacht auf Akzeptanz angewiesen ist und in instrumentellen Beziehungen eine kooperative Bezugnahme auf den Lehr-Lern-Gegenstand allenfalls punktuell erfolgt, können damit asymmetrische metastabile Arrangements zwischen einer Lehrkraft und Schülerinnen und Schülern verstanden werden. Als empirische Ausprägungen weist Deutungsmacht die Varianten ‚absoluter Anspruch‘, ‚Akzeptanz der Fragilität‘ und ‚Akzeptanz der Legitimität eines Infragestellens‘ auf. Bei der zweiten Schlüsselkategorie treten die Varianten ‚strukturelle Prägung‘, ‚unspezifischer allgemein-menschlicher Charakter‘ und ‚Außenprägung‘ der instrumentellen pädagogischen Beziehung auf. Die Bedeutungs-Begründungs-Musters weisen teilweise Inkonsistenzen und Übergänge in den Positionierungen bezogen auf die dargestellten Varianten auf. Nur bei einem Teil der Muster sind Bemühungen um Wertschätzung und Verstehen der Schülerinnen und Schüler plausibel ableitbar, gleiches gilt in Hinblick auf eine Offenheit für eine Revision der Muster. Die Muster, wie etwa ‚Durchsetzend-ertragendes Nachsteuern‘, ‚Direktiv-personalisierendes Praktizieren‘ oder ‚Regulierend-flexibles Managen‘ sind zu verstehen als Bewältigungsmodi der kontingenten pädagogischen (Konflikt-)Situationen, auf die sich die Fallschilderungen beziehen. Die jeweilige Lehrkraft hat dieses Muster in dem beschriebenen Fall genutzt, was allerdings keine Aussage darüber zulässt, auf welche Muster die Lehrkraft in anderen Fällen zugreifen würde. Die Ergebnisse der vorliegenden Arbeit eignen sich als eine heuristische bzw. theoretische Folie, die Lehrkräfte beim Erschließen ihres eigenen pädagogischen Handelns - etwa in einer als Fallberatung konzipierten Fortbildung - unterstützen kann. Möglich sind Anschlüsse an andere theoretische Ansätze zum Handeln von Lehrkräften aber auch deren veränderte Einordnung. Erweitert werden die Optionen, dieses Handeln über wissenschaftliche Zugänge zu erfassen. N2 - An essential influence on the quality of lessons at school is awarded at the action of teachers in the practice at school as well as in the scientific literature. Even if extensive normative images about a good teaching action exist, there is little knowledge about the fact which grounds have teachers for their educational action. The action of teachers can be grasped only adequately if education is understood on the one hand as a passing on of culture to the following generation and, on the other hand, as an understanding of oneself and the world going out from the subject. With it walking along demands for the teacher necessarily stick together in contradiction; this is valid particularly for a society with big cultural and social heterogeneity. The search for connections between personality, educational knowledge or competencies and an educational action often goes out from a conditionality of this action shortens this on cognitive aspects and in external norms oriented attributes. More productive for an answer to the question after the grounds of action are scientific works, which describe professionalism as a reference to a special structural frame which is marked by contradictions and which requires decisions to the tension fields of educational relations. The subject-scientific learning theory offers a base for an understanding of a learning in institutional contexts outgoing from the learning interests of the students. Following this idea teaching can be understood as a support of self and world notification processes by appreciation, understanding and offers of alternative meaning horizons. The action of teachers is understandable as a sense-giving reference on thereon resulting as well as institutional demands by means of social meaning structures. The acting subject discloses itself and the world with the help of meanings. These can be understood as re-interpretations of social meaning structures specifically featured of the biography, the social position and the living situation. In the empiric procedure positionings can be reconstructed by crossing from sequential to comparative analyses as thematically specific and over the concrete action situation stretching meanings-grounds of action-connections. From this on structural aspects of teaching at vocational schools independent of the action situation are derived as well as complicated, situation-related subjective meanings-grounds of action-patterns. As essential structural signs the key categories ‘interpretation power’ and ‘instrumental pedagogical relationship‘ can be revealed from the empiric material under aid of other theoretical foils. As interpretation power depends on acceptance and instrumental relations mostly occur a co-operative reference to the teaching-learning object, asymmetrical metastable arrangements between a teacher and students can be understood with it. The meanings-grounds of action-patterns partly show inconsistencies and crossings in the positionings covered to the variations of the ‘interpretation power’ and the ‘instrumental pedagogical relations’. Only with a part of the patterns efforts towards esteem and understanding of the students are plausibly deductive, the same is valid in view of an openness for a check of the patterns. The patterns, as for example ‘Durchsetzend-ertragendes Nachsteuern‘, ‘Direktiv-personalisierendes Praktizieren‘ or ‘Regulierend-flexibles Managen‘ are to be understood as coping modes of the contingent educational (conflict) situations to which the case portrayals refer. The respective teacher has used this pattern in the described case what admits, however, no statement about that which patterns the teacher would access in other cases. The results of the present work are suited as a heuristic or theoretical foil, which can support teachers while analyzing her own educational action - possibly in an advanced training conceived as a case consultation. Possible are connections to other theoretical models of the action of teachers as well as a changed classification of these models. At the end, there are more options to grasp the pedagogical action of schoolteachers by scientific accesses. KW - Lehrkräfte KW - Berufliche Schulen KW - pädagogisches Handeln KW - Gründe KW - Professionalität KW - Subjektwissenschaft KW - Handlungsfähigkeit KW - Kritische Psychologie KW - Positionierungen KW - Bedeutungs-Begründungs-Analysen KW - Deutungsmacht KW - instrumentelle Beziehung KW - metastabiles pädagogisches Arrangement KW - Lernunterstützung KW - Selbst- und Weltverständigung KW - teachers KW - vocational schools KW - pedagogical action KW - grounds of action KW - professionalism KW - science of subject KW - capacity for action KW - Critical psychology KW - positioning KW - analysis of meanings and grounds of action KW - interpretation power KW - instrumental pedagogical relations KW - metastable pedagogical arrangement KW - learning support KW - self- and world-notification Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395066 ER - TY - THES A1 - Berner, Nadine T1 - Deciphering multiple changes in complex climate time series using Bayesian inference T1 - Bayes'sche Inferenz als diagnostischer Ansatz zur Untersuchung multipler Übergänge in komplexen Klimazeitreihen N2 - Change points in time series are perceived as heterogeneities in the statistical or dynamical characteristics of the observations. Unraveling such transitions yields essential information for the understanding of the observed system’s intrinsic evolution and potential external influences. A precise detection of multiple changes is therefore of great importance for various research disciplines, such as environmental sciences, bioinformatics and economics. The primary purpose of the detection approach introduced in this thesis is the investigation of transitions underlying direct or indirect climate observations. In order to develop a diagnostic approach capable to capture such a variety of natural processes, the generic statistical features in terms of central tendency and dispersion are employed in the light of Bayesian inversion. In contrast to established Bayesian approaches to multiple changes, the generic approach proposed in this thesis is not formulated in the framework of specialized partition models of high dimensionality requiring prior specification, but as a robust kernel-based approach of low dimensionality employing least informative prior distributions. First of all, a local Bayesian inversion approach is developed to robustly infer on the location and the generic patterns of a single transition. The analysis of synthetic time series comprising changes of different observational evidence, data loss and outliers validates the performance, consistency and sensitivity of the inference algorithm. To systematically investigate time series for multiple changes, the Bayesian inversion is extended to a kernel-based inference approach. By introducing basic kernel measures, the weighted kernel inference results are composed into a proxy probability to a posterior distribution of multiple transitions. The detection approach is applied to environmental time series from the Nile river in Aswan and the weather station Tuscaloosa, Alabama comprising documented changes. The method’s performance confirms the approach as a powerful diagnostic tool to decipher multiple changes underlying direct climate observations. Finally, the kernel-based Bayesian inference approach is used to investigate a set of complex terrigenous dust records interpreted as climate indicators of the African region of the Plio-Pleistocene period. A detailed inference unravels multiple transitions underlying the indirect climate observations, that are interpreted as conjoint changes. The identified conjoint changes coincide with established global climate events. In particular, the two-step transition associated to the establishment of the modern Walker-Circulation contributes to the current discussion about the influence of paleoclimate changes on the environmental conditions in tropical and subtropical Africa at around two million years ago. N2 - Im Allgemeinen stellen punktuelle Veränderungen in Zeitreihen (change points) eine Heterogenität in den statistischen oder dynamischen Charakteristika der Observablen dar. Das Auffinden und die Beschreibung solcher Übergänge bietet grundlegende Informationen über das beobachtete System hinsichtlich seiner intrinsischen Entwicklung sowie potentieller externer Einflüsse. Eine präzise Detektion von Veränderungen ist daher für die verschiedensten Forschungsgebiete, wie den Umweltwissenschaften, der Bioinformatik und den Wirtschaftswissenschaften von großem Interesse. Die primäre Zielsetzung der in der vorliegenden Doktorarbeit vorgestellten Detektionsmethode ist die Untersuchung von direkten als auch indirekten Klimaobservablen auf Veränderungen. Um die damit verbundene Vielzahl an möglichen natürlichen Prozessen zu beschreiben, werden im Rahmen einer Bayes’schen Inversion die generischen statistischen Merkmale Zentraltendenz und Dispersion verwendet. Im Gegensatz zu etablierten Bayes’schen Methoden zur Analyse von multiplen Übergängen, die im Rahmen von Partitionsmodellen hoher Dimensionalität formuliert sind und die Spezifikation von Priorverteilungen erfordern, wird in dieser Doktorarbeit ein generischer, Kernel-basierter Ansatz niedriger Dimensionalität mit minimal informativen Priorverteilungen vorgestellt. Zunächst wird ein lokaler Bayes’scher Inversionsansatz entwickelt, der robuste Rückschlüsse auf die Position und die generischen Charakteristika einer einzelnen Veränderung erlaubt. Durch die Analyse von synthetischen Zeitreihen die dem Einfluss von Veränderungen unterschiedlicher Signifikanz, Datenverlust und Ausreißern unterliegen wird die Leistungsfähigkeit, Konsistenz und Sensitivität der Inversionmethode begründet. Um Zeitreihen auch auf multiple Veränderungen systematisch untersuchen zu können, wird die Methode der Bayes’schen Inversion zu einem Kernel-basierten Ansatz erweitert. Durch die Einführung grundlegender Kernel-Maße können die Kernel-Resultate zu einer gewichteten Wahrscheinlichkeit kombiniert werden die als Proxy einer Posterior-Verteilung multipler Veränderungen dient. Der Detektionsalgorithmus wird auf reale Umweltmessreihen vom Nil-Fluss in Aswan und von der Wetterstation Tuscaloosa, Alabama, angewendet, die jeweils dokumentierte Veränderungen enthalten. Das Ergebnis dieser Analyse bestätigt den entwickelten Ansatz als eine leistungsstarke diagnostische Methode zur Detektion multipler Übergänge in Zeitreihen. Abschließend wird der generische Kernel-basierte Bayes’sche Ansatz verwendet, um eine Reihe von komplexen terrigenen Staubdaten zu untersuchen, die als Klimaindikatoren der afrikanischen Region des Plio-Pleistozän interpretiert werden. Eine detaillierte Untersuchung deutet auf multiple Veränderungen in den indirekten Klimaobservablen hin, von denen einige als gemeinsame Übergänge interpretiert werden. Diese gemeinsam auftretenden Ereignisse stimmen mit etablierten globalen Klimaereignissen überein. Insbesondere der gefundene Zwei-Stufen-Übergang, der mit der Ausbildung der modernen Walker-Zirkulation assoziiert wird, liefert einen wichtigen Beitrag zur aktuellen Diskussion über den Einfluss von paläoklimatischen Veränderungen auf die Umweltbedingungen im tropischen und subtropischen Afrika vor circa zwei Millionen Jahren. KW - kernel-based Bayesian inference KW - multi-change point detection KW - direct and indirect climate observations KW - Plio-Pleistocene KW - (sub-) tropical Africa KW - terrigenous dust KW - kernel-basierte Bayes'sche Inferenz KW - Detektion multipler Übergänge KW - direkte und indirekte Klimaobservablen KW - Plio-Pleistozän KW - (sub-) tropisches Afrika KW - terrigener Staub Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100065 ER - TY - THES A1 - Simon, Sebastian T1 - Der Einfluss der Koordination von Spurenelementen in silikatischen und aluminosilikatischen Schmelzen auf Elementverteilungsprozesse in magmatischen Systemen T1 - The influence of trace element coordination in silicate and aluminosilicate melts on the element distribution processes in magmatic systems N2 - Das Wissen um die lokale Struktur von Seltenen Erden Elementen (SEE) in silikatischen und aluminosilikatischen Schmelzen ist von fundamentalem Interesse für die Geochemie der magmatischen Prozesse, speziell wenn es um ein umfassendes Verständnis der Verteilungsprozesse von SEE in magmatischen Systemen geht. Es ist allgemein akzeptiert, dass die SEE-Verteilungsprozesse von Temperatur, Druck, Sauerstofffugazität (im Fall von polyvalenten Kationen) und der Kristallchemie kontrolliert werden. Allerdings ist wenig über den Einfluss der Schmelzzusammensetzung selbst bekannt. Ziel dieser Arbeit ist, eine Beziehung zwischen der Variation der SEE-Verteilung mit der Schmelzzusammensetzung und der Koordinationschemie dieser SEE in der Schmelze zu schaffen. Dazu wurden Schmelzzusammensetzungen von Prowatke und Klemme (2005), welche eine deutliche Änderung der Verteilungskoeffizienten zwischen Titanit und Schmelze ausschließlich als Funktion der Schmelzzusammensetzung zeigen, sowie haplogranitische bzw. haplobasaltische Schmelzzusammensetzungen als Vertreter magmatischer Systeme mit La, Gd, Yb und Y dotiert und als Glas synthetisiert. Die Schmelzen variierten systematisch im Aluminiumsättigungsindex (ASI), welcher bei den Prowatke und Klemme (2005) Zusammensetzungen einen Bereich von 0.115 bis 0.768, bei den haplogranitischen Zusammensetzungen einen Bereich von 0.935 bis 1.785 und bei den haplobasaltischen Zusammensetzungen einen Bereich von 0.368 bis 1.010 abdeckt. Zusätzlich wurden die haplogranitischen Zusammensetzungen mit 4 % H2O synthetisiert, um den Einfluss von Wasser auf die lokale Umgebung von SEE zu studieren. Um Informationen über die lokalen Struktur von Gd, Yb und Y zu erhalten wurde die Röntgenabsorptionsspektroskopie angewendet. Dabei liefert die Untersuchung der Feinstruktur mittels der EXAFS-Spektroskopie (engl. Extended X-Ray Absorption Fine Structure) quantitative Informationen über die lokale Umgebung, während RIXS (engl. resonant inelastic X-ray scattering), sowie die daraus extrahierte hoch aufgelöste Nahkantenstruktur, XANES (engl. X-ray absorption near edge structure) qualitative Informationen über mögliche Koordinationsänderungen von La, Gd und Yb in den Gläsern liefert. Um mögliche Unterschiede der lokalen Struktur oberhalb der Glastransformationstemperatur (TG) zur Raumtemperatur zu untersuchen, wurden exemplarisch Hochtemperatur Y-EXAFS Untersuchungen durchgeführt. Für die Auswertung der EXAFS-Messungen wurde ein neu eingeführter Histogramm-Fit verwendet, der auch nicht-symmetrische bzw. nichtgaußförmige Paarverteilungsfunktionen beschreiben kann, wie sie bei einem hohen Grad der Polymerisierung bzw. bei hohen Temperaturen auftreten können. Die Y-EXAFS-Spektren für die Prowatke und Klemme (2005) Zusammensetzungen zeigen mit Zunahme des ASI, eine Zunahme der Asymmetrie und Breite der Y-O Paarverteilungsfunktion, welche sich in sich in der Änderung der Koordinationszahl von 6 nach 8 und einer Zunahme des Y-O Abstand um 0.13Å manifestiert. Ein ähnlicher Trend lässt sich auch für die Gd- und Yb-EXAFS-Spektren beobachten. Die hoch aufgelösten XANESSpektren für La, Gd und Yb zeigen, dass sich die strukturellen Unterschiede zumindest halb-quantitativ bestimmen lassen. Dies gilt insbesondere für Änderungen im mittleren Abstand zu den Sauerstoffatomen. Im Vergleich zur EXAFS-Spektroskopie liefert XANES jedoch keine Informationen über die Form und Breite von Paarverteilungsfunktionen. Die Hochtemperatur EXAFS-Untersuchungen von Y zeigen Änderungen der lokalen Struktur oberhalb der Glasübergangstemperatur an, welche sich vordergründig auf eine thermisch induzierte Erhöhung des mittleren Y-O Abstandes zurückführen lassen. Allerdings zeigt ein Vergleich der Y-O Abstände für Zusammensetzungen mit einem ASI von 0.115 bzw. 0.755, ermittelt bei Raumtemperatur und TG, dass der im Glas beobachtete strukturelle Unterschied entlang der Zusammensetzungsserie in der Schmelze noch stärker ausfallen kann, als bisher für die Gläser angenommen wurde. Die direkte Korrelation der Verteilungsdaten von Prowatke und Klemme (2005) mit den strukturellen Änderungen der Schmelzen offenbart für Y eine lineare Korrelation, wohingegen Yb und Gd eine nicht lineare Beziehung zeigen. Aufgrund seines Ionenradius und seiner Ladung wird das 6-fach koordinierte SEE in den niedriger polymerisierten Schmelzen bevorzugt durch nicht-brückenbildende Sauerstoffatome koordiniert, um stabile Konfigurationen zu bilden. In den höher polymerisierten Schmelzen mit ASI-Werten in der Nähe von 1 ist 6-fache Koordination nicht möglich, da fast nur noch brückenbildende Sauerstoffatome zur Verfügung stehen. Die Überbindung von brückenbildenden Sauerstoffatomen um das SEE wird durch Erhöhung der Koordinationszahl und des mittleren SEE-O Abstandes ausgeglichen. Dies bedeutet eine energetisch günstigere Konfiguration in den stärker depolymerisierten Zusammensetzungen, aus welcher die beobachtete Variation des Verteilungskoeffizienten resultiert, welcher sich jedoch für jedes Element stark unterscheidet. Für die haplogranitischen und haplobasaltischen Zusammensetzungen wurde mit Zunahme der Polymerisierung auch eine Zunahme der Koordinationszahl und des durchschnittlichen Bindungsabstands, einhergehend mit der Zunahme der Schiefe und der Asymmetrie der Paarverteilungsfunktion, beobachtet. Dies impliziert, dass das jeweilige SEE mit Zunahme der Polymerisierung auch inkompatibler in diesen Zusammensetzungen wird. Weiterhin zeigt die Zugabe von Wasser, dass die Schmelzen depolymerisieren, was in einer symmetrischeren Paarverteilungsfunktion resultiert, wodurch die Kompatibilität wieder zunimmt. Zusammenfassend zeigt sich, dass die Veränderungen der Schmelzzusammensetzungen in einer Änderung der Polymerisierung der Schmelzen resultieren, die dann einen signifikanten Einfluss auf die lokale Umgebung der SEE hat. Die strukturellen Änderungen lassen sich direkt mit Verteilungsdaten korrelieren, die Trends unterscheiden sich aber stark zwischen leichten, mittleren und schweren SEE. Allerdings konnte diese Studie zeigen, in welcher Größenordnung die Änderungen liegen müssen, um einen signifikanten Einfluss auf den Verteilungskoeffizenten zu haben. Weiterhin zeigt sich, dass der Einfluss der Schmelzzusammensetzung auf die Verteilung der Spurenelemente mit Zunahme der Polymerisierung steigt und daher nicht vernachlässigt werden darf. N2 - Knowledge of the local structure around rare earth elements (REE) in silicate and aluminosilicate melts is of fundamental interest for the geochemistry of magmatic processes, particularly for comprehensive understanding of the partitioning processes of REE in magmatic systems. It is generally accepted that mineral-melt partitioning of REE’s is controlled by temperature, pressure, oxygen fugacity (in case of polyvalent cations) and crystal chemistry but less is known about the influence of the melt composition. The aim of this thesis is to establish a relationship between the variation of the REE distribution with the melt composition and the coordination chemistry of this REE in the melt. For this purpose, melt compositions used by Prowatke und Klemme (2005) which show a significant change in the partitioning coefficients between titanite and melt exclusively as a function of melt composition as well as haplogranitic and haplobasaltic melt compositions as a representative of the magmatic systems were doped with La , Gd , Yb and Y and synthesized as glass. The melt compositions systematically vary in aluminum saturationindex ( ASI ), from 0.115 to 0.768 for the Prowatke und Klemme (2005) compositions, from 0.935 to 1.785 for the the haplogranitic composition and from 0.368 to 1.010 for the haplobasaltic composition. Moreover, haplogranitic compositions were synthesized with 4 wt% H2O to study the influence of water on the local structure of REE. To gather information about the local structure of Gd, Yb and Y x-ray absorption spectroscopy was used. While extended x-ray absorption fine structure spectroscopy was used to gather quantitative information of the locale structure around the REE, resonate inelastic x-ray scattering (RIXS) and the extracted high resolution x-ray absorption near edge structure (XANES) was used to gather additional qualitative information on the local environment of La, Gd and Yb in the glasses. Additional high temperature in situ Y-EXAFS was performed to prove, if the local structure of Y above transition region (TG) corresponds to the local structure in the quenched melts. For the analysis of the EXAFS data a new histogram fit was used, which could describe a non-symmetric respectively non-Gauss-shape pair distribution function, as they may occur with a high degree of polymerization or at high temperatures. The results for Y in the Prowatke und Klemme (2005) compositions show an increase of the width and skewness of the Y-O pair distribution function with increasing polymerization, which goes along with an increase of the coordination number from 6 to 8 while average bond length increases by 0.13 Å. A similar trend is also observed for Gd- and Yb-EXAFS spectra. Furthermore, the high resolution XANES for La, Gd and Yb show that structural difference could be revealed, at least half qualitative, in particular for changes of the average bond length to the oxygen atoms. However, compared to the EXAFS method, this method does not provide information about the shape and width of pair distribution functions. The high temperature EXAFS investigation of Y reveal no significant changes in the local structure above TG except for the thermally induced increase in the average Y-O distance. A comparison of the Y-O distances for compositions with an ASI of 0.115 and 0.755 determined at room temperature and TG indicated that the structural changes in the glass along one composition series could be even stronger in the melts. The direct correlation of the partitioning coefficient from Prowatke und Klemme (2005) with the structural changes in the glass reveals for Y a linear correlation, whereas Yb and Gd show a nonlinear relationship. Because of its ionic radius and charge, the REE is preferably 6-fold coordinated by nonbridging oxygen in low polymerized melts to form stable configurations. In highly polymerized melts with an ASI close to 1, 6-fold coordination is not possible because almost only bridging oxygens are available. The over bonding of bridging oxygen atoms around the REE will be compensated via increasing coordination number and the average REE-O distance. This means that the configuration in the more depolymerized compositions is energetically more favorable, so that the observed variation of the partitioning coefficient results from these differences, which is eventually different for each element. For the haplogranitic and haplobasaltic compositions an increase of the skewness and the asymmetry of the pair distribution function with increase of polymerization of the melt was observed which result in an increase of the coordination number and average distance. This implies, that the respective REE is also getting more incompatible with the increase of the asymmetry in this compositions. Furthermore, the addition of water shows that the melts depolymerize, which resulted in a more symmetrical pair distribution function by which the compatibility increases again. Finally, the changes in melt composition result in a change of the polymerization of the melt, which has a significant impact on the local environment of the REE. The structural changes can be directly correlated with distribution data, but the trends differ significantly between light, medium and heavy REE. However, this study was able to show what structural change is required to have a significant impact on the partition coefficient. Furthermore, the influence of melt composition on the distribution of trace elements increase with increase of polymerization and should therefore not be neglected. KW - Geochemie KW - Spurenelementverteilung KW - lokale Struktur KW - Röntgenabsorptionspektroskopie KW - trace elements KW - local structure KW - x-ray absorption spectroscopy KW - asymmetric pair distribution function Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100932 ER - TY - THES A1 - Friedel, Eva T1 - Der Einfluss von Kognition und Stresserleben auf die Entscheidungsfindung und deren Rolle für Alkoholabhängigkeit T1 - The influence of stress and cognition on decision making and their relevance for alcohol use disorder N2 - Ziel der vorliegenden Arbeit ist es, belohnungsabhängiges (instrumentelles) Lernen und Entscheidungsfindungsprozesse auf Verhaltens- und neuronaler Ebene in Abhängigkeit von chronischem Stresserleben (erfasst über den Lifetime Stress Inventory, Holmes und Rahe 1962) und kognitiven Variablen (eingeteilt in eine fluide und eine kristalline Intelligenzkomponente) an gesunden Probanden zu untersuchen. Dabei steht zu Beginn die Sicherung der Konstruktvalidität zwischen den bislang oft synonym verwendeten Begriffen modellfrei ~ habituell, bzw. modellbasiert ~ zielgerichtet im Fokus. Darauf aufbauend soll dann insbesondere der differentielle und interaktionelle Einfluss von chronischem Stresserleben und kognitiven Variablen auf Entscheidungsprozesse (instrumentelles Lernen) und deren neuronales Korrelat im VS untersucht und dargestellt werden. Abschließend wird die Relevanz der untersuchten belohnungsabhängigen Lernprozesse für die Entstehung und Aufrechterhaltung der Alkoholabhängigkeit zusammen mit weiteren Einflussvariablen in einem Übersichtspapier diskutiert. N2 - The following thesis assessed instrumental learning on a behavioural and neuronal level with respect to the influence of chronic stress exposure (Lifetime Stress Inventory, Holmes und Rahe 1962) and cognition (fluid and crystallized IQ) in healthy subjects. In experimental psychology different experiments have been developed to assess goal–directed as compared to habitual control over instrumental decisions. More recently sequential decision-making tasks have been designed to assess the degree of goal-directed vs. habitual choice behavior in terms of an influential computational theory of model-based compared to model-free behavioral control. In the present thesis, a devaluation paradigm and a sequential decision-making task were used in a first step to address the question of construct validity when using the terms model-based vs goal-directed and model-free vs habitual behaviour. In a second step the differential influence of chronic stress exposure and fluid IQ on these decision making processes were assessed. In a last step we discussed the relevance of changes in decision making processes for the development and maintenance of Alcohol Use Disorder. KW - Lernen KW - Intelligenz KW - Stresserleben KW - learning and cognition KW - alcohol use disorder KW - fluid IQ and chronic stress exposure Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91609 ER - TY - THES A1 - Heybl, Christine T1 - Der Klimawandel T1 - Climate change BT - Warum wir die Verantwortung haben, die entstehenden Probleme gerecht zu lösen und warum wir es nicht tun! BT - Why do we have the responsibility to realize juste solution and why we do not do it! N2 - Was ist Gerechtigkeit? Wie könnten gerechte Regelungen aussehen für die Katastrophen und Leiden, die der Klimawandel auslöst bzw. auslösen wird? Diese sind häufig ungerecht, weil sie oft deutlich stärker diejenigen treffen, die am wenigsten zur Klimaveränderung beigetragen haben. Doch was genau verstehen wir unter dem Schlagwort: ‚Klimawandel‘? Und kann dieser wirklich den Menschen direkt treffen? Ein kurzer naturwissenschaftlicher Abriss klärt hier die wichtigsten Fragen. Da es sich hierbei um eine philosophische Arbeit handelt, muss zunächst geklärt werden, ob der Mensch überhaupt die Ursache von so etwas sein kann wie z.B. der Klimaerwärmung. Robert Spaemanns These dazu ist, dass der Mensch durch seinen freien Willen mit seinen Einzelhandlungen das Weltgeschehen verändern kann. Hans Jonas fügt dem hinzu, dass wir durch diese Fähigkeit, verantwortlich sind für die gewollten und ungewollten Folgen unserer Handlungen. Damit wäre aus naturwissenschaftlicher Sicht (1. Teil der Arbeit) und aus philosophischer Sicht (Anfang 2. Teil) geklärt, dass der Mensch mit größter Wahrscheinlichkeit die Ursache des Klimawandels ist und diese Verursachung moralische Konsequenzen für ihn hat. Ein philosophischer Gerechtigkeitsbegriff wird aus der Kantischen Rechts- und Moralphilosophie entwickelt, weil diese die einzige ist, die dem Menschen überhaupt ein Recht auf Rechte zusprechen kann. Diese entspringt der transzendentalen Freiheitsfähigkeit des Menschen, weshalb jedem das Recht auf Rechte absolut und immer zukommt. Gleichzeitig mündet Kants Philosophie wiederum in dem Freiheitsgedanken, indem Gerechtigkeit nur existiert, wenn alle Menschen gleichermaßen frei sein können. Was heißt das konkret? Wie könnte Gerechtigkeit in der Realität wirklich umgesetzt werden? Die Realisierung schlägt zwei Grundrichtungen ein. John Rawls und Stefan Gosepath beschäftigen sich u.a. eingehend mit der prozeduralen Gerechtigkeit, was bedeutet, dass gerechte Verfahren gefunden werden, die das gesellschaftliche Zusammenleben regeln. Das leitende Prinzip hierfür ist vor allem: ein Mitbestimmungsrecht aller, so dass sich im Prinzip alle Bürger ihre Gesetze selbst geben und damit frei handeln. In Bezug auf den Klimawandel steht die zweite Ausrichtung im Vordergrund – die distributive oder auch Verteilungs-Gerechtigkeit. Materielle Güter müssen so aufgeteilt werden, dass auch trotz empirischer Unterschiede alle Menschen als moralische Subjekte anerkannt werden und frei sein können. Doch sind diese philosophischen Schlussfolgerungen nicht viel zu abstrakt, um auf ein ebenso schwer fassbares und globales Problem wie den Klimawandel angewendet zu werden? Was könnte daher eine Klimagerechtigkeit sein? Es gibt viele Gerechtigkeitsprinzipien, die vorgeben, eine gerechte Grundlage für die Klimaprobleme zu bieten wie z.B. das Verursacherprinzip, das Fähigkeitsprinzip oder das Grandfathering-Prinzip, bei dem die Hauptverursacher nach wie vor am meisten emittieren dürfen (dieses Prinzip leitete die bisherigen internationalen Verhandlungen). Das Ziel dieser Arbeit ist, herauszufinden, wie die Klimaprobleme gelöst werden können, so dass für alle Menschen unter allen Umständen die universellen Menschenrechte her- und sichergestellt werden und diese frei und moralisch handeln können. Die Schlussfolgerung dieser Arbeit ist, dass Kants Gerechtigkeitsbegriff durch eine Kombination des Subsistenzemissions-Rechts, des Greenhouse-Development-Rights-Principles (GDR-Prinzip) und einer internationalen Staatlichkeit durchgesetzt werden könnte. Durch das Subsistenzemissions-Recht hat jeder Mensch das Recht, so viel Energie zu verbrauchen und damit zusammenhängende Emissionen zu produzieren, dass er ein menschenwürdiges Leben führen kann. Das GDR-Prinzip errechnet den Anteil an der weltweiten Gesamtverantwortung zum Klimaschutz eines jeden Landes oder sogar eines jeden Weltbürgers, indem es die historischen Emissionen (Klimaschuld) zu der jetzigen finanziellen Kapazität des Landes/ des Individuums (Verantwortungsfähigkeit) hinzuaddiert. Die Implementierung von internationalen Gremien wird verteidigt, weil es ein globales, grenzüberschreitendes Problem ist, dessen Effekte und dessen Verantwortung globale Ausmaße haben. Ein schlagendes Argument für fast alle Klimaschutzmaßnahmen ist, dass sie Synergien aufweisen zu anderen gesellschaftlichen Bereichen aufweisen wie z.B. Gesundheit und Armutsbekämpfung, in denen auch noch um die Durchsetzung unserer Menschenrechte gerungen wird. Ist dieser Lösungsansatz nicht völlig utopisch? Dieser Vorschlag stellt für die internationale Gemeinschaft eine große Herausforderung dar, wäre jedoch die einzig gerechte Lösung unserer Klimaprobleme. Des Weiteren wird an dem Kantischen Handlungsgrundsatz festgehalten, dass das ewige Streben auf ideale Ziele hin, die beste Verwirklichung dieser durch menschliche, fehlbare Wesen ist. N2 - What is justice? What could be fair regulations concerning the catastrophes and the suffering that will be evoked/are already evoked by climate change? These are often unfair, because they strike most likely the people who contributed the less to climate warming. But what do we mean with the term ‘climate change’? Can this phenomenon really strike human beings directly? A short scientific introduction explains the most important questions. Like this is a philosophical analysis, there has to be clarified if mankind can be the origin of something like global warming. The statement of Robert Spaemann is that a person can change the world affairs by a single action. Hans Jonas adds to this that this capacity imposes us the responsibility for the wanted and the unwanted effects of our action. With this first part of the work (scientific introduction) and the beginning of the second part (philosophical part) it is proved that human beings can be the reason for climate change and that this causation has a moral impact on them. I extracted a philosophical term of ‘justice’ out of the moral theory of Immanuel Kant because to my mind, this is the only philosophical and scientific approach which is able to grant us a right of rights. The right of rights belongs absolutely and under every circumstance to every person because it originates in the transcendental capacity of freedom of human beings. At the same time it ends up in the thought of freedom like justice can only exist if every human being can be free. What does this mean precisely? How could justice be implemented in the reality? The realization drives in two principal directions. John Rawls and Stefan Gosepath examined thoroughly the procedural justice that means that fair procedures have to be found to organize the living together in a society. The main principle here above all is the participation of decision making of all members of the society like that everybody could have decided the rules himself. Therefore everybody acts after his own decisions and freely. Concerning climate change, the second possibility of justice is more crucial – the justice of distribution. Material goods have to be allocated the way that all people can be acknowledged as moral subjects. Likewise everybody can be free despite of empirical differences. But are these philosophical conclusions not way to abstract to be applied for a complex and global problem like climate change? What could be a concrete climate justice? There are a lot of principles of justice that are supposed to give a fair basis within the sector of climate problems like the polluter-pays-principle, the ability-to-pay-principle, the grandfathering-principle. The last one allows the main polluters to still emit the majority of the worldwide emissions in the future. This view of orientation led mainly all the international negotiations in the past. The aim of this thesis is to find out how climate problems can be solved the way that every person can be assured of his basic human rights. Consequently everybody would have the possibility to act freely and morally. The conclusion of this written work is that the meaning of justice in the sense of the Kantian theory can be realized by a combination of the subsistence emissions right, the greenhouse-development-rights-principles (GDR-principle) and international institutions. The subsistence emissions right guaranties every person the right to use as much energy and therefore produce as many emissions, the person needs to lead a dignified life. The GDR-principle faces the worldwide responsibility to mitigate climate change and calculates the portion of responsibility of each country or even of each citizen. It does this by adding the quantity of historical emissions (the climate debt) to the current financial capacity of each country or citizen (responsibility). The implementation of international committees is necessary because climate warming is a global, boarder passing problem which possible solutions have inadvertently global dimensions. A crucial argument for nearly all mitigation measures is that they almost always offer synergetic effects to other social sectors like health or the fight against global poverty which demand as well urgently the enforcement of our basic human rights. But is this solution not totally idealistic? This proposition would pose a big challenge to the international community. At the same time it is the only fair solution to climate change for all human beings. Furthermore and eventually, we have to focus on the Kantian solution that the eternal striving towards this idealization is the best way human fallible beings can achieve to realize utopic solutions. KW - Klimawandel KW - Gerechtigkeit KW - Immanuel Kant KW - GDR-Prinzip KW - Klimaerwärmung KW - climate change KW - climate warming KW - Immanuel Kant KW - GDR-principle KW - justice Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102442 ER - TY - THES A1 - Semmo, Amir T1 - Design and implementation of non-photorealistic rendering techniques for 3D geospatial data T1 - Design und Implementierung von nichtfotorealistischen Rendering-Techniken für 3D-Geodaten N2 - Geospatial data has become a natural part of a growing number of information systems and services in the economy, society, and people's personal lives. In particular, virtual 3D city and landscape models constitute valuable information sources within a wide variety of applications such as urban planning, navigation, tourist information, and disaster management. Today, these models are often visualized in detail to provide realistic imagery. However, a photorealistic rendering does not automatically lead to high image quality, with respect to an effective information transfer, which requires important or prioritized information to be interactively highlighted in a context-dependent manner. Approaches in non-photorealistic renderings particularly consider a user's task and camera perspective when attempting optimal expression, recognition, and communication of important or prioritized information. However, the design and implementation of non-photorealistic rendering techniques for 3D geospatial data pose a number of challenges, especially when inherently complex geometry, appearance, and thematic data must be processed interactively. Hence, a promising technical foundation is established by the programmable and parallel computing architecture of graphics processing units. This thesis proposes non-photorealistic rendering techniques that enable both the computation and selection of the abstraction level of 3D geospatial model contents according to user interaction and dynamically changing thematic information. To achieve this goal, the techniques integrate with hardware-accelerated rendering pipelines using shader technologies of graphics processing units for real-time image synthesis. The techniques employ principles of artistic rendering, cartographic generalization, and 3D semiotics—unlike photorealistic rendering—to synthesize illustrative renditions of geospatial feature type entities such as water surfaces, buildings, and infrastructure networks. In addition, this thesis contributes a generic system that enables to integrate different graphic styles—photorealistic and non-photorealistic—and provide their seamless transition according to user tasks, camera view, and image resolution. Evaluations of the proposed techniques have demonstrated their significance to the field of geospatial information visualization including topics such as spatial perception, cognition, and mapping. In addition, the applications in illustrative and focus+context visualization have reflected their potential impact on optimizing the information transfer regarding factors such as cognitive load, integration of non-realistic information, visualization of uncertainty, and visualization on small displays. N2 - Geodaten haben sich zu einem natürlichen Bestandteil in einer steigenden Zahl von Informationssystemen und -diensten in der Wirtschaft, Gesellschaft und im Privatleben entwickelt. Virtuelle 3D-Stadt- und Landschaftsmodelle stellen hierbei insbesondere wertvolle Informationsquellen in einer Vielzahl von Anwendungen dar, wie z. B. in der Stadtplanung, Navigation, Touristeninformation und im Katastrophenschutz. Heutzutage werden diese Modelle oftmals detailliert dargestellt, um ein möglichst realistisches Bild zu vermitteln. Jedoch führt eine fotorealistische Darstellung, hinsichtlich einem effektiven Informationstransfer zum Betrachter, nicht zwangsläufig zu einer hohen Bildqualität, welche eine interaktive und kontextsensitive Hervorhebung von wichtigen oder priorisierten Informationen erfordert. Ansätze in der nichtfotorealistischen Bildsynthese berücksichtigen insbesondere die Aufgabe eines Nutzers und Kameraperspektive, um Aspekte der Expressivität, Wahrnehmung und Kommunikation von wichtigen oder priorisierten Informationen zu optimieren. Das Design und die Umsetzung von Techniken der nichtfotorealistischen Bildsynthese für 3D-Geodaten sind jedoch mit einer Vielzahl von Herausforderungen konfrontiert, besonders dann, wenn die Geometrie, das Erscheinungsbild und thematische Daten interaktiv verarbeitet werden müssen. Infolgedessen stellt die programmierbare Architektur und parallelisierte Datenverarbeitung von Grafik-prozessoren eine vielversprechende technische Grundlage zur Verfügung. Diese Arbeit präsentiert Techniken der nichtfotorealistischen Bildsynthese, die den Abstraktionsgrad von Inhalten raumbezogener 3D-Modelle, entsprechend der Nutzerinteraktion und dynamisch-veränderbaren thematischen Informationen, berechnet und auswählt. Hierzu sind die vorgestellten Techniken in die hardwarebeschleunigte Rendering-Pipeline integriert, unter Verwendung der Shader-Technologie von Grafikprozessoren, um eine Echtzeit-Bildsynthese zu gewährleisten. Dabei werden Prinzipien der künstlerischen Darstellung, Aspekte der kartographischen Generalisierung sowie 3D Semiotik verwendet—im Gegensatz zur fotorealistischen Bildsynthese—um illustrative Darstellungen von raumbezogenen Feature-Typ-Entitäten zu synthetisieren, z. B. von Wasserflächen, Gebäuden und Infrastrukturnetzen. Darüber hinaus stellt diese Arbeit ein generisches System vor, welches die Integration verschiedener Grafikstile—fotorealistisch und nichtfotorealistisch—und ihren nahtlosen Übergang, entsprechend von Nutzeraufgaben, Kameraansichten und Bildauflösungen, ermöglicht. Evaluierungen der in dieser Arbeit vorgestellten Techniken haben ihre Bedeutung im Bereich der Informationsvisualisierung von raumbezogenen Daten aufgezeigt, einschließlich Themengebiete der räumlichen Wahrnehmung, Kognition und Kartierung. Darüber hinaus haben Anwendungen im Bereich der illustrativen Visualisierung und Fokus-&-Kontext Visualisierung den potentiellen Einfluss dieser Techniken, in Bezug auf die Optimierung des Informationstransfers zum Nutzer, demonstriert, z. B. hinsichtlich der kognitiven Last, der Integration nichtrealistischer Informationen, der Visualisierung von Unsicherheiten und der Visualisierung auf kleinen Bildschirmen. KW - non-photorealistic rendering KW - geospatial data KW - 3D visualization KW - GPU KW - image processing KW - stylization KW - 3D semiotics KW - cartographic design KW - Nichtfotorealistische Bildsynthese KW - Geodaten KW - 3D Visualisierung KW - GPU KW - Bildverarbeitung KW - Stilisierung KW - 3D Semiotik KW - Kartografisches Design Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-99525 ER - TY - THES A1 - Herenz, Edmund Christian T1 - Detecting and understanding extragalactic Lyman α emission using 3D spectroscopy T1 - Detektion und Interpretation extragalaktischer Lyman Alpha Emission mittels 3D Spektroskopie N2 - In this thesis we use integral-field spectroscopy to detect and understand of Lyman α (Lyα) emission from high-redshift galaxies. Intrinsically the Lyα emission at λ = 1216 Å is the strongest recombination line from galaxies. It arises from the 2p → 1s transition in hydrogen. In star-forming galaxies the line is powered by ionisation of the interstellar gas by hot O- and B- stars. Galaxies with star-formation rates of 1 - 10 Msol/year are expected to have Lyα luminosities of 42 dex - 43 dex (erg/s), corresponding to fluxes ~ -17 dex - -18 dex (erg/s/cm²) at redshifts z~3, where Lyα is easily accessible with ground-based telescopes. However, star-forming galaxies do not show these expected Lyα fluxes. Primarily this is a consequence of the high-absorption cross-section of neutral hydrogen for Lyα photons σ ~ -14 dex (cm²). Therefore, in typical interstellar environments Lyα photons have to undergo a complex radiative transfer. The exact conditions under which Lyα photons can escape a galaxy are poorly understood. Here we present results from three observational projects. In Chapter 2, we show integral field spectroscopic observations of 14 nearby star-forming galaxies in Balmer α radiation (Hα, λ = 6562.8 Å). These observations were obtained with the Potsdam Multi Aperture Spectrophotometer at the Calar-Alto 3.5m Telescope}. Hα directly traces the intrinsic Lyα radiation field. We present Hα velocity fields and velocity dispersion maps spatially registered onto Hubble Space Telescope Lyα and Hα images. From our observations, we conjecture a causal connection between spatially resolved Hα kinematics and Lyα photometry for individual galaxies. Statistically, we find that dispersion-dominated galaxies are more likely to emit Lyα photons than galaxies where ordered gas-motions dominate. This result indicates that turbulence in actively star-forming systems favours an escape of Lyα radiation. Not only massive stars can power Lyα radiation, but also non-thermal emission from an accreting super-massive black hole in the galaxy centre. If a galaxy harbours such an active galactic nucleus, the rate of hydrogen-ionising photons can be more than 1000 times higher than that of a typical star-forming galaxy. This radiation can potentially ionise large regions well outside the main stellar body of galaxies. Therefore, it is expected that the neutral hydrogen from these circum-galactic regions shines fluorescently in Lyα. Circum-galactic gas plays a crucial role in galaxy formation. It may act as a reservoir for fuelling star formation, and it is also subject to feedback processes that expel galactic material. If Lyα emission from this circum-galactic medium (CGM) was detected, these important processes could be studied in-situ around high-z galaxies. In Chapter 3, we show observations of five radio-quiet quasars with PMAS to search for possible extended CGM emission in the Lyα line. However, in four of the five objects, we find no significant traces of this emission. In the fifth object, there is evidence for a weak and spatially quite compact Lyα excess at several kpc outside the nucleus. The faintness of these structures is consistent with the idea that radio-quiet quasars typically reside in dark matter haloes of modest masses. While we were not able to detect Lyα CGM emission, our upper limits provide constraints for the new generation of IFS instruments at 8--10m class telescopes. The Multi Unit Spectroscopic Explorer (MUSE) at ESOs Very Large Telescopeis such an unique instrument. One of the main motivating drivers in its construction was the use as a survey instrument for Lyα emitting galaxies at high-z. Currently, we are conducting such a survey that will cover a total area of ~100 square arcminutes with 1 hour exposures for each 1 square arcminute MUSE pointing. As a first result from this survey we present in Chapter 5 a catalogue of 831 emission-line selected galaxies from a 22.2 square arcminute region in the Chandra Deep Field South. In order to construct the catalogue, we developed and implemented a novel source detection algorithm -- LSDCat -- based on matched filtering for line emission in 3D spectroscopic datasets (Chapter 4). Our catalogue contains 237 Lyα emitting galaxies in the redshift range 3 ≲ z ≲ 6. Only four of those previously had spectroscopic redshifts in the literature. We conclude this thesis with an outlook on the construction of a Lyα luminosity function based on this unique sample (Chapter 6). N2 - In der vorliegenden Doktorarbeit präsentieren wir Resultate aus drei integralfeldspektroskopischen Beobachtungskampagnen die mit der Intention Lyman α (Lyα) Strahlung von hoch-rotverschobenen Galaxien zu detektieren und zu verstehen durchgeführt wurden. Die Lyα Emissionslinie im ultravioletten Teil des elektromagnetischen Spektrums (λ = 1216 Å) ist intrinsisch die stärkste Rekombinationslinie im Linienspektrum sternbildender Galaxien. Die Linie ist eine Folge der Ionisation des interstellaren Gases durch heiße O- und B- Sterne. Man erwartet von Galaxien mit Sternentstehungsraten 1 - 10 Msol/Jahr intrinsische Lyα Leuchtkräfte von 42 dex - 43 dex (erg/s), was bei Rotverschiebungen von z~3, bei denen Lyα mit bodengebundenen Teleskopen zu beobachten ist, einem Strahlungsstrom von ~ -17 dex - -18 dex (erg/s/cm²) entspricht. Allerdings werden nicht von allen sternbildenen Galaxien derartige Lyα Strahlungsströme gemessen. Dies ist in erster Linie eine direkte Konsequenz des hohen Absorptionsquerschnitts von neutralem Wasserstoff für Lyα Photonen. Deshalb erfahren Lyα Photonen einen komplexen Strahlungstransportprozess in typischen interstellaren Umgebungen. Die exakten Bedingungen bei denen Lyα Strahlung eine Galaxie verlassen sind noch nicht hinreichend gut verstanden. Diesbezüglich werden in Kapitel 2 dieser Arbeit integralfeldspektroskopische Beobachtungsergebnisse der Balmer α Strahlung (Hα, λ = 6562.8 Å) von 14 nahen sternbildenden Galaxien gezeigt. Die Beobachtungsdaten wurden mit dem Potsdam Multi Aperture Spectrophotometer (PMAS) am Calar Alto 3.5m Teleskop gewonnen. Hα Strahlung ist eine direkte Kopie des intrinischen Lyα Strahlungsfeldes der Galaxien. Wir zeigen unsere Hα Geschwindigkeitsfelder und Geschwindigkeitsdispersionsfelder räumlich überlagert zu Hubble-Weltraumteleskop-Bildaufnahmen der Lyα und Hα Strahlungsströme. Aus diesen Beobachtungen können wir schlussfolgern, dass in einigen Galaxien kausale Zusammenhänge zwischen der Hα-Kinematik und der Lyα-Photometrie bestehen. Statistisch signifikant finden wir, dass Galaxien, bei denen chaotische Dispersionsbewegungen dominieren, wahrscheinlicher Lyα Strahlung abgeben als Galaxien bei denen die Gasbewegungen durch geordnete Bewegungen dominiert sind. Dieses Resultat ist ein Indiz dafür, dass Turbulenz im interstellaren Medium aktiv sternbildender Galaxien schafft, welche ein Austreten der Lyα-Strahlung begünstigen. Neben massereichen Sternen kann nicht-thermische Strahlung eines akretierenden supermassereichen schwarzen Loches eine weitere Energiequelle zur Erzeugung von Lyα Strahlung sein. Wenn eine Galaxie einen solchen aktiven Galaxienkern enthält, kann die Rate der ionisierenden Photonen 1000-mal höher sein als bei einer normalen sternbildenden Galaxie. Diese Strahlung hat das Potential große Bereiche weit ausserhalb der Sternansammlungen der Galaxien zu ionisieren. Deshalb ist zu erwarten, dass der neutrale Wasserstoff in diesen zirkum-galaktischen Gebieten in Lyα-Strahlung fluoresziert. Dieses zirkum-galaktische Gas spielt eine wesentliche Rolle bei der Entwicklung von Galaxien. Zum Einen ist es das Reservoir aus denen Sternentstehungsprozesse ihr Gas beziehen, zum Anderen ist es Wechselwirkungsprozessen ausgesetzt, bei denen Gas aus der Galaxie hinausgeschleudert wird. Wenn Lyα-Strahlung dieses zirkum-galaktischen Mediums detektiert werden könnte, ließen sich diese fundamentalen Prozesse der Galaxienentwicklung detaillierter studieren. In Kapitel 3 dieser Arbeit zeigen wir PMAS Beobachtungsdaten von 5 radio-leisen Quasaren in denen wir nach dieser ausgedehnten Lyα-Strahlung gesucht haben. Jedoch haben wir für 4 unserer Quasare keine signifikanten Spuren dieser ausgedehnten Strahlung entdecken können. Im fünften Objekt finden wir in Entfernung von einigen Kiloparsec zum Kern Anzeichen für eine schwache und räumlich eher kompakte Quelle. Deartig schwache Flüsse von solchen Strukturen erscheinen konsistent mit der Annahme, dass radio-leise Quasare sich in Halos aus dunkler Materie mit eher moderaten Massen befinden. Obwohl wir nicht direkt Lyα-Strahlung vom zirkum-galaktischen Medium detektieren konnten, sind unsere Detektionsgrenzen von Nutzem bei der Planung von diesbezüglichen Beobachtungen mit der neuen Generation von Integralfeldspektrographen an 8--10m Teleskopen. Ein derartiges Instrument ist der Multi Unit Spectroscopic Explorer (MUSE) am ESO Very Large Telescope. Einer der Hauptbeweggründe für dessen Konstruktion war die Verwendung als Durchmusterungsinstrument für Lyα emittierende Galaxien bei hohen Rotverschiebungen. Aktuell führen wir eine derartige Durchmusterungskampagne durch. Nach deren Abschluss, werden wir eine Fläche von 100 Quadratbogenminuten durchmustert haben. In Kapitel 5 dieser Arbeit präsentieren wir als erstes Resultat einen Katalog von 831 Emissionslinienselektierten Galaxien in einer 22.2 Quadratbogenminuten großen Region im Chandra Deep Field South. Um diesen Katalog zu erzeugen, haben wir eine neuartige Quellendetektionsmethode für integralfeldspektroskopische Datensätze entwickelt und implementiert (Kapitel 4). Unser Katalog enthält 237 Lyα emittierende Galaxien bei Rotverschiebungen 3 ≲ z ≲ 6. Aufgrund ihrer geringen Kontinuumsflussdichten existierten zuvor nur von 4 dieser Galaxien spektroskopische Rotverschiebungen. Als Abschluss dieser Arbeit präsentieren wir einen Ausbick bezüglich der Konstruktion einer Leuchtkraftfunktion dieser einzigartigen Lyα Galaxienstichprobe (Kapitel 6). KW - astrophysics KW - galaxies KW - high redshift galaxies KW - integral field spectroscopy KW - quasars KW - Astrophysik KW - Galaxien KW - Galaxien bei hoher Rotverschiebung KW - Integralfeldspektroskopie KW - Quasare Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102341 ER - TY - THES A1 - Kaltschew, Kristian T1 - Die politische Opposition in autoritären Regimen T1 - Political Opposition in Authoritarian Regimes BT - das Beispiel Kenia 1990-2005 BT - the Case of Kenya 1990-2005 N2 - Die Empirie des beginnenden 21. Jahrhunderts weist mehr autoritäre Regime aus als am Ende des 20. Jahrhunderts angenommen. Die gegenwärtige Autoritarismusforschung versucht die Fortdauer dieses Regimetyps in Hinblick auf die politischen Institutionen zu erklären – dabei bleiben politische Akteure, die nicht zum Herrschaftszentrum gehören, außen vor. Das vorliegende Projekt untersucht die Rolle und Funktion politischer Opposition in autoritären Regimen. Es wird davon ausgegangen, dass sich an der Opposition eine signifikante Charakteristik autoritärer Regime manifestiert. Das akteurszentrierte Projekt ist der qualitativ orientierten Politikwissenschaft zuzurechnen und verknüpft das Autoritarismuskonzept von Juan Linz mit klassischen Ansätzen der Oppositionsforschung und macht diese Theorien für die gegenwärtige Autoritarismusforschung nutzbar. Die eigens entwickelte elitenorientierte Oppositionstypologie wird am Beispiel Kenias im Zeitraum 1990-2005 angewendet. Die Oppositionsgruppen werden im Institutionengefüge autoritärer Regime verortet und ihr politisches Agieren in den Dimensionen Handlungsstatus, Handlungsüberzeugung und Handlungsstrategie analysiert. Unter Beachtung der historisch gewachsenen regionalen und kulturellen Spezifika wird angenommen, dass generelle, Regionen übergreifende Aussagen zur Opposition in autoritären Regimen getroffen werden können: Kein Oppositionstyp kann allein einen Herrschaftswechsel bewirken. Der Wechsel bzw. die Fortdauer der Herrschaft hängt von der Dominanz bestimmter Oppositionstypen im Oppositionsgeflecht sowie der gleichzeitigen Schwäche anderer Oppositionstypen ab. Durch die konzeptionelle Beschäftigung mit Opposition sowie deren empirische Erschließung soll ein substantieller Beitrag für die notwendige Debatte um autoritäre Regime im 21. Jahrhundert geleistet werden. N2 - Empirically, at the dawn of the new millennium, more authoritarian regimes are in existence than generally assumed at the end of the 20th century. Current research on authoritarianism seeks to explain the persistence of this type of regime via political institutions; however, political actors who do not belong to the center of power are often ignored. The project at hand examines the role and functioning of political opposition in authoritarian regimes, based on the assumption that opposition constitutes for a significant characteristic of this regime type. Putting a focus on political actors, the project applies a qualitative research method and aims at combining Juan Linz´ concept of authoritarianism with classical approaches of opposition studies, thus contributing to the general state of the art research on authoritarianism. A specifically developed opposition typology based on political elites is applied to the case of Kenya 1990-2005. Oppositional groups are placed within the institutional framework of authoritarian regimes while their political actions are analyzed along three dimensions: status, belief and strategy. While taking historically developed regional and cultural characteristics into account, I assume that the following findings are not limited to one particular region but may be globally applied to opposition in authoritarian regimes: No type of opposition can initiate power transition on its own. Persistence as well as change of rulership depend on the dominance of certain opposition types within the oppositional setting with others being particularly weak at the same time. By examining opposition conceptually and empirically, the project aims at making an essential contribution to the debate on authoritarian regimes in the 21st century. KW - Opposition KW - autoritäre Regime KW - Autoritarismus KW - Kenia KW - opposition KW - authoritarian regimes KW - Kenya KW - authoritarianism Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103930 ER - TY - THES A1 - Şener, Ulaş T1 - Die relative Autonomie der Zentralbank BT - Eine politökonomische Analyse der türkischen Geldpolitik nach 2001 T2 - Potsdam Economic Studies N2 - Die vorliegende Arbeit untersucht die Politik der Zentralbankunabhängigkeit (ZBU) am Beispiel der Türkei. Im Mittelpunkt der Arbeit stehen theoretische und empirische Fragen und Probleme, die sich im Zusammenhang mit der ZBU stellen und anhand der türkischen Geldpolitik diskutiert werden. Ein zentrales Ziel der Arbeit besteht darin, zu untersuchen, ob und inwiefern die türkische Zentralbank nach Erlangung der de jure institutionellen Unabhängigkeit tatsächlich als unabhängig und entpolitisiert eingestuft werden kann. Um diese Forschungsfrage zu beantworten, werden die institutionellen Bedingungen, die Ziele und die Regeln, nach denen sich die türkische Geldpolitik richtet, geklärt. Anschließend wird empirisch überprüft, ob die geldpolitische Praxis der CBRT sich an dem offiziell vorgegebenen Regelwerk orientiert. Die Hauptthese dieser Arbeit lautet, dass die formelle Unabhängigkeit der CBRT und die regelorientierte Geldpolitik nicht mit einer Entpolitisierung der Geldpolitik in der Türkei gleichzusetzen ist. Als Alternative schlägt die vorliegende Studie vor, den institutionellen Status der CBRT als einen der relativen Autonomie zu untersuchen. Auch eine de jure unabhängige Zentralbank kann sich nicht von politischen Eingriffen abkoppeln, wie das Fallbeispiel Türkei zeigen wird. N2 - This book examines the relationship between central bank independence and monetary policy in Turkey with a political economic approach. Focusing on the Turkish example, it addresses the theoretical and empirical questions that arise in connection with central bank independence. It analyses the Turkish central bank's institutional statue and its implications for monetary policy since its formal independence in 2001. The main outcome is that Turkey's central bank cannot be regarded as an independent and depoliticized monetary institution, not least due to the high political pressure the ruling Justice and Development Party was able to put on monetary policy decision, especially after the global financial crises 2007-08. The book investigates further domestic and international political economic conditions and developments in regards to the exertion of influence on the Turkish monetary policy. The case of Turkey shows that even a formally independent central bank is unable to detach itself from political interference, in spite of a strong ideology of de-politicized monetary policy. To conceptually grasp this outcome the present title proposes an understanding of the CBRT’s institutional status as one of ‘relative autonomy’. T3 - Potsdam Economic Studies - 5 KW - Geldpolitik KW - Zentralbankunabhängigkeit KW - Türkei KW - relative Autonomie KW - politische Ökonomie KW - monetary policy KW - central bank independence KW - Turkey KW - relative autonomy KW - political economy Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88856 SN - 978-3-86956-362-6 SN - 2196-8691 SN - 2196-9302 VL - 5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Audörsch, Stephan T1 - Die Synthese von (2Z,4E)-Diencarbonsäureestern und ihre Anwendung in der Totalsynthese von Polyacetylenen T1 - Synthesis of (2Z,4E)-dienoic acid ester and their application in the total synthesis of natural occurring polyacetylenes N2 - Z,E-Diene sind ein häufig auftretendes Strukturmerkmal in Naturstoffen. Aus diesem Grund ist die einfache Darstellung dieser Struktureinheit von großen Interesse in der organischen Chemie. Das erste Ziel der vorliegenden Arbeit war daher die Weiterentwicklung der Ringschlussmetathese-/ baseninduzierten Ringöffnungs-/ Veresterungssequenz (RBRV-Sequenz) zur Synthese von (2Z,4E)-Diencarbonsäureethylestern ausgehend von Butenoaten. Dazu wurde zunächst die RBRV-Sequenz optimiert. Diese aus drei Schritten bestehende Sequenz konnte in einem Eintopf-Verfahren angewendet werden. Die Ringschlussmetathese gelang mit einer Katalysatorbeladung von 1 mol% des GRUBBS-Katalysators der zweiten Generation in Dichlormethan. Für die baseninduzierte Ringöffnung des β,γ-ungesättigten δ Valerolactons wurde NaHMDS verwendet. Die Alkylierung der Carboxylatspezies gelang mit dem MEERWEIN-Reagenz. Die Anwendbarkeit der Sequenz wurde für verschiedene Substrate demonstriert. Die Erweiterung der Methode auf α-substituierte Butenoate unterlag starken Einschränkungen. So konnte der Zugang für α Hydroxyderivate realisiert werden. Bei der Anwendung der RBRV-Sequenz auf die α-substituierten Butenoate wurde festgestellt, dass diese sich nur in moderaten Ausbeuten umsetzen ließen und zudem nicht selektiv zu den (2E,4E)-konfigurierten α-substituierten-Dienestern reagierten. Der Einsatz von Eninen unter den Standardbedingungen der RBRV-Sequenz gelang nicht. Erst nach Modifizierung der Sequenz (höhere Katalysatorbeladung, Wechsel des Lösungsmittels) konnten die [3]Dendralen-Produkte in geringen Ausbeuten erhalten werden. Im zweiten Teil der Arbeit wurde der Einsatz von (2Z,4E)-Diencarbonsäureethylestern in der Totalsynthese von Naturstoffen untersucht. Dazu wurden zunächst die Transformationsmöglichkeiten der Ester geprüft. Es konnte gezeigt werden, dass sich (2Z,4E)-Diencarbonsäureethylester insbesondere zur Synthese von (2Z,4E)-Aldehyden sowie zum Aufbau der (3Z,5E)-Dien-1-in-Struktur eignen. Anhand dieser Ergebnisse wurde im Anschluss die RBRV-Sequenz in der Totalsynthese eingesetzt. Dazu wurde zunächst der (2Z,4E)-Dienester Microsphaerodiolin in seiner ersten Totalsynthese auf drei verschiedene Routen hergestellt. Im Anschluss wurden sechs verschiedene Polyacetylene mit einer (3Z,5E)-Dien-1-in-Einheit hergestellt. Schlüsselschritte in ihrer Synthese waren immer die RBRV-Sequenz zum Aufbau der Z,E-Dien-Einheit, die Transformation des Esters in ein terminales Alkin sowie die CADIOT-CHODKIEWICZ-Kupplung zum Aufbau unsymmetrischer Polyine. Alle sechs Polyacetylene wurden zum ersten Mal in einer Totalsynthese synthetisiert. Drei Polyacetylene wurden ausgehend von (S)-Butantriol enantiomerenrein dargestellt. Anhand ihrer Drehwerte konnte eine Revision der von YAO und Mitarbeitern vorgenommen Zuordnung der Absolutkonfiguration der Naturstoffe vorgenommen werden. N2 - Z,E-Dienes are a common motif in natural products. Therefore their simple preparation is of high interest. The first part of this work focuses on the improvement of the one-pot sequence “RBRV” consisting of three steps: ring closing metathesis, base induced ring opening and esterification of butenoates. This method yields (2Z,4E) dienoic acid esters. As optimized conditions were found the use of Grubbs catalysts 2nd Generation in dichloromethane, NaHMDS as base and Meerwein’s reagent as alkylating agent. The extension of this method on α-substituted butenoates was subject to many restrictions. The synthesis of precursors was realized for α-hydroxy derivates only. Application of these substrates in the RBRV sequence gave the desired products in moderate yield and diminished selectivity. The use of enines was demonstrated as well. For these substrates changes of the conditions were necessary. The products, [3]dendralenes, were obtained in low yield and excellent selectivity. The second part of this thesis focuses on the application of the RBRV-sequence in the total synthesis of natural products with a Z,E-diene unit. For this purpose it was demonstrated how the ester function can be transformed. As result it was shown that especially Z,E-diene-alkynes can be easily synthesized from Z,E-diene esters. Based on these results the RBRV was used in the synthesis of some natural products. These include Microsphaerodiolin, Atractylodemayne A, C and F as well as three other, unnamed, polyacetylenes. All of them have been synthesized for the first time. Three of them were synthesized in enatioselective manner utilizing enantiopure 1,2,4-butane triole as starting material. KW - Polyacetylene KW - Totalsynthese KW - 2Z,4E-Diencarbonsäureester KW - organische Chemie KW - polyacetylenes KW - total synthesis KW - organic chemistry Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-92366 ER - TY - THES A1 - Dick, Uwe T1 - Discriminative Classification Models for Internet Security T1 - Diskriminative Klassifikationsmodelle in der Internet-Sicherheit BT - Mitigating Email Spam and HTTP-Layer DDoS Attacks BT - Verhindern von Email-Spam und HTTP-Layer DDoS-Attacken N2 - Services that operate over the Internet are under constant threat of being exposed to fraudulent use. Maintaining good user experience for legitimate users often requires the classification of entities as malicious or legitimate in order to initiate countermeasures. As an example, inbound email spam filters decide for spam or non-spam. They can base their decision on both the content of each email as well as on features that summarize prior emails received from the sending server. In general, discriminative classification methods learn to distinguish positive from negative entities. Each decision for a label may be based on features of the entity and related entities. When labels of related entities have strong interdependencies---as can be assumed e.g. for emails being delivered by the same user---classification decisions should not be made independently and dependencies should be modeled in the decision function. This thesis addresses the formulation of discriminative classification problems that are tailored for the specific demands of the following three Internet security applications. Theoretical and algorithmic solutions are devised to protect an email service against flooding of user inboxes, to mitigate abusive usage of outbound email servers, and to protect web servers against distributed denial of service attacks. In the application of filtering an inbound email stream for unsolicited emails, utilizing features that go beyond each individual email's content can be valuable. Information about each sending mail server can be aggregated over time and may help in identifying unwanted emails. However, while this information will be available to the deployed email filter, some parts of the training data that are compiled by third party providers may not contain this information. The missing features have to be estimated at training time in order to learn a classification model. In this thesis an algorithm is derived that learns a decision function that integrates over a distribution of values for each missing entry. The distribution of missing values is a free parameter that is optimized to learn an optimal decision function. The outbound stream of emails of an email service provider can be separated by the customer IDs that ask for delivery. All emails that are sent by the same ID in the same period of time are related, both in content and in label. Hijacked customer accounts may send batches of unsolicited emails to other email providers, which in turn might blacklist the sender's email servers after detection of incoming spam emails. The risk of being blocked from further delivery depends on the rate of outgoing unwanted emails and the duration of high spam sending rates. An optimization problem is developed that minimizes the expected cost for the email provider by learning a decision function that assigns a limit on the sending rate to customers based on the each customer's email stream. Identifying attacking IPs during HTTP-level DDoS attacks allows to block those IPs from further accessing the web servers. DDoS attacks are usually carried out by infected clients that are members of the same botnet and show similar traffic patterns. HTTP-level attacks aim at exhausting one or more resources of the web server infrastructure, such as CPU time. If the joint set of attackers cannot increase resource usage close to the maximum capacity, no effect will be experienced by legitimate users of hosted web sites. However, if the additional load raises the computational burden towards the critical range, user experience will degrade until service may be unavailable altogether. As the loss of missing one attacker depends on block decisions for other attackers---if most other attackers are detected, not blocking one client will likely not be harmful---a structured output model has to be learned. In this thesis an algorithm is developed that learns a structured prediction decoder that searches the space of label assignments, guided by a policy. Each model is evaluated on real-world data and is compared to reference methods. The results show that modeling each classification problem according to the specific demands of the task improves performance over solutions that do not consider the constraints inherent to an application. N2 - Viele Dienste im Internet benötigen zur Gewährleistung ihrer Erreichbarkeit die Möglichkeit, Entitäten als entweder gefährlich oder harmlos zu klassifizieren. Diskriminative Methoden des maschinellen Lernens verwenden Features von Entitäten oder Entitätengruppen, um zwischen positiven und negativen Labels zu unterscheiden. So können beispielsweise Email-Spamfilter Entscheidungen aufgrund sowohl des Inhalts der Email als auch von Informationen treffen, die vorherige Emails des gleichen versendenden Servers zusammenfassen. Darüber hinaus sind Labels zueinander in Verbindung stehender Entitäten, wie z.B. Emails des gleichen Nutzers, oftmals nicht unabhängig, so dass auch Klassifikationsentscheidungen nicht unabhängig getroffen werden sollten. Diese Arbeit beschäftigt sich mit der Formulierung diskriminativer Klassifikationsprobleme, die den speziellen Anforderungen von drei Internetsicherheitsanwendungen Rechnung tragen. Theoretische und algorithmische Lösungen zum Spamschutz von Nutzer-Inboxen eines Emailanbieters, zum Schutz von ausgehenden Emailservern gegen Missbrauch und zur Abwehr von Distributed Denial of Service-Attacken auf Webserver werden entwickelt. Beim Säubern der bei einem Emailanbieter eingehenden Menge von Emails von ungewollten Emails wie Spam können Informationen, die über den Inhalt einzelner Emails hinausgehen, von großem Nutzen sein. Etwa können Informationen über einen Mailserver zeitlich aggregiert und zum Klassifizieren neuer Emails des gleichen Servers verwendet werden. Diese Informationen sind in der Regel nur für Emails verfügbar, die vom Emailanbieter selbst empfangen werden, und fehlen bei Datensätzen, die extern gesammelte Emails beinhalten. Während des Trainings eines Spamklassifikators müssen diese Features entsprechend geschätzt werden. In dieser Arbeit wird ein Algorithmus entwickelt, der eine Entscheidungsfunktion lernt, die über eine Verteilung von fehlenden Werten integriert. Die Verteilung ist ein freier Parameter, der während des Lernens der Entscheidungsfunktion optimiert wird. Der Strom ausgehender Emails eines Emailanbieters setzt sich zusammen aus Emails einzelner Kunden. Alle Emails, die vom gleichen Kunden im gleichen Zeitraum gesendet werden, sind sowohl bzgl. Inhalt als auch Label abhängig. Kompromittierte Kundenaccounts können beispielsweise Batches von Spams an andere Emailanbieter schicken. Nach erfolgter Spamerkennung könnten diese Anbieter die Mailserver des sendenden Anbieters auf eine Blacklist setzen und somit am Versand weiterer Emails hindern. Das Risiko einer solchen Blockierung ist abhängig von der Rate ausgehender ungewollter Emails und der Dauer hoher Senderaten. Es wird ein Optimierungsproblem entwickelt, das die erwarteten Kosten des Emailproviders minimiert, indem eine Entscheidungsfunktion gelernt wird, die die erlaubte Versenderate von Kunden aufgrund der gesendeten Emails dynamisch einstellt. Um angreifende IPs während einer HTTP-Level-DDoS-Attacke zu blockieren, müssen sie als solche erkannt werden. DDoS-Angriffe werden üblicherweise von Clients durchgeführt, die dem gleichen Botnet angehören und ähnliche Traffic-Muster aufweisen. HTTP-Level-Angriffe zielen darauf, eine oder mehrere Ressourcen der Webserverinfrastruktur, wie etwa CPU-Zeit, aufzubrauchen. Für legitime Besucher ergeben sich erst dann Einschränkungen der User Experience, bis hin zur Unerreichbarkeit der Webseite, wenn Angreifer den Ressourcenverbrauch in die Nähe oder über die Maximalkapazität steigern können. Dieser durch einen Angreifer verursachte Verlust hängt von Entscheidungen für andere Angreifer ab; werden z.B. die meisten anderen Angreifer erkannt, wird ein nicht geblockter Angreifer kaum Schaden anrichten. Es wird deshalb ein Algorithmus entwickelt, der einen Dekodierer für strukturierte Vorhersagen trainiert, der, geleitet durch eine Policy, den Raum der gemeinsamen Labelzuweisungen durchsucht. Alle Modelle werden auf industriellen Daten evaluiert und mit Referenzmethoden verglichen. Die Ergebnisse zeigen, dass anforderungsspezifische Modellierung der Klassifikationsprobleme die Performance gegenüber den Vergleichsmethoden verbessert. KW - Machine Learning KW - Internet Security KW - DDoS KW - Spam-Filtering KW - DDoS KW - Internet-Sicherheit KW - Maschinelles Lernen KW - Spam-Erkennung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102593 ER - TY - THES A1 - Prinz, Julia T1 - DNA origami substrates as a versatile tool for surface-enhanced Raman scattering (SERS) T1 - DNA Origami-Substrate als ein vielseitiges Werkzeug für die oberflächenverstärkte Raman-Streuung (SERS) N2 - Surface-enhanced Raman scattering (SERS) is a promising tool to obtain rich chemical information about analytes at trace levels. However, in order to perform selective experiments on individual molecules, two fundamental requirements have to be fulfilled. On the one hand, areas with high local field enhancement, so-called “hot spots”, have to be created by positioning the supporting metal surfaces in close proximity to each other. In most cases hot spots are formed in the gap between adjacent metal nanoparticles (NPs). On the other hand, the analyte has to be positioned directly in the hot spot in order to profit from the highest signal amplification. The use of DNA origami substrates provides both, the arrangement of AuNPs with nm precision as well as the ability to bind analyte molecules at predefined positions. Consequently, the present cumulative doctoral thesis aims at the development of a novel SERS substrate based on a DNA origami template. To this end, two DNA-functionalized gold nanoparticles (AuNPs) are attached to one DNA origami substrate resulting in the formation of a AuNP dimer and thus in a hot spot within the corresponding gap. The obtained structures are characterized by correlated atomic force microscopy (AFM) and SERS imaging which allows for the combination of structural and chemical information. Initially, the proof-of principle is presented which demonstrates the potential of the novel approach. It is shown that the Raman signal of 15 nm AuNPs coated with dye-modified DNA (dye: carboxytetramethylrhodamine (TAMRA)) is significantly higher for AuNP dimers arranged on a DNA origami platform in comparison to single AuNPs. Furthermore, by attaching single TAMRA molecules in the hot spot between two 5 nm AuNPs and optimizing the size of the AuNPs by electroless gold deposition, SERS experiments at the few-molecule level are presented. The initially used DNA origami-AuNPs design is further optimized in many respects. On the one hand, larger AuNPs up to a diameter of 60 nm are used which are additionally treated with a silver enhancement solution to obtain Au-Ag-core-shell NPs. On the other hand, the arrangement of both AuNPs is altered to improve the position of the dye molecule within the hot spot as well as to decrease the gap size between the two particles. With the optimized design the detection of single dye molecules (TAMRA and cyanine 3 (Cy3)) by means of SERS is demonstrated. Quantitatively, enhancement factors up to 10^10 are estimated which is sufficiently high to detect single dye molecules. In the second part, the influence of graphene as an additional component of the SERS substrate is investigated. Graphene is a two-dimensional material with an outstanding combination of electronical, mechanical and optical properties. Here, it is demonstrated that single layer graphene (SLG) replicates the shape of underlying non-modified DNA origami substrates very well, which enables the monitoring of structural alterations by AFM imaging. In this way, it is shown that graphene encapsulation significantly increases the structural stability of bare DNA origami substrates towards mechanical force and prolonged exposure to deionized water. Furthermore, SLG is used to cover DNA origami substrates which are functionalized with a 40 nm AuNP dimer. In this way, a novel kind of hybrid material is created which exhibits several advantages compared to the analogue non-covered SERS substrates. First, the fluorescence background of dye molecules that are located in between the AuNP surface and SLG is efficiently reduced. Second, the photobleaching rate of the incorporated dye molecules is decreased up to one order of magnitude. Third, due to the increased photostability of the investigated dye molecules, the performance of polarization-dependent series measurements on individual structures is enabled. This in turn reveals extensive information about the dye molecules in the hot spot as well as about the strain induced within the graphene lattice. Although SLG can significantly influence the SERS substrate in the aforementioned ways, all those effects are strongly related to the extent of contact with the underlying AuNP dimer. N2 - Desoxyribonukleinsäure (engl. deoxyribonucleic acid (DNA)) ist nicht nur Träger der Erbinformation, sondern wird auch seit den frühen 80er Jahren als Gerüstmaterial in der Nanotechnologie verwendet. Im Jahr 2006 wurde die bis dato entwickelte DNA-Nanotechnologie durch die Erfindung der sogenannten DNA Origami-Technik weiter revolutioniert. Diese erlaubt die Konstruktion vielfältiger zwei- und dreidimensionaler Strukturen durch gezielte DNA-Selbstassemblierung. Basierend auf der grundlegenden Watson-Crick Basenpaarung innerhalb eines DNA-Doppelstrangs können die gewünschten Zielstrukturen dabei mit hoher Genauigkeit vorhergesagt werden. Neben der Entwicklung vielfältiger DNA-Konstrukte eignen sich DNA Origami-Substrate zudem hervorragend zur Bindung funktionaler Einheiten mit der Präzision im Bereich von Nanometern. Somit lassen sich beispielsweise Goldnanopartikel (AuNPs) präzise anordnen. Dies ist von höchstem Interesse im Zusammenhang mit der oberflächenverstärkten Ramanstreuung (engl. surface-enhanced Raman scattering (SERS)). SERS basiert darauf, die naturgemäß schwache Ramanstreuung eines Analyten um mehrere Größenordnungen zu verstärken, indem der Analyt nahe einer Metalloberfläche positioniert wird. Die Verstärkung der Ramanstreuung beruht hierbei hauptsächlich auf der Wechselwirkung des Analyten mit dem elektromagnetischen Feld der Metalloberfläche und kann im Zwischenraum zweier benachbarter Metallstrukturen besonders stark ausgeprägt sein. Die vorliegende kumulative Dissertation beschäftigt sich mit der Entwicklung einer DNA Origami-basierten Sensoroberfläche für die Anwendung von SERS-Experimenten. Hierbei werden jeweils zwei AuNPs in gezieltem Abstand an ein DNA Origami-Substrat gebunden und das verstärkte Ramansignal eines Analyten im Zwischenraum des AuNP-Dimers detektiert. Zunächst wird das allgemeine Prinzip in Form eines Wirksamkeitsnachweises vorgestellt, in welchem der Farbstoff Carboxytetramethylrhodamin (TAMRA) als Analyt verwendet wird. Die darauf aufbauenden Experimente zielen auf eine Verringerung der Nachweisgrenze bis hin zur Einzelmoleküldetektion ab. Im Zuge dessen werden vielseitige Optimierungsschritte durchgeführt, die die Größe, die Anordnung sowie die Ummantelung der AuNPs mit einer dünnen Silberschicht betreffen. Es wird gezeigt, dass durch die Optimierung aller Parameter die Detektion einzelner TAMRA- und Cyanin 3 (Cy3)-Moleküle mittels SERS möglich ist. Weiterhin wird Graphen, ein erst im Jahr 2004 entdecktes Material bestehend aus einer einzigen Schicht Kohlenstoffatome, als weiterer Bestandteil der untersuchten Nanostrukturen eingeführt. Graphen zeichnet sich durch eine bislang einzigartige Kombination aus optischen, elektronischen und mechanischen Eigenschaften aus und hat sich daher innerhalb kürzester Zeit zu einem vielfältigen Forschungsschwerpunkt entwickelt. In der vorliegenden Dissertation wird zunächst die erhöhte strukturelle Stabilität von Graphen bedeckten DNA Origami-Substraten im Hinblick auf mechanische Beanspruchung sowie auf die Inkubation in deionisiertem Wasser demonstriert. In weiterführenden Betrachtungen werden auch DNA Origami-Substrate, die mit AuNP-Dimeren funktionalisiert sind, mit Graphen bedeckt, und somit eine neuartige Hybridstruktur erzeugt. Es wird gezeigt, dass Graphen den Fluoreszenzuntergrund der untersuchten Farbstoffmoleküle deutlich reduziert und zusätzlich deren Photostabilität gegenüber der eintreffenden Laserstrahlung effektiv verbessert. KW - DNA origami KW - surface-enhanced Raman scattering KW - DNA nanostructures KW - graphene KW - single-molecule detection KW - DNA Origami KW - oberflächenverstärkte Raman-Streuung KW - DNA Nanostrukturen KW - Graphen KW - Einzelmoleküldetektion Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104089 ER - TY - THES A1 - Won, Jooyoung T1 - Dynamic and equilibrium adsorption behaviour of ß-lactoglobulin at the solution/tetradecane interface: Effect of solution concentration, pH and ionic strength T1 - Dynamik und Gleichgewicht der Adsorption von ß-Lactoglobulin an der Grenzfläche Lösung / Tetradecan (W/TD) N2 - Proteins are amphiphilic and adsorb at liquid interfaces. Therefore, they can be efficient stabilizers of foams and emulsions. β-lactoglobulin (BLG) is one of the most widely studied proteins due to its major industrial applications, in particular in food technology. In the present work, the influence of different bulk concentration, solution pH and ionic strength on the dynamic and equilibrium pressures of BLG adsorbed layers at the solution/tetradecane (W/TD) interface has been investigated. Dynamic interfacial pressure (Π) and interfacial dilational elastic modulus (E’) of BLG solutions for various concentrations at three different pH values of 3, 5 and 7 at a fixed ionic strength of 10 mM and for a selected fixed concentration at three different ionic strengths of 1 mM, 10 mM and 100 mM are measured by Profile Analysis Tensiometer PAT-1 (SINTERFACE Technologies, Germany). A quantitative data analysis requires additional consideration of depletion due to BLG adsorption at the interface at low protein bulk concentrations. This fact makes experiments more efficient when oil drops are studied in the aqueous protein solutions rather than solution drops formed in oil. On the basis of obtained experimental data, concentration dependencies and the effect of solution pH on the protein surface activity was qualitatively analysed. In the presence of 10 mM buffer, we observed that generally the adsorbed amount is increasing with increasing BLG bulk concentration for all three pH values. The adsorption kinetics at pH 5 result in the highest Π values at any time of adsorption while it exhibits a less active behaviour at pH 3. Since the experimental data have not been in a good agreement with the classical diffusion controlled model due to the conformational changes which occur when the protein molecules get in contact with the hydrophobic oil phase in order to adapt to the interfacial environment, a new theoretical model is proposed here. The adsorption kinetics data were analysed with the newly proposed model, which is the classical diffusion model but modified by assuming an additional change in the surface activity of BLG molecules when adsorbing at the interface. This effect can be expressed through the adsorption activity constant in the corresponding equation of state. The dilational visco-elasticity of the BLG adsorbed interfacial layers is determined from measured dynamic interfacial tensions during sinusoidal drop area variations. The interfacial tension responses to these harmonic drop oscillations are interpreted with the same thermodynamic model which is used for the corresponding adsorption isotherm. At a selected BLG concentration of 2×10-6 mol/l, the influence of the ionic strength using different buffer concentration of 1, 10 and 100 mM on the interfacial pressure was studied. It is affected weakly at pH 5, whereas it has a strong impact by increasing buffer concentration at pH 3 and 7. In conclusion, the structure formation of BLG adsorbed layer in the early stage of adsorption at the W/TD interface is similar to those of the solution/air (W/A) surface. However, the equation of state at the W/TD interface provides an adsorption activity constant which is almost two orders of magnitude higher than that for the solution/air surface. At the end of this work, a new experimental tool called Drop and Bubble Micro Manipulator DBMM (SINTERFACE Technologies, Germany) has been introduced to study the stability of protein covered bubbles against coalescence. Among the available protocols the lifetime between the moment of contact and coalescence of two contacting bubble is determined for different BLG concentrations. The adsorbed amount of BLG is determined as a function of time and concentration and correlates with the observed coalescence behaviour of the contacting bubbles. N2 - Die vorliegende Arbeit ist ein Beitrag zum Verständnis des Überganges von der qualitativen zur quantitativen Beschreibung der Adsorption von Proteinen an der Wasser/Öl- Grenzfläche. Dabei wird die Adsorption des Molkeproteins ß-Lactoglobulin (BLG) an der Wasser/Tetradekan (W/TD) Grenzfläche untersucht. Die Proteinadsorption an Grenzflächen zwischen zwei nicht mischbaren Flüssigkeiten ist ein Zeitprozess. Die Tropfenprofil-Analysen-Tensiometrie (PAT) hat sich als optimale Methode erwiesen, um den Prozess der Bildung von Proteinadsorptionsschichten an Flüssig-/flüssig-Grenzflächen quantitativ zu untersuchen. Die gemessenen dynamischen Grenzflächenspannungen können genutzt werden, um die adsorbierte Menge von Protein an Grenzflächen zu bestimmen. Zusätzlich erlaubt die Methode, durch periodische Tropfenoszillationen, die Messung der Dilatations-Viskoelastizität. Die experimentellen Ergebnisse zeigen deutlich, dass die Adsorption von Proteinen mit der Konzentration ansteigt. Der Adsorptionsprozess von Proteinen ist ähnlich dem von Tensiden, allerdings wird seine Beschreibung wesentlich komplizierter, durch die zusätzliche Möglichkeit der Konformationsänderungen der Proteinmoleküle an der Grenzfläche. Ein kürzlich im Rahmen dieser Dissertation entwickeltes Modell zur Adsorptionskinetik von Proteinen wurde genutzt, um experimentelle Daten für BLG zu interpretieren. Dieses kinetische Modell erlaubt es, den Mechanismus der Proteinadsorption an der Wasser/Öl-Grenzfläche zu beschreiben, was durch ältere Modelle bisher nicht möglich war. Im neu entwickelten Modell wurde die klassische Diffusionstheorie so modifiziert, dass eine Änderung der Adsorptionsaktivität der adsorbierenden Proteinmoleküle berücksichtigt wird. Die Änderung der Adsorptionsaktivität geschieht durch den Kontakt adsorbierter BLG-Moleküle an der Wasser/Öl-Grenzfläche. Es wird nach diesem neuen Modell angenommen, dass die Adsorptionsaktivität eine Funktion der Adsorptionszeit ist. Die ansteigende Adsorptionaktivität ist erforderlich, um den Adsorptionsprozess von BLG über den gesamten Zeitbereich quantitativ zu beschrieben. Mit diesem neuen Modell wurde es möglich, die experimentellen Daten zur Adsorptionskinetik sowie zur Dilatationsrheologie von Adsorptionsschichten bei unterschiedlichen BLG-Konzentrationen, pH-Werten und Ionenstärken an der Grenzfläche Lösung/Tetradekan quantitativ zu beschreiben. Die Ergebnisse dienen als Ausgangspunkt für weitere Entwicklungen zur Verbesserung des Verständnisses der Stabilität von Schäumen und Emulsionen, die durch die Dynamik der Adsorption von Molekülen wie BLG signifikant beeinflusst wird. KW - beta-lactoglobulin KW - water/tetradecane interface KW - drop profile analysis tensiometry KW - dynamic interfacial tensions KW - protein adsorption KW - pH effect KW - ionic strength effect KW - protein stabilized foams KW - drop and bubble coalescence KW - interfacial dynamics KW - capillary pressure tensiometry KW - drop-drop interaction KW - bubble-bubble interaction KW - ß-Lactoglobulin KW - Flüssig-/flüssig-Grenzflächen KW - Wasser/Öl-Grenzfläche KW - Grenzfläche Lösung/Tetradecan KW - Dynamik der Adsorption KW - Gleichgewicht der Adsorption KW - Proteinadsorption KW - Tropfenprofil-Analysen-Tensiometrie KW - Tropfenoszillationen KW - Dilatations-Viskoelastizität KW - klassische Diffusionstheorie KW - Konformationsänderungen KW - Adsorptionsaktivität KW - Wirkung des pH-Werten KW - Wirkung des Ionenstärken KW - Stabilität von Schäumen KW - Stabilität von Emulsionen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-99167 ER - TY - THES A1 - Dannberg, Juliane T1 - Dynamics of mantle plumes T1 - Dynamik von Mantelplumes BT - linking scales and coupling physics BT - gekoppelte und skalenübergreifende Modelle N2 - Mantle plumes are a link between different scales in the Earth’s mantle: They are an important part of large-scale mantle convection, transporting material and heat from the core-mantle boundary to the surface, but also affect processes on a smaller scale, such as melt generation and transport and surface magmatism. When they reach the base of the lithosphere, they cause massive magmatism associated with the generation of large igneous provinces, and they can be related to mass extinction events (Wignall, 2001) and continental breakup (White and McKenzie, 1989). Thus, mantle plumes have been the subject of many previous numerical modelling studies (e.g. Farnetani and Richards, 1995; d’Acremont et al., 2003; Lin and van Keken, 2005; Sobolev et al., 2011; Ballmer et al., 2013). However, complex mechanisms, such as the development and implications of chemical heterogeneities in plumes, their interaction with mid-ocean ridges and global mantle flow, and melt ascent from the source region to the surface are still not very well understood; and disagreements between observations and the predictions of classical plume models have led to a challenge of the plume concept in general (Czamanske et al., 1998; Anderson, 2000; Foulger, 2011). Hence, there is a need for more sophisticated models that can explain the underlying physics, assess which properties and processes are important, explain how they cause the observations visible at the Earth’s surface and provide a link between the different scales. In this work, integrated plume models are developed that investigate the effect of dense recycled oceanic crust on the development of mantle plumes, plume–ridge interaction under the influence of global mantle flow and melting and melt migration in form of two-phase flow. The presented analysis of these models leads to a new, updated picture of mantle plumes: Models considering a realistic depth-dependent density of recycled oceanic crust and peridotitic mantle material show that plumes with excess temperatures of up to 300 K can transport up to 15% of recycled oceanic crust through the whole mantle. However, due to the high density of recycled crust, plumes can only advance to the base of the lithosphere directly if they have high excess temperatures, high plume volumes and the lowermost mantle is subadiabatic, or plumes rise from the top or edges of thermo-chemical piles. They might only cause minor surface uplift, and instead of the classical head–tail structure, these low-buoyancy plumes are predicted to be broad features in the lower mantle with much less pronounced plume heads. They can form a variety of shapes and regimes, including primary plumes directly advancing to the base of the lithosphere, stagnating plumes, secondary plumes rising from the core–mantle boundary or a pool of eclogitic material in the upper mantle and failing plumes. In the upper mantle, plumes are tilted and deflected by global mantle flow, and the shape, size and stability of the melting region is influenced by the distance from nearby plate boundaries, the speed of the overlying plate and the movement of the plume tail arriving from the lower mantle. Furthermore, the structure of the lithosphere controls where hot material is accumulated and melt is generated. In addition to melting in the plume tail at the plume arrival position, hot plume material flows upwards towards opening rifts, towards mid-ocean ridges and towards other regions of thinner lithosphere, where it produces additional melt due to decompression. This leads to the generation of either broad ridges of thickened magmatic crust or the separation into multiple thinner lines of sea mount chains at the surface. Once melt is generated within the plume, it influences its dynamics, lowering the viscosity and density, and while it rises the melt volume is increased up to 20% due to decompression. Melt has the tendency to accumulate at the top of the plume head, forming diapirs and initiating small-scale convection when the plume reaches the base of the lithosphere. Together with the introduced unstable, high-density material produced by freezing of melt, this provides an efficient mechanism to thin the lithosphere above plume heads. In summary, this thesis shows that mantle plumes are more complex than previously considered, and linking the scales and coupling the physics of different processes occurring in mantle plumes can provide insights into how mantle plumes are influenced by chemical heterogeneities, interact with the lithosphere and global mantle flow, and are affected by melting and melt migration. Including these complexities in geodynamic models shows that plumes can also have broad plume tails, might produce only negligible surface uplift, can generate one or several volcanic island chains in interaction with a mid–ocean ridge, and can magmatically thin the lithosphere. N2 - Mantelplumes verbinden Prozesse auf verschiedenen Skalen im Erdmantel: Sie sind ein wichtiger Teil der globalen Mantelkonvektion, sie transportieren Material und Wärmeenergie von der Kern-Mantel-Grenze zur Erdoberfläche, aber beeinflussen auch kleinskaligere Prozesse wie Schmelzbildung und -transport und die damit verbundenen magmatischen Ereignisse. Wenn Plumes die Unterseite der Lithosphäre erreichen, entstehen große Mengen partiell geschmolzenen Gesteins, was zu großräumigen Vulkaneruptionen sowie der Entstehung von Plateaubasaltprovinzen führt, und auch mit Massenaussterbeereignissen und dem Auseinanderbrechen von Kontinenten in Zusammenhang stehen kann. Aufgrund dieser erdgeschichtlichen Bedeutung wurde bereits eine große Anzahl an Studien über Plumes durchgeführt (z.B. Farnetani und Richards, 1995; d’Acremont u. a., 2003; Lin und van Keken, 2005; Sobolev u. a., 2011; Ballmer u. a., 2013). Trotzdem ist unser Verständnis komplexerer Vorgänge und Interaktionen in Plumes noch nicht vollständig: Beispiele sind die Entwicklung von chemisch heterogenen Plumes, der Einfluss dieses chemisch andersartigen Materials auf die Aufstiegsdynamik, die Wechselwirkung zwischen Plumes und mittelozeanischen Rücken sowie den globalen Konvektionsströmungen und das Aufsteigen von Schmelze von ihrer Entstehungsregion bis hin zur Erdoberfläche. Unterschiede zwischen Beobachtungen und den Aussagen klassischer Modelle werden als Argumente gegen das Plumekonzept insgesamt angeführt (Czamanske u. a., 1998; Anderson, 2000; Foulger, 2011). Daher gibt es weiterhin einen Bedarf für ausgereiftere Modelle, welche die Skalen verschiedener Prozesse verbinden, den Einfluss dieser Prozesse sowie der Material- und Strömungseigenschaften berücksichtigen und quantifizieren, ihre Auswirkungen an der Erdoberfläche erklären und diese mit Beobachtungen vergleichen. Im Rahmen dieser Arbeit wurden Plume-Modelle erstellt, welche den Einfluss dichter, recycelter ozeanischer Kruste auf die Entwicklung van Mantelplumes, die Interaktion von Plumes und mittelozeanischen Rücken und den Einfluss globaler Mantelkonvektion sowie Aufschmelzung und Schmelzaufstieg in Form von Zweiphasenströmung (“two-phase flow”) untersuchen. Die vorgestellte Analyse dieser Modelle ergibt ein neues, aktualisiertes Konzept von Mantelplumes: Wenn ein realistischer Dichteunterschied zwischen recycelter ozeanischer Kruste und peridotitischem Mantel angenommen wird, kann ein Plume bis zu 15% recyceltes Material durch den gesamten Mantel transportieren. Durch die hohe Dichte der recycelten Kruste können Plumes aber nur bis zur Lithosphäre aufsteigen, wenn ihre Temperatur und ihr Volumen hoch genug sind, und wenn die Temperatur im unteren Mantel subadiabatisch ist oder die Plumes von aufgewölbten thermo-chemischen “Piles” aufsteigen. Es ist durchaus möglich, dass diese Plumes nur eine geringe Hebung der Oberfläche verursachen, und anstatt der klassischen pilzförmigen Kopf-Tail-Struktur bilden sie breite Strukturen im unteren Mantel mit weitaus weniger ausgeprägtem Plumekopf. Dafür können sie in verschiedenen Formen und Regimes auftreten: Primäre Plumes, welche direkt von der Kern-Mantel-Grenze zur Lithosphäre aufsteigen, stagnierende Plumes, sekundäre Plumes von der Kernmantelgrenze oder einer Ansammlung eklogitischen Materials im oberen Mantel und scheiternde Plumes, die die Lithosphäre nicht erreichen. Im oberen Mantel werden Plumes durch globale Konvektion abgelenkt und geneigt, und die Form, Größe und Stabilität der Schmelzregion wird durch den Abstand zu nahen Plattengrenzen, der Geschwindigkeit der sich darüber bewegenden Platte und der Bewegung des aus dem unteren Mantel ankommenden Plume-Tails bestimmt. Weiterhin beeinflusst auch die Struktur der Lithosphäre wo sich warmes Material sammeln kann und Schmelze entsteht. Zusätzlich zur Aufschmelzung beim Erreichen der Untergrenze der Lithosphäre strömt heißes Plumematerial auch lateral und weiter nach oben zu sich öffnenden Rifts, zu mittelozeanischen Rücken sowie zu anderen Regionen dünnerer Lithosphäre, wo durch die Druckentlastung weitere Schmelze generiert wird. Diese führt an der Erdoberfläche zur Entwicklung von entweder breiten Rücken verdickter magmatischer Kruste oder der Aufteilung in mehrere ozeanischen Inselketten. Sobald Schmelze generiert wurde, beeinflusst diese auch die Dynamik des Plumes, indem sie Viskosität und Dichte verringert. Während des Plumeaufstiegs kann sich das Schmelzvolumen dabei durch die Dekompression um bis zu 20% vergrößern. Schmelze hat die Tendenz sich an der Oberseite des Plumes anzusammeln, wo sie Diapire formt und kleinräumige Konvektion auslöst, wenn der Plume die Lithosphäre erreicht. Zusammen mit dem dichten, instabilen Material, das entsteht, wenn die Schmelze wieder erstarrt, bildet dies einen effektiven Mechanismus zur Erosion der Lithosphäre durch Plume-Heads. Zusammenfassend zeigt die vorliegende Arbeit, dass Mantelplumes komplexer sind als bisher angenommen, und dass die Verbindung von Skalen und die Kombination verschiedener in Mantelplumes auftretender physikalischer Prozesse Erkenntnisse liefern kann, wie Mantelplumes durch chemische Heterogenität beeinflusst werden, wie sie mit mittelozeanischen Rücken und globaler Mantelkonvektion interagieren und wie sie durch Aufschmelzung und Schmelzmigraiton beeinflusst werden. Die Einbindung dieser Prozesse in geodynamische Modelle zeigt, dass Plumes breite Tails haben können, potentiell nur geringe Oberflächenhebung verursachen, in Interaktion mit einem mittelozeanischen Rücken eine oder mehrere vulkanische Inselketten erzeugen können und magmatisch die Lithosphäre erodieren können. KW - mantle plumes KW - numerical modelling KW - Mantelplumes KW - numerische Modellierung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91024 ER - TY - THES A1 - Fournier, Yori T1 - Dynamics of the rise of magnetic flux tubes in stellar interiors BT - a numerical study of compressible non-axisymmetric flux tubes N2 - In sonnenähnlichen Sternen erhält ein Dynamo-Mechanismus die Magnetfelder. Der Babcock-Leighton-Dynamo beruht auf einem solchen Mechanismus und erfordert insbesondere die Existenz von magnetischen Flussröhren. Man nimmt an, dass magnetische Flussröhren am Boden der Konvetionszone entstehen und durch Auftrieb bis zur Oberfläche steigen. Es wird ein spezielles Dynamomodell vorgeschlagen, in dem der Verzögerungseffekt durch das Aufsteigen der Flussröhren berücksichtigt wird. Die vorliegende Dissertation beschäftigt sich mit der Anwendbarkeit des Babcock-Leighton-Dynamos auf andere Sterne. Zu diesem Zweck versuchen wir, die Aufstiegszeiten von magnetischen Flussröhren mit Hilfe von kompressiblen MHD-Simulationen in spärischen Kugelschalen mit Dichteschichtung zu bestimmen und einzugrenzen. Derartige Simulationen sind allerdings nur in einem unrealistischen Parameterbereich möglich. Deshalb ist eine Skalierungsrelation nötig, die die Ergebnisse auf realistische physikalische Regimes überträgt. Wir erweitern frühere Arbeiten zu Skalierungsrelationen in 2D und leiten ein allgemeines Skalierungsgesetz ab, das für 2D- und 3D-Flussröhren gültig ist. In einem umfangreichen Satz von numerischen Simulationen zeigen wir, dass die abgeleitete Skalierungsrelation auch im vollständig nichtlinearen Fall gilt. Wir haben damit ein Gesetz für die Aufstiegszeit von magnetischen Flussröhren gefunden, dass in jedem sonnenähnlichen Stern Gültigkeit hat. Schließlich implementieren wir dieses Gesetz in einem Dynamomodell mit Verzögerungsterm. Die Simulationen eines solchen verzögerten Flussröhren/Babcock-Leighton-Dynamos auf der Basis der Meanfield-Formulierung führten auf ein neues Dynamo-Regime, das nur bei Anwesenheit der Verzögerung existiert. Die erforderlichen Verzögerungen sind von der Gröÿenordnung der Zykluslänge, die resultierenden Magnetfelder sind schwächer als die Äquipartitions-Feldstärke. Dieses neue Regime zeigt, dass auch bei sehr langen Aufstiegszeiten der Flussröhren/Babcock-Leighton-Dynamo noch nichtzerfallende Lösungen liefern und daher auf ein breites Spektrum von Sternen anwendbar sein kann. N2 - Solar-like stars maintain their magnetic fields thanks to a dynamo mechanism. The Babcock-Leighton dynamo is one possible dynamo that has the particularity to require magnetic flux tubes. Magnetic flux tubes are assumed to form at the bottom of the convective zone and rise buoyantly to the surface. A delayed dynamo model has been suggested, where the delay accounts for the rise time of the magnetic flux tubes; a time, that has been ignored by former studies. The present thesis aims to study the applicability of the flux tube/Babcock-Leighton dynamo to other stars. To do so, we attempt to constrain the rise time of magnetic flux tubes thanks to the first fully compressible MHD simulations of rising magnetic flux tubes in stratified rotating spherical shells. Such simulations are limited to an unrealistic parameter space, therefore, a scaling relation is required to scale the results to realistic physical regimes. We extended earlier works on 2D scaling relations and derived a general scaling law valid for both 2D and 3D. We then carried out two large series of numerical experiments and verified that the scaling law we have derived indeed applies to the fully non-linear case. It allowed us to extract a constraint for the rise time of magnetic flux tubes that is valid for any solar-like star. We finally introduced this constraint to a delayed dynamo model. By carrying out simulations of a mean-field, delayed, flux tube/Babcock-Leighton dynamo, we were able to identify a new dynamo regime resulting from the delay. This regime requires delays about an entire cycle and exhibits subequipartition magnetic activity. Revealing this new regime shows that even for long delays the flux tube/Babcock-Leighton dynamo can still deliver non-decaying solutions and remains a good candidate for a wide range of solar-like stars. KW - astrophysics KW - stellar physics KW - magnetohydrodynamics (MHD) KW - numerical experiments KW - magnetic flux tubes KW - dynamo theory Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-394533 ER - TY - THES A1 - Marc, Odin T1 - Earthquake-induced landsliding T1 - Erdbeben induzierten Hangrutschungen BT - earthquakes as erosional agents across timescales BT - Erdbeben als Erosions-Agenten über Zeitskalen N2 - Earthquakes deform Earth's surface, building long-lasting topographic features and contributing to landscape and mountain formation. However, seismic waves produced by earthquakes may also destabilize hillslopes, leading to large amounts of soil and bedrock moving downslope. Moreover, static deformation and shaking are suspected to damage the surface bedrock and therefore alter its future properties, affecting hydrological and erosional dynamics. Thus, earthquakes participate both in mountain building and stimulate directly or indirectly their erosion. Moreover, the impact of earthquakes on hillslopes has important implications for the amount of sediment and organic matter delivered to rivers, and ultimately to oceans, during episodic catastrophic seismic crises, the magnitude of life and property losses associated with landsliding, the perturbation and recovery of landscape properties after shaking, and the long term topographic evolution of mountain belts. Several of these aspects have been addressed recently through individual case studies but additional data compilation as well as theoretical or numerical modelling are required to tackle these issues in a more systematic and rigorous manner. This dissertation combines data compilation of earthquake characteristics, landslide mapping, and seismological data interpretation with physically-based modeling in order to address how earthquakes impact on erosional processes and landscape evolution. Over short time scales (10-100 s) and intermediate length scales (10 km), I have attempted to improve our understanding and ability to predict the amount of landslide debris triggered by seismic shaking in epicentral areas. Over long time scales (1-100 ky) and across a mountain belt (100 km) I have modeled the competition between erosional unloading and building of topography associated with earthquakes. Finally, over intermediate time scales (1-10 y) and at the hillslope scale (0.1-1 km) I have collected geomorphological and seismological data that highlight persistent effects of earthquakes on landscape properties and behaviour. First, I compiled a database on earthquakes that produced significant landsliding, including an estimate of the total landslide volume and area, and earthquake characteristics such as seismic moment and source depth. A key issue is the accurate conversion of landslide maps into volume estimates. Therefore I also estimated how amalgamation - when mapping errors lead to the bundling of multiple landslide into a single polygon - affects volume estimates from various earthquake-induced landslide inventories and developed an algorithm to automatically detect this artifact. The database was used to test a physically-based prediction of the total landslide area and volume caused by earthquakes, based on seismological scaling relationships and a statistical description of the landscape properties. The model outperforms empirical fits in accuracy, with 25 out of 40 cases well predicted, and allows interpretation of many outliers in physical terms. Apart from seismological complexities neglected by the model I found that exceptional rock strength properties or antecedent conditions may explain most outliers. Second, I assessed the geomorphic effects of large earthquakes on landscape dynamics by surveying the temporal evolution of precipitation-normalized landslide rate. I found strongly elevated landslide rates following earthquakes that progressively recover over 1 to 4 years, indicating that regolith strength drops and recovers. The relaxation is clearly non-linear for at least one case, and does not seem to correlate with coseismic landslide reactivation, water table level increase or tree root-system recovery. I suggested that shallow bedrock is damaged by the earthquake and then heals on annual timescales. Such variations in ground strength must be translated into shallow subsurface seismic velocities that are increasingly surveyed with ambient seismic noise correlations. With seismic noise autocorrelation I computed the seismic velocity in the epicentral areas of three earthquakes where I constrained a change in landslide rate. We found similar recovery dynamics and timescales, suggesting that seismic noise correlation techniques could be further developed to meaningfully assess ground strength variations for landscape dynamics. These two measurements are also in good agreement with the temporal dynamics of post-seismic surface displacement measured by GPS. This correlation suggests that the surface healing mechanism may be driven by tectonic deformation, and that the surface regolith and fractured bedrock may behave as a granular media that slowly compacts as it is sheared or vibrated. Last, I compared our model of earthquake-induced landsliding with a standard formulation of surface deformation caused by earthquakes to understand which parameters govern the competition between the building and destruction of topography caused by earthquakes. In contrast with previous studies I found that very large (Mw>8) earthquakes always increase the average topography, whereas only intermediate (Mw ~ 7) earthquakes in steep landscapes may reduce topography. Moreover, I illustrated how the net effect of earthquakes varies with depth or landscape steepness implying a complex and ambivalent role through the life of a mountain belt. Further I showed that faults producing a Gutenberg-Richter distribution of earthquake sizes, will limit topography over a larger range of fault sizes than faults producing repeated earthquakes with a characteristic size. N2 - Erdbeben gestalten die Erdoberfläche, sie tragen langfristig zum Aufbau von Topografie sowie zur Landschafts- und Gebirgsbildung bei. Die von Erdbeben erzeugten seismischen Erschütterungen können Gebirge jedoch auch destabilisieren und grosse Mengen an Boden sowie Grundgestein zum Abrutschen bringen und zerrüten. Erdbeben wirken daher sowohl auf die Gebirgsbildung als auch auf ihre Denudation. Ein detailliertes Verständnis der Auswirkungen von Erdbeben auf Hangstabilität ist eine wichtige Voraussetzung um die Zusammenhänge mit anderen Prozesse besser nachzuvollziehen: der kurzfristige Transport von Sedimenten und organischem Material in Flüsse und ihre Ablagerung bis in die Ozeane; der Verlust von Leben und Infrastruktur durch Hangrutschungen verbunden mit episodischen, katastrophalen, seismischen Ereignissen; die Störung und Wiederherstellung von Landschaftseigenschaften nach Erdbeben; sowie die langfristigen topographischen Entwicklung von ganzen Gebirgsketten. Einige dieser Forschungsfragen wurden kürzlich in einzelnen Fallstudien betrachtet aber zusätzliche Datenerfassung, theoretische und numerische Modellierung sind erforderlich, um diese Prozesse detaillierter zu erfassen. In dieser Dissertation werden Daten zu Eigenschaften der Erdbeben sowie aus Hangrutsch kartierungen und die Interpretation seismologischer Daten mit physikalischer Modellierung kombiniert, um die folgende übergreifende Frage zu beantworten: Wie beeinflussen Erdbeben die Erosionsprozesse in der Landschaftsentwicklung? Auf einer kurzen Zeitskala (10-100 s) und einer mittleren räumlichen Skala (10 km), habe ich versucht sowohl unser Prozessverständnis zu vertiefen als auch Vorhersagen über das gesamte Volumen der Rutschungen welche durch seismische Beben in der unmittelbaren Umgebung von Epizentren ausgelöst wurden, zu treffen und zu verbessern Auf einer langen Zeitskala (1-100 ky) und über einen Gebirgsgürtel (100 km) habe ich die durch Erdbeben ausgelösten konkurrierenden Prozesse von Abflachung von Topografie durch Erosion und den Aufbau von Topografie durch Hebung, modelliert. Auf einer mittleren Zeitskala (1-10 Jahre) und einer relativ kleinen Hangskala (0,1-1 km) habe ich geomorphologische und seismologische Daten erhoben, welche die anhaltenden Auswirkungen von Erdbeben auf Landschaftseigenschaften und deren Dynamic hervorheben. Zuerst habe ich eine Datenbank von Erdbeben erstellt, welche erhebliche Hangrutschungen ausgelöst hatten, einschliesslich einer Schätzung des gesamten Hangrutschungsvolumens und der Erdbebencharakteristiken wie z.B. seismischer Moment und Lage des Hypozentrums. Ich habe auch beurteilt, wie die Kartierung von Erdrutschen die Abschätzungen des Gesamtvolumens fehlerhaft beeinflussen können und präsentiere einen Algorithmus, um solche Fehler automatisch zu erkennen. Diese Datenbank wurde verwendet, um eine physisch-basierte Vorhersage der durch Erdbeben verursachten gesamten Hangrutschungsflächen und Volumen zu testen, welche auf seismologischen Skalierungsbeziehungen und auf einer statistischen Beschreibung der Landschaftseigenschaften basiert. Zweitens untersuchte ich den Einfluss von starken Erdbeben auf die Landschaftsdynamik durch das Vermessen der temporalen Entwicklung der Suszeptibilität von Hangrutschungen. Ich habe gezeigt, dass die stark erhöhte Hangrutschrate nach dem Erdbeben schrittweise nach einigen Jahren zurückging. Diesen Rückgang über die Zeit interpretiere ich als die Zerrüttung von oberflächennahem Gestein durch das Erdbeben und die Heilung der dadurch entstandenen Risse über der Zeit. Meine Daten deuten darauf hin, dass die Zerrüttungen und die anschliessende Heilung des Festgesteins in dem epizentralen Gebieten mit ambienten, seismischen Hintergrundrauschen überwacht werden kann. Möglicherweise wird die Heilung zusätzlich durch andauernde post-seismische Deformation angetrieben. Am Ende der Arbeit vergleiche ich meine entwickelten Modelle von erdbebenbedingten Hangrutschungen mit einer Standardformel für erdbebenverursachte Oberflächendeformierung. Mit diesem Vergleich zeige ich welche Parameter den Wettstreit zwischen der Hebung von Topografie und der gleichzeitigen Zerstörung von Topografie durch Erdbeben bestimmen. Ich zeige, dass nur mittlere - Mw ~ 7 - Erdbeben die Topografie reduzieren können im Gegensatz zu stärkeren - Mw > 8 - Beben die immer einen effektive Bildung von Topografie verursachen. Meine Ergebnisse zeigen die komplexen Zusammenhänge von Erdbeben in der Gebirgsbildung. KW - earthquake KW - landslide KW - erosion KW - Erdbeben KW - Erdrutsch KW - Erosion KW - topography KW - Topographie Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96808 ER - TY - THES A1 - Reschke, Antje T1 - Effectiveness of a foot orthosis on muscular activity in functional ankle instability T1 - Der Einfluss einer Schuheinlage auf die muskuläre Aktivität bei funktioneller Sprunggelenksinstabilität BT - a randomized controlled trial BT - eine randomisierte, kontrollierte Studie N2 - A majority of studies documented a reduced ankle muscle activity, particularly of the peroneus longus muscle (PL), in patients with functional ankle instability (FI). It is considered valid that foot orthoses as well as sensorimotor training have a positive effect on ankle muscle activity in healthy individuals and those with lower limb overuse injuries or flat arched feet (reduced reaction time by sensorimotor exercises; increased ankle muscle amplitude by orthoses use). However, the acute- and long-term influence of foot orthoses on ankle muscle activity in individuals with FI is unknown. AIMS: The present thesis addressed (1a) acute- and (1b) long-term effects of foot orthoses compared to sensorimotor training on ankle muscle activity in patients with FI. (2) Further, it was investigated if the orthosis intervention group demonstrate higher ankle muscle activity by additional short-term use of a measurement in-shoe orthosis (compared to short-term use of “shoe only”) after intervention. (3) As prerequisite, it was evaluated if ankle muscle activity can be tested reliably and (4) if this differs between healthy individuals and those with FI. METHODS: Three intervention groups (orthosis group [OG], sensorimotor training group [SMTG], control group [CG]), consisting of both, healthy individuals and those with FI, underwent one longitudinal investigation (randomised controlled trial). Throughout 6 weeks of intervention, OG wore an in-shoe orthosis with a specific “PL stimulation module”, whereas SMTG conducted home-based exercises. CG served to measure test-retest reliability of ankle muscle activity (PL, M. tibialis anterior [TA] and M. gastrocnemius medialis [GM]). Pre- and post-intervention, ankle muscle activity (EMG amplitude) was recorded during “normal” unperturbed (NW) and perturbed walking (PW) on a split-belt treadmill (stimulus 200 ms post initial heel contact [IC]) as well as during side cutting (SC), each while wearing “shoes only” and additional measurement in-shoe orthoses (randomized order). Normalized RMS values (100% MVC, mean±SD) were calculated pre- (100-50 ms) and post (200-400 ms) - IC. RESULTS: (3) Test-retest reliability showed a high range of values in healthy individuals and those with FI. (4) Compared to healthy individuals, patients with FI demonstrated lower PL pre-activity during SC, however higher PL pre-activity for NW and PW. (1a) Acute orthoses use did not influence ankle muscle activity. (1b) For most conditions, sensorimotor training was more effective in individuals with FI than long-term orthotic intervention (increased: PL and GM pre-activity and TA reflex-activity for NW, PL pre-activity and TA, PL and GM reflex-activity for SC, PL reflex-activity for PW). However, prolonged orthoses use was more beneficial in terms of an increase in GM pre-activity during SC. For some conditions, long-term orthoses intervention was as effective as sensorimotor training for individuals with FI (increased: PL pre-activity for PW, TA pre-activity for SC, PL and GM reflex-activity for NW). Prolonged orthoses use was also advantageous in healthy individuals (increased: PL and GM pre-activity for NW and PW, PL pre-activity for SC, TA and PL reflex-activity for NW, PL and GM reflex-activity for PW). (2) The orthosis intervention group did not present higher ankle muscle activity by the additional short-term use of a measurement in-shoe orthosis at re-test after intervention. CONCLUSION: High variations of reproducibility reflect physiological variability in muscle activity during gait and therefore deemed acceptable. The main findings confirm the presence of sensorimotor long-term effects of specific foot orthoses in healthy individuals (primary preventive effect) and those with FI (therapeutic effect). Neuromuscular compensatory feedback- as well as anticipatory feedforward adaptation mechanism to prolonged orthoses use, specifically of the PL muscle, underpins the key role of PL in providing essential dynamic ankle joint stability. Due to its advantages over sensorimotor training (positive subjective feedback in terms of comfort, time-and-cost-effectiveness), long-term foot orthoses use can be recommended as an applicable therapy alternative in the treatment of FI. Long-term effect of foot orthoses in a population with FI must be validated in a larger sample size with longer follow-up periods to substantiate the generalizability of the existing outcomes. N2 - HINTERGRUND: Eine Mehrzahl an Studien konnte bei Patienten mit funktioneller Sprunggelenksinstabilität (FI) eine reduzierte Muskelaktivität der Sprunggelenksmuskulatur, besonders des M. peroneus longus (PL), zeigen. Es gilt als valide, dass Schuheinlagen als auch sensomotorische Trainingsformen einen positiven Effekt auf die Muskelaktivität der Sprunggelenksmuskulatur bei Gesunden und Personen mit Überlastungsreaktionen der unteren Extremität oder flachem Fußgewölbe haben (reduzierte Reaktionszeit durch sensomotorisches Training; erhöhte Muskelamplitude durch den Gebrauch von Einlagen). Jedoch ist der Akut-und Langzeiteinfluss von Schuheinlagen auf die Muskelaktivität der Sprunggelenksmuskulatur bei Personen mit FI unbekannt. ZIELE: Die vorliegende Arbeit befasste sich mit Akut (1a)- und Langzeiteffekten (1b) von Schuheinlagen im Vergleich zu sensomotorischem Training auf die Muskelaktivität der Sprunggelenksmuskulatur bei Patienten mit FI. (2) Des Weiteren wurde untersucht, ob eine Einlageninterventionsgruppe eine höhere Muskelaktivität durch den zusätzlichen kurzzeitigen Einsatz einer In-Schuh-Messeinlage (im Vergleich mit dem kurzzeitigen „nur Schuheinsatz“) nach der Intervention zeigt. (3) Als Voraussetzung wurde bewertet, ob die Muskelaktivität der Sprunggelenksmuskulatur zuverlässig (reproduzierbar) erfasst werden kann und (4) ob sie sich zwischen gesunden Personen von der bei Personen mit FI unterscheidet. METHODEN: Drei Interventionsgruppen (Einlagengruppe [OG], Sensomotorische Trainingsgruppe [SMTG], Kontrollgruppe [CG]), bestehend aus je Gesunden und Personen mit FI, wurden einer Längsschnittuntersuchung (Randomisierte kontrollierte Studie) unterzogen. In der 6 wöchigen Interventionsphase trug die OG eine In-Schuh-Einlage mit einem spezifischen „PL Stimulationsmodul“, während die SMTG heimbasierte Übungen durchführte. Die CG diente dazu, die Test-Retest-Zuverlässigkeit der Muskelaktivität der Sprunggelenksmuskulatur (PL, M. tibialis anterior [TA] and M. gastrocnemius medialis [GM]) zu messen. Vor- und nach der Intervention wurde die Muskelaktivität der Sprunggelenksmuskulatur (EMG-amplitude) während „normalem“ unperturbiertem (NW) und perturbiertem Gehen (PW) auf einem „split-belt“-Laufband (Reiz 200 ms nach initialem Fersenkontakt [IC]) und während eines „Seitschrittes“ (SC) als Antäuschmaneuver, jeweils mit Tragen von „Nur-Schuhen“ und mit zusätzlichen In-Schuh-Messeinlagen (randomisierte Reihenfolge), aufgezeichnet. Die normalisierten RMS-Werte (100% MVC, mean±SD) wurden vor (100-50 ms) und nach (200-400 ms) dem IC berechnet. ERGEBNISSE: (3) Die Test-Retest Zuverlässigkeit zeigte eine hohe Streuung der Werte bei Gesunden und Personen mit FI. (4) Verglichen mit den Gesunden, zeigten Patienten mit FI eine geringere PL Voraktivität beim SC, jedoch eine höhere PL Voraktivität beim NW und PW. (1a) Der akute Einlagengebrauch beeinflusste die Muskelaktivität des Sprunggelenkes nicht. (1b) Für die meisten Konditionen war das sensomotorische Training effektiver bei Personen mit FI als die langfristige Einlagenintervention (erhöhte Aktivität: PL and GM Voraktivität und TA Reflexaktivität beim NW, PL Voraktivität und TA, PL und GM Reflexaktivität beim SC, PL Reflexaktivität beim PW). Jedoch war der langfristige Einlagengebrauch vorteilhafter im Sinne einer erhöhten GM Voraktivität beim SC. Für einige Konditionen war die langfristige Einlagenintervention genauso effektiv wie das sensomotorische Training bei Personen mit FI (erhöhte Aktivität: PL Voraktivität beim PW, TA Voraktivität beim SC, PL and GM Reflexaktivität beim NW). Langanhaltender Einlagengebrauch war auch bei gesunden Personen vorteilhaft (erhöhte Aktivität: PL und GM Voraktivität beim NW und PW, PL Voraktivität beim SC, TA und PL Reflexaktivität beim NW, PL und GM Reflexaktivität beim PW). (2) Die Einlageninterventionsgruppe wies keine höhere Muskelaktivität der Sprunggelenksmuskulatur durch den zusätzlichen kurzzeitigen Einsatz einer In-Schuh-Messeinlage beim Re-test nach der Intervention auf. SCHLUSSFOLGERUNG: Große Variationen für die Reproduzierbarkeit spiegeln die physiologische Variabilität der Muskelaktivität während des Gehens wider und werden daher als akzeptabel erachtet. Die Hauptergebnisse bestätigen das Vorhandensein von sensomotorischen Langzeiteffekten von spezifischen Schuheinlagen bei Gesunden (primär-präventiver Effekt) und Personen mit FI (therapeutischer Effekt). Der neuromuskuläre kompensatorische Feedback- als auch der antizipatorische Feedforward- Anpassungsmechanismus auf die langfristige Einlagennutzung, insbesondere des M. peroneus longus, untermauert die Schlüsselrolle des PL in der Bereitstellung von essentieller dynamischer Sprunggelenksstabilität. Aufgrund seiner Vorteile gegenüber sensomotorischem Training (positives subjektives Feedback hinsichtlich des Komforts, Zeit-und-Kosteneffektivität), kann der langanhaltende Einlagengebrauch als geeignete Therapiealternative in der Behandlung von FI empfohlen werden. Der Langzeiteffekt von Schuheinlagen in einer Population mit FI bedarf einer Validierung mittels höherer Stichprobengrößen und längerer Follow-up-Perioden, um die Verallgemeinerbarkeit der existierenden Studienergebnisse zu belegen. KW - foot orthoses KW - neuromuscular activity KW - electromyography of lower limb KW - chronical ankle instability KW - randomized controlled trial KW - Schuheinlagen KW - neuromuskuläre Aktivität KW - Elektromyografie der unteren Extremität KW - chronische Sprunggelenksinstabilität KW - randomisierte, kontrollierte Studie Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104366 ER - TY - THES A1 - Haendler, Yair T1 - Effects of embedded pronouns on relative clause processing T1 - Effekte eingebauter Pronomen auf Relativsatzverarbeitung BT - cross-linguistic evidence from children and adults BT - Hinweise zwischensprachlischer Daten von Kindern und Erwachsenen N2 - Difficulties with object relative clauses (ORC), as compared to subject relative clauses (SR), are widely attested across different languages, both in adults and in children. This SR-ORC asymmetry is reduced, or even eliminated, when the embedded constituent in the ORC is a pronoun, rather than a lexical noun phrase. The studies included in this thesis were designed to explore under what circumstances the pronoun facilitation occurs; whether all pronouns have the same effect; whether SRs are also affected by embedded pronouns; whether children perform like adults on such structures; and whether performance is related to cognitive abilities such as memory or grammatical knowledge. Several theoretical approaches that explain the pronoun facilitation in relative clauses are evaluated. The experimental data have been collected in three languages–German, Italian and Hebrew–stemming from both children and adults. In the German study (Chapter 2), ORCs with embedded 1st- or 3rd-person pronouns are compared to ORCs with an embedded lexical noun phrase. Eye-movement data from 5-year-old children show that the 1st-person pronoun facilitates processing, but not the 3rd-person pronoun. Moreover, children’s performance is modulated by additive effects of their memory and grammatical skills. In the Italian study (Chapter 3), the 1st-person pronoun advantage over the 3rd-person pronoun is tested in ORCs and SRs that display a similar word order. Eye-movement data from 5-year-olds and adult controls and reading times data from adults are pitted against the outcome of a corpus analysis, showing that the 1st-/3rd-person pronoun asymmetry emerges in the two relative clause types to an equal extent. In the Hebrew study (Chapter 4), the goal is to test the effect of a special kind of pronoun–a non-referential arbitrary subject pronoun–on ORC comprehension, in the light of potential confounds in previous studies that used this pronoun. Data from a referent-identification task with 4- to 5-year-olds indicate that, when the experimental material is controlled, the non-referential pronoun does not necessarily facilitate ORC comprehension. Importantly, however, children have even more difficulties when the embedded constituent is a referential pronoun. The non-referentiality / referentiality asymmetry is emphasized by the relation between children’s performance on the experimental task and their memory skills. Together, the data presented in this thesis indicate that sentence processing is not only driven by structural (or syntactic) factors, but also by discourse-related ones, like pronouns’ referential properties or their discourse accessibility mechanism, which is defined as the level of ease or difficulty with which referents of pronouns are identified and retrieved from the discourse model. Although independent in essence, these structural and discourse factors can in some cases interact in a way that affects sentence processing. Moreover, both types of factors appear to be strongly related to memory. The data also support the idea that, from early on, children are sensitive to the same factors that affect adults’ sentence processing, and that the processing strategies of both populations are qualitatively similar. In sum, this thesis suggests that a comprehensive theory of human sentence processing needs to account for effects that are due to both structural and discourse-related factors, which operate as a function of memory capacity. N2 - Zahlreiche Studien haben gefunden, dass sowohl Erwachsene als auch Kinder über Sprachen hinweg größere Schwierigkeiten mit Objektrelativsätzen (ORS) als mit Subjektrelativsätzen (SRS) haben. Diese SRS-ORS-Asymmetrie wird reduziert oder sogar ausgelöscht, wenn das eingebaute Subjekt im ORS keine lexikalische Nominalphrase, sondern ein Pronomen ist. Die Experimente in dieser Dissertation erforschen unter welchen Umständen die Begünstigung des Pronomens geschieht; ob alle Pronomen denselben Effekt haben; ob SRS ebenso von eingebauten Pronomen beeinflusst werden; ob Erwachsene und Kinder in Bezug auf diese Strukturen eine ähnlich Leistung zeigen; und ob die Leistung von Versuchspersonen eine Verbindung mit kognitiven Fähigkeiten hat, wie zum Beispiel mit dem Arbeitsgedächtnis oder mit grammatikalischer Kenntnis. Verschiedene theoretische Rahmen, die die Pronomenvereinfachung in Relativsätzen erklären, werden evaluiert. Die Daten wurden in drei Sprachen–Deutsch, Italienisch und Hebräisch–mit Kindern und Erwachsenen erhoben. In der Studie auf Deutsch (Kapitel 2) werden ORS mit einem eingebauten Pronomen der ersten oder der dritten Person mit ORS verglichen, die eine eingebaute lexikalische Nominalphrase haben. Blickbewegungsdaten von 5-jährigen Kindern zeigen, dass das Pronomen der ersten Person die Satzverarbeitung vereinfacht, nicht jedoch das Pronomen der dritten Person. Die Performance von Kindern wird durch zusätzliche Effekte wie Gedächtnis und grammatikalische Fähigkeiten beeinflusst. In der Studie auf Italienisch (Kapitel 3) wird der Vereinfachungsvorteil des Pronomens der ersten Person, im Vergleich mit dem der dritten Person, in ORS und SRS, die eine ähnliche Wortstellung haben, untersucht. Blickbewegungsdaten von 5-jährigen Kindern und von einer Kontrollgruppe von Erwachsenen sowie Lesezeiten von Erwachsenen, werden mit dem Ergebnis einer Korpusanalyse verglichen. Sie zeigen denselben asymmetrischen Effekt der zwei Pronomen in beiden Relativsatztypen. In der Studie auf Hebräisch (Kapitel 4) war das Ziel, den Effekt eines besonderen Pronomens, nämlich eines nicht-referentiellen beliebigen Subjektspronomens, auf das Verständnis von ORS zu untersuchen, anhand methodischer Problematiken in vergangenen Studien, die dieses Pronomen verwendet haben. Daten von 4- und 5-jährigen Kindern, die eine Referentenerkennungsaufgabe gemacht haben, zeigen, dass mit kontrolliertem Versuchsmaterial das nicht-referentielle Pronomen nicht unbedingt das Verständnis von ORS erleichtert. Jedoch hatten die Kinder aber noch mehr Schwierigkeiten, wenn das eingebaute Pronomen ein referentielles Pronomen war. Die Asymmetrie zwischen nicht-referentiellen und referentiellen Pronomen wird durch die Verbindung zwischen der Performance in der experimentellen Aufgabe und den Gedächtnisfähigkeiten der Kinder hervorgehoben. In ihrer Gesamtheit zeigen die in dieser Arbeit präsentierten Daten, dass Sprachverarbeitung nicht nur durch strukturelle (oder syntaktische) Faktoren beeinträchtigt wird, sondern auch durch Diskurs-gebundene Faktoren, wie die referentiellen Eigenschaften von Pronomen oder den Mechanismus von Diskurszugänglichkeit (discourse accessibility). Diese wird definiert als das Leichtigkeits- oder Schwierigkeitslevel mit dem Referenten von Pronomen im Diskursmodell erkannt und abgerufen werden. Diese strukturellen und diskursgebundenen Faktoren, obwohl sie im Wesentlichen unabhängig voneinander sind, können in manchen Fällen aufeinander einwirken und zusammen die Sprachverarbeitung beeinträchtigen. Darüber hinaus scheinen beide Faktoren eine Verbindung mit dem Gedächtnis zu haben. Die Daten unterstützen auch die Idee, dass Kinder von früh an auf dieselben Faktoren empfindlich reagieren, die die Sprachverarbeitung von Erwachsenen bestimmen und dass die Sprachverarbeitungsstrategien von beiden Altersgruppen qualitativ ähnlich sind. Zusammengefasst weist diese Dissertation darauf hin, dass eine umfassende Theorie der menschlichen Sprachverarbeitung in der Lage sein sollte, Effekte zu erklären, die sowohl durch Satzstruktur als auch durch Diskurs bedingt werden und die in Abhängigkeit von Gedächtnisfähigkeit funktionieren. KW - relative clauses KW - pronouns KW - discourse KW - sentence processing KW - eye-tracking KW - language development KW - Relativsätze KW - Pronomen KW - Diskurs KW - Sprachverarbeitung KW - Blickbewegungen KW - Sprachentwicklung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396883 ER - TY - THES A1 - Punz, Elisabeth T1 - Effektivität frühzeitiger Interventionen zur Prävention von Lese- und Rechtschreibschwierigkeiten T1 - Effectivity of early interventions to prevent reading or writing disabilities BT - eine empirisch-quantitative Studie BT - an empiric quantitative study N2 - Die vorliegende Studie beschäftigt sich mit der Förderung der Lese- und Schreibkompetenz in der Anfangsphase des Schriftspracherwerbs. Ziel der Untersuchung ist die Erprobung und Evaluierung frühzeitiger, diagnosegeleiteter Interventionen zur Prävention von Lese- und Rechtschreibschwierigkeiten. Im Unterschied zu vielen Studien in diesem Bereich werden alle Maßnahmen unter realen schulischen Bedingungen im Rahmen des Erstlese- und Schreibunterrichts durch die Klassenlehrer selbst durchgeführt, wobei diese von der Autorin unterstützt und begleitet werden. Förder- und Prozessdiagnose sowie Elemente diagnosegeleiteter Förderung werden aus Theorien und Forschungslage abgeleitet und zu einem Interventionsset verbunden. Die Effektivität der evidenzbasierten Maßnahmen wird durch Parallelgruppenvergleiche überprüft. An der empirischen Untersuchung nahmen insgesamt 25 Schulklassen mit 560 Erstklässlern teil, geteilt in Versuchs- und Kontrollgruppe. Mit der Eingangsdiagnose am Schulbeginn wurden Voraussetzungen für den Schriftspracherwerb erhoben und mit der Evaluierungsdiagnose am Ende der ersten Schulstufe entwicklungsadäquate schriftsprachliche Kompetenzen auf der Wortebene überprüft. Zusätzlich erfasst wurden internale und externale Einflussfaktoren, deren Wirkung in der statistischen Auswertung berücksichtigt wurde. Alle Datenerhebungen wurden in Versuchs- und Kontrollgruppe durchgeführt, während die evidenzbasierten Treatments nur in der Versuchsgruppe stattfanden. Die Auswertung bestätigt mit signifikanten Ergebnissen den engen Zusammenhang zwischen der Phonologischen Bewusstheit zu Beginn des Schriftspracherwerbs und der Lese- und Rechtschreibfähigkeit am Ende der ersten Schulstufe sowie zwischen Familiärer Literalität und Lesefertigkeit. Schriftsprachliche Vorkenntnisse weisen eine Tendenz zur Signifikanz hinsichtlich ihrer positiven Wirkung auf die Basale Lesefertigkeit auf. Eine höchst signifikante positive Wirkung auf die Basale Lesefertigkeit zeigt die Druckschrift als Ausgangsschrift. Die Ergebnisse deuten auf eine Überlegenheit vorschulischer präliteraler Fertigkeiten hinsichtlich ihrer Wirkung auf die Lese- und Rechtschreibfertigkeit am Ende der ersten Schulstufe gegenüber Fördermaßnahmen unter realen schulischen Bedingungen hin. Die positive Wirkung einer unverbundenen Ausgangsschrift auf den Leseerwerb betont die Wichtigkeit der Wahl der Ausgangsschrift. Im frühen Schriftspracherwerb sollte die Druckschrift für das Lesen und Schreiben verwendet werden. N2 - The present study deals with the development of reading and writing competences in the initial phase of the acquisition of writing. The aim of this study is to test and evaluate early diagnostic interventions to prevent reading or writing disabilities. Contrary to many studies in this field, all interventions were carried out in real edu-cational settings during initial reading and writing instruction by the class teachers, supervised and supported by the author. Diagnosis focussing on support and pro-cess as well as elements of diagnostic aid are based on theory and research and compiled in a set of measures for intervention. The efficacy of evidence-based measures was tested in parallel groups. A total of 25 schools and 560 year-one learners took part in the empirical study in experimental and control groups. The initial diagnosis at the beginning of the school year provided information about the preconditions for the acquisition of written language and the diagnostic evaluation at the end of the first school year tested the age appropriate written competences at word level. Additionally, influential internal and external factors and their effects were taken into consideration in the statistical analyses. Data collection was carried out equivalently in the experimental and control group; evidence-based interventions were only carried out in the experimental group. The analysis of data supports a significant connection between phonological awareness at the beginning of the acquisition of written language and the ability to read and to write at the end of the first year of schooling as well as with the family’s literacy. Knowledge and skill in written language prior to schooling tend to have a significantly positive effect on basal reading ability. A positive effect of the use of printscript in initial writing was found to be highly significant. The results suggest a superiority of pre-educational literacy on reading and writing competences over support measures in real educational settings. The positive effects of block letters on the acquisition of reading skills emphasises the importance of the right selection of the initial script. In early literacy education, printscript should thus be used in reading and writing. KW - Lese- und Rechtschreibschwierigkeiten KW - LRS KW - Früherkennung LRS KW - Prävention LRS KW - Schriftspracherwerb KW - Lese- und Schreibkompetenz KW - Erstlese- und Schreibunterricht KW - didaktische Entwicklungsforschung KW - Interventionsstudie KW - reading or writing dissabilities KW - early diagnostic interventions in reading and writing dissabillities KW - prevention of reading or writing dissabilities KW - acquisition of written language KW - reading and writing competences KW - initial reading and writing instruction KW - research of educational development KW - intervention study Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96815 ER - TY - THES A1 - Laux, Eva-Maria T1 - Electric field-assisted immobilization and alignment of biomolecules T1 - Immobilisierung und Ausrichtung von Biomolekülen mit elektrischen Wechselfeldern N2 - In this dissertation, an electric field-assisted method was developed and applied to achieve immobilization and alignment of biomolecules on metal electrodes in a simple one-step experiment. Neither modifications of the biomolecule nor of the electrodes were needed. The two major electrokinetic effects that lead to molecule motion in the chosen electrode configurations used were identified as dielectrophoresis and AC electroosmotic flow. To minimize AC electroosmotic flow, a new 3D electrode configuration was designed. Thus, the influence of experimental parameters on the dielectrophoretic force and the associated molecule movement could be studied. Permanent immobilization of proteins was examined and quantified absolutely using an atomic force microscope. By measuring the volumes of the immobilized protein deposits, a maximal number of proteins contained therein was calculated. This was possible since the proteins adhered to the tungsten electrodes even after switching off the electric field. The permanent immobilization of functional proteins on surfaces or electrodes is one crucial prerequisite for the fabrication of biosensors. Furthermore, the biofunctionality of the proteins must be retained after immobilization. Due to the chemical or physical modifications on the proteins caused by immobilization, their biofunctionality is sometimes hampered. The activity of dielectrophoretically immobilized proteins, however, was proven here for an enzyme for the first time. The enzyme horseradish peroxidase was used exemplarily, and its activity was demonstrated with the oxidation of dihydrorhodamine 123, a non-fluorescent precursor of the fluorescence dye rhodamine 123. Molecular alignment and immobilization - reversible and permanent - was achieved under the influence of inhomogeneous AC electric fields. For orientational investigations, a fluorescence microscope setup, a reliable experimental procedure and an evaluation protocol were developed and validated using self-made control samples of aligned acridine orange molecules in a liquid crystal. Lambda-DNA strands were stretched and aligned temporarily between adjacent interdigitated electrodes, and the orientation of PicoGreen molecules, which intercalate into the DNA strands, was determined. Similarly, the aligned immobilization of enhanced Green Fluorescent Protein was demonstrated exploiting the protein's fluorescence and structural properties. For this protein, the angle of the chromophore with respect to the protein's geometrical axis was determined in good agreement with X-ray crystallographic data. Permanent immobilization with simultaneous alignment of the proteins was achieved along the edges, tips and on the surface of interdigitated electrodes. This was the first demonstration of aligned immobilization of proteins by electric fields. Thus, the presented electric field-assisted immobilization method is promising with regard to enhanced antibody binding capacities and enzymatic activities, which is a requirement for industrial biosensor production, as well as for general interaction studies of proteins. N2 - In dieser Doktorarbeit wurde eine Methode entwickelt, mit der Biomoleküle unter dem Einfluss von elektrischen Feldern auf Metallelektroden immobilisiert und ausgerichtet werden können. Für die Immobilisierung wurden weder Modifikationen an den Biomolekülen noch an den Elektroden benötigt. Zwei elektrokinetische Effekte, die Dielektrophorese und der AC-elektroosmotische Fluss, wurden als verantwortliche Effekte für die Molekülbewegung identifiziert. Mit einer neuen 3D Elektrodenkonfiguration wurde der AC-elektroosmotische Fluss minimiert. Damit konnte der Einfluss der experimentellen Parameter auf die Dielektrophoresekraft und deren Auswirkungen auf die Moleküle untersucht werden: Die permanente Immobilisierung von Proteinen wurde mit einem Rasterkraftmikroskop quantifiziert, indem die Volumina der immobilisierten Proteinablagerungen gemessen wurden, und daraus die maximal darin enthaltene Anzahl an Proteinen berechnet wurde. Diese Art der absoluten Quantifizierung war nur möglich, da die Proteine auch nach Abschalten des elektrischen Feldes auf den Wolframelektroden hafteten. Eine solche permanente Immobilisierung funktioneller Proteine auf Elektroden oder Oberflächen im Allgemeinen ist eine wichtige Voraussetzung für die Herstellung von Biosensoren. Des Weiteren muss die Biofunktion der Proteine nach der Immobilisierung erhalten bleiben. Da die Proteine durch die Immobilisierung chemisch oder physikalisch verändert werden, ist auch ihre Biofunktion häufig eingeschränkt. In dieser Arbeit wurde erstmals der Erhalt der Aktivität dielektrophoretisch immobilisierter Enzyme gezeigt. Hierfür wurde das Enzym Meerrettichperoxidase exemplarisch verwendet, dessen Aktivität über die Oxidation von Dihydrorhodamin 123, einem nicht-fluoreszentem Vorläufer des Fluoreszenzfarbstoffes Rhodamin 123, nachgewiesen wurde. Molekulare Ausrichtung und Immobilisierung – sowohl reversibel als auch permanent – wurde unter dem Einfluss inhomogener elektrischer Wechselfelder erreicht. Für die Bestimmung der Molekülausrichtung wurde mit ein Messaufbau entwickelt, der auf einem Fluoreszenzmikroskop basiert. Der Aufbau, das Messprotokoll und die Auswertungsmethode wurden mit einer selbst hergestellten Kontrollprobe, die aus ausgerichteten Acridinorangemolekülen in einem Flüssigkristall bestand, validiert. Lambda-DNA Doppelstränge wurden zwischen benachbarten Interdigitalelektroden gestreckt und temporär ausgerichtet. Die Ausrichtung von interkalierten PicoGreen-Molekülen im rechten Winkel zur Längsachse der Doppelstränge konnte hier gezeigt werden. Zudem konnte die ausgerichtete Immobilisierung des enhanced Green Fluorescent Protein nachgewiesen werden, indem die Fluoreszenz des Proteins und seine Struktureigenschaften ausgenutzt wurden. Aus den Messungen konnte der Winkel des Chromophors relativ zur Proteinlängsachse mit guter Übereinstimmung mit Röntgenkristallstrukturdaten bestimmt werden. Eine permanente Immobilisierung mit gleichzeitiger Ausrichtung der Proteine wurde entlang der Kanten, an den Spitzen und auf der Oberfläche von Interdigitalelektroden erzielt. Damit wurde zum ersten Mal eine ausgerichtete Immobilisierung von Proteinen mit elektrischen Wechselfeldern gezeigt. Diese Methode ist vielversprechend für die Immobilisierung von Antikörpern oder Enzymen mit einheitlicher Ausrichtung und dadurch verbessertem Zugang zu den aktiven Zentren, was nicht nur für die industrielle Biosensorherstellung von Interesse ist, sondern genauso für allgemeine Wechselwirkungsstudien von Proteinen. KW - dielectrophoresis KW - electrokinetics KW - proteins KW - immobilization KW - alignment KW - Dielektrophorese KW - elektrokinetische Effekte KW - Proteine KW - Immobilisierung KW - Ausrichtung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90271 ER - TY - THES A1 - Ledendecker, Marc T1 - En route towards advanced catalyst materials for the electrocatalytic water splitting reaction T1 - Innovative Katalysatormaterialien für die elektrokatalytische Wasserspaltung BT - mechanistic insights into the formation of metal carbides, phosphides, sulfides and nitrides BT - mechanistische Einblicke in die Bildung von Metallcarbiden, -phosphiden, -sulfiden und –nitriden N2 - The thesis on hand deals with the development of new types of catalysts based on pristine metals and ceramic materials and their application as catalysts for the electrocatalytic water splitting reaction. In order to breathe life into this technology, cost-efficient, stable and efficient catalysts are imploringly desired. In this manner, the preparation of Mn-, N-, S-, P-, and C-containing nickel materials has been investigated together with the theoretical and electrochemical elucidation of their activity towards the hydrogen (and oxygen) evolution reaction. The Sabatier principle has been used as the principal guideline towards successful tuning of catalytic sites. Furthermore, two pathways have been chosen to ameliorate the electrocatalytic performance, namely, the direct improvement of intrinsic properties through appropriate material selection and secondly the increase of surface area of the catalytic material with an increased amount of active sites. In this manner, bringing materials with optimized hydrogen adsorption free energy onto high surface area support, catalytic performances approaching the golden standards of noble metals were feasible. Despite varying applied synthesis strategies (wet chemistry in organic solvents, ionothermal reaction, gas phase reaction), one goal has been systematically pursued: to understand the driving mechanism of the growth. Moreover, deeper understanding of inherent properties and kinetic parameters of the catalytic materials has been gained. N2 - Wasserstoff ist einer der vielversprechendsten Energieträger aufgrund seiner hohen massenbezogenen Energiedichte. In diesem Zusammenhang erlaubt die elektrokatalytische Wasserspaltung die einfache und saubere Herstellung von Wasserstoff. Allerdings erfordert die Trennung der relativ starken Wasserstoff-Sauerstoff Bindungen beträchtliche Energie und teure Edelmetalle wie Platin oder Iridium zeigen die höchste katalytische Aktivität mit geringer Überspannung und hohen Stromdichten was zu einem guten Wirkungsgrad führt. Aus dieser Motivation heraus befasst sich die vorliegende Arbeit mit der Entwicklung neuer Katalysatoren, die auf Metalllegierungen und Keramiken basieren, sowie ihrer Anwendung für die elektrokatalytische Wasserspaltung. Besonderes Augenmerk wurde auf die Herstellung von kostengünstigen mangan-, stickstoff-, schwefel-, phosphor- und kohlenstoffhaltigen Nickelwerkstoffen gelegt und deren Aktivität experimentell und theoretisch erforscht. Nickel wurde aufgrund seines relativ günstigen Preises und hohen Vorkommens gewählt. Das Prinzip von Sabatier – die Wechselwirkung zwischen Adsorbat und Substrat sollte weder zu stark noch zu schwach sein – wurde als Leitfaden für die Entwicklung effizienter Katalysatoren benutzt. Trotz unterschiedlich angewendeter Synthesestrategien (Synthese in organischen Lösungsmitteln, ionothermale Reaktion oder Gasphasenreaktion), wurde zusätzlich systematisch ein weiteres Ziel verfolgt: Die Wachstums- und Entstehungsmechanismen dieser Materialen zu ergründen. Darüber hinaus wurde ein tieferes Verständnis der inhärenten Eigenschaften und kinetischen Parameter der katalytischen Materialien gewonnen. KW - Wasserspaltung KW - Katalysatoren KW - Keramik KW - Legierungen KW - Materialwissenschaft KW - HER KW - OER KW - water splitting reaction KW - ceramics KW - metal alloys KW - material science KW - HER KW - OER Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93296 ER - TY - THES A1 - Hoxtell, Annette T1 - Entscheidungsgründe für den Ausbildungsbetrieb T1 - Reasons for choosing a training company BT - eine explorative Studie mit Auszubildenden sowie Schülerinnen und Schülern BT - an exploratory study with apprentices and high-school students N2 - Die schulische Berufswahlvorbereitung versäumt es, Jugendliche auf die Wahl des Ausbildungsbetriebs vorzubereiten. Sie thematisiert nur die Berufswahl, obwohl die Entscheidung für eine betriebliche Ausbildung immer auch die Entscheidung für einen Ausbildungsbetrieb voraussetzt. Für die Ausbildungszufriedenheit und den -erfolg ist diese Betriebswahl zentral. Angesichts des Mismatchs am Ausbildungsmarkt ist das Thema hochrelevant. Aus welchen Gründen entscheiden sich Jugendliche für einen Ausbildungsbetrieb? Diese Frage untersucht die vorliegende Arbeit aus prospektiver Sicht in narrativen Einzelinterviews mit 52 Schülerinnen und Schülern der 9. und 10. Klassenstufen verschiedener Schultypen und aus retrospektiver Sicht in vier multipel eingebetteten Mehrfallstudien mit 17 Auszubildenden aus vier Betrieben und in acht Berufen – jeweils in Brandenburg und Berlin. Theoretisch nähert sich diese Arbeit dem Thema über psychologische, soziologische und wirtschaftswissenschaftliche sowie interdisziplinäre Berufswahltheorien an, dem operativen Modell der Betriebswahl sowie dem hier neu entwickelten Modell der Ausbildungswahl als Entscheidungsprozess, das die beiden Wahlkomponenten Betrieb und Beruf vereint. Drei zentrale Erkenntnisse kennzeichnen das Ergebnis der vorliegenden Arbeit: 1. Jugendliche beschäftigen sich mit der Wahl des Ausbildungsbetriebs und berücksichtigen vor allem emotionale Gründe. Diese variieren von Person zu Person. 2. Wichtigste Entscheidungsgründe für den Ausbildungsbetrieb sind der persönliche Eindruck, die inhaltliche Solidität, der Ort, das Betriebsklima, Kontakte ins Unternehmen, Perspektiven und die Bezahlung. 3. Jugendliche mit Mittlerem Schulabschluss achten besonders auf die Perspektiven nach Ausbildungsende. Die wenigen anderen Studien zur Entscheidung für den Ausbildungsbetrieb gehen auf den am häufigsten genannten Entscheidungsgrund persönlicher Eindruck nicht ein. Auch kommen sie zu uneinheitlichen Schlüssen, für welche Personengruppe der Entscheidungsgrund Perspektiven besonders relevant ist. Es bedarf zusätzlicher Studien, um die Ergebnisse zu überprüfen und ihre statistische Verteilung in größeren Bevölkerungsgruppen zu untersuchen sowie eine belastbare, ganzheitliche Theorie zur Ausbildungswahl zu entwickeln. N2 - A large number of students in Germany wish to pursue apprenticeship training and vocational orientation courses in German secondary schools are tasked with preparing them for choosing their desired vocation. What is lacking in these courses, however, is guidance not only on choosing the right training occupation, but on choosing the right training company—a crucial element for apprenticeship satisfaction and success. For which reasons do youths choose a training company? The work at hand takes an innovative approach by analyzing this question both pro- and retrospectively and by looking holistically at the choice of an apprenticeship, i.e. as a choice of both training occupation and company. In order to analyze prospective reasons, it comprises narrative one-to-one interviews with 52 ninth- and tenth-grade high school students. In order to analyze retrospective reasons, it comprises four embedded multiple case studies with 17 apprentices working for four different companies in eight different vocations. The students and apprentices live and work in the German states of Berlin and Brandenburg. The empirical analysis is based on psychological, sociological and economic theories of vocational choice, the operative model of training company choice as well as the newly developed model of apprenticeship choice, which comprises the choice of both occupation and company. This research found three main conclusions: 1. Youths consider a number of criteria for choosing a training company, most of which are emotionally driven. These criteria vary from person to person. 2. The primary criteria students and apprentices use in choosing training companies are personal impressions, substantial training, work location, working atmosphere, contacts, career perspectives and pay. 3. Youths with an intermediate-level high-school diploma (Mittlerer Schulabschluss in German) are especially interested in perspectives within the company after finishing their apprenticeship. There are only a few studies on the choice of training companies. In contrast to the work at hand they do not identify personal impressions as a reason and offer different results on the groups of people that find perspectives of particular importance. Further research on the choice of apprenticeships and training companies needs to be conducted to verify the results and to show a representative statistical distribution of reasons as well as to build a solid theory on the choice of apprenticeships. KW - Betriebswahl KW - Berufswahl KW - Ausbildungswahl KW - Ausbildungsbetriebswahl KW - Ausbildungswahl als Entscheidungsprozess KW - Ausbildungswahl als Entscheidung KW - Entscheidungsgründe KW - qualitativ-strukturierende Inhaltsanalyse KW - Fallstudie KW - Mehrfallstudie KW - eingebettete Mehrfallstudie KW - multipel eingebettete Mehrfallstudie KW - Reziprokationslogik KW - Berufspädagogik KW - Wirtschaftspädagogik KW - explorativ KW - narratives Interview KW - teilnehmende Beobachtung KW - Schülerinnen KW - Schüler KW - Auszubildende KW - choice of training company KW - choice of training occupation KW - vocational choice KW - Brandenburg KW - Berlin KW - apprentice KW - high school student KW - case study KW - multiple embedded case study KW - narrative interview KW - participant observation KW - Triangulation Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93377 ER - TY - THES A1 - Stahlhut, Frank T1 - Entwicklung neuer triphiler, fluorkohlenstofffreier Blockcopolymere und Untersuchung ihrer Eigenschaften für Multikompartiment-Mizellen T1 - Synthesis of new triphilic fluorocarbon -free block copolymers and analysis of their suitability as multicompartment micelles N2 - Neue Systeme für triphile, fluorkohlenstofffreie Blockcopolymere in Form von Acrylat-basierten thermoresponsiven Blockcopolymeren sowie Acrylat- bzw. Styrol-basierten Terblock-Polyelektrolyten mit unterschiedlich chaotropen Kationen des jeweiligen polyanionischen Blocks wurden entwickelt. Multikompartiment-Mizellen, mizellare Aggregate mit ultrastrukturiertem hydrophobem Mizellkern die biologischen Strukturen wie dem Humanalbumin nachempfunden sind, sollten bei der Selbstorganisation in wässriger Umgebung entstehen. Durch Verwendung apolarer und polarer Kohlenwasserstoff-Domänen anstelle von fluorophilen Fluorkohlenstoff-Domänen sollte erstmals anhand solcher triphilen Systeme nachgewiesen werden, ob diese in der Lage zur selektiven Aufnahme hydrophober Substanzen in unterschiedliche Domänen des Mizellkerns sind. Mit Hilfe von sequentieller RAFT-Polymerisation wurden diese neuen triphilen Systeme hergestellt, die über einen permanent hydrophilen, eine permanent stark hydrophoben und einen dritten Block verfügen, der durch externe Einflüsse, speziell die Induzierung eines thermischen Coil-to-globule-Übergangs bzw. die Zugabe von organischen, hydrophoben Gegenionen von einem wasserlöslichen in einen polar-hydrophoben Block umgewandelt werden kann. Als RAFT-Agens wurde 4-(Trimethylsilyl)benzyl(3-(trimethylsilyl)-propyl)-trithiocarbonat mit zwei unterschiedlichen TMS-Endgruppen verwendet, das kontrollierte Reaktions-bedingungen sowie die molekulare Charakterisierung der komplexen Copolymere ermöglichte. Die beiden Grundtypen der linearen ternären Blockcopolymere wurden jeweils in zwei 2 Modell-Systeme, die geringfügig in ihren chemischen Eigenschaften sowie in dem Blocklängenverhältnis von hydrophilen und hydrophoben Polymersegmenten variierten, realisiert und unterschiedliche Permutation der Blöcke aufwiesen. Als ersten Polymertyp wurden amphiphile thermoresponsive Blockcopolymere verwendet. Modell-System 1 bestand aus dem permanent hydrophoben Block Poly(1,3-Bis(butylthio)-prop-2-yl-acrylat), permanent hydrophilen Block Poly(Oligo(ethylenglykol)monomethyletheracrylat) und den thermoresponsiven Block Poly(N,N‘-Diethylacrylamid), dessen Homopolymer eine LCST-Phasenübergang (LCST, engl.: lower critical solution temperature) bei ca. 36°C aufweist. Das Modell-System 2 bestand aus dem permanent hydrophilen Block Poly(2-(Methylsulfinyl)ethylacrylat), dem permanent hydrophoben Block Poly(2-Ethylhexylacrylat) und wiederum Poly(N,N‘-Diethylacrylamid). Im ternären Blockcopolymer erhöhte sich, je nach Blocksequenz und relativen Blocklängen, der LCST-Übergang auf 50 – 65°C. Bei der Untersuchung der Selbstorganisation für die Polymer-Systeme dieses Typs wurde die Temperatur variiert, um verschieden mizellare Überstrukturen in wässriger Umgebung zu erzeugen bzw. oberhalb des LCST-Übergangs Multikompartiment-Mizellen nachzuweisen. Die Unterschiede in der Hydrophilie bzw. den sterischen Ansprüche der gewählten hydrophilen Blöcke sowie die Variation der jeweiligen Blocksequenzen ermöglichte darüber hinaus die Bildung verschiedenster Morphologien mizellarer Aggregate. Der zweite Typ basierte auf ein Terblock-Polyelektrolyt-System mit Polyacrylaten bzw. Polystyrolen als Polymerrückgrat. Polymere ionische Flüssigkeiten wurden als Vorlage der Entwicklung zweier Modell-Systeme genommen. Eines der beiden Systeme bestand aus dem permanent hydrophilen Block Poly(Oligo(ethylenglykol)monomethyletheracrylat, dem permanent hydrophoben Block Poly(2-Ethylhexylacrylat) sowie dem Polyanion-Block Poly(3-Sulfopropylacrylat). Die Hydrophobie des Polyanion-Blocks variierte durch Verwendung großer organischer Gegenionen, nämlich Tetrabutylammonium, Tetraphenylphosphonium und Tetraphenylstibonium. Analog wurde in einem weiteren System aus dem permanent hydrophilen Block Poly(4-Vinylbenzyltetrakis(ethylenoxy)methylether), dem permanent hydrophoben Block Poly(para-Methylstyrol) und Poly(4-Styrolsulfonat) mit den entsprechenden Gegenionen gebildet. Aufgrund unterschiedlicher Kettensteifigkeit in beiden Modell-Systemen sollte es bei der Selbstorganisation der mizellarer Aggregate zu unterschiedlichen Überstrukturen kommen. Mittels DSC-Messungen konnte nachgewiesen werden, dass für alle Modell-Systeme die Blöcke in Volumen-Phase miteinander inkompatibel waren, was eine Voraussetzung für Multikompartimentierung von mizellaren Aggregaten ist. Die Größe mizellarer Aggregate sowie der Einfluss externer Einflüsse wie der Veränderung der Temperatur bzw. der Hydrophobie und Größe von Gegenionen auf den hydrodynamischen Durchmesser mittels DLS-Untersuchungen wurden für alle Modell-Systeme untersucht. Die Ergebnisse zu den thermoresponsiven ternären Blockcopolymeren belegten , dass sich oberhalb der Phasenübergangstemperatur des thermoresponsiven Blocks die Struktur der mizellaren Aggregate änderte, indem der p(DEAm)-Block scheinbar kollabierte und so zusammen mit den permanent hydrophoben Block den jeweiligen Mizellkern bildete. Nach gewisser Equilibrierungszeit konnten bei Raumtemperatur dir ursprünglichen mizellaren Strukturen regeneriert werden. Hingegen konnte für die Terblock-Polyelektrolyt-Systeme bei Verwendung der unterschiedlich hydrophoben Gegenionen kein signifikanter Unterschied in der Größe der mizellaren Aggregate beobachtet werden. Zur Abbildung der mizellaren Aggregate mittels kryogene Transmissionselektronenmikroskopie (cryo-TEM) der mizellaren Aggregate war mit Poly(1,3-Bis(butylthio)-prop-2-yl-acrylat) ein Modell-System so konzipiert, dass ein erhöhter Elektronendichtekontrast durch Schwefel-Atome die Visualisierung ultrastrukturierter hydrophober Mizellkerne ermöglichte. Dieser Effekt sollte in den Terblock-Polyelektrolyt-Systemen auch durch die Gegenionen Tetraphenylphosphonium und Tetraphenylstibonium nachgestellt werden. Während bei den thermoresponsiven Systemen auch oberhalb des Phasenübergangs kein Hinweis auf Ultrastrukturierung beobachtet wurde, waren für die Polyelektrolyt-Systeme, insbesondere im Fall von Tetraphenylstibonium als Gegenion Überstrukturen zu erkennen. Der Nachweis der Bildung von Multikompartiment-Mizellen war für beide Polymertypen mit dieser abbildenden Methode nicht möglich. Die Unterschiede in der Elektronendichte einzelner Blöcke müsste möglicherweise weiter erhöht werden um Aussagen diesbezüglich zu treffen. Die Untersuchung von ortsspezifischen Solubilisierungsexperimenten mit solvatochromen Fluoreszenzfarbstoffen mittels „steady-state“-Fluoreszenzspektroskopie durch Vergleich der Solubilisierungsorte der Terblockcopolymere bzw. –Polyelektrolyte mit den jeweiligen Solubilisierungsorten von Homopolymer- und Diblock-Vorstufen sollten den qualitativen Nachweis der Multikompartimentierung erbringen. Aufgrund der geringen Mengen an Farbstoff, die für die Solubilisierungsexperimente eingesetzt wurden zeigten DLS-Untersuchungen keine störenden Effekte der Sonden auf die Größe der mizellaren Aggregate. Jedoch erschwerten Quench-Effekte im Falle der Polyelektrolyt Modell-Systeme eine klare Interpretation der Daten. Im Falle der Modell-Systeme der thermoresponsiven Blockcopolymere waren dagegen deutliche solvatochrome Effekte zwischen der Solubilisierung in den mizellaren Aggregaten unterhalb und oberhalb des Phasenübergangs zu erkennen. Dies könnte ein Hinweis auf Multikompartimentierung oberhalb des LCST-Übergangs sein. Ohne die Informationen einer Strukturanalyse wie z.B. der Röntgen- oder Neutronenkleinwinkelstreuung (SAXS oder SANS), kann nicht abschließend geklärt werden, ob die Solubilisierung in mizellaren hydrophoben Domänen des kollabierten Poly(N,N‘-Diethylacrylamid) erfolgt oder in einer Mischform von mizellaren Aggregaten mit gemittelter Polarität. N2 - New systems for triphilic fluorine-carbon-free block copolymers in the form of acrylate-based thermoresponsive block copolymers and acrylate- and styrene-based ternary block polyelectrolytes with different chaotropic cations of the respective polyanionic blocks have been developed. Multicompartment micelles, micellar aggregates with ultrastructured hydrophobic micelle core which are bio-inspired by biological structures like human serum albumin, should occur during the self-assembly in aqueous environment. By having nonpolar and polar hydrocarbon domains instead of fluorocarbon domains in these triphilic systems, it should be possible to demonstrate for the first time, whether they are capable of selectively uptaking hydrophobic substances in different hydrophobic domains of the micelle core. These new triphilic systems were prepared by using sequential RAFT polymerization. These polymers are based on a permanently hydrophilic polymer block; a permanent highly hydrophobic block and a third block which is sensitive to the result of external influences, especially the induction of a thermal coil-to-globule transition in the case of thermoresponsive block copolymers or adding organic hydrophobic counter ions in the case of block polyelectrolytes. The third block for each system can be converted from a water-soluble in a polar hydrophobic block due to external stimulus. The RAFT agent, 4- (trimethylsilyl) benzyl (3- (trimethylsilyl) propyl) trithiocarbonate, has two different TMS-labeled end groups, which enable controlled polymerization conditions and the exact molecular characterization of the complex copolymers. Each of the two basic types of linear ternary block copolymers, which were prepared for this work, were implemented in two 2 model systems that varied slightly in their chemical properties, as well as in the block length ratio of hydrophilic and hydrophobic polymer segments and different block sequences. The first polymer type is based on amphiphilic thermoresponsive block copolymers. Model system 1 consisted of the permanent hydrophobic block p(1,3-bis (butylthio) prop-2-yl acrylate), the permanently hydrophilic block p(oligo (ethylene glycol) mono methyl ether acrylate) and the thermoresponsive block p(N,N–diethyl acrylamide) whose homopolymer has a LCST (lower critical solution temperature) like phase transition approximately about 36°C. The model system 2 consisted of the permanent hydrophilic block p(2- (methylsulfinyl) ethyl acrylate), the permanently hydrophobic block p(2-ethylhexyl acrylate) and again p(N,N–diethyl acrylamide). The LCST is increased in ternary block copolymers to 50 - 65°C, depending on the block sequence and relative block lengths. To study the self-assembly of these two polymer systems, their aqueous micellar solutions where analyzed above and below LCST to produce different micellar superstructures in an aqueous environment and to prove the occurrence of multicompartment micelles above LCST. The differences in the hydrophilicity or the individual steric requirements of the chosen hydrophilic blocks as well as the variation of the respective block sequences lead additionally to different morphologies of micellar aggregates. The second type of polymers is based on ternary block polyelectrolytes with polyacrylates and polystyrenes as polymer backbone respectively. Polymeric ionic liquids were taken as role model for the development of two model systems of block polyelectrolytes. One of the two systems consisting of the permanently hydrophilic p(oligo (ethylene glycol) mono methyl ether acrylate), the permanent hydrophobic block p(2-ethylhexyl acrylate) and the polyanion block p(3-sulfopropyl acrylate) (= model system 3). The hydrophobicity of the polyanion blocks varied largely by using organic counter ions, namely tetrabutyl ammonium, tetraphenyl phosphonium and tetraphenyl stibonium. Analogously, model system 4 consists of a permanently hydrophilic block p(4-vinylmethoxybenzyltetrakis (oxyethylene) ether), a permanently hydrophobic block p(para-methyl styrene) and p(4-styrene sulfonate) formed with the corresponding counter ions. Due to different chain stiffness in both model systems there should be different superstructures of micellar aggregates in aqueous solution. DSC (differential scanning calorimetry) measurements could demonstrate that the all polymer blocks for each modell system were incompatible with each other in bulk phase. This property is a prerequisite for ultra-structured hydrophobic cores of micellar aggregates. The influence of external factors such as change of temperature or change of hydrophobicity and size of counter ions on the size of micellar aggregates for all model systems was examined by DLS measurements. The results on the thermoresponsive ternary block copolymers showed that above the phase transition temperature of the thermo-responsive block the structure of micellar aggregates changed because the p(N,N–diethyl acrylamide) block apparently collapsed formed a subdivided micellar core together with the permanently hydrophobic block. Some equilibration time for the thermoresponsive block copolymer systems were needed to ensure that heoriginal micellar structures could be regenerated after cooling heated auqeous micellar solutions to room temperature. However, for the ternary block polyelectrolytes, there was no significant difference in the size of the micellar aggregates due to the exchange of counter ions which differ by their hydrophobicity. For imaging the micellar aggregates and especially multicompartment micelles by means of cryogenic transmission electron microscopy (cryo-TEM), the model system 1 with p(1,3-bis (butylthio) -prop-2-yl acrylate) as permanently hydrophobic block was specifically designed so that the increased electron density contrast by sulfur atoms should enable the visualization of multicompartment micelles. This effect should be readjusted in the ternary block polyelectrolyte systems by the counter ions tetraphenyl phosphonium and tetraphenyl stibonium. While in the thermoresponsive block copolymer systems it was possible to observe new kinds of micellar aggregates above LCST, there was no indication on ultrastructuring in the micellar cores for all analyzed systems. Otherwise by using tetraphenyl stibonium counter ions in block polyelectrolyte systems, some kind of ultrastructured micellar aggregates with seemingly subdivided micellar cores could be observed. The detection of the formation of multicompartment micelles was not possible for both types of polymers with this direct imaging method. The differences in the electron density of individual blocks might have to be further increased to make statements concerning the self-assembly into multicompartment micelles. Site-specific solubilization experiments with solvatochromic fluorescent dyes by using steady-state fluorescence spectroscopy should provide the qualitative evidence of multicompartment micelles. The selective solubilization areas of different kinds of substances in self-assembled structures of all ternary block copolymers and ternary polyelectrolytes were compared with the solubilization areas in their respective homopolymer and diblock precursors. Because of the small amounts of dye that have been used for the solubilization DLS measurements showed no interfering effects of the probes on the size of the micellar aggregates. However, quenching effects made a clear interpretation of the data in the case of polyelectrolyte model systems difficult. In the case of model systems 1 and 2 a change of the solubilization areas of fluorescent dyes due to the occurrence significant solvatochromic effects (stokes shifts) above LCST could be observed. The effect was reversibel. This could be an indication that the micellar aggregates self-assemble into multicompartment micelles above the LCST transition. Without the information of a structural analysis such as the small angle x-ray scattering or small angle neutron scattering (SAXS or SANS), it cannot be conclusively clarified whether the solubilization occurs in micellar hydrophobic domains of the collapsed p(N,N–diethyl acrylamide), or in a mixed form of micellar aggregates with mixed polarity. KW - Blockcopolymere KW - RAFT KW - Multikompartiment-Mizellen KW - cryo-TEM KW - Solubilisierung KW - Fluoereszenzsonden KW - block copolymers KW - triphilic KW - RAFT KW - multicompartment micelles KW - cryo-TEM KW - fluorescent dyes KW - fluorescence probe experiments KW - triphil Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96299 SP - iv, 191 ER - TY - THES A1 - Renans, Agata Maria T1 - Exhaustivity T1 - Exhaustivität BT - on exclusive particles, clefts, and progressive aspect in Ga (Kwa) BT - über exklusive Partikel, Spaltsätze und progressiven Aspekt im Ga (Kwa) N2 - The dissertation proposes an answer to the question of how to model exhaustive inferences and what the meaning of the linguistic material that triggers these inferences is. In particular, it deals with the semantics of exclusive particles, clefts, and progressive aspect in Ga, an under-researched language spoken in Ghana. Based on new data coming from the author’s original fieldwork in Accra, the thesis points to a previously unattested variation in the semantics of exclusives in a cross-linguistic perspective, analyzes the connections between exhaustive interpretation triggered by clefts and the aspectual interpretation of the sentence, and identifies a cross-categorial definite determiner. By that it sheds new light on several exhaustivity-related phenomena in both the nominal and the verbal domain and shows that both domains are closely connected. N2 - Die Dissertation schlägt eine Antwort auf die Frage vor, wie exhaustive Inferenzen modelliert werden können und was die Bedeutung des sprachlichen Materials ist, das diese Inferenzen auslöst. Insbesondere geht es um die Semantik von exklusiven Partikeln, Spaltsätzen und progressivem Aspekt im Ga, einer bisher wenig untersuchten Sprache, die in Ghana gesprochen wird. Basierend auf neuen Daten aus der Feldforschungsarbeit der Autorin verweist die Dissertation auf zuvor nicht attestierte sprachübergreifende Variation in der Semantik exklusiver Partikel, analysiert die Beziehung zwischen exhaustiver Interpretation von Spaltsätzen und Aspektinterpretation und identifiziert einen kategorieübergreifenden definiten Artikel. Die Arbeit wirft somit neues Licht auf mehrere exhaustivitätsbezogene Phänomene sowohl in der nominalen als auch in der verbalen Domäne und zeigt, dass beide Domänen eng miteinander verbunden sind. KW - formal semantics KW - fieldwork KW - exclusive particles KW - clefts KW - progressive aspect KW - defintie determiner KW - formale Semantik KW - Feldforschung KW - exklusive Partikel KW - Spaltssatz KW - progressiver Aspekt KW - Ga (Kwa) Sprache KW - Ga (Kwa) language Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89501 ER - TY - THES A1 - Riebe, Daniel T1 - Experimental and theoretical investigations of molecular ions by spectroscopy as well as ion mobility and mass spectrometry T1 - Experimentelle und theoretische Untersuchungen molekularer Ionen durch Spektroskopie sowie Ionenmobilitäts- und Massenspektrometrie N2 - The aim of this thesis was the elucidation of different ionization methods (resonance-enhanced multiphoton ionization – REMPI, electrospray ionization – ESI, atmospheric pressure chemical ionization – APCI) in ion mobility (IM) spectrometry. In order to gain a better understanding of the ionization processes, several spectroscopic, mass spectrometric and theoretical methods were also used. Another focus was the development of experimental techniques, including a high resolution spectrograph and various combinations of IM and mass spectrometry. The novel high resolution 2D spectrograph facilitates spectroscopic resolutions in the range of commercial echelle spectrographs. The lowest full width at half maximum of a peak achieved was 25 pm. The 2D spectrograph is based on the wavelength separation of light by the combination of a prism and a grating in one dimension, and an etalon in the second dimension. This instrument was successfully employed for the acquisition of Raman and laser-induced breakdown spectra. Different spectroscopic methods (light scattering and fluorescence spectroscopy) permitting a spatial as well as spectral resolution, were used to investigate the release of ions in the electrospray. The investigation is based on the 50 nm shift of the fluorescence band of rhodamine 6G ions of during the transfer from the electrospray droplets to the gas phase. A newly developed ionization chamber operating at reduced pressure (0.5 mbar) was coupled to a time-of-flight mass spectrometer. After REMPI of H2S, an ionization chemistry analogous to H2O was observed with this instrument. Besides H2S+ and its fragments, H3S+ and protonated analyte ions could be observed as a result of proton-transfer reactions. For the elucidation of the peaks in IM spectra, a combination of IM spectrometer and linear quadrupole ion trap mass spectrometer was developed. The instrument can be equipped with various ionization sources (ESI, REMPI, APCI) and was used for the characterization of the peptide bradykinin and the neuroleptic promazine. The ionization of explosive compounds in an APCI source based on soft x-radiation was investigated in a newly developed ionization chamber attached to the ion trap mass spectrometer. The major primary and secondary reactions could be characterized and explosive compound ions could be identified and assigned to the peaks in IM spectra. The assignment is based on the comparison of experimentally determined and calculated IM. The methods of calculation currently available exhibit large deviations, especially in the case of anions. Therefore, on the basis of an assessment of available methods, a novel hybrid method was developed and characterized. N2 - Ziel dieser Arbeit war die Aufklärung unterschiedlicher Ionisationsmethoden (Resonanz-verstärkte Mehrphotonenionisation – REMPI, Elektrosprayionisation – ESI, chemische Ionisation bei Atmosphärendruck – APCI) in der Ionenmobilitäts (IM)-Spektrometrie. Um ein besseres Verständnis der Ionisationsprozesse zu erhalten, wurden zusätzlich ver¬schiedene spektroskopische, massenspektrometrische und theoretische Methoden eingesetzt. Ein weiterer Schwerpunkt war die Entwicklung neuer experimenteller Techniken, darunter ein hochauflösender Spektrograph und verschiedene Kombinationen von IM- und Massenspektrometern. Der neuartige, hochauflösende 2D Spektrograph ermöglicht spektroskopische Auflösungen im Bereich kommerzieller Echelle-Spektrographen. Die geringste erreichte Halbwertsbreite eines Peaks betrug 25 pm. Der 2D Spektrograph beruht auf der Wellenlängenseparation von Licht durch eine Kombination aus einem Prisma und einem Gitter in der einen Dimension und einem Etalon in der zweiten Dimension. Das Instrument wurde erfolgreich zur Aufnahme von Raman- und laserinduzierten Plasmaspektren ein¬gesetzt. Verschiedene spektroskopische Methoden (Lichtstreuung und Fluoreszenzspektroskopie), die sowohl eine räumliche, als auch eine spektrale Auflösung erlauben, wurden zur Untersuchung der Freisetzung der Ionen im Elektrospray angewandt. Die Untersuchung beruht auf der Verschiebung der Fluoreszenzbande von Rhodamin 6G-Ionen um 50 nm beim Übergang aus den Elektrospray-Tropfen in die Gasphase. Eine neuent¬wickelte Ionisationskammer bei reduziertem Druck (0,5 mbar) wurde an ein Flugzeit-Massenspektrometer gekoppelt. Darin wurde nach REMPI von H2S eine zum H2O analoge Ionisationschemie beobachtet. Neben H2S+ und seinen Fragmenten wurden als Ergebnis von Proto-nen-Transferreaktionen H3S+ und protonierte Analytionen beobachtet. Zur Aufklärung der Peaks in IM-Spektren wurde eine Kopplung von IM-Spektrometer und linearem Quadrupol-Ionenfallen-Massenspektrometer entwickelt. Die Kopplung kann mit verschiedenen Ionisationsquellen (ESI, REMPI, APCI) ausgestattet werden und wurde zur Charakterisierung des Peptids Bradykinin und des Neuroleptikums Promazin angewendet. Die Ionisation von Sprengstoffen in einer APCI-Quelle, die auf weicher Röntgenstrahlung beruht, wurde in einer neu entwickelten, an das Ionenfallen-Massenspektrometer gekoppelten Ionisationskammer untersucht. Dabei konnten die wichtigsten Primär- und Sekundärreaktionen charakterisiert, sowie Sprengstoffionen identifiziert und den Peaks in den IM-Spektren zugeordnet werden. Diese Zuordnung beruht auf dem Vergleich von experimentell bestimmten und berechneten IM. Da die aktuell verfügbaren Berechnungsmethoden insbesondere für Anionen zu große Abweichungen zu den experimentell bestimmten IM aufweisen, wurde auf Basis der Bewertung verfügbarer Methoden eine neue Hybridmethode entwickelt und charakterisiert. KW - ion mobility spectrometry KW - mass spectrometry KW - explosives KW - X-ray KW - photoionization KW - ion mobility calculations KW - Ionenmobilitätsspektrometrie KW - Massenspektrometrie KW - Sprengstoffe KW - Röntgenstrahlung KW - Photoionisation KW - Ionenmobilitäts-Berechnungen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94632 ER - TY - THES A1 - Cajar, Anke T1 - Eye-movement control during scene viewing T1 - Blicksteuerung bei der Betrachtung natürlicher Szenen BT - the roles of central and peripheral vision BT - die Rollen des zentralen und peripheren Sehens N2 - Eye movements serve as a window into ongoing visual-cognitive processes and can thus be used to investigate how people perceive real-world scenes. A key issue for understanding eye-movement control during scene viewing is the roles of central and peripheral vision, which process information differently and are therefore specialized for different tasks (object identification and peripheral target selection respectively). Yet, rather little is known about the contributions of central and peripheral processing to gaze control and how they are coordinated within a fixation during scene viewing. Additionally, the factors determining fixation durations have long been neglected, as scene perception research has mainly been focused on the factors determining fixation locations. The present thesis aimed at increasing the knowledge on how central and peripheral vision contribute to spatial and, in particular, to temporal aspects of eye-movement control during scene viewing. In a series of five experiments, we varied processing difficulty in the central or the peripheral visual field by attenuating selective parts of the spatial-frequency spectrum within these regions. Furthermore, we developed a computational model on how foveal and peripheral processing might be coordinated for the control of fixation duration. The thesis provides three main findings. First, the experiments indicate that increasing processing demands in central or peripheral vision do not necessarily prolong fixation durations; instead, stimulus-independent timing is adapted when processing becomes too difficult. Second, peripheral vision seems to play a prominent role in the control of fixation durations, a notion also implemented in the computational model. The model assumes that foveal and peripheral processing proceed largely in parallel and independently during fixation, but can interact to modulate fixation duration. Thus, we propose that the variation in fixation durations can in part be accounted for by the interaction between central and peripheral processing. Third, the experiments indicate that saccadic behavior largely adapts to processing demands, with a bias of avoiding spatial-frequency filtered scene regions as saccade targets. We demonstrate that the observed saccade amplitude patterns reflect corresponding modulations of visual attention. The present work highlights the individual contributions and the interplay of central and peripheral vision for gaze control during scene viewing, particularly for the control of fixation duration. Our results entail new implications for computational models and for experimental research on scene perception. N2 - Blickbewegungen stellen ein Fenster in aktuelle visuell-kognitive Prozesse dar und können genutzt werden um zu untersuchen wie Menschen natürliche Szenen wahrnehmen. Eine zentrale Frage ist, welche Rollen zentrales und peripheres Sehen für die Blicksteuerung in Szenen spielen, da sie Information unterschiedlich verarbeiten und auf verschiedene Aufgaben spezialisiert sind (Objektidentifikation bzw. periphere Zielauswahl). Jedoch ist kaum bekannt, welche Beiträge zentrale und periphere Verarbeitung für die Blicksteuerung in Szenen leisten und wie sie während der Fixation koordiniert werden. Des Weiteren wurden Einflussfaktoren auf Fixationsdauern bisher vernachlässigt, da die Forschung zur Szenenwahrnehmung hauptsächlich auf Einflussfaktoren auf Fixationsorte fokussiert war. Die vorliegende Arbeit hatte zum Ziel, das Wissen über die Beiträge des zentralen und peripheren Sehens zu räumlichen, aber vor allem zu zeitlichen Aspekten der Blicksteuerung in Szenen zu erweitern. In einer Serie von fünf Experimenten haben wir die Verarbeitungsschwierigkeit im zentralen oder peripheren visuellen Feld durch die Abschwächung selektiver Raumfrequenzanteile innerhalb dieser Regionen variiert. Des Weiteren haben wir ein computationales Modell zur Koordination von fovealer und peripherer Verarbeitung für die Kontrolle von Fixationsdauern entwickelt. Die Arbeit liefert drei Hauptbefunde. Erstens zeigen die Experimente, dass erhöhte Verarbeitungsanforderungen im zentralen oder peripheren visuellen Feld nicht zwangsläufig zu längeren Fixationsdauern führen; stattdessen werden Fixationsdauern stimulus-unabhängig gesteuert, wenn die Verarbeitung zu schwierig wird. Zweitens scheint peripheres Sehen eine entscheidene Rolle für die Kontrolle von Fixationsdauern zu spielen, eine Idee, die auch im computationalen Modell umgesetzt wurde. Das Modell nimmt an, dass foveale und periphere Verarbeitung während der Fixation weitgehend parallel und unabhängig ablaufen, aber interagieren können um Fixationsdauern zu modulieren. Wir schlagen somit vor, dass Änderungen in Fixationsdauern zum Teil auf die Interaktion von zentraler und peripherer Verarbeitung zurückgeführt werden können. Drittens zeigen die Experimente, dass räumliches Blickverhalten sich weitgehend an Verarbeitungsanforderungen anpasst und Betrachter Szenenregionen mit Raumfrequenzfilterung als Sakkadenziele vermeiden. Wir zeigen, dass diese Sakkadenamplitudeneffekte entsprechende Modulationen der visuellen Aufmerksamkeit reflektieren. Die vorliegende Arbeit hebt die einzelnen Beiträge und das Zusammenspiel zentralen und peripheren Sehens für die Blicksteuerung in der Szenenwahrnehmung hervor, besonders für die Kontrolle von Fixationsdauern. Unsere Ergebnisse geben neue Implikationen für computationale Modelle und experimentelle Forschung zur Szenenwahrnehmung. KW - psychology KW - eye movements KW - scene perception KW - Psychologie KW - Blickbewegungen KW - Szenenwahrnehmung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395536 ER - TY - THES A1 - Opel, Kim-Holger T1 - Faktor Mensch T1 - The human factor BT - der Bedeutungszuwachs betrieblicher humaner und sozialer Ressourcen im Lichte der Krisensituation der 1970er und 1980er Jahre BT - the meaning increase of operational humane and social resources in the light of the crisis situation of the 1970s and 1980s N2 - Eine Krisensituation ist eine Umbruchssituation. Sie kann als Chance, als Herausforderung sowie im Sinne einer SCHUMPETER’SCHEN „schöpferischen Zerstörung“ als Ausgangspunkt von bedeutsamen Veränderungen und neuen Entwicklungsmöglichkeiten begriffen werden. Die Krisensituation der 1970er und 1980er Jahre bildet dahingehend durch ihre Einzigartigkeit einen herausragenden wirtschaftshistorischen Untersuchungsgegenstand. Für die westeuropäischen Staaten waren es nicht nur Jahre einer, nach der außergewöhnlich langen Boomzeit der „Wirtschaftswunderjahre“, problematischen sozialen und wirtschaftliche Situation. Es war auch eine Zeit eines bedeutungsvollen und beschleunigten Wandels. Die Gleichzeitigkeit vieler Veränderungen, das zeitliche Zusammentreffen von konjunkturellen und strukturellen Problemlagen sowie die äußerst kritische Situation an den westeuropäischen Arbeitsmärkten bildete eine multiple Krisensituation. Deren Auswirkungen waren weitreichender, als es von den Zeitgenossen erahnt werden konnte. Es gab nicht nur Änderungen im (wirtschafts-)politischen Makrogefüge vieler Volkswirtschaften, auch bedeutende Einflüsse waren auf der Mikroebene feststellbar. Marktorientierte Unternehmen mussten sich auf die neue Situation einstellen und im Rahmen einer Neupositionierung von Betriebsstrategien, organisatorischen Umgestaltungen und einer stärkeren Ressourcenorientierung betriebswirtschaftlich handeln. Das schien letztlich zu einer stärkeren Beachtung und Entwicklung der in den Unternehmen vorhandenen humanen und sozialen Ressourcen zu führen. Diese Arbeit stellt die Hypothese auf, dass umfassende organisatorische Veränderungen und strategische Neupositionierungen, insbesondere die effektivere Nutzung sowie der intensive Auf- und Ausbau betriebsinterner Personalressourcen Unternehmen maßgeblich halfen, die Krisensituation der 1970er und 1980er Jahre besser und nachhaltiger überwinden zu können. Anders als die bisherige wirtschaftshistorische Forschungsliteratur nimmt diese Dissertation nicht die makroökonomisch Perspektive in den Fokus, sondern untersucht die Hypothese anhand mehrerer Unternehmensfallstudien. Ausgewählt sind drei Großunternehmen der westeuropäischen Elektroindustrie. Diese Arbeit liefert mit dieser Untersuchung einen weiteren Baustein zur wirtschaftshistorischen Annäherung an die 1970er und 1980er Jahre und leistet ebenso einen Beitrag zur Fortschreibung der Firmengeschichte der drei Unternehmen. Die Elektrobranche fand bisher wirtschaftshistorisch nur wenig Beachtung, dennoch ist sie ein gutes Beispiel für die umfassende Veränderungssituation jener Jahre. Entsprechende Sekundärquellen sind für diesen Zeitraum für die drei Unternehmen kaum vorhanden. Aus diesem Grund bildet eine Vielzahl von Archivalien das Fundament dieser Arbeit. Sie werden als Primärquellen aus den jeweiligen Unternehmensarchiven als Basis der Fallanalyse herangezogen. Mit Hilfe zahlreicher Dokumente des betrieblichen „Alltagsgeschäfts“, wie beispielsweise Daten des betrieblichen Personal- und Rechnungswesens, Protokolle von Sitzungen der Arbeitsnehmervertreter, des Aufsichtsrats oder des Vorstands sowie interne Strategiepapiere und Statistiken, wird nicht nur der anfangs aufgestellten Hypothese nachgegangen, sondern auch mehrerer sich aus ihr ergebende Fragenkomplexe. Im Rahmen derer wird untersucht, wie die Unternehmen – die Beschäftigten, die Leitungsebenen und die Aufsichtsräte – auf die Krisensituation reagierten, ob sie ggf. ihrerseits Einfluss darauf zu nehmen versuchten und welche betriebswirtschaftlichen Schlüsse daraus gezogen wurden. Es wird hinterfragt, ob eine stärkere Ressourcenorientierung wirklich eine neue Strategieperspektive bot und es diesbezüglich zu einer stärkeren Beachtung humaner und sozialer Ressourcen im Unternehmen kam. Diese Arbeit untersucht, ob gezielt zur Krisenüberwindung in diese Ressourcen investiert wurde und diese Investitionen halfen, die Krisensituation erfolgreich zu überstehen und nachhaltig den Unternehmenserfolg zu sichern. N2 - A crisis situation is a state of upheaval. It can be understood as an opportunity, a challenge or in the sense of a SCHUMPETER’SCHEN "creative destruction" as a starting point for significant changes and new development possibilities. The crisis of the 1970s and 1980s, by its uniqueness, is an outstanding economic research subject. For the Western European states, it was not only years of a problematic social and economic situation after the exceptionally long boon period in the 1950s and 1960s. It was also a significant and accelerated change. The simultaneity of these changes, the temporal coincidence of economic and structural problems as well as the extremely critical situation in the Western European labour markets formed a multiple crisis situation. Their effects were more far-reaching than could be imagined by their contemporaries. There were not only changes in the (economic) political macro structure of many economies. Also, significant influences were observed on the micro level. Market-oriented companies had to adjust to the new situation. This thesis demonstrates that comprehensive organizational changes and a strategic repositioning, particularly the more effective use and development of company-internal personnel resources helped companies to overcome the crisis of the 1970s and 1980s better and more sustainably. In contrast to the previous scientific literature, this dissertation does not focus only on the economic perspective, but examines the hypothesis based on several company case studies. Three major companies of the Western European electrical industry are selected. This study provides a further building block for the economic historical approach to the 1970s and 1980s and makes an important contribution to the updating of the company history of the three companies. The electrical sector has so far received little attention yet, so secondary sources of the three companies are scarce. For this reason, archive documents form as primary sources the foundation of the case studies. With the help of numerous documents of the company's business, such as data on personnel and accounting, minutes of meetings of the employees' representatives, the supervisory board or the board of directors, as well as internal strategy papers statistics, not only the initially hypothesis is investigated but also several question complexes. The study examines how the companies - the employees, the management levels and the supervisory boards - were reacting to the crisis and which conclusions were drawn from it. It is questioned whether a stronger resource orientation really offered a new strategy perspective and if there was more emphasis on human and social resources. This study examines whether investments in these resources were made to overcome the crisis and how these helped to sustainably secure the company's success. N2 - En krissituation innebär omvälvning. Det kan förstås som ett tillfälle, en utmaning eller i en SCHUMPETER’SCHEN "kreativ förstörelse" som utgångspunkt för betydande förändringar och nya utvecklingsmöjligheter. Krissituationen på 1970- och 1980-talet är, på grund av sin unika karaktär, ett enastående ekonomiskt forskningsämne. För de västeuropeiska länderna var det efter den exceptionellt långa boonperioden på 1950- och 1960-talet, en problematisk social och ekonomisk situation. Det var också en tid för långtgående och påskyndad förändring. Samtidigheten av många förändringar, det tillfälliga sammantaget av ekonomiska och strukturella problemer samt den extremt kritiska situationen på västeuropeiska arbetsmarknaderna skapade en krisläge. Deras effekter var mer långtgående än vad de kunde föreställa sig av deras samtidiga. Det fanns inte bara förändringar i den (ekonomiska) politiska makrostrukturen i många ekonomier, men även signifikanta influenser observerades på mikronivå. Marknadsorienterade företag måste anpassa sig till den nya situationen. Det betyder omplacering av operativa strategier, organisatoriska omvandlingar och en starkare resursorientering. I slutändan verkade detta leda till större uppmärksamhet och utveckling av de mänskliga och sociala resurserna som finns i företag. Arbetet hypotesen att organisatoriska förändringar och strategisk ompositionering, särskilt effektiv användning eller intensiv utveckling och expansion av interna personal hjälpt företag - om inte ens avgörande - att övervinna krisen på 1970- och 1980-talet, bättre och mer hållbar att kunna. I motsats till den tidigare vetenskapliga litteraturen om ekonomi fokuserar denna avhandling inte på det makroekonomiska perspektivet, men undersöker hypotesen på grundval av flera företagsstudier. Tre stora företag i västeuropeisk elindustri är utvalda. Denna studie utgör ett ytterligare byggstenar för det ekonomiska historiska tillvägagångssättet på 1970- och 1980-talet och utgör också ett viktigt bidrag till uppdateringen av de tre bolagens historia. Elektriska sektorn har hittills fått liten uppmärksamhet, men det är ett bra exempel på de förändrade situationen för dessa år. Som ett resultat är sekundära källor för de tre företagen knappa. Av detta skäl utgör arkivdokumentet grunden för detta arbete. De används som primära källor från respektive företagsarkiv som grund för fallanalysen. Med hjälp av ett stort antal dokument från företagets "dagliga verksamheten" – såsom data för HR och bokföring, protokoll av möten från arbetstagarrepresentanterna, styrelsen eller interna strategidokument statistik – undersöks hypotesen och flera från deras resulterande frågor. Som en del av vilka undersöks hur företaget - de anställda, de nivåer av förvaltningen och styrelseledamöterna - reagerade på krissituation. Det ifrågasätts om en starkare resursorientering verkligen gav ett nytt strategiskt perspektiv och att det fanns större tonvikt på mänskliga och sociala resurser i företaget. I det här arbetet undersöks om en kris har investerats i dessa resurser och har hjälpt dessa investeringar att framgångsrikt övervinna krissituationen och för att säkra företagets framgång på lång sikt. KW - Humankapital KW - Sozialkapital KW - betriebliche Humanressourcen KW - betriebliche Sozialressourcen KW - Ericsson AB KW - Siemens AG KW - The General Electric Company plc KW - Marconi plc KW - Arbeitsmärkte KW - Krisensituation KW - 1970er Jahre KW - 1980er Jahre KW - human capital KW - social capital KW - operational human resources KW - operational social resources KW - labor markets KW - crisis situation KW - 1970s KW - 1980s Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404767 ER - TY - THES A1 - Reisinger, Susanne T1 - Formen religiösen Wandels: Die Bildung muslimischer Frauengruppen T1 - Religious change in Germany: the formation of Muslim women’s groups BT - eine empirische Untersuchung im religiösen Feld von 2006-2011 BT - empirical research in the religious field 2006-2011 N2 - Die vorliegende explorative empirische Untersuchung muslimischer Frauengruppen leistet einen Beitrag zur Erforschung des religiösen Wandels im religiösen Feld in Deutschland. Zum einen werden damit erstmals qualitative Daten zu religiösen Gruppen muslimischer Frauen erhoben. Zum anderen liefern die analysierten Anlässe der Gruppengründung und die Gruppenziele Einblicke in die relevanten Themen des religiös-muslimischen Engagements im Zeitverlauf. Gemäß der explorativen Konzeption interessiert sich diese Studie insbesondere für die Vielfalt muslimischer Frauengruppen in Deutschland. Es wurde gefragt, welche Selbstbeschreibungen als muslimische Frauengruppen sich derzeit erkennen lassen? Dazu wurden thematische Leitfadeninterviews mit Ansprechpartnerinnen muslimischer Frauengruppen im religiösen Feld (2006-2011) durchgeführt. Die Gründungen der zwölf untersuchten muslimischen Frauengruppen lagen im Zeitraum von 1978 bis 2009. Dies umfasst im Hinblick auf das muslimisch-religiöse Engagement Phasen mit unterschiedlichen Schwerpunkten, die von der Verfestigung der religiösen Strukturen über den Kampf um rechtliche Gleichstellung als religiöse Minderheit bis zu einer Auseinandersetzung mit der staatlichen Islampolitik reichen. Die ältesten der untersuchten Gruppen reflektieren in ihrem historischen Verlauf den Aufbau der religiösen Strukturen, indem sie zunächst Räume für sich in den Gemeinden schufen. Diese füllten sie in Form von religiösen Bildungsprozessen und zwar indem sie einander an ihren Kenntnissen teilhaben ließen und gemeinsam die religiöse Quelle erschlossen. Andere Gruppen schlossen sich zusammen, um von den Kenntnissen religiöser Expertinnen zu profitieren, wieder andere etablierten Angebote, die über den eigenen Gruppenzusammenhang hinausreichten. Mit dieser Ausrichtung der Weltgestaltung ging auch die Gründung einer Organisation, d.h. ein Wandel der Sozialform einher. Die Ergebnisse konstatieren eine Kontingenz hinsichtlich der Selbstzuordnung muslimische Frauengruppe. Es handelt sich um historisch spezifische Selbstzuschreibungen, die Ausdruck eines religiösen Wandels im muslimisch-religiösen Feld initiiert von muslimischen Frauen sind. Zentrales Ergebnis ist hier, dass die Gruppen zwar hinsichtlich ihrer Formen heterogen sind, allerdings eine Verbindungslinie in ihren Kernideen als Frauengruppen- und Organisationen besteht. Es zeigt sich durch alle Phasen des muslimisch-religiösen Engagements im religiösen Feld ein hohes Interesse an religiösen Bildungsthemen seitens muslimischer Frauen. Diese sind verbunden mit der Auseinandersetzung mit dem religiösen Geschlechterverhältnis. Die Aufmerksamkeit, die das religiöse Geschlechterverhältnis im Kontext des Institutionalisierungs- und Partizipationsprozess des Islam im politischen Feld derzeit besitzt, kann einerseits als spezifisch gelten. Andererseits zeigen historische Kontextualisierungen mit der religiösen Frauenbewegung im 19. Jahrhundert, dass auch hier über religiöse Geschlechterbilder Partizipationsfragen verhandelt wurden. Die Ergebnisse dieser Studie belegen die Relevanz von religiösen Gruppen innerhalb religiöser Wandlungsprozesse. Weiterhin liefern sie neue Erkenntnisse hinsichtlich des Verhältnisses von religiöser Individualisierung und Gruppenbindung: Muslimische Frauen vergemeinschaften sich aus religiösen Bildungszwecken innerhalb von religiösen Gruppen und behandeln dabei Themen ihre weibliche religiöse Identität und die religiöse Lebensführung als Frau betreffend und dies stärkt ihre individuelle religiöse Bindung. N2 - This explorative empirical research focuses on religious change in Germany by analyzing Muslim women groups. The occasions and their topics illustrate Muslim religious commitment in a historical perspective (1978-2009). The research shows the existing diversity of Muslim women groups but the interest in religious education is the link between them. The relation between gender, religion and education has an impact on the women’s religious commitment. But also in the Muslim religious organizations women’s themes are getting more relevant and new positions were established. Moreover the role of female religious experts is arising in the religious and also in the political field. KW - religiöser Wandel KW - muslimische Frauen KW - religiöse Gruppen KW - religious change KW - Muslim women KW - religious groups Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403276 ER - TY - THES A1 - Kühn, Jane T1 - Functionally-driven language change T1 - Funktional gesteuerter Sprachwandel BT - prosodic focus and sentence type marking in German-Turkish bilingual yes/no questions BT - prosodische Fokus-und Satztypmarkierung in Deutsch-Türkischen Ja/ Nein Fragen N2 - Since the 1960ies, Germany has been host to a large Turkish immigrant community. While migrant communities often shift to the majority language over the course of time, Turkish is a very vital minority language in Germany and bilingualism in this community is an obvious fact which has been subject to several studies. The main focus usually is on German, the second language (L2) of these speakers (e.g. Hinnenkamp 2000, Keim 2001, Auer 2003, Cindark & Aslan (2004), Kern & Selting 2006, Selting 2009, Kern 2013). Research on the Turkish spoken by Turkish bilinguals has also attracted attention although to a lesser extend mainly in the framework of so called heritage language research (cf. Polinski 2011). Bilingual Turkish has been investigated under the perspective of code-switching and codemixing (e.g. Kallmeyer & Keim 2003, Keim 2003, 2004, Keim & Cindark 2003, Hinnenkamp 2003, 2005, 2008, Dirim & Auer 2004), and with respect to changes in the morphologic, the syntactic and the orthographic system (e.g. Rehbein & Karakoç 2004, Schroeder 2007). Attention to the changes in the prosodic system of bilingual Turkish on the other side has been exceptional so far (Queen 2001, 2006). With the present dissertation, I provide a study on contact induced linguistic changes on the prosodic level in the Turkish heritage language of adult early German-Turkish bilinguals. It describes structural changes in the L1 Turkish intonation of yes/no questions of a representative sample of bilingual Turkish speakers. All speakers share a similar sociolinguistic background. All acquired Turkish as their first language from their families and the majority language German as an early L2 at latest in the kinder garden by the age of 3. A study of changes in bilingual varieties requires a previous cross-linguistic comparison of both of the involved languages in language contact in order to draw conclusions on the contact-induced language change in delimitation to language-internal development. While German is one of the best investigated languages with respect to its prosodic system, research on Turkish intonational phonology is not as progressed. To this effect, the analysis of bilingual Turkish, as elicited for the present dissertation, is preceded by an experimental study on monolingual Turkish. In this regard an additional experiment with 11 monolingual university students of non-linguistic subjects was conducted at the Ege University in Izmir in 2013. On these grounds the present dissertation additionally contributes new insights with respect to Turkish intonational phonology and typology. The results of the contrastive analysis of German and Turkish bring to light that the prosodic systems of both languages differ with respect to the use of prosodic cues in the marking of information structure (IS) and sentence type. Whereas German distinguishes in the prosodic marking between explicit categories for focus and givenness, Turkish uses only one prosodic cue to mark IS. Furthermore it is shown that Turkish in contrast to German does not use a prosodic correlate to mark yes/no questions, but a morphological question marker. To elicit Turkish yes/no questions in a bilingual context which differ with respect to their information structure in a further step the methodology of Xu (1999) to elicit in-situ focus on different constituents was adapted in the experimental study. A data set of 400 Turkish yes/no questions of 20 bilingual Turkish speakers was compiled at the Zentrum für Allgemeine Sprachwissenschaft (ZAS) in Berlin and at the University of Potsdam in 2013. The prosodic structure of the yes/no questions was phonologically and phonetically analyzed with respect to changes in the f0 contour according to IS modifications and the use of prosodic cues to indicate sentence type. The results of the analyses contribute surprising observations to the research of bilingual prosody. Studies on bilingual language change and language acquisition have repeatedly shown that the use of prosodic features that are considered as marked by means of lower and implicational use across and within a language cause difficulties in language contact and second language acquisition. Especially, they are not expected to pass from one language to another through language contact. However, this structurally determined expectation on language development is refuted by the results of the present study. Functionally related prosody, such as the cues to indicate IS, are transferred from German L2 to the Turkish L1 of German-Turkish bilingual speakers. This astonishing observation provides the base for an approach to language change centered on functional motivation. Based on Matras’ (2007, 2010) assumption of functionality in language change, Paradis’ (1993, 2004, 2008) approach of Language Activation and the Subsystem Theory and the Theory of Language as a Dynamic System (Heredina & Jessner 2002), it will be shown that prosodic features which are absent in one of the languages of bilingual speech communities are transferred from the respective language to the other when they contribute to the contextualization of a pragmatic concept which is not expressed by other linguistic means in the target language. To this effect language interaction is based on language activation and inhibition mechanisms dealing with differences in the implicit pragmatic knowledge between bilinguals and monolinguals. The motivator for this process of language change is the contextualization of the message itself and not the structure of the respective feature on the surface. It is shown that structural consideration may influence language change but that bilingual language change does not depend on structural restrictions nor does the structure cause a change. The conclusions drawn on the basis of empirical facts can especially contribute to a better understanding of the processes of bilingual language development as it combines methodologies and theoretical aspects of different linguistic subfields. N2 - Seit den 1960er Jahren und der damit einhergehenden Arbeitsmigration ist Deutschland eines der europäischen Länder mit der größten türkischstämmigen Einwanderergesellschaft, die sich auf etwa 2.8 Millionen Personen beläuft (Woellert et al. 2009). Obwohl Sprachminderheiten im Laufe der Generationen gewöhnlich zur Mehrheitssprache wechseln, ist das Türkische in Deutschland zweifelsohne eine lebendige Sprache. Die Zweisprachigkeit der türkischen Gemeinschaft in Deutschland ist eine nicht von der Hand zu weisende Tatsache und liegt im Fokus sprachwissenschaftlicher Forschung. Hierbei liegt das Hauptaugenmerk auf der Betrachtung der sprachlichen Merkmale und Veränderungen in der Zweitsprache (L2) Deutsch (e.g. Hinnenkamp 2000, Keim 2001, Auer 2003, Cindark & Aslan 2004, Kern & Selting 2006, Selting 2009, Kern 2013). Die Erstsprache (L1) Türkisch findet vorrangig Beachtung in der sogenannten heritage language Forschung. Obwohl der Begriff keiner klaren Definition oder Abgrenzung bezüglich ähnlicher Konzepte, wie der Minderheitensprache unterliegt, bezieht sich heritage language im Allgemeinen auf die Erstsprache bilingualer Sprecher in der Diaspora (vgl. Polinski 2011). Das Türkische in Deutschland wurde bislang vor allem in Bezug auf Sprechstil und den einhergehenden Mechanismen von code-switching und code-mixing (z.B. Kallmeyer & Keim 2003, Keim 2003, 2004, Keim & Cindark 2003, Hinnenkamp 2003, 2005, 2008, Dirim & Auer 2004), aber auch in Bezug auf grammatikalische und orthographische Veränderungen untersucht (e.g. Rehbein & Karacoç 2004, Schroeder 2007). In Bezug auf prosodische Merkmale von bilingualem Türkisch beschreibt Queen (2001, 2006) eine Vermischung (fusion) steigender Intonationskonturen in Konversationen bilingualer Deutsch- Türkischer Kinder. Backus, Jorgenson & Pfaff (2010) bieten einen Überblick zu bisheriger Forschung zum Türkischen in der Diaspora. Mit der vorliegenden Dissertation wird ein Forschungsbeitrag zur Veränderung im prosodischen System des Türkischen als heritage language Deutsch-Türkisch bilingualer Sprecher mit frühem Zweitspracherwerb geleistet. Damit wird zum einen das Themengebiet des kontaktinduzierten Sprachwandels und zum anderen das der bilingualen Intonationsforschung aufgegriffen. Obwohl die Beschreibungen phonologischer Unterschiede bei bilingualen Sprechern in Bezug auf die segmentale Ebene reichhaltig sind, ist ein reges Interesse an phonologischen Phänomenen auf der suprasegmentalen Ebene in der Mehrsprachigkeitsforschung recht frisch und bezieht sich größtenteils auf die Zweitsprache und weniger auf die Veränderungen in der heritage language. Die vorliegende Arbeit beschreibt strukturelle Veränderungen in der L1 Intonation in türkischen Ja/Nein Fragen eines repräsentativen Samples bilingualer Türkischsprecher. Der Untersuchungsschwerpunkt liegt dabei auf der Realisierung funktional relationierter Prosodie. Funktional relationierte Prosodie gilt gemäß markiertheitsstrukturierter Ansätze (z.B. Eckmann 1977, Rasier & Hilligsmann 2007, Zerbian 2015) als markierter als strukturell relationierte Prosodie und damit als potentieller Auslöser von Veränderungen im bilingualen Spracherwerb und Sprachkontakt. In der Dissertation werden zwei funktionale Aspekte der Prosodie untersucht. Zum einen werden Veränderungen in der Intonationskontur in Abhängigkeit von Informationsstruktur (IS) untersucht. Genauer, wie kontrastiver in-situ Fokus in der Grundfrequenz umgesetzt wird. Zum anderen wird untersucht wie die Markierung von Ja/Nein Fragen in der f0 Kontur realisiert wird. Eine Einführung in die Thematik von Ja/nein Fragen erfolgt für das Türkische in Kapitel II. 6 und für das Deutsche in Kapitel V.6. Eine umfassende Erläuterung zu IS und seinen verschiedenen Kategorien erfolgt in Kapitel I. KW - bilingualism KW - prosody KW - pragmatics KW - Turkish KW - Zweisprachigkeit KW - Prosodie KW - Pragmatik KW - Türkisch Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-422079 ER - TY - THES A1 - Vogel, Dominik T1 - Führung im öffentlichen Sektor T1 - Leadership in the public sector BT - eine empirische Untersuchung von Einflussfaktoren auf das Führungsverhalten BT - an empirical analysis of antecedents of leadership behavior N2 - Die vorliegende Arbeit befasst sich mit Führungsverhalten im öffentlichen Sektor sowie mit Einflussfaktoren auf dieses Führungsverhalten. Hierzu wurde eine Taxonomie, bestehend aus sechs Metakategorien von Führungsverhalten, entwickelt. Die Metakategorien umfassen Aufgaben-, Beziehungs-, Veränderungs-, Außen-, Ethik- und Sachbearbeitungsorientierung. Eine Analyse von Umfragedaten, die für diese Arbeit bei Mitarbeitern und unteren Führungskräften dreier Behörden erhoben wurden, zeigt, dass diese Taxonomie sehr gut geeignet ist, die Führungsrealität in der öffentlichen Verwaltung abzubilden. Eine deskriptive Auswertung der Daten zeigt außerdem, dass es eine relativ große Differenz zwischen der Selbsteinschätzung der Führungskräfte und der Fremdeinschätzung durch ihre Mitarbeiter gibt. Diese Differenz ist bei der Beziehungs- und Veränderungsorientierung besonders hoch. Der deskriptiven Auswertung schließt sich eine Analyse von Einflussfaktoren auf das Führungsverhalten an. Die Einflussfaktoren können den vier Kategorien "Charakteristika und Eigenschaften der Führungskräfte", "Erwartungen und Interesse von Vorgesetzten", "Charakteristika und Einstellungen von Geführten" und "Managementinstrumente und -rahmenbedingungen" zugeordnet werden. Eine Analyse mit Hilfe von hierarchischen linearen Modellen zeigt, dass vor allem die Führungsmotivation und die Managementorientierung der Führungskräfte, die Gemeinwohlorientierung und die Art der Aufgabe der Geführten sowie die strategische Führungskräfteauswahl und die Leistungsmessung durch die Führungskräfte anhand konkreter Ziele einen Einfluss auf das Führungsverhalten haben. Die Ergebnisse dieser Arbeit ergänzen die Literatur zu Führungsverhalten im öffentlichen Sektor um die Perspektive der Einflussfaktoren auf das Führungsverhalten und leisten zusätzlich mit Hilfe der verwendeten Taxonomie einen Beitrag zur theoretischen Diskussion von Führungsverhalten in der Public-Management-Forschung. Darüber hinaus bieten die gewonnenen Erkenntnisse der Verwaltungspraxis Hinweise zu relevanten Einflussfaktoren auf das Führungsverhalten sowie auf beachtliche Differenzen zwischen Selbst- und Fremdwahrnehmung des Führungsverhaltens. N2 - This thesis researches leadership behavior and antecedents of leadership behavior in the public sector. Therefore, a taxonomy of six meta-categories of leadership behavior was developed. The taxonomy consists of task-, relations-, change-, external-, ethical- and processing-orientation. In order to answer the research questions about the actual leadership behavior in the public sector and about antecedents of this behavior, survey data were collected from street-level leaders of three German public organizations and their followers. An analysis of the data reveals that the proposed taxonomy fits the leadership behavior in the public sector well. Furthermore, a descriptive analysis of the data shows that there are quite big differences between leaders' self-perception and followers' perception of leadership behavior. The difference is especially high for relations- and change-orientation. In addition to the descriptive analysis, hierarchical linear models are used to analyze antecedents of leadership behavior. The antecedents can be grouped in the four categories "characteristics and attitudes of leaders", "expectations and interest of supervisors", "characteristics and attitudes of followers", and "management instruments and framework". The analyses show that the most important antecedents of leadership behavior are the motivation to lead and the management-orientation of the leaders, the commitment to public interest and the task complexity of the followers as well as the strategic leader selection and the leaders' use of management by objectives. The results of this thesis expand the literature on leadership behavior in the public sector by a perspective of antecedents. In addition, the developed taxonomy can be used to systematize the discussion about leadership behavior in the public sector. This study also provides information for practitioners about antecedents of leadership behavior and about differences between self- and other-perceptions of leadership behavior. KW - Führung KW - Führungsverhalten KW - öffentlicher Sektor KW - öffentliche Verwaltung KW - leadership KW - leadership behavior KW - public sector KW - public administration Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89214 SN - 978-3-86956-363-3 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bendre, Abhijit B. T1 - Growth and saturation of dynamo in spiral galaxies via direct simulations T1 - Wachstum und Sättigung des Dynamos in Spiralgalaxien mit direkten Simulationen N2 - We do magnetohydrodynamic (MHD) simulations of local box models of turbulent Interstellar Medium (ISM) and analyse the process of amplification and saturation of mean magnetic fields with methods of mean field dynamo theory. It is shown that the process of saturation of mean fields can be partially described by the prolonged diffusion time scales in presence of the dynamically significant magnetic fields. However, the outward wind also plays an essential role in the saturation in higher SN rate case. Algebraic expressions for the back reaction of the magnetic field onto the turbulent transport coefficients are derived, which allow a complete description of the nonlinear dynamo. We also present the effects of dynamically significant mean fields on the ISM configuration and pressure distribution. We further add the cosmic ray component in the simulations and investigate the kinematic growth of mean fields with a dynamo perspective. N2 - Wir fuehren magnetohydrodynamische (MHD) Simulationen des turbulenten interstellaren Mediums (ISM) in lokalen Boxen durch und analysieren darin den Prozess der Verstaerkung und Saturation der mittleren Magnetfelder mit Methoden der Dynamotheorie mittlerer Felder. Es wird gezeigt, dass der Prozess der Saturation mittlerer Felder teilweise durch eine verlaengerte Diffusionzeit in Gegenwart dynamisch signifikanter Magnetfelder erklaert werden kann. Fuer hoehere Supernovae-Raten spielt auch der nach aussen treibende Wind eine essenzielle Rolle fuer die Saturation. Aus den Simulationen konnten algebraische Formeln fuer die Rueckwirkung des Magnetfeldes auf die turbulenten Transportkoeffizienten abgeleitet werden, die eine vollstaendige Beschreibung des nichtlinearen Dynamos erlauben. Wir praesentieren zudem den Einfluss signifikanter mittlerer Magnetfelder auf die ISM-Konfiguration und Druckverteilung. Wir fuegen der Simulation ausserdem kosmische Strahlung als Komponente hinzu und untersuchen das kinematische Wachstum mittlerer Felder aus einer Dynamo-Perspektive. KW - magnetohydrodynamics KW - ISM: Turbulence KW - spiral galaxies: magnetic fields KW - nonliear dynamo KW - cosmic ray dynamo KW - Magnetohydrodynamik KW - ISM: Turbulenz KW - Spiralgalaxien: Magnetfelder KW - nichtlineare Dynamo KW - kosmische Strahlung Dynamo Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407517 ER - TY - THES A1 - Dräger, Nadine T1 - Holocene climate and environmental variability in NE Germany inferred from annually laminated lake sediments T1 - Rekonstruktion Holozäner Klima- und Umweltveränderungen in NO Deutschland anhand von jährlich geschichteten Seesedimenten N2 - Understanding the role of natural climate variability under the pressure of human induced changes of climate and landscapes, is crucial to improve future projections and adaption strategies. This doctoral thesis aims to reconstruct Holocene climate and environmental changes in NE Germany based on annually laminated lake sediments. The work contributes to the ICLEA project (Integrated CLimate and Landscape Evolution Analyses). ICLEA intends to compare multiple high-resolution proxy records with independent chronologies from the N central European lowlands, in order to disentangle the impact of climate change and human land use on landscape development during the Lateglacial and Holocene. In this respect, two study sites in NE Germany are investigated in this doctoral project, Lake Tiefer See and palaeolake Wukenfurche. While both sediment records are studied with a combination of high-resolution sediment microfacies and geochemical analyses (e.g. µ-XRF, carbon geochemistry and stable isotopes), detailed proxy understanding mainly focused on the continuous 7.7 m long sediment core from Lake Tiefer See covering the last ~6000 years. Three main objectives are pursued at Lake Tiefer See: (1) to perform a reliable and independent chronology, (2) to establish microfacies and geochemical proxies as indicators for climate and environmental changes, and (3) to trace the effects of climate variability and human activity on sediment deposition. Addressing the first aim, a reliable chronology of Lake Tiefer See is compiled by using a multiple-dating concept. Varve counting and tephra findings form the chronological framework for the last ~6000 years. The good agreement with independent radiocarbon dates of terrestrial plant remains verifies the robustness of the age model. The resulting reliable and independent chronology of Lake Tiefer See and, additionally, the identification of nine tephras provide a valuable base for detailed comparison and synchronization of the Lake Tiefer See data set with other climate records. The sediment profile of Lake Tiefer See exhibits striking alternations between well-varved and non-varved sediment intervals. The combination of microfacies, geochemical and microfossil (i.e. Cladocera and diatom) analyses indicates that these changes of varve preservation are caused by variations of lake circulation in Lake Tiefer See. An exception is the well-varved sediment deposited since AD 1924, which is mainly influenced by human-induced lake eutrophication. Well-varved intervals before the 20th century are considered to reflect phases of reduced lake circulation and, consequently, stronger anoxic conditions. Instead, non-varved intervals indicate increased lake circulation in Lake Tiefer See, leading to more oxygenated conditions at the lake ground. Furthermore, lake circulation is not only influencing sediment deposition, but also geochemical processes in the lake. As, for example, the proxy meaning of δ13COM varies in time in response to changes of the oxygen regime in the lake hypolinion. During reduced lake circulation and stronger anoxic conditions δ13COM is influenced by microbial carbon cycling. In contrast, organic matter degradation controls δ13COM during phases of intensified lake circulation and more oxygenated conditions. The varve preservation indicates an increasing trend of lake circulation at Lake Tiefer See after ~4000 cal a BP. This trend is superimposed by decadal to centennial scale variability of lake circulation intensity. Comparison to other records in Central Europe suggests that the long-term trend is probably related to gradual changes in Northern Hemisphere orbital forcing, which induced colder and windier conditions in Central Europe and, therefore, reinforced lake circulation. Decadal to centennial scale periods of increased lake circulation coincide with settlement phases at Lake Tiefer See, as inferred from pollen data of the same sediment record. Deforestation reduced the wind shelter of the lake, which probably increased the sensitivity of lake circulation to wind stress. However, results of this thesis also suggest that several of these phases of increased lake circulation are additionally reinforced by climate changes. A first indication is provided by the comparison to the Baltic Sea record, which shows striking correspondence between major non-varved intervals at Lake Tiefer See and bioturbated sediments in the Baltic Sea. Furthermore, a preliminary comparison to the ICLEA study site Lake Czechowskie (N central Poland) shows a coincidence of at least three phases of increased lake circulation in both lakes, which concur with periods of known climate changes (2.8 ka event, ’Migration Period’ and ’Little Ice Age’). These results suggest an additional over-regional climate forcing also on short term increased of lake circulation in Lake Tiefer See. In summary, the results of this thesis suggest that lake circulation at Lake Tiefer See is driven by a combination of long-term and short-term climate changes as well as of anthropogenic deforestation phases. Furthermore, the lake circulation drives geochemical cycles in the lake affecting the meaning of proxy data. Therefore, the work presented here expands the knowledge of climate and environmental variability in NE Germany. Furthermore, the integration of the Lake Tiefer See multi-proxy record in a regional comparison with another ICLEA side, Lake Czechowskie, enabled to better decipher climate changes and human impact on the lake system. These first results suggest a huge potential for further detailed regional comparisons to better understand palaeoclimate dynamics in N central Europe. N2 - Es ist von großer Bedeutung die natürliche Klimavariabilität unter dem Einfluss menschlich verursachter Klimaänderungen zu verstehen, um Zukunftsprognosen und Adaptionsstrategien zu verbessern. Die Hauptzielsetzung der vorliegenden Doktorarbeit ist die Rekonstruktion von Klima- und Umweltveränderungen während des Holozäns in NO Deutschland anhand von jährlich geschichteten Seesedimenten. Diese Arbeit ist ein Beitrag zum ICLEA Projekt (integrierte Klima- und Landschaftsentwicklungsanalyse). ICLEA strebt den Vergleich von mehreren hochaufgelösten Proxy- Archiven aus dem Nord-zentral europäischen Tiefland an, um Einflüsse von Mensch und Klima auf die Landschaftsentwicklung auseinander zu dividieren. Demnach werden in diesem Doktorprojekt zwei Gebiete untersucht: der Tiefe See und der verlandete See Wukenfurche. Während beide Sedimentarchive mit einer Kombination aus hochaufgelösten sedimentmikrofaziellen und -geochemischen Methoden untersucht werden, konzentriert sich die detaillierte Untersuchung der Proxy-Bedeutung auf den kontinuierlichen 7,7mlangen Sedimentkern vom Tiefer See, der die letzten 6000 Jahre abdeckt. Drei Hauptziele werden am Tiefen See verfolgt: (1) das Erstellen einer robusten und unabhängigen Chronologie (2) das Etablieren von mikrofaziellen und geochemischen Proxies als Indikatoren für Klima- und Landschaftsveränderungen und (3) das Ableiten von Klimaveränderungen und menschlichem Einfluss auf die Sedimentablagerung. Zum Erreichen des ersten Zieles wurde eine robuste Chronologie mit Hilfe eines multiplen Datierungsansatzes erstellt. Das Zusammenführen der Warvenzählung und Tephra-Funden bildet dabei das Gerüst für die Chronologie der letzten 6000 Jahre, deren Stabilität durch die gute Übereinstimmung mit unabhängigen Radiokarbondatierungen bestätigt wird. Diese robuste und unabhängige Chronologie und die zusätzlichen neun Tephra-Funde bieten die Basis für den detaillierten Vergleich und die Synchronisation des Tiefen See Datensatzes mit anderen Klimaarchiven. Das Sedimentprofil vom Tiefen See zeigt markante Wechsel zwischen gut warvierten und nicht warvierten Sedimentabschnitten auf. Die kombinierte Untersuchung der Mikrofazies, der Geochemie und von Mikrofossilien (d.h. Cladoceren und Diatomeen) zeigte, dass diese Veränderungen der Warvenerhaltung auf Änderungen der Seezirkulation zurückzuführen sind. Ausgenommen ist der rezente warvierte Abschnitt ab AD 1924, der hauptsächlich durch menschlich verursachte Seeeutrophierung beeinflusst ist. Warvierte Abschnitte vor dem 20. Jahrhundert sind durch verringerte Seezirkulation und die damit verbundenen stärkeren anoxischen Bedingungen im See hervorgerufen worden. Die Ablagerung von nicht warvierten Sedimenten weist auf stärkere Seezirkulation und sauerstoffreichere Bedingungen am Seegrund hin. Die Seezirkulation beeinflusst zusätzlich zum Sedimentmuster auch geochemische Prozesse im See. Zum Beispiel verändert sich die Proxy-Bedeutung der stabilen Kohlenstoffisotope von organischem Material (δ13COM) in Reaktion auf das veränderte Sauerstoffregime. Während geringer Seezirkulation und stärkeren anoxischen Bedingungen werden stark negative δ13COM Werte durch mikrobielle Aktivität hervorgerufen. Im Gegensatz verursachen Phasen mit verstärkter Seezirkulation positivere δ13COM Werte, was vermutlich auf stärkeren Abbau von organischem Material im sauerstoffangereicherten Milieu am Seegrund zurückzuführen ist. Die Warvenerhaltung zeigt einen ansteigenden Trend der Seezirkulation im Tiefen See nach ungefähr 4000 Jahre vor heute an. Dieser Trend ist überlagert mit kurzzeitigen Seezirkulationsveränderungen auf dekadischen Zeitskalen. Der Vergleich mit anderen Archiven in Zentral-Europa lässt darauf schließen, dass der Langzeittrend wahrscheinlich auf graduelle Veränderungen der orbitalen Parameter zurückzuführen ist, was kühlere und windigere Bedingungen in Zentral-Europa hervorgerufen hatte und damit die Seezirkulation im Tiefen See verstärkt hat. Die kurzzeitigen Phasen von verstärkter Seezirkulation fallen mit Siedlungsperioden am Tiefen See zusammen, die mit Pollendaten vom selben Sedimentkern rekonstruiert wurden. Die Waldrodung verringerte den Windschutz des Sees, was möglicherweise zu einer erhöhten Sensitivität der Seezirkulation zu Windstress geführt hat. Ein erster Vergleich des Tiefen Sees zu dem ICLEA Untersuchungsgebiet des Czechowskie See zeigt, dass in beiden Seen drei gemeinsame Phasen verstärkter Seezirkulation auftreten, die auch mit bekannten Zeiten veränderter Klimabedingungen zusammenfallen (2.8 ka event, Migrationsperiode und die Kleine Eiszeit). Diese Ergebnisse zeigen, dass die Seezirkulation von einer Kombination aus Klimaveränderung auf langen und kurzen Zeitskalen und der Abholzung des Menschen angetrieben wird. Zusammengefasst erweitert die hier vorliegende Arbeit das Wissen von Klima und Umweltveränderungen in NO Deutschland. Zudem wird gezeigt, dass ein regionaler Vergleich verschiedener Untersuchungsgebieten mit unabhängigen Chronologien ein verbessertes Auseinanderhalten von Klimaeinflüssen und menschlichen Einflüssen auf die Seesysteme ermöglicht. Damit kann ein verbessertes Verständnis der Paläoklimadynamik in Zentral-Europa gewonnen werden. KW - palaeoclimate KW - Paläoklima KW - Holocene KW - Holozän KW - varved lake sediments KW - warvierte Seesedimente KW - Tiefer See KW - Tiefer See KW - human impact KW - menschliche Einflüsse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103037 ER - TY - THES A1 - Pavlenko, Elena T1 - Hybrid nanolayer architectures for ultrafast acousto-plasmonics in soft matter T1 - Hybride Nanolayer-Architekturen für ultraschnelle Akusto-Plasmonics in weicher Materie N2 - The goal of the presented work is to explore the interaction between gold nanorods (GNRs) and hyper-sound waves. For the generation of the hyper-sound I have used Azobenzene-containing polymer transducers. Multilayer polymer structures with well-defined thicknesses and smooth interfaces were built via layer-by-layer deposition. Anionic polyelectrolytes with Azobenzene side groups (PAzo) were alternated with cationic polymer PAH, for the creation of transducer films. PSS/PAH multilayer were built for spacer layers, which do not absorb in the visible light range. The properties of the PAzo/PAH film as a transducer are carefully characterized by static and transient optical spectroscopy. The optical and mechanical properties of the transducer are studied on the picosecond time scale. In particular the relative change of the refractive index of the photo-excited and expanded PAH/PAzo is Δn/n = - 2.6*10‐4. Calibration of the generated strain is performed by ultrafast X-ray diffraction calibrated the strain in a Mica substrate, into which the hyper-sound is transduced. By simulating the X-ray data with a linear-chain-model the strain in the transducer under the excitation is derived to be Δd/d ~ 5*10‐4. Additional to the investigation of the properties of the transducer itself, I have performed a series of experiments to study the penetration of the generated strain into various adjacent materials. By depositing the PAzo/PAH film onto a PAH/PSS structure with gold nanorods incorporated in it, I have shown that nanoscale impurities can be detected via the scattering of hyper-sound. Prior to the investigation of complex structures containing GNRs and the transducer, I have performed several sets of experiments on GNRs deposited on a small buffer of PSS/PAH. The static and transient response of GNRs is investigated for different fluence of the pump beam and for different dielectric environments (GNRs covered by PSS/PAH). A systematic analysis of sample architectures is performed in order to construct a sample with the desired effect of GNRs responding to the hyper-sound strain wave. The observed shift of a feature related to the longitudinal plasmon resonance in the transient reflection spectra is interpreted as the event of GNRs sensing the strain wave. We argue that the shift of the longitudinal plasmon resonance is caused by the viscoelastic deformation of the polymer around the nanoparticle. The deformation is induced by the out of plane difference in strain in the area directly under a particle and next to it. Simulations based on the linear chain model support this assumption. Experimentally this assumption is proven by investigating the same structure, with GNRs embedded in a PSS/PAH polymer layer. The response of GNRs to the hyper-sound wave is also observed for the sample structure with GNRs embedded in PAzo/PAH films. The response of GNRs in this case is explained to be driven by the change of the refractive index of PAzo during the strain propagation. N2 - Akustische Experimente auf ultraschnellen Zeitskalen ermöglichen die Bestimmung von Tiefeninformationen in Dünnschichtproben. Der Grundgedanke dieser Methode ist die Analyse von Schallwellen, die sich in dem zu untersuchenden Material ausbreiten. Die Schallpulse werden dabei üblicherweise mittels dünner Schichten erzeugt, die dafür auf die Probe aufgebracht werden. Diese Methode ist etabliert für die Untersuchung von harten, anorganischen Materialien, aber weniger entwickelt für weiche, organische Materialien. Die wenigen existierenden Untersuchungen von weichen Materialien mittels ultraschneller Akustik nutzen bisher die Ausdehnung dünner Metallfilme, beispielsweise aus Aluminium oder Titan, für den Umwandlungsprozess von kurzen Lichtpulsen zu Schallwellen. Die deutlich höheren Dichten der Metalle gegenüber der zu untersuchenden weichen Materie führen zu einer geringen Effizienz bei der Einkopplung der Schallpulse in das Material. Weiterhin ist es schwierig, die Metallfilme auf die zu untersuchenden Materialien chemisch aufzubringen. Eine Möglichkeit diese Probleme zu umgehen, ist die Verwendung von Licht-Schallwandlern aus chemisch ähnlicher, weicher Materialien. Hier präsentiere ich die Ergebnisse meiner Untersuchungen von Polymer Filmen, welche Azobenzen als aktiven Bestandteil für die photo-akustische Umwandlung enthalten. Dabei wurden die Filme mittels statischer, sowie auch zeitaufgelöster Spektroskopie untersucht. Mit zeitaufgelösten Brillouin-Streuungs-Experimenten habe ich die Schallgeschwindigkeit in den Polymeren und dem Azobenzen-Schallwandler zu 3.4±0.3 nm/ps bestimmt. Die relative transiente Änderung des Brechungsindex in dem Azobenzenfilm aus optischen Messungen beträgt Δn/n = - 2.6*10‐4. Die Untersuchung der Schallpropagation in verschiedenen Probengeometrien erlaubt es uns, Reflektionen der Schallwellen von verschiedenen Übergängen (Polymer/Quarz, Polymer/Luft) und die Ausbreitung der mechanischen Wellen in weiche (Polymere) und harte (Quarz) angrenzende Materialien zu studieren. Durch Untersuchungen an einer Probe mit Gold-Nano-Stäbchen innerhalb einer Polymerschicht habe ich die Möglichkeit aufgezeigt, die Tiefenposition der Nanopartikel zu bestimmen. Die Ausdehnung des photomechanischen Wandlers wurde mittels zeitaufgelöster Röntgenbeugung zu ε = Δd/d ̴ 5x10-4 bestimmt. Der zweite Teil der Doktorarbeit behandelt die Wechselwirkung von Schallwellen und Gold-Nano-Stäbchen (GNS). GNS werden oft in der Chemie und Biologie als plasmonische Marker eingesetzt. In den meisten Fällen werden die Teilchen dafür mit einer Hülle überzogen, um ihre Agglomeration zu unterdrücken oder um ihnen spezielle Sensoreigenschaften zu geben. Trotz ihrer häufigen Anwendung in teilweise sehr komplexen Geometrien sind die optischen und elastischen Eigenschaften der Hülle der Nanopartikel, sowie deren Wechselwirkung mit der Umgebung wenig erforscht. Um die Wechselwirkung zwischen GNS und Schallwellen zu untersuchen habe ich eine systematische Studie an verschiedenen Probenstrukturen unternommen. Dabei finden wir, dass die viskoelastische Verformung der Polymerhülle um die GNS von der unterschiedlichen Ausdehnung der Fläche unterhalb der Partikel und neben ihnen stammt. Diese Schlussfolgerung wird von einer Simulation ihrer Ausdehnungsdynamik unterstützt. Einen weiteren Beleg liefern Experimente bei denen die Verformung von Polymeren an der Oberfläche dadurch verringert wird, dass die Gold-Nano-Stäbchen mit einer zusätzlichen dünnen Polymerschicht bedeckt werden. KW - ultrafast dynamics KW - plasmonics KW - hypersound KW - azobenzene KW - ultrafast spectroscopy KW - ultraschnelle Dynamik KW - Pump-Probe Spektroskopie KW - Plasmonics KW - Gold-Nanopartikel KW - Azobenzene Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-99544 ER - TY - THES A1 - Grewe, Sina T1 - Hydro- and biogeochemical investigations of lake sediments in the Kenyan Rift Valley T1 - Hydro- und biogeochemische Untersuchungen von Seesedimenten aus dem Kenianischen Rift Valley N2 - Die Seen im kenianischen Riftsystem bieten die einmalige Gelegenheit eine große Bandbreite an hydrochemischen Umweltbedingungen zu studieren, die von Süßwasserseen bis hin zu hochsalinen und alkalinen Seen reichen. Da wenig über die hydro- und biogeochemischen Bedingungen in den darunterliegenden Seesedimenten bekannt ist, war es das Ziel dieser Arbeit, bereits existierende Datensätze mit Daten aus der Porenwasser- und Biomarker-Analyse zu erweitern. Zusätzlich wurden reduzierte Schwefelkomponenten und Sulfatreduktionsraten in den Sedimenten bestimmt. Mit den neu gewonnenen Daten wurde der anthropogene und mikrobielle Einfluss auf die Seesedimente untersucht sowie der Einfluss der Wasserchemie auf den Abbau und den Erhalt von organischem Material im Sediment. Zu den untersuchten Seen gehörten: Logipi, Eight (ein kleiner Kratersee in der Region Kangirinyang), Baringo, Bogoria, Naivasha, Oloiden und Sonachi. Die Biomarker-Zusammensetzungen in den untersuchten Seesedimenten waren ähnlich; allerdings gab es einige Unterschiede zwischen den salinen Seen und den Süßwasserseen. Einer dieser Unterschiede war das Vorkommen eines mit β-Carotin verwandten Moleküls, das nur in den salinen Seen gefunden wurde. Dieses Molekül stammt wahrscheinlich von Cyanobakterien, Einzellern die in großer Anzahl in salinen Seen vorkommen. In den beiden Süßwasserseen wurde Stigmasterol gefunden, ein für Süßwasseralgen charakteristisches Sterol. In dieser Studie hat sich gezeigt, dass Bogoria und Sonachi für Umweltrekonstruktionen mit Biomarkern besonders gut geeignet sind, da die Abwesenheit von Sauerstoff an deren Seegründen den Abbau von organischem Material verlangsamt. Andere Seen, wie zum Beispiel Naivasha, sind aufgrund des großen anthropogenen Einflusses weniger gut für solche Rekonstruktionen geeignet. Die Biomarker-Analyse bot jedoch die Möglichkeit, den menschlichen Einfluss auf den See zu studieren. Desweiteren zeigte diese Studie, dass sich Horizonte mit einem hohen Anteil an elementarem Schwefel als temporale Marker nutzen lassen. Diese Horizonte wurden zu einer Zeit abgelagert, als die Wasserpegel sehr niedrig waren. Der Schwefel wurde von Mikroorganismen abgelagert, die zu anoxygener Photosynthese oder Sulfidoxidation fähig sind. N2 - The lakes in the Kenyan Rift Valley offer the unique opportunity to study a wide range of hydrochemical environmental conditions, ranging from freshwater to highly saline and alkaline lakes. Because little is known about the hydro- and biogeochemical conditions in the underlying lake sediments, it was the aim of this study to extend the already existing data sets with data from porewater and biomarker analyses. Additionally, reduced sulphur compounds and sulphate reduction rates in the sediment were determined. The new data was used to examine the anthropogenic and microbial influence on the lakes sediments as well as the influence of the water chemistry on the degradation and preservation of organic matter in the sediment column. The lakes discussed in this study are: Logipi, Eight (a small crater lake in the region of Kangirinyang), Baringo, Bogoria, Naivasha, Oloiden, and Sonachi. The biomarker compositions were similar in all studied lake sediments; nevertheless, there were some differences between the saline and freshwater lakes. One of those differences is the occurrence of a molecule related to β-carotene, which was only found in the saline lakes. This molecule most likely originates from cyanobacteria, single-celled organisms which are commonly found in saline lakes. In the two freshwater lakes, stigmasterol, a sterol characteristic for freshwater algae, was found. In this study, it was shown that Lakes Bogoria and Sonachi can be used for environmental reconstructions with biomarkers, because the absence of oxygen at the lake bottoms slowed the degradation process. Other lakes, like for example Lake Naivasha, cannot be used for such reconstructions, because of the large anthropogenic influence. But the biomarkers proved to be a useful tool to study those anthropogenic influences. Additionally, it was observed that horizons with a high concentration of elemental sulphur can be used as temporal markers. Those horizons were deposited during times when the lake levels were very low. The sulphur was deposited by microorganisms which are capable of anoxygenic photosynthesis or sulphide oxidation. KW - Ostafrikansches Rift KW - saline Seen KW - Biomarker KW - Umweltrekonstruktion KW - Sulfatreduktion KW - Seesediment KW - East African Rift KW - saline lakes KW - biomarker KW - environmental reconstruction KW - sulphate reduction KW - lake sediment Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98342 ER - TY - THES A1 - Bojahr, Andre T1 - Hypersound interaction studied by time-resolved inelastic light and x-ray scattering T1 - Wechselwirkende Hyperschallwellen untersucht mittels zeitaufgelöster inelastischer Licht- und Röntgenstreuung N2 - This publications-based thesis summarizes my contribution to the scientific field of ultrafast structural dynamics. It consists of 16 publications, about the generation, detection and coupling of coherent gigahertz longitudinal acoustic phonons, also called hypersonic waves. To generate such high frequency phonons, femtosecond near infrared laser pulses were used to heat nanostructures composed of perovskite oxides on an ultrashort timescale. As a consequence the heated regions of such a nanostructure expand and a high frequency acoustic phonon pulse is generated. To detect such coherent acoustic sound pulses I use ultrafast variants of optical Brillouin and x-ray scattering. Here an incident optical or x-ray photon is scattered by the excited sound wave in the sample. The scattered light intensity measures the occupation of the phonon modes. The central part of this work is the investigation of coherent high amplitude phonon wave packets which can behave nonlinearly, quite similar to shallow water waves which show a steepening of wave fronts or solitons well known as tsunamis. Due to the high amplitude of the acoustic wave packets in the solid, the acoustic properties can change significantly in the vicinity of the sound pulse. This may lead to a shape change of the pulse. I have observed by time-resolved Brillouin scattering, that a single cycle hypersound pulse shows a wavefront steepening. I excited hypersound pulses with strain amplitudes until 1% which I have calibrated by ultrafast x-ray diffraction (UXRD). On the basis of this first experiment we developed the idea of the nonlinear mixing of narrowband phonon wave packets which we call "nonlinear phononics" in analogy with the nonlinear optics, which summarizes a kaleidoscope of surprising optical phenomena showing up at very high electric fields. Such phenomena are for instance Second Harmonic Generation, four-wave-mixing or solitons. But in case of excited coherent phonons the wave packets have usually very broad spectra which make it nearly impossible to look at elementary scattering processes between phonons with certain momentum and energy. For that purpose I tested different techniques to excite narrowband phonon wave packets which mainly consist of phonons with a certain momentum and frequency. To this end epitaxially grown metal films on a dielectric substrate were excited with a train of laser pulses. These excitation pulses drive the metal film to oscillate with the frequency given by their inverse temporal displacement and send a hypersonic wave of this frequency into the substrate. The monochromaticity of these wave packets was proven by ultrafast optical Brillouin and x-ray scattering. Using the excitation of such narrowband phonon wave packets I was able to observe the Second Harmonic Generation (SHG) of coherent phonons as a first example of nonlinear wave mixing of nanometric phonon wave packets. N2 - Diese publikationsbasierte Dissertation fasst meinen Beitrag zum Forschungsgebiet der ultraschnellen Strukturdynamik zusammen. Diese Arbeit besteht aus 16 Publikationen aus den Bereichen der Erzeugung, Detektion und Kopplung von kohärenten Gigahertz longitudinal-akustischen Phononen, auch Hyperschallwellen genannt. Um solch hochfrequente Phononen zu erzeugen, werden Femtosekunden nahinfrarot Laserpulse benutzt, um Nanostrukturen auf einer ultraschnellen Zeitskala zu erhitzen. Die aufgeheizten Regionen der Nanostruktur dehnen sich aufgrund der hohen Temperatur aus und ein hochfrequenter Schallpuls wird generiert. Um solche akustischen Pulse zu detektieren benutze ich ultraschnelle Varianten der Brillouin- und Röntgenstreuung. Dabei wird ein einfallendes optisches oder Röntgenphoton an der erzeugten Schallwelle gestreut. Die gemessene Streuintensität ist hierbei ein Maß für die Besetzung einzelner Phononenzustände. Der zentrale Teil dieser Arbeit ist die Untersuchung von kohärenten Phonon-Wellenpaketen mit sehr hoher Amplitude. Diese Wellenpakete können sich nichtlinear verhalten, sehr ähnlich zu Flachwasserwellen bei denen nichtlineare Effekte in Form eines Aufsteilens der Wellenfronten oder der Existenz von Solitonen, bekannt als Tsunamis, äußern. Durch die hohe Amplitude der akustischen Wellenpakete können sich die akustischen Eigenschaften des Festkörpers in der Umgebung des Schallpulses signifikant ändern, welches sich dann in einer Formänderung des Schallpulses widerspiegelt. Ich konnte mittels zeitaufgelöster Brillouinstreuung das Aufsteilen der Wellenfronten eines Hyperschallpulses bestehend aus einem einzigen Oszillationszyklus beobachten. Hierbei wurden Hyperschallwellen mit einer Dehnungsamplitude von bis zu 1% angeregt, wobei ich diesen Wert mittels ultraschneller Röntgenbeugung kalibrieren konnte. Mit diesem ersten Experiment als Basis entwickelten wir die Idee der nichtlinearen Wellenmischung von schmalbandigen Phonon-Wellenpaketen unter dem Titel "nichtlineare Phononik" in Analogie zur nichtlinearen Optik, welche sich aus einer Reihe von verblüffenden optischen Phänomenen bei sehr hohen elektrischen Feldstärken zusammensetzt. Solche Phänomene sind z. B. die optische Frequenzverdopplung, das Vier-Wellen-Mischen oder Solitone. Nur sind im Falle von kohärenten Phononen die erzeugten Spektren sehr breitbandig, was die Untersuchung von spezifischen Phononen mit festem Impuls und definierter Frequenz fast unmöglich macht. Aus diesem Grund testete ich verschiedene Methoden um schmalbandige Phonon-Wellenpakete anzuregen, welche im Wesentlichen aus Phononen bestimmten Impulses und definierter Frequenz bestehen. Dafür wurden schließ lich epitaktisch auf ein dielektrisches Substrat aufgewachsene Metallfilme mit einen Laserpulszug angeregt. Hier sorgen die Lichtpulse für eine periodische Oszillation des Metalfilms, wobei die Anregefrequenz durch den inversen zeitlichen Abstand der Lichtpulse gegeben ist. Diese periodische Oszillation sendet dann ein Hyperschallwellenpaket eben dieser Frequenz ins Substrat. Die Monochromie dieser Wellenpakete konnte dabei mittels ultraschneller Brillouin- und Röntgenstreuung bestätigt werden. Durch die Benutzung dieser schmalbandigen Phonon-Wellenpakete war es mir möglich, die Frequenzverdopplung (SHG) von kohärenten Phononen zu beobachten, was ein erstes Beispiel für die nichtlineare Wellenmischung von nanometrischen Phonon-Wellenpaketen ist. KW - hypersound KW - nonlinear acoustics KW - ultrafast KW - Brillouin scattering KW - x-ray diffraction KW - self-steepening KW - second-harmonic generation KW - Phononen KW - Wechselwirkung KW - Anharmonizität KW - nichtlineare Wellenmischung KW - zweite Harmonische KW - Phononenstreuung KW - nichlineare Phononik Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93860 ER - TY - THES A1 - Connor, Daniel Oliver T1 - Identifikation und Charakterisierung neuer immunogener Proteine und anschließende Generierung rekombinanter Antikörper mittels Phage Display T1 - Identification and characterisation of novel immunogenic proteins and subsequent generation of recombinant antibodies by phage display N2 - Seit der Einführung von Antibiotika in die medizinische Behandlung von bakteriellen Infektionskrankheiten existiert ein Wettlauf zwischen der Evolution von Bakterienresistenzen und der Entwicklung wirksamer Antibiotika. Während bis in die 80er Jahre verstärkt an neuen Antibiotika geforscht wurde, gewinnen multiresistente Keime heute zunehmend die Oberhand. Um einzelne Pathogene erfolgreich nachzuweisen und zu bekämpfen, ist ein grundlegendes Wissen über den Erreger unumgänglich. Bakterielle Proteine, die bei einer Infektion vorrangig vom Immunsystem prozessiert und präsentiert werden, könnten für die Entwicklung von Impfstoffen oder gezielten Therapeutika nützlich sein. Auch für die Diagnostik wären diese immundominanten Proteine interessant. Allerdings herrscht ein Mangel an Wissen über spezifische Antigene vieler pathogener Bakterien, die eine eindeutige Diagnostik eines einzelnen Erregers erlauben würden. Daher wurden in dieser Arbeit vier verschiedene Humanpathogene mittels Phage Display untersucht: Neisseria gonorrhoeae, Neisseria meningitidis, Borrelia burgdorferi und Clostridium difficile. Hierfür wurden aus der genomischen DNA der vier Erreger Bibliotheken konstruiert und durch wiederholte Selektion und Amplifikation, dem sogenannten Panning, immunogene Proteine isoliert. Für alle Erreger bis auf C. difficile wurden immunogene Proteine aus den jeweiligen Bibliotheken isoliert. Die identifizierten Proteine von N. meningitidis und B. burgdorferi waren größtenteils bekannt, konnten aber in dieser Arbeit durch Phage Display verifiziert werden. Für N. gonorrhoeae wurden 21 potentiell immunogene Oligopeptide isoliert, von denen sechs Proteine als neue zuvor unbeschriebene Proteine mit immunogenem Charakter identifiziert wurden. Von den Phagen-präsentierten Oligopeptide der 21 immunogenen Proteine wurden Epitopmappings mit verschiedenen polyklonalen Antikörpern durchgeführt, um immunogene Bereiche näher zu identifizieren und zu charakterisieren. Bei zehn Proteinen wurden lineare Epitope eindeutig mit drei polyklonalen Antikörpern identifiziert, von fünf weiteren Proteinen waren Epitope mit mindestens einem Antikörper detektierbar. Für eine weitere Charakterisierung der ermittelten Epitope wurden Alaninscans durchgeführt, die eine detaillierte Auskunft über kritische Aminosäuren für die Bindung des Antikörpers an das Epitop geben. Ausgehend von dem neu identifizierten Protein mit immunogenem Charakter NGO1634 wurden 26 weitere Proteine aufgrund ihrer funktionellen Ähnlichkeit ausgewählt und mithilfe bioinformatischer Analysen auf ihre Eignung zur Entwicklung einer diagnostischen Anwendung analysiert. Durch Ausschluss der meisten Proteine aufgrund ihrer Lokalisation, Membrantopologie oder unspezifischen Proteinsequenz wurden scFv-Antikörper gegen acht Proteine mittels Phage Display generiert und anschließend als scFv-Fc-Fusionsantikörper produziert und charakterisiert. Die hier identifizierten Proteine und linearen Epitope könnten einen Ansatzpunkt für die Entwicklung einer diagnostischen oder therapeutischen Anwendung bieten. Lineare Epitopsequenzen werden häufig für die Impfstoffentwicklung eingesetzt, sodass vor allem die in dieser Arbeit bestimmten Epitope von Membranproteinen interessante Kandidaten für weitere Untersuchungen in diese Richtung sind. Durch weitere Untersuchungen könnten möglicherweise unbekannte Virulenzfaktoren entdeckt werden, deren Inhibierung einen entscheidenden Einfluss auf Infektionen haben könnten. N2 - Since the advent of antibiotics into the field of medical therapy of bacterial infections, there has been a battle of effective antibiotics and the everlasting evolution of bacterial resistances. Until the 1980s many antibiotics were developed after invention of the first applied antibiotic penicillin in 1946. Since then, antibiotic research has been largely neglected resulting in the evolution of numerous strains from different bacteria with multiple resistances to available antibiotics. Therefore, extensive knowledge of a pathogen is crucial to detect and fight a particular disease. Hence, proteins that are processed and presented preferentially by the immune system during an infection could be beneficial for the development of vaccines and targeted therapeutic agents. Furthermore, immunodominant proteins could be interesting for the development of a diagnostic tool. However, many potential antigen targets of most pathogenic bacteria are still unknown. On this account, four human pathogens were examined in this work utilising phage display: Neisseria gonorrhoeae, Neisseria meningitidis, Borrelia burgdorferi und Clostridium difficile. Phage libraries were constructed from genomic DNA of the four pathogens. These libraries were used to isolate immunogenic proteins by panning through repetitive rounds of selection and amplification. Immunogenic proteins were successfully isolated for all pathogens except C. difficile. The identified proteins from N. meningitidis and B. burgdorferi had mostly been described before. However, they were verified by phage display in this work. Twenty-one potentially immunogenic oligopeptides were isolated from the N. gonorrhoeae library. Six of those were identified as novel proteins with an immunogenic character and validated also as full length proteins. Epitope mappings were conducted for all of the 21 phage presented oligopeptides with different polyclonal antibodies to identify and characterise the immunogenic regions. Linear epitopes were found unambiguously for ten proteins with the three applied antibodies. In addition, epitopes for five proteins were identified with at least one antibody. The determined epitopes were then further characterized by alanine scans to investigate the impact of each individual amino acid on the binding of the antibody to the antigen’s epitope. Based on the novel identified immunogenic protein NGO1634, 26 additional proteins were selected due to their functional resemblance. These proteins were analysed with bioinformatic tools and amongst others checked for their localisation, membrane topology and conservation of their protein sequence. Finally, scFv antibody fragments were isolated from a phage display library (HAL9/10) against eight proteins. The best antibodies were then produced as scFv-Fc fusion antibodies and their binding behaviour was further characterised. The identified proteins and linear epitopes could serve as a starting point for the development of diagnostic or therapeutic tools. Further studies could unveil unknown virulence factors. Inhibition of those virulence factors could possibly have a vital impact on countering infections. Furthermore, linear epitopes are commonly used for vaccine development. Novel epitopes of membrane proteins could be interesting candidates for further immunization studies. KW - Immunogene Proteine KW - Phage Display KW - Rekombinante Antikörper KW - Neisseria gonorrhoeae KW - Neisseria meningitidis KW - Clostridium difficile KW - Borrelia burgdorferi KW - Epitopmapping KW - Immunogenic Proteins KW - Recombinant Antibodies KW - Epitope mapping KW - Phage Display KW - Neisseria gonorrhoeae KW - Neisseria meningitidis KW - Clostridium difficile KW - Borrelia burgdorferi Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104120 ER - TY - THES A1 - Nietzsche, Madlen T1 - Identifizierung und Charakterisierung neuer Komponenten der SnRK1-Signaltransduktion in Arabidopsis thaliana T1 - Identification and characterization of novel components of SnRK1-Signalling in Arabidopsis thaliana N2 - Für alle Organismen ist die Aufrechterhaltung ihres energetischen Gleichgewichts unter fluktuierenden Umweltbedingungen lebensnotwendig. In Eukaryoten steuern evolutionär konservierte Proteinkinasen, die in Pflanzen als SNF1-RELATED PROTEIN KINASE1 (SnRK1) bezeichnet werden, die Adaption an Stresssignale aus der Umwelt und an die Limitierung von Nährstoffen und zellulärer Energie. Die Aktivierung von SnRK1 bedingt eine umfangreiche transkriptionelle Umprogrammierung, die allgemein zu einer Repression energiekonsumierender Prozesse wie beispielsweise Zellteilung und Proteinbiosynthese und zu einer Induktion energieerzeugender, katabolischer Stoffwechselwege führt. Wie unterschiedliche Signale zu einer generellen sowie teilweise gewebe- und stressspezifischen SnRK1-vermittelten Antwort führen ist bisher noch nicht ausreichend geklärt, auch weil bislang nur wenige Komponenten der SnRK1-Signaltransduktion identifiziert wurden. In dieser Arbeit konnte ein Protein-Protein-Interaktionsnetzwerk um die SnRK1αUntereinheiten aus Arabidopsis AKIN10/AKIN11 etabliert werden. Dadurch wurden zunächst Mitglieder der pflanzenspezifischen DUF581-Proteinfamilie als Interaktionspartner der SnRK1α-Untereinheiten identifiziert. Diese Proteine sind über ihre konservierte DUF581Domäne, in der ein Zinkfinger-Motiv lokalisiert ist, fähig mit AKIN10/AKIN11 zu interagieren. In planta Ko-Expressionsanalysen zeigten, dass die DUF581-Proteine eine Verschiebung der nucleo-cytoplasmatischen Lokalisierung von AKIN10 hin zu einer nahezu ausschließlichen zellkernspezifischen Lokalisierung begünstigen sowie die Ko-Lokalisierung von AKIN10 und DUF581-Proteinen im Nucleus. In Bimolekularen Fluoreszenzkomplementations-Analysen konnte die zellkernspezifische Interaktion von DUF581-Proteinen mit SnRK1α-Untereinheiten in planta bestätigt werden. Außerhalb der DUF581-Domäne weisen die Proteine einander keine große Sequenzähnlichkeit auf. Aufgrund ihrer Fähigkeit mit SnRK1 zu interagieren, dem Fehlen von SnRK1Phosphorylierungsmotiven sowie ihrer untereinander sehr variabler gewebs-, entwicklungs- und stimulusspezifischer Expression wurde für DUF581-Proteine eine Funktion als Adaptoren postuliert, die unter bestimmten physiologischen Bedingungen spezifische Substratproteine in den SnRK1-Komplex rekrutieren. Auf diese Weise könnten DUF581Proteine die Interaktion von SnRK1 mit deren Zielproteinen modifizieren und eine Feinjustierung der SnRK1-Signalweiterleitung ermöglichen. Durch weiterführende Interaktionsstudien konnten DUF581-interagierende Proteine darunter Transkriptionsfaktoren, Proteinkinasen sowie regulatorische Proteine gefunden werden, die teilweise ebenfalls Wechselwirkungen mit SnRK1α-Untereinheiten aufzeigten. Im Rahmen dieser Arbeit wurde eines dieser Proteine für das eine Beteiligung an der SnRK1Signalweiterleitung als Transkriptionsregulator vermutet wurde näher charakterisiert. STKR1 (STOREKEEPER RELATED 1), ein spezifischer Interaktionspartner von DUF581-18, gehört zu einer pflanzenspezifischen Leucin-Zipper-Transkriptionsfaktorfamilie und interagiert in Hefe sowie in planta mit SnRK1. Die zellkernspezifische Interaktion von STKR1 und AKIN10 in Pflanzen unterstützt die Vermutung der kooperativen Regulation von Zielgenen. Weiterhin stabilisierte die Anwesenheit von AKIN10 die Proteingehalte von STKR1, das wahrscheinlich über das 26S Proteasom abgebaut wird. Da es sich bei STKR1 um ein Phosphoprotein mit SnRK1-Phosphorylierungsmotiv handelt, stellt es sehr wahrscheinlich ein SnRK1-Substrat dar. Allerdings konnte eine SnRK1-vermittelte Phosphorylierung von STKR1 in dieser Arbeit nicht gezeigt werden. Der Verlust von einer Phosphorylierungsstelle beeinflusste die Homo- und Heterodimerisierungsfähigkeit von STKR1 in Hefeinteraktionsstudien, wodurch eine erhöhte Spezifität der Zielgenregulation ermöglicht werden könnte. Außerdem wurden Arabidopsis-Pflanzen mit einer veränderten STKR1-Expression phänotypisch, physiologisch und molekularbiologisch charakterisiert. Während der Verlust der STKR1-Expression zu Pflanzen führte, die sich kaum von Wildtyp-Pflanzen unterschieden, bedingte die konstitutive Überexpression von STKR1 ein stark vermindertes Pflanzenwachstum sowie Entwicklungsverzögerungen hinsichtlich der Blühinduktion und Seneszenz ähnlich wie sie auch bei SnRK1α-Überexpression beschrieben wurden. Pflanzen dieser Linien waren nicht in der Lage Anthocyane zu akkumulieren und enthielten geringere Gehalte an Chlorophyll und Carotinoiden. Neben einem erhöhten nächtlichen Stärkeumsatz waren die Pflanzen durch geringere Saccharosegehalte im Vergleich zum Wildtyp gekennzeichnet. Eine Transkriptomanalyse ergab, dass in den STKR1-überexprimierenden Pflanzen unter Energiemangelbedingungen, hervorgerufen durch eine verlängerte Dunkelphase, eine größere Anzahl an Genen im Vergleich zum Wildtyp differentiell reguliert war als während der Lichtphase. Dies spricht für eine Beteiligung von STKR1 an Prozessen, die während der verlängerten Dunkelphase aktiv sind. Ein solcher ist beispielsweise die SnRK1-Signaltransduktion, die unter energetischem Stress aktiviert wird. Die STKR1Überexpression führte zudem zu einer verstärkten transkriptionellen Induktion von Abwehrassoziierten Genen sowie NAC- und WRKY-Transkriptionsfaktoren nach verlängerter Dunkelphase. Die Transkriptomdaten deuteten auf eine stimulusunabhängige Induktion von Abwehrprozessen hin und konnten eine Erklärung für die phänotypischen und physiologischen Auffälligkeiten der STKR1-Überexprimierer liefern. N2 - For all living organism maintenance of energy homeostasis under changing environmental conditions is indispensable. In eukaryotes, evolutionary conserved protein kinases, such as the SNF1-RELATED PROTEIN KINASE1 (SnRK1) in plants, integrate environmental stress signals, nutrient availability and energy depletion during adaptational responses. Activation of SnRK1 triggers a broad transcriptional reprogramming, which in general represses energy consuming processes such as proliferation and protein biosynthesis and induces energy producing catabolic pathways. Although SnRK1 acts as a convergent point for many different environmental and metabolic signals to control growth and development, it is currently unknown how these many different signals could be translated into a cell-type or stimulusspecific response. This is also due to the fact that only a few proteins participating in SnRK1 signal transduction have yet been identified. In this work, a protein-protein interaction network of the Arabidopsis SnRK1α-subunits AKIN10/AKIN11 was established. Thereby, members of the plant specific DUF581 protein family were identified as SnRK1α interacting proteins. The highly conserved DUF581 domain possesses a zinc finger motif and mediates the interaction with AKIN10/AKIN11. In planta co-expression of AKIN10 with DUF581 proteins leads to a shift of subcellular localization from a nucleo-cytoplasmic distribution of both proteins to a nearly exclusive nuclear localization and show that AKIN10 and DUF581 proteins co-localize in nuclei of plant cells. Bimolecular fluorescence complementation analysis revealed that SnRK1α-subunits interact with DUF581 proteins in plants. Apart from their DUF581 domain there is no strong sequence similarity between DUF581 proteins. Because of their ability to interact with SnRK1, the absence of SnRK1-target motifs and their highly variable transcriptional regulation in a tissue-, development- or stimuli-specific manner, it is possible that DUF581 proteins act as adaptor proteins recruiting substrate proteins into the SnRK1 complex under defined physiological conditions. That said, DUF581 could modify the interaction of SnRK1 with its target proteins and facilitate fine-tuning of SnRK1 signal transduction. Additional interaction studies revealed further DUF581 interacting proteins such as transcription factors, protein kinases and regulatory proteins that in part were also able to interact with SnRK1α. One of these proteins which is supposed to be involved in SnRK1 signaling as a transcriptional regulator was characterized in more detail: Arabidopsis STKR1 (STOREKEPPER RELATED 1) a DUF581-18 interaction partner belongs to a plant specific leucine zipper transcription factor family and is able to interact with SnRK1 in yeast and in planta. Co-operative regulation of target genes by STKR1 and AKIN10 is supported by the specific interaction of these proteins inside the plant nucleus. Furthermore, AKIN10 seems to stabilize protein levels of STKR1 in that it attenuates its proteasomal turnover. Due to the fact that STKR1 is a phosphoprotein with putative SnRK1 target motives it is likely a SnRK1 substrate. However, SnRK1 mediated phosphorylation of STKR1 could not be shown in this work. Though, interaction studies in yeast revealed that a loss of putative phosphorylation sites influences the ability of homo- and hetero-dimerization of STKR1, possibly allowing a higher specificity during target gene regulation. Another part of this work was the phenotypic, physiological and molecular characterization of Arabidopsis plants with altered expression of STKR1. Whereas the absence of STKR1 expression results in plants without strong phenotypic abnormality compared to wildtype the overexpression leads to a strong decrease in plant growth as well as developmental retardations regarding to the induction of flowering and senescence reminiscent of SnRK1overexpressing plants. Plants of these lines were not able to accumulate anthocyanins and also contain reduced levels of chlorophyll and carotenoids. Besides a higher starch turnover in dark, these plants displayed lower sucrose contents. Microarray analysis revealed that under energy deficit stress, induced by extended darkness, a higher number of genes were differentially regulated in plants overexpressing STKR1 compared to wildtype than during the light period. This observation argues for a participation of STKR1 in processes, which are active under extended darkness, being the case for SnRK1 signaling which is strongly activated under energy deficient stress. Overexpression of STKR1 also leads to transcriptional induction of genes associated with defense like NAC and WRKY transcription factors after an extended dark. Results of transcriptome data analysis indicate a stimulus independent induction of defense associated processes and are suitable to explain phenotypical and physiological abnormality of the STKR1 overexpressing lines. KW - SnRK1 KW - Proteinkinase KW - Phosphorylierung KW - Arabidopsis thaliana KW - Energiemangel KW - phosphorylation KW - energy starvation KW - protein kinase Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98678 ER - TY - THES A1 - Sauermann, Antje T1 - Impact of the type of referring expression on the acquisition of word order variation T1 - Einfluss der Wahl des referierenden Ausdrucks auf den Erwerb von Wortstellungsvariation N2 - This dissertation examines the impact of the type of referring expression on the acquisition of word order variation in German-speaking preschoolers. A puzzle in the area of language acquisition concerns the production-comprehension asymmetry for non-canonical sentences like "Den Affen fängt die Kuh." (“The monkey, the cow chases.”), that is, preschoolers usually have difficulties in accurately understanding non-canonical sentences approximately until age six (e.g., Dittmar et al., 2008) although they produce non-canonical sentences already around age three (e.g., Poeppel & Wexler, 1993; Weissenborn, 1990). This dissertation investigated the production and comprehension of non-canonical sentences to address this issue. Three corpus analyses were conducted to investigate the impact of givenness, topic status and the type of referring expression on word order in the spontaneous speech of two- to four-year-olds and the child-directed speech produced by their mothers. The positioning of the direct object in ditransitive sentences was examined; in particular, sentences in which the direct object occurred before or after the indirect object in the sentence-medial positions and sentences in which it occurred in the sentence-initial position. The results reveal similar ordering patterns for children and adults. Word order variation was to a large extent predictable from the type of referring expression, especially with respect to the word order involving the sentence-medial positions. Information structure (e.g., topic status) had an additional impact only on word order variation that involved the sentence-initial position. Two comprehension experiments were conducted to investigate whether the type of referring expression and topic status influences the comprehension of non-canonical transitive sentences in four- and five-year-olds. In the first experiment, the topic status of the one of the sentential arguments was established via a preceding context sentence, and in the second experiment, the type of referring expression for the sentential arguments was additionally manipulated by using either a full lexical noun phrase (NP) or a personal pronoun. The results demonstrate that children’s comprehension of non-canonical sentences improved when the topic argument was realized as a personal pronoun and this improvement was independent of the grammatical role of the arguments. However, children’s comprehension was not improved when the topic argument was realized as a lexical NP. In sum, the results of both production and comprehension studies support the view that referring expressions may be seen as a sentence-level cue to word order and to the information status of the sentential arguments. The results highlight the important role of the type of referring expression on the acquisition of word order variation and indicate that the production-comprehension asymmetry is reduced when the type of referring expression is considered. N2 - Im Rahmen der vorliegenden Dissertation wurde der Einfluss des referierenden Ausdrucks auf den Erwerb von Wortstellungsvariationen bei deutschsprachigen Vorschulkindern untersucht. Eine zentrale Fragestellung im Spracherwerb betrifft die Asymmetrie zwischen Produktion und Verständnis. Diese Asymmetrie ist dadurch gekennzeichnet, dass sechsjährige Kinder oft Schwierigkeiten haben, Sätze in der nicht-kanonischen Wortstellung, z.B. „Den Affen fängt die Kuh.“, zu verstehen (z.B., Dittmar et al., 2008), obwohl bereits Dreijährige nicht-kanonische Sätze produzieren können (z.B., Poeppel & Wexler, 1993; Weissenborn, 1990). Um diese Asymmetrie zu untersuchen wurde in der Dissertation die Produktion und das Verständnis von nicht-kanonischen Sätzen betrachtet. In drei Korpusstudien wurde der Einfluss von Vorerwähntheit, Topikstatus und Wahl des referierenden Ausdrucks auf die Wortstellung in der Spontansprache von Zwei- bis Vierjährigen und in der kind-gerichteten Sprache ihre Mütter analysiert. Es wurde die Position des direkten Objektes in ditransitiven Sätzen untersucht, d.h., Sätze in denen das direkte Objekt vor oder nach dem indirekten Objekt in den satzmedialen Positionen stand, und Sätze in denen es in der satzinitialen Position stand. Die Ergebnisse zeigen ähnlich Abfolgemuster in der Satzproduktion der Kindern und Erwachsenen. Die Position des direkten Objektes, vor allem in den satzmedialen Positionen, war zu einem großen Teil durch die Wahl des referierenden Ausdrucks vorhersagbar. Informationsstrukturelle Faktoren (z.B. Topikstatus) hingegen beeinflussten - unabhängig vom Einfluss des referierenden Ausdrucks - nur die Wortstellung in der satzinitialen Position. Zwei Verständnisexperimente wurden durchgeführt um den Einfluss des referierenden Ausdrucks und des Topikstatuses auf das Verständnis von nicht-kanonischen transitiven Sätzen zu untersuchen. Im ersten Experiment wurde der Topikstatus eines der beiden Satzargumente durch einen vorherigen Kontext modifiziert. Im zweiten Experiment wurde zusätzlich der referierende Ausdruck modifiziert, d.h. das Topik wurde entweder durch eine lexikalische Nominalphrase (NP) oder ein Personalpronomen realisiert. Die Ergebnisse zeigen, dass vier- und fünfjährige Kinder Sätze in der nichtkanonischen Wortstellung besser verstehen konnten, wenn das Topik als Personalpronomen realisiert wurde, unabhängig von der grammatischen Rolle des Topiks. Das Satzverständnis war jedoch nicht verbessert, wenn das Topik als lexikalische NP realisiert wurde. Zusammengefasst zeigen die Ergebnisse der Produktions- und Verständnisstudien, dass der referierende Ausdruck als Hinweis auf die Wortstellung und auf den Informationsstatus der Argumente des Satzes von den Kindern genutzt werden kann. Sie unterstreichen somit die Bedeutung der Wahl des referierenden Ausdrucks auf den Erwerb von Wortstellungsvariation und zeigen, dass die Asymmetrie zwischen Produktion und Verständnis an Bedeutung verliert, wenn der referierende Ausdruck einbezogen wird. T3 - Spektrum Patholinguistik - Schriften - 9 KW - language acquisition KW - word order KW - information structure KW - referring expressions KW - corpus studies KW - language comprehension KW - Spracherwerb KW - Wortstellung KW - Informationsstruktur KW - referierender Ausdruck KW - Korpusstudien KW - Sprachverständnis Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89409 SN - 978-3-86956-330-5 SN - 1869-3822 SN - 1869-3830 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Intziegianni, Konstantina T1 - Influence of age and pathology on Achilles tendon properties under functional tasks T1 - Einfluss von Alter und Pathologie auf Eigenschaften der Achillessehne während funktionaler Aufgaben N2 - Prevalence of Achilles tendinopathy increases with age, leading to a weaker tendon with predisposition to rupture. Previous studies, investigating Achilles tendon (AT) properties, are restricted to standardized isometric conditions. Knowledge regarding the influence of age and pa-thology on AT response under functional tasks remains limited. Therefore, the aim of the thesis was to investigate the influence of age and pathology on AT properties during a single-leg vertical jump. Healthy children, asymptomatic adults and patients with Achilles tendinopathy participated. Ultrasonography was used to assess AT-length, AT-cross-sectional area and AT-elongation. The reliability of the methodology used was evaluated both Intra- and inter-rater at rest and at maximal isometric plantar-flexion contraction and was further implemented to investigate tendon properties during functional task. During the functional task a single-leg vertical jump on a force plate was performed while simultaneously AT elongation and vertical ground reaction forces were recorded. AT compliance [mm/N] (elongation/force) and AT strain [%] (elongation/length) were calculated. Differences between groups were evaluated with respect to age (children vs. adults) and pathology (asymptomatic adults vs. patients). Good to excellent reliability with low levels of variability was achieved in the assessment of AT properties. During the jumps AT elongation was found to be statistical significant higher in children. However, no statistical significant difference was found for force among the groups. AT compliance and strain were found to be statistical significant higher only in children. No significant differences were found between asymptomatic adults and patients with tendinopathy. The methodology used to assess AT properties is reliable, allowing its implementation into further investigations. Higher AT-compliance in children might be considered as a protective factor against load-related injuries. During functional task, when higher forces are acting on the AT, tendinopathy does not result in a weaker tendon. N2 - Die Prävalenz der Achillessehenentendinopathie steigt mit zunehmendem Alter, was zu einer geschwächten Sehnenstruktur mit Prädisposition zur Ruptur führt. Frühere Studien, welche Achillesssehnen(AS)-Eigenschaften untersuchten, beschränkten sich auf standardisierte isometrische Bedingungen. Der Einfluss von Alter und Pathologie auf das AS-Verhalten während funktioneller Bewegungen ist unklar. Das die Ziel der vorliegenden Arbeit war es daher, den Einfluss des Alters und Pathologie auf AS-Eigenschaften während einen einbeinigen vertikalen Sprung zu untersuchen. Es wurden gesunde Kinder, asymptomatische Erwachsene und Patienten mit Achillessehnene-ndinopathie eingeschlossen. Sonographisch wurden AS-Länge, -Querschnittsfläche (cross-sectional area) und -Dehnung gemessen. Intra- und inter-rater Reliabilität der genutzten Methoden wurden sowohl in Ruhe als auch unter maximaler isometrischer Plantarflexion bestimmt und nachfolgend zur Untersuchung der funktionellen AS-Eigenschaften implementiert. Hierzu wurde ein einbeiniger vertikaler Sprung auf einer Kraftmessplatte absolviert und zeitgleich AS-Compliance sowie vertikale Bodenreaktionskräfte regsitriert. AS-Compliance [mm/N] (Dehnung/Kraft) und AS-Verformung [%] (Dehnung/Länge) wurden kalkuliert. Die Gruppenunterschiede wurden in Bezug auf Alter (Kinder vs. Erwachsene) und Pathologie (Erwachsene vs. Patienten) evaluiert. Bei der Bewertung der verwendeten Methode wurde eine gute bis sehr gute Reliabilität mit geringer Variabilität zur Beurteilung der AS-Eigenschaften erreicht. Während der einbeinigen Sprünge zeigte sich eine statistisch signifikant höhere AS-Dehnung bei Kindern verglichen zu Erwachsenen. Ein statistisch signifikanter Kraft-Unterschied bestand zwischen den Gruppen nicht. AS-Compliance und –Verformung waren ausschließlich statistisch signifikant höher bei den Kindern. Keine signifikanten Unterschiede zwischen Erwachsenen und Patienten wurden gefunden. Die Methodik zur Bestimmung der AS-Eigenschaften ist zuverlässig, was deren Implementierung in weitere funktionelle Untersuchungen ermöglicht. Die höhere funktionelle AS-Compliance bei Kindern kann als Schutz vor Überlastungsschäden diskutiert werden. Während funktioneller Aufgaben, bei denen höhere Kräfte auf die AS wirken, ging das Vorhandensein einer Tendinopathie nicht mit einer schwächeren Sehne einher. KW - Achilles tendon KW - tendinopathy KW - age KW - reliability KW - tendon mechanical properties KW - Achillessehne KW - Tendinopathie KW - Alter KW - Sehnen mechanische Eigenschaften Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398732 ER - TY - THES A1 - Wang, Victor-C. T1 - Injury and illness risk factors for elite athletes in training environment T1 - Verletzung und Krankheit Risikofaktoren für Elite-Athleten im Trainingsumfeld BT - a comparison between Germany and Taiwan BT - ein Vergleich zwischen Deutschland und Taiwan N2 - Since 1998, elite athletes’ sport injuries have been monitored in single sport event, which leads to the development of first comprehensive injury surveillance system in multi-sport Olympic Games in 2008. However, injury and illness occurred in training phases have not been systematically studied due to its multi-facets, potentially interactive risk related factors. The present thesis aim to address issues of feasibility of establishing a validated measure for injury/illness, training environment and psychosocial risk factors by creating the evaluation tool namely risk of injury questionnaire (Risk-IQ) for elite athletes, which based on IOC consensus statement 2009 recommended content of preparticipation evaluation(PPE) and periodic health exam (PHE). A total of 335 top level athletes and a total of 88 medical care providers from Germany and Taiwan participated in tow “cross-sectional plus longitudinal” Risk-IQ and MCPQ surveys respectively. Four categories of injury/illness related risk factors questions were asked in Risk-IQ for athletes while injury risk and psychological related questions were asked in MCPQ for MCP cohorts. Answers were quantified scales wise/subscales wise before analyzed with other factors/scales. In addition, adapted variables such as sport format were introduced for difference task of analysis. Validated with 2-wyas translation and test-retest reliabilities, the Risk-IQ was proved to be in good standard which were further confirmed by analyzed results from official surveys in both Germany and Taiwan. The result of Risk-IQ revealed that elite athletes’ accumulated total injuries, in general, were multi-factor dependent; influencing factors including but not limited to background experiences, medical history, PHE and PPE medical resources as well as stress from life events. Injuries of different body parts were sport format and location specific. Additionally, medical support of PPE and PHE indicated significant difference between German and Taiwan. The result of the present thesis confirmed that it is feasible to construct a comprehensive evalua-tion instrument for heterogeneous elite athletes cohorts’ risk factor analysis for injury/illness oc-curred during their non-competition periods. In average and with many moderators involved, Ger-man elite athletes have superior medical care support yet suffered more severe injuries than Tai-wanese counterparts. Opinions of injury related psychological issues reflected differently on vari-ous MCP groups irrespective of different nationalities. In general, influencing factors and interac-tions existed among relevant factors in both studies which implied further investigation with multiple regression analysis is needed for better understanding. N2 - Seit 1998 werden Sportverletzungen von Elitesportlern in Einzeldisziplinen untersucht und überwacht. Daraus entwickelte sich das erste Überwachungssystem von Sportverletzungen für verschiedene Sportdisziplinen, das zum ersten Mal 2008 bei den Olympischen Spielen zum Einsatz kam. Verletzungen und Krankheiten, die aus dem Training resultieren können, wurden bisher noch nicht systematisch beschrieben, da die potentiellen Verletzungsfaktoren vielfältig sein können. Die vorliegende Dissertation hat zum Ziel, Fragen der Zweckmäßigkeit einer validierten Maßnahme zum Verletzungsrisiko und den damit verbundenen psychosozialen Faktoren zu untersuchen. Ausgangspunkt für die Untersuchung ist das IOC consensus statement aus dem Jahr 2009 mit den beiden Bereichen PPE und PHE. 335 Elitesportler und 88 sportmedizinische Versorger aus Deutschland und Taiwan nahmen (zwischen Oktober 2013 und Februar 2014) an einer Querschnitts- und Längsstudie (Risk-IQ und MCPQ) teil. In der Risk-IQ-Umfrage unter den Elitesportlern wurden Fragen zu vier Kategorien von Verletzungsfaktoren gestellt. Die sportmedizinischen Versorger beantworteten Fragen zu Verletzungsrisiken und psychologische Fragen. Die Antworten wurden in Skalen und Unterskalen quantifiziert, bevor sie mit anderen Faktoren analysiert wurden. Darüber hinaus wurden angepasste Variablen wie zum Beispiel das Sportformat eingeführt. Im Vorfeld der Studie wurden die Übersetzungen der Umfragefragen validiert und Reliabilitäts-Test und Retests durchgeführt, bevor die Umfragen in Deutschland und Taiwan durchgeführt wurden. Das Ergebnis der Umfrage unter den Elitesportlern zeigt, dass die Sportverletzungen im Allgemeinen von verschiedenen Faktoren abhängig sind: Trainingserfahrungen, Leistungsniveau, medizinische Vorgeschichte, PHE und PPE Ressourcen sowie von psychosozialem Stress, der durch bestimmte Erlebnisse oder Schicksalsschläge ausgelöst werden kann. Die Art der Verletzungen werden durch die Sportart und den Trainingsort beeinflusst. Auch die medizinische Versorgung im Rahmen der PPE und PHE ist signifikant verschieden zwischen Deutschland und Taiwan. Im Ergebnis zeigt sich, dass es anhand eines umfassenden Erhebungsinstruments möglich ist, Verletzungsfaktoren für Elite-Athleten zu identifizieren. Zusammenfassend lässt sich sagen, dass deutsche Elitesportler eine bessere medizinische Versorgung genießen als taiwanische Elitesportler. Allerdings sind sie auch von schwereren Verletzungen betroffen. Die Antworten zu den psychosozialen Einflussfaktoren gehen auseinander und lassen sich nicht auf Sportler einer Nationalität beschränken. KW - injury and illness KW - risk factors KW - elite athlete KW - sport training KW - Germany KW - Taiwan KW - Risikofaktoren KW - Verletzung KW - Elite-Athleten KW - Deutschland KW - Taiwan KW - injury surveillance KW - multi-sports KW - IOC KW - Olympic Games KW - national Olympic committees (NOCs) KW - international sport federations (IFs) KW - international competition participation KW - training phases KW - interaction KW - feasibility KW - validated measure KW - training environment KW - psychosocial KW - evaluation tool KW - sport injury KW - questionnaire KW - Risk-IQ KW - IOC consensus statement 2009 KW - pre-participation evaluation (PPE) KW - periodic health exam (PHE) KW - medical care providers (MCP) KW - medical care providers questionnaire (MCPQ) KW - cross-sectional KW - longitudinal KW - intra-class correlation coefficient (ICC) KW - factor analysis KW - scales KW - sport format KW - sport location KW - 2-wyas translation KW - forward and backward translation KW - test-retest reliabilities KW - multi-factor KW - medical history KW - medical resources KW - stress KW - inventory of life events (ILE) KW - perceived stress scale (PSS) KW - overtraining syndrome KW - body parts KW - medical education KW - medical support KW - comprehensive evaluation instrument KW - heterogeneous cohorts KW - non-competition periods KW - moderators KW - severe injury KW - opinions KW - nationalities KW - interactions KW - multiple logistic regression KW - Colorado injury report system (CIRS) KW - sport injury risk factors model KW - TRIPP model KW - stress and injury model KW - Bland and Altman plot Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100925 ER - TY - THES A1 - Gonzalez Camargo, Rodolfo T1 - Insulin resistance in cancer cachexia and metabolic syndrome BT - role of insulin activated macrophages and miRNA-21-5p N2 - The ever-increasing fat content in Western diet, combined with decreased levels of physical activity, greatly enhance the incidence of metabolic-related diseases. Cancer cachexia (CC) and Metabolic syndrome (MetS) are both multifactorial highly complex metabolism related syndromes, whose etiology is not fully understood, as the mechanisms underlying their development are not completely unveiled. Nevertheless, despite being considered “opposite sides”, MetS and CC share several common issues such as insulin resistance and low-grade inflammation. In these scenarios, tissue macrophages act as key players, due to their capacity to produce and release inflammatory mediators. One of the main features of MetS is hyperinsulinemia, which is generally associated with an attempt of the β-cell to compensate for diminished insulin sensitivity (insulin resistance). There is growing evidence that hyperinsulinemia per se may contribute to the development of insulin resistance, through the establishment of low grade inflammation in insulin responsive tissues, especially in the liver (as insulin is secreted by the pancreas into the portal circulation). The hypothesis of the present study was that insulin may itself provoke an inflammatory response culminating in diminished hepatic insulin sensitivity. To address this premise, firstly, human cell line U937 differentiated macrophages were exposed to insulin, LPS and PGE2. In these cells, insulin significantly augmented the gene expression of the pro-inflammatory mediators IL-1β, IL-8, CCL2, Oncostatin M (OSM) and microsomal prostaglandin E2 synthase (mPGES1), and of the anti-inflammatory mediator IL-10. Moreover, the synergism between insulin and LPS enhanced the induction provoked by LPS in IL-1β, IL-8, IL-6, CCL2 and TNF-α gene. When combined with PGE2, insulin enhanced the induction provoked by PGE2 in IL-1β, mPGES1 and COX2, and attenuated the inhibition induced by PGE2 in CCL2 and TNF-α gene expression contributing to an enhanced inflammatory response by both mechanisms. Supernatants of insulin-treated U937 macrophages reduced the insulin-dependent induction of glucokinase in hepatocytes by 50%. Cytokines contained in the supernatant of insulin-treated U937 macrophages also activated hepatocytes ERK1/2, resulting in inhibitory serine phosphorylation of the insulin receptor substrate. Additionally, the transcription factor STAT3 was activated by phosphorylation resulting in the induction of SOCS3, which is capable of interrupting the insulin receptor signal chain. MicroRNAs, non-coding RNAs linked to protein expression regulation, nowadays recognized as active players in the generation of several inflammatory disorders such as cancer and type II diabetes are also of interest. Considering that in cancer cachexia, patients are highly affected by insulin resistance and inflammation, control, non-cachectic and cachectic cancer patients were selected and the respective circulating levels of pro-inflammatory mediators and microRNA-21-5p, a posttranscriptional regulator of STAT3 expression, assessed and correlated. Cachectic patients circulating cytokines IL-6 and IL-8 levels were significantly higher than those of non-cachectic and controls, and the expression of microRNA-21-5p was significantly lower. Additionally, microRNA-21-5p reduced expression correlated negatively with IL-6 plasma levels. These results indicate that hyperinsulinemia per se might contribute to the low grade inflammation prevailing in MetS patients and thereby promote the development of insulin resistance particularly in the liver. Diminished MicroRNA-21-5p expression may enhance inflammation and STAT3 expression in cachectic patients, contributing to the development of insulin resistance. N2 - O teor de gordura cada vez maior na dieta ocidental, combinada com a diminuição dos níveis de atividade física têm marcadamente aumentado à incidência de doenças relacionas ao metabolismo. A caquexia associada ao câncer (CC) e a síndrome metabólica (SM) são síndromes de etiologia complexa e multifatorial, não totalmente compreendida, e com mecanismos subjacentes ao seu desenvolvimento não completamente revelados. No entanto, apesar de serem consideradas "lados opostos", a CC e a MetS apresentam várias características em comum, tais como resistência à insulina e inflamação de baixo grau, com macrófagos teciduais como importantes coadjuvantes, devido à sua capacidade de produzir e liberar mediadores inflamatórios, e microRNAs, descritos como RNAs não-codificantes ligados à regulação da expressão de proteínas e reconhecidos como participantes ativos na geração de várias doenças inflamatórias, tais como o câncer e diabetes tipo II. Uma das principais características da MetS é a hiperinsulinemia, que está geralmente associada com uma tentativa da célula β do pâncreas de compensar a diminuição da sensibilidade à insulina (resistência à insulina). Um número crescente de evidências sugere que a hiperinsulinemia “por si só”, pode contribuir com o desenvolvimento de resistência à insulina através do estabelecimento de um quadro inflamatório de baixo grau, em tecidos sensíveis a insulina, e em particular no fígado, devido ao fato da insulina ser secretada pelo pâncreas na circulação portal. A hipótese do presente estudo foi que a insulina pode induzir uma resposta inflamatória em macrófagos e culminar em diminuição da sensibilidade hepática à insulina. Para confirmar esta hipótese, primeiramente, macrófagos diferenciados da linhagem de células humanas U937 foram expostos à insulina, LPS e PGE2. Nestas células, a insulina aumentou significativamente a expressão gênica dos mediadores pró-inflamatórios IL-1β, IL- 8, CCL2, oncostatina M (OSM) e prostaglandina E2 sintase microssomal (mPGES1), e do mediador anti-inflamatório IL-10. Além disso, o sinergismo entre insulina e LPS aumentou a indução provocada por LPS nos genes da IL-1β, IL-8, IL-6, CCL2 e TNF-α. Quando combinado com PGE2, a insulina aumentou a indução provocada pela PGE2 nos genes da IL-1β, mPGES1 e COX2, e restaurou a inibição induzida pela PGE2 no gene CCL2 e TNF-α.Subsequentemente, sobrenadantes dos macrófagos U937 tratados com insulina modulou negativamente a sinalização da insulina em culturas primárias de hepatócitos de rato, como observado pela atenuação de 50% da indução dependente de insulina da enzima glicoquinase. Citocinas contidas no sobrenadante de macrófagos U937 tratados com insulina também ativaram em hepatócitos ERK1/2, resultando na fosforilação do resíduo de serina inibitório do substrato do receptor de insulina. Adicionalmente, o fator de transcrição STAT3 foi ativado por um elevado grau de fosforilação e a proteína SOCS3, capaz de interromper a via de sinalização do receptor de insulina, foi induzida. Considerando que na caquexia associada ao câncer, pacientes são altamente afetados pela resistência à insulina e inflamação, pacientes controle, não caquéticos e caquéticos foram seleccionados e os respectivos níveis circulantes de mediadores pró-inflamatórios e microRNA-21-5p, um regulador pós-transcricional da expressão de STAT3, avaliados e correlacionados. Pacientes caquéticos exibiram citocinas circulantes IL-6 e IL-8 significativamente maiores do que pacientes não caquéticos e controles, assim como a expressão de microRNA-21-5p significativamente diminuida. Além disso, a reduzida expressão de microRNA-21-5p correlaciona-se negativamente com níveis de IL-6 no plasma. Estes resultados indicam que a hiperinsulinemia pode, por si só contribuir para o desenvolvimento da inflamação de baixo grau prevalente em pacientes com excesso de peso e obesos e, assim, promover o desenvolvimento de resistência à insulina especialmente no fígado e o nível reduzido de miRNA-21-5p pode modular a inflamação e expressão de STAT3 em pacientes caquéticos, contribuindo para o desenvolvimento da resistência à insulina. N2 - Der stetig steigende Fettgehalt in westlicher Ernährung in Kombination mit reduzierter körperlicher Aktivität hat zu einem dramatischen Anstieg der Inzidenz metabolischer Erkrankungen geführt. Tumorkachexie (Cancer cachexia, CC) und Metabolisches Syndrom (MetS) sind sehr komplexe, multifaktorielle metabolische Erkrankungen, deren Ätiologie nicht vollständig verstanden ist. Die molekularen Ursachen, die zu diesen Symptomkomplexen führen, sind noch unzureichend aufgeklärt. Obwohl ihr äußeres Erscheinungsbild stark gegensätzlich ist, haben MetS und CC etliche Gemeinsamkeiten wie zum Beispiel Insulinresistenz und eine chronische unterschwellige Entzündung. Sowohl bei der Entstehung der Insulinresistenz als auch bei der chronischen Entzündung spielen Makrophagen eine Schlüsselrolle, weil sie in der Lage sind pro-inflammatorische Mediatoren zu produzieren und freizusetzen. Eine der hervorstechendsten Auffälligkeiten des MetS ist die Hyperinsulinämie, die durch den Versuch der β-Zelle, die verminderte Insulinsensitivität (Insulinresistenz) zu kompensieren, zustande kommt. Es gibt zunehmend Hinweise darauf, dass die Hyperinsulinämie selber an der Entzündungsentstehung in Insulin-abhängigen Geweben beteiligt ist und dadurch zur Entwicklung und Verstärkung der Insulinresistenz beitragen kann. Dies trifft besonders auf die Leber zu, weil hier die Insulinspiegel besonders hoch sind, da Insulin vom Pankreas direkt in den Pfortaderkeislauf gelangt. Daher wurde in dieser Arbeit die Hypothese geprüft, ob Insulin selber eine Entzündungsantwort auslösen und dadurch die hepatische Insulinsensitivität senken kann. Zu diesem Zweck wurde die humane Zelllinie U937 durch PMA-Behandlung zu Makrophagen differenziert und diese Makrophagen mit Insulin, LPS und PGE2 inkubiert. In diesen Zellen steigerte Insulin die Expression der pro-inflammatorischen Mediatoren IL-1β, IL-8, CCL2, Oncostatin M (OSM) signifikant und induzierte die mikrosomale PGE-Synthase 1 (mPGES1) ebenso wie das antiinflammatorische Cytokin IL-10. Ferner verstärkte Insulin die LPS-abhängige Induktion des IL-1β-, IL-8-, IL-6-, CCL2- und TNFα-Gens. Ebenso verstärkte Insulin die PGE2-abhängige Induktion von IL-1β, mPGES1 und COX2. Im Gegensatz dazu schwächte es die Hemmende Wirkung von PGE2 auf Expression von TNFα und CCL2 ab und trug so auf beide Weisen zu einer Verstärkung der Entzündungsantwort bei. Überstände von Insulin-behandelten U937 Makrophagen reduzierten die Insulin-abhängige Induktion der Glukokinase in Hepatocyten um 50%. Die Cytokine, die im Überstand Insulin-behandelter Makrophagen enthalten waren, aktivierten in Hepatocyten ERK1/2, was zu einer inhibitorischen Serin-Phosphorylierung der Insulin Rezeptor Substrats (IRS) führte. Zusätzlich führten die Cytokine zu einer Phosphorylierung und Aktivierung von STAT3 und einer dadurch bedingten Induktion von SOCS3, das seinerseits die Insulinrezeptor-Signalkette unterbrechen kann. MicroRNAs, nicht-codierende RNAs, die an der Regulation der Proteinexpression beteiligt sind und deren Beteiligung an der Regulation der Entzündungsantwort bei zahlreichen Erkrankungen, unter anderem Tumorerkrankungen und Typ II Diabetes gezeigt wurde, sind auch von Interesse. Unter dem Blickwinkel, dass Tumor-Kachexie Patienten sich durch eine Insulinresistenz und eine systemische Entzündung auszeichnen, wurden in nichtkachektische und tumorkachektische Patienten Plasmaspiegel von pro-inflammatorischen Mediatoren und der microRNA-21-5p bestimmt, von der bekannt ist, dass sie ein posttranskriptioneller Regulator der STAT3 Expression ist. Die Spiegel der proinflammatorischen Mediatoren und der miRNA-21-5p wurden korreliert. In kachektischen Patienten waren die Spiegel der Cytokine IL-6 und IL-8 signifikant höher, die der miRNA-21- 5p signifikant niedriger als in nicht-kachektischen Patienten. Die Plasma IL-6-Spiegel korrelierten negativ mit den miRNA21-5p Spiegeln. Insgesamt zeigen die Ergebnisse, dass eine Hyperinsulinämie selber zu der Entwicklung einer unterschwellingen Entzündung, wie sie in Patienten mit einem MetS vorherrscht, beitragen, und dadurch besonders in der Leber eine Insulinresistenz auslösen oder verstärken kann. Eine verringerte Expression der MicroRNA-21-5p kann in kachektischen Patienten die Entzündungsantwort, im Speziellen die STAT3 Expression, verstärken und dadurch zur Entwicklung einer Insulinresistenz beitragen KW - cachexia KW - metabolic syndrome KW - inflammation KW - insulin resistance KW - microRNAs KW - insulin KW - liver KW - macrophages KW - caquexia KW - síndrome metabólica KW - inflamação KW - resistência à insulina KW - microRNAs KW - insulina KW - fígado KW - macrófagos KW - Kachexie KW - metabolisches Syndrom KW - Entzündung KW - Insulinresistenz KW - MicroRNAs KW - Insulin KW - Leber KW - Makrophagen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100973 ER - TY - THES A1 - Mueller, Stefanie T1 - Interacting with personal fabrication devices T1 - Interaktion mit Personal Fabrication Geräten N2 - Personal fabrication tools, such as 3D printers, are on the way of enabling a future in which non-technical users will be able to create custom objects. However, while the hardware is there, the current interaction model behind existing design tools is not suitable for non-technical users. Today, 3D printers are operated by fabricating the object in one go, which tends to take overnight due to the slow 3D printing technology. Consequently, the current interaction model requires users to think carefully before printing as every mistake may imply another overnight print. Planning every step ahead, however, is not feasible for non-technical users as they lack the experience to reason about the consequences of their design decisions. In this dissertation, we propose changing the interaction model around personal fabrication tools to better serve this user group. We draw inspiration from personal computing and argue that the evolution of personal fabrication may resemble the evolution of personal computing: Computing started with machines that executed a program in one go before returning the result to the user. By decreasing the interaction unit to single requests, turn-taking systems such as the command line evolved, which provided users with feedback after every input. Finally, with the introduction of direct-manipulation interfaces, users continuously interacted with a program receiving feedback about every action in real-time. In this dissertation, we explore whether these interaction concepts can be applied to personal fabrication as well. We start with fabricating an object in one go and investigate how to tighten the feedback-cycle on an object-level: We contribute a method called low-fidelity fabrication, which saves up to 90% fabrication time by creating objects as fast low-fidelity previews, which are sufficient to evaluate key design aspects. Depending on what is currently being tested, we propose different conversions that enable users to focus on different parts: faBrickator allows for a modular design in the early stages of prototyping; when users move on WirePrint allows quickly testing an object's shape, while Platener allows testing an object's technical function. We present an interactive editor for each technique and explain the underlying conversion algorithms. By interacting on smaller units, such as a single element of an object, we explore what it means to transition from systems that fabricate objects in one go to turn-taking systems. We start with a 2D system called constructable: Users draw with a laser pointer onto the workpiece inside a laser cutter. The drawing is captured with an overhead camera. As soon as the the user finishes drawing an element, such as a line, the constructable system beautifies the path and cuts it--resulting in physical output after every editing step. We extend constructable towards 3D editing by developing a novel laser-cutting technique for 3D objects called LaserOrigami that works by heating up the workpiece with the defocused laser until the material becomes compliant and bends down under gravity. While constructable and LaserOrigami allow for fast physical feedback, the interaction is still best described as turn-taking since it consists of two discrete steps: users first create an input and afterwards the system provides physical output. By decreasing the interaction unit even further to a single feature, we can achieve real-time physical feedback: Input by the user and output by the fabrication device are so tightly coupled that no visible lag exists. This allows us to explore what it means to transition from turn-taking interfaces, which only allow exploring one option at a time, to direct manipulation interfaces with real-time physical feedback, which allow users to explore the entire space of options continuously with a single interaction. We present a system called FormFab, which allows for such direct control. FormFab is based on the same principle as LaserOrigami: It uses a workpiece that when warmed up becomes compliant and can be reshaped. However, FormFab achieves the reshaping not based on gravity, but through a pneumatic system that users can control interactively. As users interact, they see the shape change in real-time. We conclude this dissertation by extrapolating the current evolution into a future in which large numbers of people use the new technology to create objects. We see two additional challenges on the horizon: sustainability and intellectual property. We investigate sustainability by demonstrating how to print less and instead patch physical objects. We explore questions around intellectual property with a system called Scotty that transfers objects without creating duplicates, thereby preserving the designer's copyright. N2 - Personal Fabrication Geräte, wie zum Beispiel 3D Drucker, sind dabei eine Zukunft zu ermöglichen in der selbst Benutzer ohne technisches Fachwissen eigene Objekte erstellen können. Obwohl die Hardware nun verfügbar ist, gibt es derzeit kein geeignetes Interaktionsmodel für Benutzer ohne Fachwissen. Heutzutage werden Objekte mit dem 3D Drucker in einem Stück hergestellt. Da der 3D Druck noch ein sehr langsames Verfahren ist und häufig so lange dauert, dass das Objekt über Nacht hergestellt werden muss, müssen Benutzer sorgfältig alles überprüfen bevor sie den Druckauftrag abschicken, da jeder Fehler einen weiteren Tag Wartezeit bedeuten kann. Benutzer ohne technischen Hintergrund haben jedoch nicht das notwendige Fachwissen um alle Faktoren vorhersagen zu können. In dieser Dissertation schlagen wir vor das Interaktionsmodel von Personal Fabrication Geräten zu ändern, um diese Benutzer besser zu unterstützen. Wir argumentieren, dass die Entwicklung von Personal Fabrication Geräten der Entwicklung von Personal Computern gleicht. Die ersten Computer arbeiteten ein Programm vollständig ab, bevor sie ein Ergebnis an den Benutzer zurückgaben. Durch die Verkleinerung der Interaktionseinheit von ganzen Programmen zu einzelnen Anfragen wurden turn-taking Systeme wie die Kommandozeile möglich. Mit der Einführung von direkter Manipulation konnten Benutzer schließlich kontinuierlich mit dem Program arbeiten: sie erhielten Feedback über jede einzelne Interaktion in Echtzeit. Wir untersuchen in dieser Arbeit ob die gleichen Interaktionskonzepte auf Personal Fabrication Geräte angewendet werden können. Wir beginnen diese Arbeit damit zu untersuchen wie man die Feedbackzeit bei der Interaktion mit ganzen Objekten verkürzen kann. Wir präsentieren eine Methode mit dem Namen Low-fidelity Fabrication, die bis zu 90% Druckzeit spart. Low-fidelity fabrication ist schnell, weil es 3D Modelle als grobe Vorschauobjekte druckt, die aber ausreichen um die Aspekte zu testen, die gerade wichtig sind. Abhängig vom aktuellen Testfokus schlagen wir vor verschiedene Konvertierungen vorzunehmen: Unser System faBrickator ist besonders für die ersten Testläufe geeignet, wenn ein modulares Design wichtig ist. Unser System WirePrint ist besonders nützlich im nächsten Schritt, wenn die Form des Objektes erhalten bleiben soll. Am Ende erlaubt unser System Platener ein Objekt so zu konvertieren, dass die technische Funktion des Objektes bewahrt wird. Wir erklären das Design unserer interaktiven Editoren und die zugrunde liegenden Konvertierungsalgorithmen. Durch die Verkleinerung der Interaktionseinheit auf ein einzelnes Element, wie zum Beispiel einer Linie, untersuchen wir wie man Objekt-basierte Fabrikationssysteme in turn-taking Systeme umwandeln kann. Wir zeigen unser 2D System constructable, das auf einem Laser-Cutter basiert. Benutzer von constructable verwenden einen Laserpointer um auf das Werkstück im Laser-Cutter zu zeichnen. Die Zeichnung wird mit einer Kamera aufgenommen, korrigiert, und anschließend direkt mit dem Laser-Cutter ausgeschnitten. Wir erweitern constructable zu 3D mit unserer neuen Laser-Cutter Technologie Laser-Origami. LaserOrigami erzeugt 3D Objekte, indem es mit dem defokussierten Laser das Werkstück erhitzt bis es verformbar wird, die Schwerkraft biegt das Werkstück anschließend in seine 3D Form. Obwohl constructable und LaserOrigami physisches Feedback schnell erzeugen, ist die Interaktion dennoch am besten als turn-taking zu beschreiben: Benutzer editieren zuerst und sehen danach das Ergebnis. Indem wir die Interaktionseinheit noch einmal verkleinern, nun auf ein einziges Feature, können wir Echtzeitfabrikation erreichen: Benutzereingabe und physisches Feedback sind so eng miteinander verbunden, dass es keine sichtbare Verzögerung mehr gibt. Damit können wir untersuchen, was es bedeutet von turn-taking Systemen zu direkter Manipulation überzugehen. Wir zeigen ein System mit dem Namen FormFab, das solch eine direkte interaktive Kontrolle ermöglicht. FormFab basiert auf dem gleichen Prinzip wie LaserOrigami: Ein Werkstück wird erhitzt bis es verformbar wird. Allerdings verwendet FormFab nicht die Schwerkraft zum verformen, sondern ein pneumatisches System, das Benutzer interaktiv steuern können. Wenn Benutzer den Luftdruck ändern, sehen sie wie sich die Größe der Form in Echtzeit ändert. Dies erlaubt ihnen die beste Entscheidung zu treffen während sie verschiedene Optionen evaluieren. Im letzten Kapitel dieser Dissertation extrapolieren wir die aktuelle Entwicklung in eine Zukunft in der eine große Anzahl von Personen eigene Objekte herstellen werden. Dabei entstehen zwei neue Herausforderungen: Nachhaltigkeit und das Bewahren von intellektuellem Eigentum. KW - human computer interaction KW - 3D printing KW - 3D Drucken KW - Laser Cutten KW - Interaktionsmodel Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100908 ER - TY - THES A1 - Käthner, Jana T1 - Interaction of spatial variability characterized by soil electrical conductivity and plant water status related to generative growth of fruit trees T1 - Interaktion der räumlichen Variabilität der scheinbaren elektrischen Leitfähigkeit des Bodens und des Pflanzenwasserzustandes auf das generative Wachstum von Obstbäumen N2 - Precision horticulture beschreibt ein neues Bewirtschaftungskonzept im Gartenbau, bei dem teilflächenspezifisch oder an den Einzelbaum angepasste Maßnahmen eine ressourcenschonende, intensitve Produktion ermöglichen. Die Datengrundlage wird aus räumlich aufgelösten Messungen aus der Produktionsanlage gewonnen, wobei sowohl kurzfristige Faktoren wie der effektive Pflanzenwasserzustand als auch langfristige Faktoren wie die Bodenvariabilität zur Informationsgewinnung genutzt werden können. Die vorliegende Arbeit umfasst eine Untersuchung der scheinbaren elektrischen Leitfähigkeit des Bodens (ECa), des Pflanzenwasserzustandes und der Fruchtqualität (zum Beispiel: Fruchtgröße) bei Prunus domestica L. (Pflaume) und Citrus x aurantium, Syn. Citrus paradisi (Grapefruit). Zielsetzungen der vorliegenden Arbeit waren (i) die Charakterisierung der 3D-Verteilung der scheinbaren elektrischen Leitfähigkeit des Bodens und Variabilität des Pflanzenwasserzustandes; (ii) die Untersuchung der Interaktion zwischen ECa, kumulativer Wassernutzungseffizienz (WUEc) und des crop water stress index (CWSI) bezogen auf die Fruchtqualität sowie (iii) eine Möglichkeit zur Einteilung von einzelnen Bäumen hinsichtlich der Bewässerung. Dazu fanden die Hauptuntersuchungen in der Pflaumenanlage statt. Diese Obstanlage befindet sich in Hanglage (3°) auf pleistozänen und postpleistozänen Substraten in semi-humiden Klima (Potsdam, Deutschland) und umfasst eine Fläche von 0,37 ha mit 156 Bäumen der Kultursorte ˈTophit Plusˈ auf der Unterlage Wavit. Die Anlage wurde 2009 mit ein und zwei-jährigen Bäumen in einem Pflanzabstand von 4 m entlang der Bewässerung und 5 m zwischen den Reihen angelegt. Dreimal pro Woche wurden die Bäume mit einer 50 cm über dem Boden installierten Tröpfchenbewässerung mit 1,6 l pro Baum bewässert. Mit Hilfe geoelektrischer Messungen wurde die scheinbare elektrische Leitfähigkeit des Oberbodens (0,25 m) mit einem Elektrodenabstand von 0,5 m (4-point light hp) an jedem Baum gemessen. Dadurch wurde die Anlage hinsichtlich ECa räumlich charakterisiert. Zusätzlich erfolgten Tomographiemessungen zur 3D-Charakterisierung der ECa und punktuell die Beprobung von Bohrlochprofilen bis 1 m Tiefe. Die vegetativen, generativen und Fruchtqualitätsdaten wurden an jedem Baum erhoben. Der momentane Pflanzenwasserzustand wurde mit der etablierten Scholander-Methode zur Wasserpotentialanalyse (Scholander Bombe) punktuell und mit Thermalaufnahmen flächendeckend bestimmt. Die Thermalaufnahmen erfolgten mit einer Infrarot-Kamera (ThermaCam SC 500), die auf einem Traktor in 3,3 m Höhe über dem Boden montiert war. Die Thermalaufnahmen (320 x 240 Pixel) der Kronenoberfläche wurden mit einem Öffnungswinkel von 45° und einer geometrischen Auflösung von 6,41 mm x 8,54 mm aufgenommen. Mit Hilfe der Kronentemperatur aus den Thermalbildern und den Temperaturen eines nassen und trockenen Referenzblattes wurde der CWSI berechnet. Es wurde die Anpassung des CWSI für die Messung in semi-humidem Klima erarbeitet, wobei die Erhebung der Referenztemperaturen automatisiert aus den Thermalbildern erfolgte. Die Boniturdaten wurden mit Hilfe eines Varianz-Stabilisierungsverfahrens in eine Normalverteilung transformiert. Die statistischen Analysen sowie die automatisierte Auswertungsroutine erfolgten mit eigenen Skripten in MATLAB® (R2010b sowie R2016a) und einem freien Programm (spatialtoolbox). Die Hot-spot Analysen dienten der Prüfung, ob ein beobachtetes Muster statistisch signifikant ist. Evaluiert wurde die Methode mit der etablierten k-mean Analyse. Zum Testen der Hot-spot Analyse wurden ECa, Stammumfang und Ertrag Daten aus einer Grapefruitanlage (Adana, Türkei) mit 179 Bäumen auf einem Boden vom Typ Xerofkuvent mit toniger und tonig-lehmiger Textur herangezogen. Die Überprüfung der Interaktion zwischen den kritischen Werten aus den Boden- und Pflanzenwasserzustandsinformationen zu den vegetativen und generativen Pflanzenwachtumsvariablen erfolgte durch die Anwendung der ANOVA und die Ermittlung des Korrelationskoeffizienten. In der Arbeit konnte gezeigt werden, dass die Variabilität der Boden- und Pflanzeninformationen in Obstanlagen auch kleinräumig hoch ist. Es konnte gezeigt werden, dass die räumlich gefundenen Muster in den ECa über die Jahre zwischen 2011-2012 (r = 0.88) beziehungsweise 2012-2013 (r = 0.71) stabil geblieben sind. Zum anderen wurde gezeigt, dass eine CWSI-Bestimmung auch im semi-humiden Klima möglich ist. Es wurde ein Zusammenhang (r = - 0.65, p < 0.0001) mit der etablierten Methode der Blattwasser-potentialanalyse ermittelt. Die Interaktion zwischen der ECa aus verschiedenen Tiefen und den Pflanzenvariablen ergab einen hoch signifikanten Zusammenhang mit dem Oberboden, in dem das Bewässerungswasser zu finden war. Es wurde eine Korrelation zwischen Ertrag und ECatopsoil von r = 0.52 ermittelt. Durch die Anwendung der Hot-spot Analyse konnten Extremwerte in den räumlichen Daten ermittelt werden. Diese Extrema dienten zur Einteilung der Zonen in cold-spot, random und hot-spot. Die random Zone weist die höchsten Korrelationen zu den Pflanzenvariablen auf. Ferner konnte gezeigt werden, dass bereits im semi-humiden Klima der Pflanzenwasserstatus entscheidend zur Fruchtqualität beiträgt. Zusammenfassend lässt sich sagen, dass die räumliche Variabilität der Fruchtqualität durch die Interaktion von Wassernutzungseffizienz und CWSI sowie in geringerem Maße durch den ECa des Bodens. In der Pflaumenanlage im semi-humiden Klima war die Bewässerung ausschlaggebend für die Produktion von qualitativ hochwertigen Früchten. N2 - Precision horticulture encompasses site- or tree-specific management in fruit plantations. Of decisive importance is spatially resolved data (this means data from each tree) from the production site, since it may enable customized and, therefore, resource-efficient production measures. The present thesis involves an examination of the apparent electrical conductivity of the soil (ECa), the plant water status spatially measured by means of the crop water stress index (CWSI), and the fruit quality (e.g. fruit size) for Prunus domestica L. (plums) and Citrus x aurantium, Syn. Citrus paradisi (grapefruit). The goals of the present work were i) characterization of the 3D distribution of the apparent electrical conductivity of the soil and variability of the plant’s water status; ii) investigation of the interaction between ECa, CWSI, and fruit quality; and iii) an approach for delineating management zones with respect to managing trees individually. To that end, the main investigations took place in the plum orchard. This plantation got a slope of 3° grade on Pleistocene and post-Pleistocene substrates in a semi-humid climate (Potsdam, Germany) and encloses an area of 0.37 ha with 156 trees of the cultivar ˈTophit Plusˈ on a Wavit rootstock. The plantation was laid in 2009 with annual and biannual trees spaced 4 m distance along the irrigation system and 5 m between the rows. The trees were watered three times a week with a drip irrigation system positioned 50 cm above ground level providing 1.6 l per tree per event. With the help of geoelectric measurements, the apparent electrical conductivity of the upper soil (0.25 m) was measured for each tree with an electrode spacing of 0.5 m (4-point light hp). In this manner, the plantation was spatially charted with respect to the soil’s ECa. Additionally, tomography measurements were performed for 3D mapping of the soil ECa and spot checks of drilled cores with a profile of up to 1 m. The vegetative, generative, and fruit quality data were collected for each tree. The instantaneous plant water status was comprehensively determined in spot checks with the established Scholander method for water potential analysis (Scholander pressure bomb) as well as thermal imaging. An infrared camera was used for the thermal imaging (ThermaCam SC 500), mounted on a tractor 3.3 m above ground level. The thermal images (320 x 240 px) of the canopy surface were taken with an aperture of 45° and a geometric resolution of 8.54 x 6.41 mm. With the aid of the canopy temperature readings from the thermal images, cross-checked with manual temperature measurements of a dry and a wet reference leaf, the crop water stress index (CWSI) was calculated. Adjustments in CWSI for measurements in a semi-humid climate were developed, whereas the collection of reference temperatures was automatically collected from thermal images. The bonitur data were transformed with the help of a variance stabilization process into a normal distribution. The statistical analyses as well as the automatic evaluation routine were performed with several scripts in MATLAB® (R2010b and R2016a) and a free program (spatialtoolbox). The hot spot analysis served to check whether an observed pattern is statistically significant. The method was evaluated with an established k-mean analysis. To test the hot-spot analysis by comparison, data from a grapefruit plantation (Adana, Turkey) was collected, including soil ECa, trunk circumference, and yield data. The plantation had 179 trees on a soil of type Xerofkuvent with clay and clay-loamy texture. The examination of the interaction between the critical values from the soil and plant water status information and the vegetative and generative plant growth variables was performed with the application from ANOVA. The study indicates that the variability of the soil and plant information in fruit production is high, even considering small orchards. It was further indicated that the spatial patterns found in the soil ECa stayed constant through the years (r = 0.88 in 2011-2012 and r = 0.71 in 2012-2013). It was also demonstrated that CWSI determination may also be possible in semi-humid climate. A correlation (r = - 0.65, p < 0.0001) with the established method of leaf water potential analysis was found. The interaction between the ECa from various depths and the plant variables produced a highly significant connection with the topsoil in which the irrigation system was to be found. A correlation between yield and ECatopsoil of r = 0.52 was determined. By using the hot-spot analysis, extreme values in the spatial data could be determined. These extremes served to divide the zones (cold-spot, random, hot-spot). The random zone showed the highest correlation to the plant variables. In summary it may be said that the cumulative water use efficiency (WUEc) was enhanced with high crop load. While the CWSI had no effect on fruit quality, the interaction of CWSI and WUEc even outweighed the impact of soil ECa on fruit quality in the production system with irrigation. In the plum orchard, irrigation was relevant for obtaining high quality produce even in the semi-humid climate. KW - precision horticulture KW - plum KW - tree water status KW - spatial variability KW - Präzision Gartenbau KW - Pflaume KW - Pflanzenwasserzustand KW - räumliche Variabilität Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397666 ER - TY - THES A1 - Lorenz, Kathrin T1 - Interessen und Ideen in der deutschen Entwicklungspolitik T1 - Interests and ideas in German development policy BT - eine konstruktivistische Untersuchung der Verknüpfung von Entwicklung und Sicherheit in der deutschen Entwicklungspolitik 1998 - 2009 BT - the interlinkage between development and security in German development Policy 1998 - 2009 from a constructivist perspective N2 - Die Annäherung von Entwicklung und Sicherheit seit Beginn der 1990er Jahre gilt in Teilen der Fachöffentlichkeit als wesentliches Merkmal einer zunehmenden Eigennutz- und Interessenorientierung der deutschen Entwicklungspolitik nach Ende des Ost-West-Konflikts. Den Ausgangspunkt der vorliegenden Untersuchung bildete die Skepsis gegenüber diesem Befund eines Wandels deutscher Entwicklungspolitik weg von moralischen Begründungszusammenhängen und hin zu nationaler Interessenpolitik seit Beginn der 1990er Jahre. Diese Skepsis begründet sich in der Annahme, dass die bisherige Kritik gegenüber einer möglichen Versicherheitlichung von Entwicklungspolitik die Rolle von eigennutzorientierten Interessen als erklärendem Faktor überbetont und gleichzeitig ideellen Strukturen und deren möglichem Wandel als konstitutivem Faktor für politische Prozesse zu wenig Aufmerksamkeit schenkt. Die Forschungsfrage lautet dementsprechend: Kann die deutsche Entwicklungspolitik im Lichte der Verknüpfung von Entwicklung und Sicherheit als zunehmend interessenorientiert gedeutet werden und hat sich damit ein grundlegender Politikwandel vollzogen? Theoretisch knüpft die Arbeit an die konstruktivistisch-orientierte Forschung im Thema Entwicklung und Sicherheit an und entwickelt diese weiter. Für die Herleitung der theoretischen Position wird auf konstruktivistische Überlegungen in den Theorien der Internationalen Beziehungen rekurriert. Im Vordergrund stehen dabei jene Ansätze der Internationalen Beziehungen, die die konstruktivistische Wende nicht nur ontologisch, sondern auch epistemologisch vollziehen und der Rolle von Sprache besondere Aufmerksamkeit schenken. In empirischer Hinsicht wird die Verknüpfung von Entwicklung und Sicherheit in der deutschen staatlichen Entwicklungspolitik anhand von Interpretationen dieser Verknüpfung im Agenda-Setting und in der Politikformulierung untersucht. Der Untersuchungszeitraum der empirischen Analyse beläuft sich auf die Amtsjahre der SPD-Politikerin Heidemarie Wieczorek-Zeul als Bundesministerin für wirtschaftliche Entwicklung und Zusammenarbeit, nämlich 1998 2009. Der Datenkorpus der Untersuchung in Agenda-Setting und Politikformulierung umfasst über 50 Reden von Mitgliedern der Bundesregierung sowie ausgewählte offizielle Politikdokumente, in denen relevante Textpassagen enthalten sind. Die beispielhafte Untersuchung der Institutionalisierung im Lichte der Verknüpfungen von Entwicklung und Sicherheit bezieht sich auf weitere Primär- und Sekundärquellen. Auf der Grundlage der empirischen Analyse wird deutlich, dass unterschiedliche Interpretationen in der staatlichen deutschen Entwicklungspolitik hinsichtlich der Verknüpfung von Entwicklung und Sicherheit über den Untersuchungszeitraum 1998 - 2009 nachgezeichnet werden können. Bemerkenswert ist dabei insbesondere die diffuse Vielfalt der Konstruktionen des Sicherheitsbegriffs. Außerdem wird anhand der empirischen Untersuchung nachgezeichnet, dass zum Teil erhebliche Unterschiede bestehen zwischen den Verknüpfungen von Entwicklung und Sicherheit auf der ressortübergreifenden Ebene einerseits und der entwicklungspolitischen Ebene andererseits. Auch die beispielhafte Diskussion von Meilensteinen der institutionalisierten Entwicklungspolitik bestätigt diese Varianzen, die durch die nuancierte Analyse sprachlicher Konstruktionen sichtbar gemacht werden konnte. Ausgehend vom empirischen Ergebnis der Varianz und Variabilität der Begründungsmuster für die Verknüpfungen von Entwicklung und Sicherheit ist es nunmehr möglich, Schlussfolgerungen im Hinblick auf die Forschungsfrage zu ziehen: Ist deutsche Entwicklungspolitik im Lichte der Verknüpfung von Entwicklung und Sicherheit zunehmend eigennutz- und interessenorientiert? In den Anfangsjahren von Wieczorek-Zeul spielen normative Aspekte wie Gerechtigkeit und Frieden im Zusammenhang mit der Genese des Themenfelds Frieden und Sicherheit eine wichtige Rolle. Prägend für die Politikformulierung sind dabei vor allem die Herausforderungen im Zusammenhang mit der Globalisierung, die den Ausgangspunkt für die Formulierung der von Wieczorek-Zeul geprägten Globalen Strukturpolitik bilden. Eine Eigennutzorientierung im realistischen Sinne scheint nur dann präsent, wenn es um unser Interesse der Wohlstandssicherung geht. Entwicklungspolitische Friedenförderung und Krisenpräventionen dienen dazu, die ökonomischen Kosten von Kriegen zu verringern und leisten einen Beitrag zur Vermeidung von wohlstandsgefährdender Migration. Es wird auf einen Sicherheitsbegriff rekurriert, der die Menschliche Sicherheit der Bevölkerung in den Entwicklungs- und Transformationsländern in den Vordergrund stellt. Nach 9/11 verschieben sich die sprachlichen Konstruktionen weg von unserem Wohlstand und dem Frieden weltweit in Richtung unsere Sicherheit. Artikulierte Eigennutzorientierung mit Bezug auf Sicherheit gewinnt an Dominanz gegenüber moralischen Begründungszusammenhängen. Diese Entwicklung lässt sich vor allem im Rahmen der ressortübergreifenden Interpretationen des Zusammenhangs von Entwicklung und Sicherheit nachzeichnen. Auch bei dieser ressortübergreifenden Verschiebung lässt sich die Verknüpfung von Entwicklung und Sicherheit auf der Ebene des für die deutsche Entwicklungspolitik federführenden Bundesministeriums für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ) hingegen weiterhin als vorwiegend verpflichtungsorientiert deuten. Erst mit der Großen Koalition ab 2005 kann von umfassenderer Neu-Interpretation der Verknüpfung von Entwicklung und Sicherheit ausgegangen werden: Wohlstand und Sicherheit in der Welt werden nunmehr gleichermaßen als in unserem Interesse artikuliert, die neben der internationalen Verpflichtung zur Friedenssicherung als gleichwertig eingeschätzt werden können Zusammenfassend bringen diese empirischen Ergebnisse im Lichte der theoretischen Deutung ein nuancierter es Bild hervor als in der bisherigen Forschung mit ihrem meist einseitigen Fokus auf einer zunehmenden Interessenorientierung angenommen wurde. Die ideellen Bezüge waren immer präsent als prägender Faktor für die deutsche Entwicklungspolitik, sie haben sich allerdings im Zeitverlauf verändert. Der theoretische Ertrag der Studie und die Policy-Relevanz liegen auf mehreren Ebenen. Erstens wird mit der differenzierten Untersuchung und Deutung deutscher Entwicklungspolitik im Lichte der Verknüpfungen von Entwicklung und Sicherheit die Forschung zum Thema Versicherheitlichung von Entwicklungspolitik angereichert und deren theoretische Prämissen weiterentwickelt. Zweitens leistet die Arbeit einen Beitrag zur Forschung zur deutschen Entwicklungspolitik. Mit der vorliegenden Studie wird diese oft an der Umsetzung und Praxis interessierte Forschung durch die theoretische Beschäftigung mit der Deutung deutscher Entwicklungspolitik angereichert. Dieser Beitrag ergibt sich konkret aus der Anwendung theoretischer Überlegungen der Sicherheitsstudien, aus dem konstruktivistischen Strang der Theorien der Internationalen Beziehungen (IB) sowie konzeptionellen Überlegungen aus der Policy-Forschung, die miteinander verknüpft werden. N2 - The so-called nexus between development and security since the beginning of the 1990s is considered by many authors as an expression of an increased orientation towards self-interests in a realist sense of German development policy and thus a shift away from its normative foundations. The starting point of this research was a certain degree of skepticism vis-à-vis this fairly common interpretation regarding a fundamental change of German development policy in light of the growing inter-linkages between development and security since after the end of the cold war. This skepticism is based upon the hypothesis that many contributions to the debate on a potential „securitization“ of development so far have overemphasized the role of self-interests as explanatory factor for the course of development policy in this context. At the same time, it is assumed that the research contributions have sometimes overlooked the role that normative factors continue to play as well as how these may also change over time. Consequently, the research question is: Can German development policy in light of the inter-linkage between development and security be interpreted as an increased self-interest-oriented policy and does this mean that German development policy has undergone a fundamental policy change? From a theoretical perspective, this research is closely linked to constructivist research on the so-called nexus of development and security and it aims to contribute to this constructivist debate. In terms of developing an appropriate theoretical position, this research draws on International Relations (IR) Theory with a focus on IR-approaches which implement the constructivist turn both ontologically as well as epistemologically and which pay particular attention to the role of language in this regard. Empirically, this research focuses mainly on interpretations of the so-called nexus between development and security in German development policy during agenda-setting and policy formulation. The time-frame covered encompasses the years 1998 – 2009, thus the three term of the socio-democrat development policy minister Heidemarie Wieczorek-Zeul. The dataset consists of more than 50 speeches of members of cabinet as well as selected official policy documents which contain relevant interpretations of the so-called nexus between development and security in German development policy. Based upon this empirical analysis it becomes clear that interpretations about the so-called nexus of development and security vary significantly over the years 1998 – 2009. Moreoever, The diffuse constructions of meaning around the notion of „security“ are particularly remarkable in this regard. Furthermore, there are also significant variations regarding the inter-linkages between development and security in the researched documents depending upon the level of „intervention“, e.g. interpretations in speeches and documents from the development policy perspective differ from those in speeches and documents on the inter-ministerial level. These different interpretations allude to different types of policy meanings and frames for the inter-linkage of development and security which lead to the following empirical conclusions of this research: In the first years of Wieczorek-Zeul’s first term in the late 1990s, normative factors such as global equity and justice as well as peace are the predominant meanings around interpretations of the inter-linkage of development and peace. Challenges in the context of globalization are coin for policy formulation in this regard and can be seen as the starting point and rationale for constructing the inter-linkage between development and security from a development perspective. Self-interests in the realist sense are – if at all - constructed around our interest of safeguarding our economic wealth, but not around security issues. Peace and Security measures from a development perspective aim to lower economic costs of war and to contribute to prevent migration. In the German development policy in those years, security is primarily interpreted in the sense of Human Security of populations in partner countries to development policy. However, following the 9/11 attacks interpretations change: the constructed meaning of inter-linking development and peace moves more towards our own security issues and challenges as rationale for development. Normative patterns and meanings are less present. This evolution of these meanings is particularly notable on the inter-ministerial level of interpretations. At the same time, genuine constructions and interpretations from a development perspective hold on to their normative patterns of meaning. It is only with Wieczorek-Zeul’s third term starting in 2005 that a more holistic re-shifting of meaning can be traced: now, economic wealth and security as well as our responsibility for peaceful global development are constructed as seemingly equally important needs and responsibility both in global and in our self-interest. To summarize, the nuanced research of interpretations in selected documents covering 11 year brings about new results to the debate of the so-called nexus between security and development against the background of the theoretical perspective which considers these interpretations and constructions as performative for the policy in itself. In German development policy, normative factors have thus always played a role in constructing this inter-linkage; a one-sided, linear evolution over time towards more self-interest orientation in the realist sense could not be traced in this nuanced research. The theoretical contribution of this research lies on different levels: Firstly, with this research the debate on the so-called development –security –nexus will be complemented with new findings on the specific German case. At the same time, theoretical assumptions for example for the Securitization theory are complemented by the approach and perspective presented there. Secondly, the research contributes to the debate of interpretation of German Development Policy between interests and normative factors in line with reflections from constructivist International Relations theory. KW - Deutsche Entwicklungspolitik KW - Entwicklung und Sicherheit KW - Frame-Analyse KW - IB-Konstruktivismus KW - development and security KW - German development policy KW - frame-analysis Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93213 ER - TY - THES A1 - Mey, Jürgen T1 - Intermontane valley fills T1 - Intermontane Talverfüllungen BT - recorders of climate, tectonics and landscape evolution BT - Zeugen von Klima, Tektonik und Landschaftsentwicklung N2 - Sedimentary valley fills are a widespread characteristic of mountain belts around the world. They transiently store material over time spans ranging from thousands to millions of years and therefore play an important role in modulating the sediment flux from the orogen to the foreland and to oceanic depocenters. In most cases, their formation can be attributed to specific fluvial conditions, which are closely related to climatic and tectonic processes. Hence, valley-fill deposits constitute valuable archives that offer fundamental insight into landscape evolution, and their study may help to assess the impact of future climate change on sediment dynamics. In this thesis I analyzed intermontane valley-fill deposits to constrain different aspects of the climatic and tectonic history of mountain belts over multiple timescales. First, I developed a method to estimate the thickness distribution of valley fills using artificial neural networks (ANNs). Based on the assumption of geometrical similarity between exposed and buried parts of the landscape, this novel and highly automated technique allows reconstructing fill thickness and bedrock topography on the scale of catchments to entire mountain belts. Second, I used the new method for estimating the spatial distribution of post-glacial sediments that are stored in the entire European Alps. A comparison with data from exploratory drillings and from geophysical surveys revealed that the model reproduces the measurements with a root mean squared error (RMSE) of 70m and a coefficient of determination (R2) of 0.81. I used the derived sediment thickness estimates in combination with a model of the Last Glacial Maximum (LGM) icecap to infer the lithospheric response to deglaciation, erosion and deposition, and deduce their relative contribution to the present-day rock-uplift rate. For a range of different lithospheric and upper mantle-material properties, the results suggest that the long-wavelength uplift signal can be explained by glacial isostatic adjustment with a small erosional contribution and a substantial but localized tectonic component exceeding 50% in parts of the Eastern Alps and in the Swiss Rhône Valley. Furthermore, this study reveals the particular importance of deconvolving the potential components of rock uplift when interpreting recent movements along active orogens and how this can be used to constrain physical properties of the Earth’s interior. In a third study, I used the ANN approach to estimate the sediment thickness of alluviated reaches of the Yarlung Tsangpo River, upstream of the rapidly uplifting Namche Barwa massif. This allowed my colleagues and me to reconstruct the ancient river profile of the Yarlung Tsangpo, and to show that in the past, the river had already been deeply incised into the eastern margin of the Tibetan Plateau. Dating of basal sediments from drill cores that reached the paleo-river bed to 2–2.5 Ma are consistent with mineral cooling ages from the Namche Barwa massif, which indicate initiation of rapid uplift at ~4 Ma. Hence, formation of the Tsangpo gorge and aggradation of the voluminous valley fill was most probably a consequence of rapid uplift of the Namche Barwa massif and thus tectonic activity. The fourth and last study focuses on the interaction of fluvial and glacial processes at the southeastern edge of the Karakoram. Paleo-ice-extent indicators and remnants of a more than 400-m-thick fluvio-lacustrine valley fill point to blockage of the Shyok River, a main tributary of the upper Indus, by the Siachen Glacier, which is the largest glacier in the Karakoram Range. Field observations and 10Be exposure dating attest to a period of recurring lake formation and outburst flooding during the penultimate glaciation prior to ~110 ka. The interaction of Rivers and Glaciers all along the Karakorum is considered a key factor in landscape evolution and presumably promoted headward erosion of the Indus-Shyok drainage system into the western margin of the Tibetan Plateau. The results of this thesis highlight the strong influence of glaciation and tectonics on valley-fill formation and how this has affected the evolution of different mountain belts. In the Alps valley-fill deposition influenced the magnitude and pattern of rock uplift since ice retreat approximately 17,000 years ago. Conversely, the analyzed valley fills in the Himalaya are much older and reflect environmental conditions that prevailed at ~110 ka and ~2.5 Ma, respectively. Thus, the newly developed method has proven useful for inferring the role of sedimentary valley-fill deposits in landscape evolution on timescales ranging from 1,000 to 10,000,000 years. N2 - Sedimentäre Talverfüllungen sind ein häufiges Merkmal von Gebirgen auf der ganzen Welt. Sie speichern Abtragungsprodukte über Zeiträume von Tausenden bis Millionen von Jahren und beeinflussen den Sedimenttransport vom Gebirge in das Vorland und in die ozeanischen Becken. Die Bildung solcher Sedimentspeicher geht oft auf Zustände im fluvialen System zurück, welche mit bestimmten klimatischen und tektonischen Prozessen in Verbindung gebracht werden können. Talverfüllungen stellen daher wertvolle Archive dar, die über fundamentale Zusammenhänge in der Landschaftsgenese Aufschluss geben und deren Untersuchung dazu beiträgt, die Auswirkungen des Klimawandels auf die Sedimentdynamik im Gebirge zu prognostizieren. In dieser Arbeit untersuchte ich intermontane Talverfüllungen, um die klimatische und tektonische Geschichte von Gebirgszügen über mehrere Zeitskalen hinweg zu ermitteln. Zuerst entwickelte ich eine Methode zur Abschätzung von Sedimentmächtigkeiten mit Hilfe von künstlichen neuralen Netzen, die auf der Annahme basiert, dass sich die zugeschütteten und die freiliegenden Bereiche der Landschaft geometrisch ähneln. Diese neuartige und hochautomatisierte Methode macht es möglich, Sedimentmächtigkeiten und Untergrundtopographien für einzelne Einzugsgebiete bis hin zu ganzen Gebirgen abzuschätzen. Als zweites benutzte ich die neue Methode, um die Mächtigkeitsverteilung der postglazialen Sedimentspeicher in den Europäischen Alpen zu rekonstruieren. Ein Vergleich mit Daten aus Bohrlochmessungen und geophysikalischen Explorationen zeigte, dass das Modell die gemessenen Mächtigkeiten mit einem quadratischen Mittelwert des Fehlers (RMSE) von 70m und einem Bestimmtheitsmaß (R2) von 0.81 reproduziert. Ich verwendete diese Sedimentverteilung in Kombination mit einem Modell der alpinen Eiskappe des letzten glazialen Maximums (LGM), um die Reaktion der Lithosphäre auf Abschmelzen, Erosion und Ablagerung zu berechnen und deren Beiträge zur derzeitigen Gesteinshebung abzuleiten. Unter Berücksichtigung einer Reihe verschiedener Eigenschaften der Lithosphäre und des oberen Erdmantels zeigten die Resultate, dass das langwellige Hebungsmuster im Wesentlichen durch Glazialisostasie erklärt werden kann und dass die Entlastung durch Erosion eine untergeordnete Rolle spielt. Darüber hinaus postulierte ich eine tektonische Komponente von über 50% in Teilen der Ostalpen und im Schweizer Rhône Tal. Die Studie verdeutlicht, dass die Entflechtung der Prozesse, die zur Gesteinshebung beitragen, eine entscheidende Rolle spielt bei der Interpretation rezenter Bewegungen entlang aktiver Orogene und bei der Abschätzung von physikalischen Eigenschaften des Erdinneren. Im dritten Teil berechnete ich die Mächtigkeitsverteilung der sedimentären Talverfüllung des Yarlung Tsangpo Tales oberhalb des Namche Barwa Massivs am östlichen Rand des Tibet Plateaus. Dies ermöglichte meinen Kollegen und mir das ehemalige Flusslängsprofil zu rekonstruieren und zu zeigen, dass sich der Yarlung Tsangpo in der Vergangenheit bereits tief in den östlichen Rand des Tibet Plateaus einschnitt. Die Basis der Sedimente wurde erbohrt und beprobt und deren Ablagerung auf 2–2.5 Ma datiert was konsistent mit Abkühlungsaltern von Mineralen des Namche Barwa Massivs ist, die auf den Beginn einer beschleunigten Hebung vor ~4 Ma hindeuten. Dies führte zu der Schlussfolgerung, dass die Bildung der Tsangpo Schlucht und die Aggradation der Talsedimente höchstwahrscheinlich in Folge der schnellen Hebung des Namche Barwa Massivs geschah, welche letztendlich auf tektonische Aktivität zurück geht. Der vierte und letzte Teil behandelt die Interaktion fluvialer und glazialer Prozesse am südöstlichen Rand des Karakorums. Indikatoren für die frühere Eisausdehnung und die Überreste einer bis zu 400m mächtigen fluvio-lakustrinen Talverfüllung weisen auf eine Blockade des Shyok, eines Hauptzuflusses es Oberen Indus, durch den Siachen Gletscher, den größten Gletscher des Karakorums, hin. Weitere Geländebefunde und Oberflächendatierungen mittels kosmogenem 10Be bezeugen, dass es während des vorletzten Glaziales zu einem mehrfachen Aufstauen des Shyok und damit assoziierten Seeausbrüchen gekommen ist. Das Zusammenwirken von Flüssen und Gletschern entlang des Karakorums war maßgeblich für die Landschaftsentwicklung und führte möglicherweise zum Einschneiden von Tälern in den westlichen Rand des Tibet Plateaus. Die vorliegende Arbeit unterstreicht die Bedeutung von Vergletscherung und Tektonik bei der Bildung von intermontanen Sedimentspeichern und deren Einwirken auf die Entwicklung zweier Gebirge. In den Alpen beeinflusst die Ablagerung von Talfüllungen die Raten und das Muster der Gesteinshebung seit Rückzug des Eises vor ca. 17,000 Jahren. Demgegenüber sind die in dieser Arbeit betrachteten Talfüllungen des Himalayas weit älter und geben Aufschluss über die Umweltbedingungen vor jeweils 110 ka und 2.5 Ma. Es zeigt sich, dass die neue Methode zur Abschätzung von Mächtigkeiten und Volumina intermontaner Talverfüllungen dazu beiträgt, die Landschaftsentwicklung über Zeiträume von 1,000 bis 10,000,000 Jahren zu rekonstruieren. KW - intermontane valley fill KW - sediment thickness KW - bedrock elevation KW - artificial neural networks KW - sediment volume KW - landscape evolution KW - glacial isostatic adjustment KW - isostatic uplift KW - LGM KW - Ice model KW - European Alps KW - outburst floods KW - glacial incision KW - Tibetan Plateau KW - Shyok River KW - cosmogenic nuclides KW - exposure age dating KW - ice dam KW - Karakoram KW - Namche Barwa KW - Yarlung-Tsangpo Gorge KW - burial dating KW - tectonic uplift KW - syntaxis KW - intermontane Talverfüllungen KW - Sedimentmächtigkeit KW - Grundgesteinshöhe KW - künstliche neurale Netzwerke KW - Sedimentvolumen KW - Landschaftsentwicklung KW - Glazialisostasie KW - isostatische Hebung KW - LGM KW - Eismodell KW - Europäische Alpen KW - Seeausbrüche KW - glaziale Einschneidung KW - Tibet Plateau KW - Shyok Fluss KW - kosmogene Nuklide KW - Expositionsaltersdatierung KW - Eisdamm KW - Karakorum KW - Namche Barwa KW - Yarlung-Tsangpo Schlucht KW - Verschüttungsaltersdatierung KW - tektonische Hebung KW - Syntaxe Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103158 ER - TY - THES A1 - Breakell Fernandez, Leigh T1 - Investigating word order processing using pupillometry and event-related potentials T1 - Untersuchung von Wortfolge-Verarbeitungen unter Verwendung von Pupillometrie und EEG N2 - In this thesis sentence processing was investigated using a psychophysiological measure known as pupillometry as well as Event-Related Potentials (ERP). The scope of the the- sis was broad, investigating the processing of several different movement constructions with native speakers of English and second language learners of English, as well as word order and case marking in German speaking adults and children. Pupillometry and ERP allowed us to test competing linguistic theories and use novel methodologies to investigate the processing of word order. In doing so we also aimed to establish pupillometry as an effective way to investigate the processing of word order thus broadening the methodological spectrum. N2 - Die Doktorarbeit befasste sich mit der Untersuchung von Satzverarbeitung mittels der psychophysiologischen Methode Pupillometrie sowie EEG .Sie umfasst die Untersuchung verschiedener syntaktischer Konstruktionen und Kasusmarkierungen, deren Verarbeitung bei Muttersprachlern und Zweitsprachenlernern des Englischen sowie deutschsprachigen Erwachsenen und Kindern getestet wurden. Pupillometrie und EEG machten es möglich, konkurrierende linguistische Theorien zu testen und neuartige Methodiken zur Untersuchung der Verarbeitung von Wortfolgen zu nutzen. Ein besonderer Schwerpunkt bestand darin, Pupillometrie als effektive Art der Untersuchung von Wortfolge-Verarbeitungen zu etablieren und damit das methodologische Spektrum zu erweitern. KW - pupillometry KW - ERP KW - movement structures KW - L2 KW - word order processing KW - child language processing KW - auditory sentence processing KW - Verarbeitung von Zweitsprachen KW - EEG KW - Verarbeitung von Wortfolgen KW - Pupillometrie KW - Eye-Tracking Satzverarbeitung KW - Sprachverarbeitung bei Kindern Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91438 ER - TY - THES A1 - Pampel, Jonas T1 - Ionothermal carbon materials T1 - Ionothermale Kohlenstoffmaterialien BT - advanced synthesis and electrochemical applications BT - erweiterte Synthese und elektrochemische Anwendungen N2 - Alternative concepts for energy storage and conversion have to be developed, optimized and employed to fulfill the dream of a fossil-independent energy economy. Porous carbon materials play a major role in many energy-related devices. Among different characteristics, distinct porosity features, e.g., specific surface area (SSA), total pore volume (TPV), and the pore size distribution (PSD), are important to maximize the performance in the final device. In order to approach the aim to synthesize carbon materials with tailor-made porosity in a sustainable fashion, the present thesis focused on biomass-derived precursors employing and developing the ionothermal carbonization. During the ionothermal carbonization, a salt melt simultaneously serves as solvent and porogen. Typically, eutectic mixtures containing zinc chloride are employed as salt phase. The first topic of the present thesis addressed the possibility to precisely tailor the porosity of ionothermal carbon materials by an experimentally simple variation of the molar composition of the binary salt mixture. The developed pore tuning tool allowed the synthesis of glucose derived carbon materials with predictable SSAs in the range of ~ 900 to ~ 2100 m2 g-1. Moreover, the nucleobase adenine was employed as precursor introducing nitrogen functionalities in the final material. Thereby, the chemical properties of the carbon materials are varied leading to new application fields. Nitrogen doped carbons (NDCs) are able to catalyze the oxygen reduction reaction (ORR) which takes place on the cathodic site of a fuel cell. The herein developed porosity tailoring allowed the synthesis of adenine derived NDCs with outstanding SSAs of up to 2900 m2 g-1 and very large TPV of 5.19 cm3 g-1. Furthermore, the influence of the porosity on the ORR could be directly investigated enabling the precise optimization of the porosity characteristics of NDCs for this application. The second topic addressed the development of a new method to investigate the not-yet unraveled mechanism of the oxygen reduction reaction using a rotating disc electrode setup. The focus was put on noble-metal free catalysts. The results showed that the reaction pathway of the investigated catalysts is pH-dependent indicating different active species at different pH-values. The third topic addressed the expansion of the used salts for the ionothermal approach towards hydrated calcium and magnesium chloride. It was shown that hydrated salt phases allowed the introduction of a secondary templating effect which was connected to the coexistence of liquid and solid salt phases. The method enabled the synthesis of fibrous NDCs with SSAs of up to 2780 m2 g-1 and very large TPV of 3.86 cm3 g-1. Moreover, the concept of active site implementation by a facile low-temperature metalation employing the obtained NDCs as solid ligands could be shown for the first time in the context of ORR. Overall, the thesis may pave the way towards highly porous carbon with tailor-made porosity materials prepared by an inexpensive and sustainable pathway, which can be applied in energy related field thereby supporting the needed expansion of the renewable energy sector. N2 - Alternative Konzepte für Energiespeicherung und –umwandlung müssen entwickelt, optimiert und praktisch angewendet werden, um den Traum einer erdölunabhängigen Energiewirtschaft zu realisieren. Poröse Kohlenstoffmaterialien spielen eine bedeutende Rolle in vielen energierelevanten Anwendungen. Speziell die porösen Eigenschaften des Kohlenstoffs, wie die spezifische Oberfläche (engl. specific surface area: SSA), das totale Porenvolumen (engl. total pore volume: TPV) und die Porengrößenverteilung, sind von großer Bedeutung für eine Maximierung der Leistung in der Endanwendung. Die vorliegende Arbeit konzentrierte sich auf den Einsatz und die Weiterentwicklung der ionothermalen Karbonisierung ausgehend von biomassebasierten Präkursoren, um eine nachhaltige Synthese hochporöser Kohlenstoffe mit einstellbarer Porosität zu ermöglichen. In der ionothermalen Synthese fungieren Salzschmelzen simultan als Lösungsmittel und Porogen während der Karbonisierung. Als Salzphase werden hierbei häufig eutektische Zinkchloridhaltige binäre Salzmischungen verwendet. In der vorliegenden Arbeit wurde im ersten Schritt die Variation der molaren Zusammensetzung der binären Salzphase als neue Methode eingeführt, um eine kontinuierliche Veränderung der Porosität des synthetisierten Kohlenstoffs zu bewirken. Diese Methode erlaubte die Synthese von Glukose-basierten Kohlenstoffen mit einstellbarer SSA zwischen ~ 900 und ~ 2100 m2 g-1. Des Weiteren wurde die Nukleinbase Adenin als Präkursor verwendet, wodurch eine Stickstoffdotierung des finalen Kohlenstoffmaterials erreicht wurde. Die damit einhergehende Veränderung der chemischen Eigenschaften des Materials führt zu neuen Anwendungsbereichen. Stickstoffdotierte Kohlen (engl. nitrogen doped carbons: NDCs) können beispielsweise die Sauerstoffreduktion katalysieren, welche auf der Kathodenseite der Brennstoffzelle abläuft. Das entwickelte Verfahren zur Einstellung der Porosität erlaubte einerseits die Synthese von Adenin-basierten NDCs mit beeindruckenden SSAs von bis zu 2900 m2 g-1 und extrem hohen TPVs von bis zu 5,19 cm3 g-1. Andererseits konnte der Einfluss der Porosität auf die Sauerstoffreduktion direkt untersucht und infolge dessen die Porosität der NDCs für diese Anwendung optimiert werden. Im zweiten Schritt wurde ein neues Verfahren entwickelt, um mittels der rotierenden Scheibenelektrode den noch nicht geklärten Mechanismus der Sauerstoffreduktion zu untersuchen, vor allem in Bezug auf edelmetallfreie Katalysatoren. Die Ergebnisse zeigten, dass der Reaktionsverlauf der Sauerstoffreduktion pH-Wert abhängig ist. Diese deutet auf verschiedene aktive Spezies in Abhängigkeit des pH-Werts hin. Im dritten Schritt wurde der gezielte Einsatz von hydrierten Salzen (Magnesium- und Calciumchlorid) als Salzphase für die ionothermale Synthese untersucht. Es konnte gezeigt werden, dass Hydrate einen sekundären Templatierungseffekt erlauben, was anhand der Koexistenz von flüssigen und festen Salzphasen erklärt werden konnte. Hierdurch konnten faserartige NDC-Materialien mit SSAs von bis zu 2780 m2 g-1 und TPVs von bis zu 3,86 cm3 g-1 synthetisiert werden. Des Weiteren wurde anhand dieser NDC-Materialien erfolgreich gezeigt, dass es möglich ist sauerstoffreduktionsaktive Spezies durch einfache Metallierung mit Eisenionen bei niedrigen Temperaturen einzuführen. Zusammenfassend konnte die vorliegende Arbeit die kostengünstige und nachhaltige Synthese hochporöser Materialien mit einstellbarer Porosität zeigen, welche in energierelevanten Bereichen eingesetzt werden können. Hierdurch kann die notwendige Erweiterung des Sektors der erneuerbaren Energien unterstützt werden. KW - porous materials KW - nitrogen doped carbons KW - ORR KW - oxygen reduction reaction KW - electrocatalysis KW - poröse Materialien KW - stickstoffdotierte Kohlenstoffe KW - ORR KW - Sauerstoff Reduktion KW - Elektrokatalyse KW - ionothermal synthesis KW - ionothermale Synthese Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-101323 ER - TY - THES A1 - Zimmer, Sophie T1 - Le renouveau juif à Berlin depuis 1989 : aspects culturels et religieux T1 - Die Erneuerung des jüdischen Lebens in Berlin seit 1989: kulturelle und religiöse Aspekte N2 - Die vorliegende Untersuchung verfolgt das Ziel, kulturelle und religiöse Aspekte der Erneuerung jüdischen Lebens in Berlin seit 1989 zu erforschen. Die Entwicklungen der jüdischen Gemeinschaft in der Hauptstadt seit dem Fall der Mauer und dem Zusammenbruch der Sowjetunion führen zur Wiederannäherung eines Teils der jüdischen Bevölkerung in Deutschland an die eigene Kultur, Religion und Geschichte. Dabei kommt die Pluralität der kulturellen, literarischen und religiösen Ausdrucksformen der jüdischen Identitäten zum Vorschein. Die Arbeit verdeutlicht diese in Berlin nach 1989 einsetzende kulturelle und religiöse „Renaissance“. Vier wichtige Punkte kennzeichnen das jüdische Leben in Berlin nach 1989. Erstens gewinnt Deutschland seit der Wiedervereinigung eine neue Rolle als mögliches Einwanderungsland für Juden. Vor allem mit der massiven jüdischen Einwanderung aus den Staaten der ehemaligen Sowjetunion seit den 1990er Jahren wird Deutschland allmählich als wichtiges Zentrum in der europäischen Diaspora anerkannt. Zweitens bleibt zwar die Shoah tief verankert im Gedächtnis der jüdischen Gemeinschaft; die meisten Kinder oder Enkelkinder von Überlebenden der Shoah weigern sich jedoch, ihre jüdische Identität exklusiv durch die Shoah zu definieren. Sie gründen zur Wiederentdeckung und Forderung ihres kulturellen, religiösen und historischen Erbes jüdische Gruppen und Einrichtungen in Berlin, die in den meisten Fällen alternativ zur Jüdischen Gemeinde entstehen: Künstlergruppen, jüdische Kulturvereine, Konferenzen und Podiumsdiskussionen, religiöse Kongregationen und Lernhäuser. Damit – und dies ist der dritte Punkt – verliert zwar die offizielle Jüdische Gemeinde an Bedeutung als einzige Vertreterin der jüdischen Gemeinschaft Berlins; diese kulturelle und religiöse „Renaissance“ außerhalb der offiziellen Strukturen der Gemeinde bedeutet aber auch eine wachsende Pluralität und Diversifizierung der jüdischen Gemeinschaft in Berlin. Viertens spielt Berlin die Hauptrolle in diesem Prozess. Heute werden viele ehemalige jüdische Orte neu belebt: Synagogen werden wiederentdeckt und renoviert, Denk- und Mahnmale gebaut, Stadtführungen auf der Spur des „jüdischen Berlins“ organisiert, Rabbinerseminare neu gegründet. Die Topographie Berlins bildet auch eine Inspirationsquelle für jüdische (und nichtjüdische) Schriftsteller und Künstler. Die Analyse dieser nach 1989 entstandenen religiösen Initiativen, literarischen Werke und kulturellen Produktionen dient dazu, Aspekte der kulturellen und religiösen „Renaissance“ in Berlin näher zu verdeutlichen. N2 - The aim of this study is to analyze cultural and religious aspects of the Jewish revival in Berlin since 1989. The developments in the Jewish community of the German capital since the fall of the Wall and the dissolution of the Soviet Union led a part of the Jewish population in Germany to rediscover and get closer to its own culture, religion and history, thus revealing the plurality of cultural, literary and religious expressions of Jewish identities. The dissertation analyzes this cultural and religious “renaissance” taking place in Berlin after 1989. Four key aspects characterize Jewish life in Berlin after 1989. Firstly, since the reunification, Germany gains a new role as a potential immigration country for Jews. Germany is being gradually recognized as an important center in the European Diaspora, specifically with the massive immigration of Jews from the former Soviet Union since the 1990s. Secondly, even though the Holocaust is deeply rooted in the memory of the Jewish community, most of the children or grandchildren of Holocaust survivors refuse to define their Jewish identity exclusively through the Holocaust. In order to rediscover and to claim their cultural, religious and historical heritage, they create Jewish groups and institutions in Berlin, most of them being an alternative to the official Jewish community: artistic groups, Jewish cultural associations, conferences and roundtables, religious congregations and places of study. Therefore – and this is the third point – the role of the official Jewish community as the only representative of the Berlin Jewish community becomes less important, but this cultural and religious “renaissance” outside the official structures of the community also means a growing plurality and diversification of the Jewish community in Berlin. Fourthly, Berlin plays the key role in this process. Today, many former Jewish places are being revived: synagogues are being rediscovered and renovated, memorials are being constructed, “Jewish Berlin” city tours are being organized, and rabbinical seminaries are created anew. The topography of Berlin is also a source of inspiration for Jewish (and non-Jewish) writers and artists. The analysis of these post-1989 religious initiatives, literary works and cultural productions aims to further clarify aspects of the cultural and religious “renaissance” in Berlin. KW - Juden KW - Deutschland KW - Berlin KW - 1989 KW - Wiedervereinigung KW - Judentum KW - Jews KW - Germany KW - Berlin KW - 1989 KW - reunification KW - Judaism KW - Juifs KW - Allemagne KW - Berlin KW - 1989 KW - réunification KW - judaïsme Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96920 ER - TY - THES A1 - Prokopović, Vladimir Z. T1 - Light-triggered release of bioactive compounds from HA/PLL multilayer films for stimulation of cells T1 - Licht-induzierte Freisetzung von Biomolekülen aus Hyaluronsäure-Poly-L-Lysin-Schichten zur Stimulierung von Zellen N2 - The concept of targeting cells and tissues by controlled delivery of molecules is essential in the field of biomedicine. The layer-by-layer (LbL) technology for the fabrication of polymer multilayer films is widely implemented as a powerful tool to assemble tailor-made materials for controlled drug delivery. The LbL films can as well be engineered to act as mimics of the natural cellular microenvironment. Thus, due to the myriad possibilities such as controlled cellular adhesion and drug delivery offered by LbL films, it becomes easily achievable to direct the fate of cells by growing them on the films. The aim of this work was to develop an approach for non-invasive and precise control of the presentation of bioactive molecules to cells. The strategy is based on employment of the LbL films, which function as support for cells and at the same time as reservoirs for bioactive molecules to be released in a controlled manner. UV light is used to trigger the release of the stored ATP with high spatio-temporal resolution. Both physico-chemical (competitive intermolecular interactions in the film) and biological aspects (cellular response and viability) are addressed in this study. Biopolymers hyaluronic acid (HA) and poly-L-lysine (PLL) were chosen as the building blocks for the LbL film assembly. Poor cellular adhesion to native HA/PLL films as well as significant degradation by cells within a few days were shown. However, coating the films with gold nanoparticles not only improved cellular adhesion and protected the films from degradation, but also formed a size-exclusion barrier with adjustable cut-off in the size range of a few tens of kDa. The films were shown to have high reservoir capacity for small charged molecules (reaching mM levels in the film). Furthermore, they were able to release the stored molecules in a sustained manner. The loading and release are explained by a mechanism based on interactions between charges of the stored molecules and uncompensated charges of the biopolymers in the film. Charge balance and polymer dynamics in the film play the pivotal role. Finally, the concept of light-triggered release from the films has been proven using caged ATP loaded into the films from which ATP was released on demand. ATP induces a fast cellular response, i.e. increase in intracellular [Ca2+], which was monitored in real-time. Limitations of the cellular stimulation by the proposed approach are highlighted by studying the stimulation as a function of irradiation parameters (time, distance, light power). Moreover, caging molecules bind to the film stronger than ATP does, which opens new perspectives for the use of the most diverse chemical compounds as caging molecules. Employment of HA/PLL films as a nouvelle support for cellular growth and hosting of bioactive molecules, along with the possibility to stimulate individual cells using focused light renders this approach highly efficient and unique in terms of precision and spatio-temporal resolution among those previously described. With its high potential, the concept presented herein provides the foundation for the design of new intelligent materials for single cell studies, with the focus on tissue engineering, diagnostics, and other cell-based applications. N2 - Das Konzept des Targetings von Zellen und Geweben mittels kontrollierter Wirkstoffverabreichung ist im Bereich der Biomedizin unerlässlich. Die layer-by-layer (LbL) Technologie ist eine etablierte Methode für die Herstellung von Polyelektrolyt-Multischichten, um intelligente, maßgeschneiderte Materialien für eine kontrollierte Wirkstoffabgabe aufzubauen. Die LbL Filme können das Verhalten einer natürlichen zellulären Mikroumgebung nachahmen. Wegen der unzähligen Möglichkeiten dieser Filme sind nicht nur das Wachstum und die Beeinflussung der Zellen, sondern auch die kontrollierte Wirkstoffabgabe leicht umzusetzen. Das Ziel der vorliegenden Arbeit war die Entwicklung eines nicht-invasiven Systems für die präzise Verabreichung von Biomolekülen an einzelne Zellen. Die Strategie beruht auf LbL Filmen, die einerseits als geeignete Oberfläche für das Zellwachstum dienen, andererseits aber auch die kontrollierte Abgabe von Biomolekülen ermöglichen. Die zeitlich und räumlich präzise Freisetzung von ATP wurde durch UV Bestrahlung eingeleitet/ausgelöst. Sowohl die physiko-chemischen als auch die biologischen Eigenschaften des Verfahrens wurden analysiert. Die LbL Filme wurden auf Basis der biokompatiblen Polymere Hyaluronsäure (HA) und Poly-L-Lysin (PLL) assembliert. Nach der Assemblierung waren die Filme zunächst zellabweisend und wurden von den Zellen innerhalb von ein paar Tagen abgebaut. Die Beschichtigung der Filme mit Gold-Nanopartikeln verbesserte nicht nur die Adhäsion der Zellen, sondern auch den Schutz gegen Abbau. Zudem wurde gezeigt, dass die Beschichtigung eine Molekulargewichtsausschlussgrenze mit verstellbarem cut-off in einem Bereich von nur einigen 10 kDa darstellt. Weiterhin wurde gezeigt, dass die Filme eine enorme Beladungskapazität aufweisen (bis hin zu einer Beladung im mM Bereich). Darüber hinaus konnten die Biomoleküle, die in diese Filme eingebettet wurden, langfristig und nachhaltig freigesetzt werden. Die Beladung und Freisetzung der Moleküle erfolgt durch die Interaktion zwischen eingebetteten Molekülen und freien Ladungen innerhalb des Polymerfilms. Das Ladungsverhältnis und die Polymerdynamik spielen dabei eine zentrale Rolle. Schließlich wurde gezeigt, dass die in Filmen eingebetteten caged-ATP Moleküle gezielt durch einen Laser freigesetzt werden können. ATP verursacht die schnelle zelluläre Antwort durch den Anstieg von intrazellulären Ca2+-Ionen, der in Echtzeit beobachtet werden kann. Um die Limitierungen dieses Ansatzes bei der zellulären Stimulation hervorzuheben, wurden verschiedene Bestrahlungsparameter (Zeit, Abstand, Laserleistung) analysiert. Außerdem binden viele caging-Moleküle stärker an die Polymerfilme als ATP, wodurch eine Vielzahl von chemischen Verbindungen als geeignete Moleküle für die Caging zur Verfügung stehen. Der Einsatz von HA/PLL Filmen als neue Oberfläche für Zellwachstum und als Reservoire für die Einbettung bioaktiver Moleküle samt der Möglichkeit einzelne Zellen mittels fokussierter Laserbestrahlung anzuregen, machen die Methode hoch effizient und einzigartig. Die Vorteile dieser Methode kommen durch die zeitliche und räumliche Präzision zustande. In Zukunft kann das in dieser Arbeit beschriebene Konzept für den Entwurf neuer Materialien für Untersuchungen mit einzelnen Zellen eingesetzt werden; mit dem Fokus auf Tissue Engineering, Diagnostik und anderen Zell- und biomedizinisch-basierten Applikationen. KW - multilayer films KW - light-triggered KW - stimulation of cells KW - drug release KW - Polyelektrolyt-Multischichten KW - Licht-induzierte KW - kontrollierte Freisetzung von Biomolekülen KW - Stimulierung von Zellen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-97927 ER - TY - THES A1 - Bürger, Arne T1 - MaiStep - Mainzer Schultraining zur Essstörungsprävention T1 - MaiStep - Mainzer school training für eating disorder prevention BT - die Entwicklung, Durchführung und Evaluation eines Programms zur Prävention von Essstörungen für die 7. und 8. Klassen BT - the development, implementation and evaluation of an eating disorder prevention program for the 7th and 8th classes N2 - Objectives The aim of this doctoral thesis was to investigate the efficacy of a German skills-based primary prevention program for partial-syndrome and full-syndrome eating disorders (Mainzer Schultraining zur Essstörungsprävention (MaiStep)) in reducing eating disorder symptoms as the primary outcome and associated psychopathology as a secondary outcome. Design Randomized Controlled Trial (RCT), three-intervention-group design, with two intervention groups and one active control group with a 3-month and 12-month follow-up. Setting A project in nine schools within the state of Rhineland-Palatine, Germany; funded by the Ministry of Health and Social Affairs (MSAGD) and the Ministry of Education, Culture and Research (MBWWK). Participants 1,654 adolescents (female/male: 781/873; mean age: 13.1±0.7; BMI: 20.0±3.5) recruited from randomly selected schools. Interventions The implementation and development of the skills based program was based on a systematic review of 63 scientific articles regarding eating disorder prevention in childhood and adolescence. One intervention group was conducted by psychologists and one by trained teachers. The active control group was performed by trained teachers using a stress and addiction prevention program. Main outcome measures The primary outcome measure was the incidence of partial-syndrome and full-syndrome eating disorders after completion of the program; secondary outcomes included self-reported questionnaires about eating disorder pathology. Results MaiStep did not reveal significant group differences at 3-month follow-up but showed a significant difference between the intervention groups and the active control group for partial anorexia nervosa (CHI²(2)) = 8.74, p = .01**) and partial bulimia nervosa (CHI²(2) = 7.25, p = .02*) at 12-month follow-up. Consistent with the primary outcome, the secondary measures were even more effective in the intervention groups at 12-month follow-up. The subscales of the Eating Disorder Inventory (EDI-2) drive of thinness (F (2, 355) = 3.94, p = .02*) and perfectionism (F (2, 355) = 4.19, p = .01**) and the Body Image Avoidance Questionnaire (BIAQ) (F (2, 525) = 18.79, p = .01**) showed significant differences for the intervention groups and demonstrated the effectiveness of MaiStep. Conclusions MaiStep has shown to be a successful program to prevent eating disorders in adolescents at 13 to 15 years of age. In addition, MaiStep was equally effective when conducted by teachers compared to psychologists suggesting feasibility of implementation in real world settings. Trial registration MaiStep is registered at the German Clinical Trials Register (DRKS00005050). N2 - Das Ziel der Doktorarbeit war die Entwicklung und Evaluation eines skillsbasierten primären Präventionsprogramms (Mainzer Schultraining zur Essstörungsprävention (MaiStep)) für partielle und manifeste Essstörungen. Dabei wurde die Wirksamkeit durch einen primären (Reduktion vorhandener Essstörungssymptome) und sekundären (assoziierte Psychopathologie) Zielparameter 3 und 12 Monate nach Durchführung des Trainings überprüft. Innerhalb der randomisiert kontrollierten Studie gab es zwei Interventionsgruppe und eine aktive Kontrollgruppe. 1.654 Jugendliche (weiblich/männlich: 781/873; mittleres Alter: 13.1±0.7; BMI: 20.0±3.5) konnten für die Studie, an zufällig ausgewählten Schulen in Rheinland-Pfalz, rekrutiert werden. Die Entwicklung des Präventionsprogramms basiert auf einem systematischen Literaturreview von 63 wissenschaftlichen Studien über die Prävention von Essstörungen im Kindes- und Jugendalter. Eine Interventionsgruppe wurde durch Psychologinnen/Psychologen und eine zweite durch Lehrkräfte angeleitet. Das in der aktiven Kontrollgruppe durchgeführte Sucht- bzw. Stresspräventionsprogramm wurde durch Lehrkräfte geleitet. MaiStep zeigte zur 3-Monatskatamnese keine signifikanten Effekte im Vergleich zur aktiven Kontrollgruppe. Allerdings zeigten sich nach 12 Monaten multiple signifikante Effekte zwischen den Interventions- und der aktiven Kontrollgruppe. Im Rahmen der Analyse des primären Parameters wurden in den Interventionsgruppen signifikant weniger Jugendliche mit einer partiellen Anorexia nervosa (CHI²(2) = 8.74, p = .01**) und/oder partiellen Bulimia nervosa (CHI²(2) = 7.25, p = .02*) gefunden. Im Rahmen der sekundären Zielparameter zeigten sich signifikante Veränderungen in Subskalen des Eating Disorder Inventory (EDI-2) Schlankheitsstreben (F (2, 355) = 3.94, p = .02*) und Perfektionismus (F (2, 355) = 4.19, p = .01**) sowie dem Body Image Avoidance Questionnaire (BIAQ) (F (2, 525) = 18.79, p = .01**) zwischen den Interventions- und der aktiven Kontrollgruppe. MaiStep kann somit als erfolgreiches Programm zur Reduktion von partiellen Essstörungen für die Altersgruppe der 13- 15-jährigen bezeichnet werden. Trotz unterschiedlicher Wirkmechanismen zeigten sich die Lehrkräfte im Vergleich zu den Psychologinnen/Psychologen ebenso erfolgreich in der Durchführung. Trial registration MaiStep is registered at the German Clinical Trials Register (DRKS00005050). KW - MaiStep KW - Essstörungen KW - Prävention KW - Anorexia nervosa KW - Bulimia nervosa KW - MaiStep KW - prevention KW - eating disorders KW - anorexia nervosa KW - bulimia nervosa Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98369 ER - TY - THES A1 - Gopalakrishnan, Sathej T1 - Mathematical modelling of host-disease-drug interactions in HIV disease T1 - Mathematische Modellierung von Pathogen-Wirkstoff-Wirt-Interaktionen im Kontext der HIV Erkrankung N2 - The human immunodeficiency virus (HIV) has resisted nearly three decades of efforts targeting a cure. Sustained suppression of the virus has remained a challenge, mainly due to the remarkable evolutionary adaptation that the virus exhibits by the accumulation of drug-resistant mutations in its genome. Current therapeutic strategies aim at achieving and maintaining a low viral burden and typically involve multiple drugs. The choice of optimal combinations of these drugs is crucial, particularly in the background of treatment failure having occurred previously with certain other drugs. An understanding of the dynamics of viral mutant genotypes aids in the assessment of treatment failure with a certain drug combination, and exploring potential salvage treatment regimens. Mathematical models of viral dynamics have proved invaluable in understanding the viral life cycle and the impact of antiretroviral drugs. However, such models typically use simplified and coarse-grained mutation schemes, that curbs the extent of their application to drug-specific clinical mutation data, in order to assess potential next-line therapies. Statistical models of mutation accumulation have served well in dissecting mechanisms of resistance evolution by reconstructing mutation pathways under different drug-environments. While these models perform well in predicting treatment outcomes by statistical learning, they do not incorporate drug effect mechanistically. Additionally, due to an inherent lack of temporal features in such models, they are less informative on aspects such as predicting mutational abundance at treatment failure. This limits their application in analyzing the pharmacology of antiretroviral drugs, in particular, time-dependent characteristics of HIV therapy such as pharmacokinetics and pharmacodynamics, and also in understanding the impact of drug efficacy on mutation dynamics. In this thesis, we develop an integrated model of in vivo viral dynamics incorporating drug-specific mutation schemes learned from clinical data. Our combined modelling approach enables us to study the dynamics of different mutant genotypes and assess mutational abundance at virological failure. As an application of our model, we estimate in vivo fitness characteristics of viral mutants under different drug environments. Our approach also extends naturally to multiple-drug therapies. Further, we demonstrate the versatility of our model by showing how it can be modified to incorporate recently elucidated mechanisms of drug action including molecules that target host factors. Additionally, we address another important aspect in the clinical management of HIV disease, namely drug pharmacokinetics. It is clear that time-dependent changes in in vivo drug concentration could have an impact on the antiviral effect, and also influence decisions on dosing intervals. We present a framework that provides an integrated understanding of key characteristics of multiple-dosing regimens including drug accumulation ratios and half-lifes, and then explore the impact of drug pharmacokinetics on viral suppression. Finally, parameter identifiability in such nonlinear models of viral dynamics is always a concern, and we investigate techniques that alleviate this issue in our setting. N2 - Das Humane Immundefiecienz-Virus (HIV) widerstanden hat fast drei Jahrzehnten eff Orts targeting eine Heilung. Eine anhaltende Unterdrückung des Virus hat noch eine Herausforderung, vor allem aufgrund der bemerkenswerten evolutionären Anpassung, dass das Virus Exponate durch die Ansammlung von Medikamenten-resistenten Mutationen in seinem Genom. Aktuelle therapeutische Strategien zielen auf das Erreichen und die Erhaltung einer niedrigen virale Belastung und umfassen in der Regel mehrere Medikamente. Die Wahl der optimalen Kombinationen dieser Medikamente ist von entscheidender Bedeutung, besonders im Hintergrund der Behandlung Fehler eingetreten, die zuvor mit bestimmten anderen Medikamenten. Ein Verständnis für die Dynamik der viralen mutierten Genotypen Aids in die Bewertung der Behandlung Fehler mit einer bestimmten Kombination und der Erkundung potenzieller Bergung Behandlungsschemata. Mathematische Modelle für virale Dynamik haben sich als unschätzbar erwiesen hat im Verständnis der viralen Lebenszyklus und die Auswirkungen von antiretroviralen Medikamenten. Allerdings sind solche Modelle verwenden in der Regel simplified und grobkörnigen Mutation Regelungen, dass Aufkantungen den Umfang ihrer Anwendung auf Arzneimittel-ganz speziellec Mutation klinische Daten, um zu beurteilen, mögliche nächste-line Therapien. Statistische Modelle der Mutation Anhäufung gedient haben gut in präparieren Mechanismen der Resistenz Evolution durch Mutation Rekonstruktion Pathways unter verschiedenen Medikamenten-Umgebungen. Während diese Modelle führen gut in der Vorhersage der Ergebnisse der Behandlung durch statistische lernen, sie enthalten keine Droge E ffect mechanistisch. Darüber hinaus aufgrund einer innewohnenden Mangel an zeitlichen Funktionen in solchen Modellen, sie sind weniger informativ auf Aspekte wie die Vorhersage mutational Fülle an Versagen der Behandlung. Dies schränkt die Anwendung in der Analyse der Pharmakologie von antiretroviralen Medikamenten, insbesondere, Zeit-abhängige Merkmale der HIV-Therapie wie Pharmakokinetik und Pharmakodynamik, und auch in dem Verständnis der Auswirkungen von Drogen e fficacy auf Mutation Dynamik. In dieser Arbeit, die wir bei der Entwicklung eines integrierten Modells von In-vivo-virale Dynamik Einbeziehung drug-ganz speziellec Mutation Systeme gelernt aus den klinischen Daten. Unsere kombinierten Modellansatz ermöglicht uns die Untersuchung der Dynamik von diff schiedene mutierten Genotypen und bewerten mutational Fülle an virologischem Versagen. Als Anwendung unseres Modells schätzen wir In-vivo-fitness Merkmale der viralen Mutanten unter di fferent drug Umgebungen. Unser Ansatz erstreckt sich auch natürlich auf mehrere-Therapien. Weitere zeigen wir die Vielseitigkeit unseres Modells zeigen, wie es können Modified zu integrieren kürzlich aufgeklärt Mechanismen der Drug Action einschließlich Molekülen, dass target host Faktoren. Zusätzlich haben wir Adresse ein weiterer wichtiger Aspekt in der klinischen Management der HIV-Erkrankung, das heißt Drogen Pharmakokinetik. Es ist klar, dass die Zeit-abhängige Änderungen in In-vivo-Wirkstoffkonzentration könnten die Auswirkungen auf die antivirale E ffect und haben auch Einfluss auf die Entscheidungen über Dosierungsintervalle. Wir präsentieren ein Framework, bietet ein integriertes Verständnis der wichtigsten Merkmale von mehreren Dosierungsschemata einschließlich Kumulation Übersetzungen und Halbwertszeiten, und untersuchen Sie die Auswirkungen von Drogen auf die Pharmakokinetik Virussuppression. Schließlich, Parameter identifiFähigkeit in solchen nichtlineare Modelle der virale Dynamik ist immer ein Anliegen, und wir untersuchen Methoden, um dieses Problem in unserer Einstellung. KW - HIV KW - mathematical modelling KW - viral fitness KW - pharmacokinetics KW - parameter estimation KW - HIV Erkrankung KW - Pharmakokinetik KW - Fitness KW - mathematische Modellierung KW - Kombinationstherapie Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100100 ER - TY - THES A1 - Tamasi, Katalin T1 - Measuring children’s sensitivity to phonological detail using eye tracking and pupillometry T1 - Untersuchung der Sensitivität von Kleinkindern für phonologische Details mit Hilfe von Eye-Tracking und Pupillometrie N2 - Infants' lexical processing is modulated by featural manipulations made to words, suggesting that early lexical representations are sufficiently specified to establish a match with the corresponding label. However, the precise degree of detail in early words requires further investigation due to equivocal findings. We studied this question by assessing children’s sensitivity to the degree of featural manipulation (Chapters 2 and 3), and sensitivity to the featural makeup of homorganic and heterorganic consonant clusters (Chapter 4). Gradient sensitivity on the one hand and sensitivity to homorganicity on the other hand would suggest that lexical processing makes use of sub-phonemic information, which in turn would indicate that early words contain sub-phonemic detail. The studies presented in this thesis assess children’s sensitivity to sub-phonemic detail using minimally demanding online paradigms suitable for infants: single-picture pupillometry and intermodal preferential looking. Such paradigms have the potential to uncover lexical knowledge that may be masked otherwise due to cognitive limitations. The study reported in Chapter 2 obtained a differential response in pupil dilation to the degree of featural manipulation, a result consistent with gradient sensitivity. The study reported in Chapter 3 obtained a differential response in proportion of looking time and pupil dilation to the degree of featural manipulation, a result again consistent with gradient sensitivity. The study reported in Chapter 4 obtained a differential response to the manipulation of homorganic and heterorganic consonant clusters, a result consistent with sensitivity to homorganicity. These results suggest that infants' lexical representations are not only specific, but also detailed to the extent that they contain sub-phonemic information. N2 - Die lexikalische Verarbeitung bei Kleinkindern kann durch die Manipulation von phonologischen Merkmalen moduliert werden. Dies deutet darauf hin, dass frühe lexikalische Repräsentationen hinreichend spezifiziert sind, um einen Abgleich mit einem gehörten Wort herzustellen. Aufgrund von nicht einheitlichen Befunden ist jedoch weitere Forschung notwendig, um zu bestimmen, wie detailliert erste Wörter repräsentiert werden. Dieser Frage wurde nachgegangen, indem die Sensitivität der Kinder gegenüber dem Grad der Merkmalmanipulation (Kapitel 2 und 3) und gegenüber homorganischen und heterorganischen Konsonantenclustern (Kapitel 4) untersucht wurde. Eine gradiente Sensitivität gegenüber der Manipulation phonologischer Merkmale und eine Sensitivität gegenüber der Homorganizität deuten darauf hin, dass Gradientenempfindlichkeit auf der einen Seite und die Empfindlichkeit gegenüber der für die lexikalische Verarbeitung subphonemische Informationen relevant sind, was wiederum darauf schließen lässt, dass lexikalische Repräsentationen subphonemische Details enthalten. Die Studien, die in dieser Arbeit vorgestellt werden, untersuchen die Sensitivität von 30 Monate alten Kindern für subphonemische Details mit Online-Paradigmen, die für Kleinkinder geeignet sind: Einzelbild-Pupillometrie und "intermodal preferential looking". Diese Paradigmen haben das Potenzial, lexikalisches Wissen aufzudecken, das sonst aufgrund kognitiver Beanspruchungen verdeckt bleibt. Die in Kapitel 2 berichtete Studie zeigt eine differenzielle Reaktion in der Pupillendilatation in Verbindung mit dem Grad der Merkmalsmanipulation, ein Ergebnis, das die Sensitivität gegenüber der Gradienz der phonologischen Distanz nahelegt. Die Studie in Kapitel 3 zeigt eine differenzielle Reaktion sowohl in der Pupillendilatation auch in den Blickzeiten in Abhängigkeit vom Grad der phonologischen Merkmalmanipulation, ein Ergebnis das das der Studie 2 unterstützt. Die in Kapitel 4 berichtete Studie zeigt Unterschiede in der Pupillendilation nur in Reaktion auf eine phonologische Manipulation der homorganischen nicht aber der heterorganischen Konsonantencluster. Dieses Ergebnis stützt die Annahme, einer frühen Sensitivität gegenüber Homorganizität. Diese Ergebnisse deuten darauf hin, dass die lexikalischen Repräsentationen von Kleinkindern nicht nur spezifisch, sondern auch detailliert sind, da sie subphonemische Informationen enthalten. KW - phonological development KW - consonant clusters KW - mispronunciation detection KW - pupillometry KW - eye tracking KW - phonologische Entwicklung KW - Konsonantencluster KW - mispronunciation detection KW - Pupillometrie KW - Eye-Tracking Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395954 ER - TY - THES A1 - Gomez, David T1 - Mechanisms of biochemical reactions within crowded environments T1 - Mechanismus der Biochemische Reaktionen im vollgestopfte Umgebungen N2 - The cell interior is a highly packed environment in which biological macromolecules evolve and function. This crowded media has effects in many biological processes such as protein-protein binding, gene regulation, and protein folding. Thus, biochemical reactions that take place in such crowded conditions differ from diluted test tube conditions, and a considerable effort has been invested in order to understand such differences. In this work, we combine different computationally tools to disentangle the effects of molecular crowding on biochemical processes. First, we propose a lattice model to study the implications of molecular crowding on enzymatic reactions. We provide a detailed picture of how crowding affects binding and unbinding events and how the separate effects of crowding on binding equilibrium act together. Then, we implement a lattice model to study the effects of molecular crowding on facilitated diffusion. We find that obstacles on the DNA impair facilitated diffusion. However, the extent of this effect depends on how dynamic obstacles are on the DNA. For the scenario in which crowders are only present in the bulk solution, we find that at some conditions presence of crowding agents can enhance specific-DNA binding. Finally, we make use of structure-based techniques to look at the impact of the presence of crowders on the folding a protein. We find that polymeric crowders have stronger effects on protein stability than spherical crowders. The strength of this effect increases as the polymeric crowders become longer. The methods we propose here are general and can also be applied to more complicated systems. N2 - Innerhalb einer Zelle, im Zytosol, entstehen und arbeiten sehr viele biologische Makromoleküle. Die Dichte dieser Moleküle ist sehr hoch und dieses ‘vollgestopfte’ Zytosol hat vielfältige Auswirkungen auf viele biologische Prozessen wie zum Beispiel Protein-Protein Interaktionen, Genregulation oder die Faltung von Proteinen. Der Ablauf von vielen biochemische Reaktionen in dieser Umgebung weicht von denen unter verdünnte Laborbedingungen ab. Um die Effekte dieses ‘makromolekularen Crowdings’ zu verstehen, wurde in den letzten Jahren bereits viel Mühe investiert. In dieser Arbeit kombinieren wir verschiede Computermethoden, um die Wirkungen des ‘makromolekularen Crowdings’ auf biologische Prozesse besser zu verstehen. Zuerst schlagen wir ein Gittermodell vor, um damit die Effekte des ‘makromolekularen Crowdings’ auf enzymatische Reaktionen zu studieren. Damit stellen wir ein detailliertes Bild zusammen, wie Crowding die Assoziations- und Dissozotationsraten beeinflusst und wie verschiedene crowding-Effekte zusammen auf die Gleichgewichtskonstante wirken. Weiterhin implementieren wir ein Gittermodell der ‘erleichterte Diffusion’. Unsere Ergebnisse zeigen, dass Hindernisse an der DNA die vereinfachte Diffusion beeinträchtigen. Das Ausmass dieser Wirkung hängt dabei von der Dynamik der Hindernisse an der DNA ab. Im dem Fall dass Crowder ausschließlich in der Lösung vorhanden sind, erhöhen sich unter bestimmten Bedingungen DNA-spezifische Bindungen. Schließlich nutzten wir strukturbasierte Techniken um damit die Auswirkungen von Crowding auf die Faltung von Proteinen zu untersuchen. Wir fanden dabei, dass Polymer Crowder stärkere Wirkungen auf die Proteinstabilität haben als kugelförmige Crowder. Dieser Effekt verstärkte sich mit der Länge der untersuchten Polymere. Die Methoden die hier vorgeschlagen werden, sind generell anwendbar und können auch an deutlich komplexeren Systemen angewandt werden. KW - molecular crowding KW - gene expression KW - enzymatic activity KW - protein folding KW - Molecular crowding KW - enzymatische Reaktionen KW - Genregulation KW - Faltung von Proteinen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94593 ER - TY - THES A1 - Markova, Mariya T1 - Metabolic and molecular effects of two different isocaloric high protein diets in subjects with type 2 diabetes T1 - Metabolische und molekulare Effekte zweier isokalorischer Hochproteindiäten unterschiedlicher Herkunft bei Probanden mit Typ-2-Diabetes N2 - Ernährung stellt ein wichtiger Faktor in der Prävention und Therapie von Typ-2-Diabetes dar. Frühere Studien haben gezeigt, dass Hochproteindiäten sowohl positive als auch negative Effekte auf den Metabolismus hervorrufen. Jedoch ist unklar, ob die Herkunft des Proteins dabei eine Rolle spielt. In der LeguAN-Studie wurden die Effekte von zwei unterschiedlichen Hochproteindiäten, entweder tierischer oder pflanzlicher Herkunft, bei Typ-2-Diabetes Patienten untersucht. Beide Diäten enthielten 30 EN% Proteine, 40 EN% Kohlenhydrate und 30 EN% Fette. Der Anteil an Ballaststoffen, der glykämischer Index und die Fettkomposition waren in beiden Diäten ähnlich. Die Proteinaufnahme war höher, während die Fettaufnahme niedriger im Vergleich zu den früheren Ernährungsgewohnheiten der Probanden war. Insgesamt führten beide Diätinterventionen zu einer Verbesserung der glykämischen Kontrolle, der Insulinsensitivität, des Leberfettgehalts und kardiovaskulärer Risikomarkern ohne wesentliche Unterschiede zwischen den Proteintypen. In beiden Interventionsgruppen wurden die nüchternen Glukosewerte zusammen mit Indizes von Insulinresistenz in einem unterschiedlichen Ausmaß, jedoch ohne signifikante Unterschiede zwischen beiden Diäten verbessert. Die Reduktion von HbA1c war ausgeprägter in der pflanzlichen Gruppe, während sich die Insulinsensitivität mehr in der tierischen Gruppe erhöhte. Die Hochproteindiäten hatten nur einen geringfügigen Einfluss auf den postprandialen Metabolismus. Dies zeigte sich durch eine leichte Verbesserung der Indizes für Insulinsekretion, -sensitivität und –degradation sowie der Werte der freien Fettsäuren. Mit Ausnahme des Einflusses auf die GIP-Sekretion riefen die tierische und die pflanzliche Testmahlzeit ähnliche metabolische und hormonelle Antworten, trotz unterschiedlicher Aminosäurenzusammensetzung. Die tierische Hochproteindiät führte zu einer selektiven Zunahme der fettfreien Masse und Abnahme der Fettmasse, was nicht signifikant unterschiedlich von der pflanzlichen Gruppe war. Darüber hinaus reduzierten die Hochproteindiäten den Leberfettgehalt um durchschnittlich 42%. Die Reduktion des Leberfettgehaltes ging mit einer Verminderung der Lipogenese, der Lipolyse und des freien Fettsäure Flux einher. Beide Interventionen induzierten einen moderaten Abfall von Leberenzymen im Blut. Die Reduktion des Leberfetts war mit einer verbesserten Glukosehomöostase und Insulinsensitivität assoziiert. Blutlipide sanken in allen Probanden, was eventuell auf die niedrigere Fettaufnahme zurückzuführen war. Weiterhin waren die Spiegel an Harnsäure und Inflammationsmarkern erniedrigt unabhängig von der Proteinquelle. Die Werte des systolischen und diastolischen Blutdrucks sanken nur in der pflanzlichen Gruppe, was auf eine potentielle Rolle von Arginin hinweist. Es wurden keine Hinweise auf eine beeinträchtigte Nierenfunktion durch die 6-wöchige Hochproteindiäten beobachtet unabhängig von der Herkunft der Proteine. Serumkreatinin war nur in der pflanzlichen Gruppe signifikant reduziert, was eventuell an dem geringen Kreatingehalt der pflanzlichen Nahrungsmittel liegen könnte. Jedoch sind längere Studien nötig, um die Sicherheit von Hochproteindiäten vollkommen aufklären zu können. Des Weiteren verursachte keine der Diäten eine Induktion des mTOR Signalwegs weder im Fettgewebe noch in Blutzellen. Die Verbesserung der Ganzkörper-Insulinsensitivität deutete auch auf keine Aktivierung von mTOR und keine Verschlechterung der Insulinsensitivität im Skeletmuskel hin. Ein nennenswerter Befund war die erhebliche Reduktion von FGF21, einem wichtigen Regulator metabolischer Prozesse, um ungefähr 50% bei beiden Proteinarten. Ob hepatischer ER-Stress, Ammoniumniveau oder die Makronährstoffpräferenz hinter dem paradoxen Ergebnis stehen, sollte weiter im Detail untersucht werden. Entgegen der anfänglichen Erwartung und der bisherigen Studienlage zeigte die pflanzlich-betonte Hochproteindiät keine klaren Vorteile gegenüber der tierischen Diät. Der ausgeprägte günstige Effekt des tierischen Proteins auf Insulinhomöostase trotz des hohen BCAA-Gehaltes war sicherlich unerwartet und deutet darauf hin, dass bei dem längeren Verzehr andere komplexe metabolische Adaptationen stattfinden. Einen weiteren Aspekt stellt der niedrigere Fettverzehr dar, der eventuell auch zu den Verbesserungen in beiden Gruppen beigetragen hat. Zusammenfassend lässt sich sagen, dass eine 6-wöchige Diät mit 30 EN% Proteinen (entweder pflanzlich oder tierisch), 40 EN% Kohlenhydraten und 30 EN% Fetten mit weniger gesättigten Fetten zu metabolischen Verbesserungen bei Typ-2-Diabetes Patienten unabhängig von Proteinherkunft führt. N2 - Dietary approaches contribute to the prevention and treatment of type 2 diabetes. High protein diets were shown to exert beneficial as well as adverse effects on metabolism. However, it is unclear whether the protein origin plays a role in these effects. The LeguAN study investigated in detail the effects of two high protein diets, either from plant or animal origin, in type 2 diabetic patients. Both diets contained 30 EN% protein, 40 EN% carbohydrates, and 30 EN% fat. Fiber content, glycemic index, and composition of dietary fats were similar in both diets. In comparison to previous dietary habits, the fat content was exchanged for protein, while the carbohydrate intake was not modified. Overall, both high protein diets led to improvements of glycemic control, insulin sensitivity, liver fat, and cardiovascular risk markers without remarkable differences between the protein types. Fasting glucose together with indices of insulin resistance were ameliorated by both interventions to varying extents but without significant differences between protein types. The decline of HbA1c was more pronounced in the plant protein group, whereby the improvement of insulin sensitivity in the animal protein group. The high protein intake had only slight influence on postprandial metabolism seen for free fatty acids and indices of insulin secretion, sensitivity and degradation. Except for GIP release, ingestion of animal and plant meals did not provoke differential metabolic and hormonal responses despite diverse circulating amino acid levels. The animal protein diets led to a selective increase of fat-free mass and decrease of total fat mass, which was not significantly different from the plant protein diet. Moreover, the high protein diets potently decreased liver fat content by 42% on average which was linked to significantly diminished lipogenesis, free fatty acids flux and lipolysis in adipose tissue. Moderate decline of circulating liver enzymes was induced by both interventions. The liver fat reduction was associated with improved glucose homeostasis and insulin sensitivity which underlines the protective effect of the diets. Blood lipid profile improved in all subjects and was probably related to the lower fat intake. Reductions in uric acid and markers of inflammation further argued for metabolic benefits of both high protein diets. Systolic and diastolic blood pressure declined only in the PP group pointing a possible role of arginine. Kidney function was not altered by high protein consumption over 6 weeks. The rapid decrease of serum creatinine in the PP group was noteworthy and should be further investigated. Protein type did not seem to play a role but long-term studies are warranted to fully elucidate safety of high protein regimen. Varying the source of dietary proteins did not affect the mTOR pathway in adipose tissue and blood cells under neither acute nor chronic settings. Enhancement of whole-body insulin sensitivity suggested also no alteration of mTOR and no impairment of insulin sensitivity in skeletal muscle. A remarkable outcome was the extensive reduction of FGF21, critical regulator of metabolic processes, by approximately 50% independently of protein type. Whether hepatic ER-stress, ammonia flux or rather macronutrient preferences is behind this paradoxical finding remains to be investigated in detail. Unlike initial expectations and previous reports plant protein based diet had no clear advantage over animal proteins. The pronounced beneficial effect of animal protein on insulin homeostasis despite high BCAA and methionine intake was certainly unexpected assuming more complex metabolic adaptations occurring upon prolonged consumption. In addition, the reduced fat intake may have also contributed to the overall improvements in both groups. Taking into account the above observed study results, a short-term diet containing 30 EN% protein (either from plant or animal origin), 40 EN% carbohydrates, and 30 EN% fat with lower SFA amount leads to metabolic improvements in diabetic patients, regardless of protein source. KW - type 2 diabetes KW - nutrition KW - protein KW - Typ-2-Diabetes KW - Ernährung KW - high protein diet Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-394310 ER - TY - THES A1 - Osudar, Roman T1 - Methane distribution and oxidation across aquatic interfaces T1 - Verteilung und Oxidation von Methan in aquatischen Ökosystemen BT - case studies from Arctic water bodies and the Elbe estuary BT - Fallstudien aus arktischen Wasserkörpern und dem Elbe Ästuar N2 - The increase in atmospheric methane concentration, which is determined by an imbalance between its sources and sinks, has led to investigations of the methane cycle in various environments. Aquatic environments are of an exceptional interest due to their active involvement in methane cycling worldwide and in particular in areas sensitive to climate change. Furthermore, being connected with each other aquatic environments form networks that can be spread on vast areas involving marine, freshwater and terrestrial ecosystems. Thus, aquatic systems have a high potential to translate local or regional environmental and subsequently ecosystem changes to a bigger scale. Many studies neglect this connectivity and focus on individual aquatic or terrestrial ecosystems. The current study focuses on environmental controls of the distribution and aerobic oxidation of methane at the example of two aquatic ecosystems. These ecosystems are Arctic fresh water bodies and the Elbe estuary which represent interfaces between freshwater-terrestrial and freshwater-marine environments, respectively. Arctic water bodies are significant atmospheric sources of methane. At the same time the methane cycle in Arctic water bodies is strongly affected by the surrounding permafrost environment, which is characterized by high amounts of organic carbon. The results of this thesis indicate that the methane concentrations in Arctic lakes and streams substantially vary between each other being regulated by local landscape features (e.g. floodplain area) and the morphology of the water bodies (lakes, streams and river). The highest methane concentrations were detected in the lake outlets and in a floodplain lake complex. In contrast, the methane concentrations measured at different sites of the Lena River did not vary substantially. The lake complexes in comparison to the Lena River, thus, appear as more individual and heterogeneous systems with a pronounced imprint of the surrounding soil environment. Furthermore, connected with each other Arctic aquatic environments have a large potential to transport methane from methane-rich water bodies such as streams and floodplain lakes to aquatic environments relatively poor in methane such as the Lena River. Estuaries represent hot spots of oceanic methane emissions. Also, estuaries are intermediate zones between methane-rich river water and methane depleted marine water. Substantiated through this thesis at the example of the Elbe estuary, the methane distribution in estuaries, however, cannot entirely be described by the conservative mixing model i.e. gradual decrease from the freshwater end-member to the marine water end-member. In addition to the methane-rich water from the Elbe River mouth substantial methane input occurs from tidal flats, areas of significant interaction between aquatic and terrestrial environments. Thus, this study demonstrates the complex interactions and their consequences for the methane distribution within estuaries. Also it reveals how important it is to investigate estuaries at larger spatial scales. Methane oxidation (MOX) rates are commonly correlated with methane concentrations. This was shown in previous research studies and was substantiated by the present thesis. In detail, the highest MOX rates in the Arctic water bodies were detected in methane-rich streams and in the floodplain area while in the Elbe estuary the highest MOX rates were observed at the coastal stations. However, in these bordering environments, MOX rates are affected not only via the regulation through methane concentrations. The MOX rates in the Arctic lakes were shown to be also dependent on the abundance and community composition of methane-oxidising bacteria (MOB), that in turn are controlled by local landscape features (regardless of the methane concentrations) and by the transport of MOB between neighbouring environments. In the Elbe estuary, the MOX rates in addition to the methane concentrations are largely affected by the salinity, which is in turn regulated by the mixing of fresh- and marine waters. The magnitude of the salinity impact on MOX rates thereby depends on the MOB community composition and on the rate of the salinity change. This study extends our knowledge of environmental controls of methane distribution and aerobic methane oxidation in aquatic environments. It also illustrates how important it is to investigate complex ecosystems rather than individual ecosystems to better understand the functioning of whole biomes. N2 - Aufgrund des Anstiegs der Methankonzentration in der Atmosphäre, der durch ein Ungleichgewicht zwischen Quellen und Senken hervorgerufen wird, steht der Methankreislauf im Fokus der Forschung. Aquatische Ökosysteme, und im Speziellen solche, die vom Klimawechsel besonders betroffen sind, spielen eine wichtige Rolle im globalen Methankreislauf. Darüber hinaus können sie über große Areale miteinander verknüpft sein und terrestrische mit marinen Ökosystemen verbinden. In aquatischen Systemen können sich daher lokale und regionale Umweltänderungen auf sehr große räumliche Skalen auswirken. Viele Untersuchungen berücksichtigen diesen Zusammenhang nicht und betrachten aquatische unabhängig von den sich angrenzenden Ökosystemen. Die vorliegende Arbeit untersucht den Einfluss von Umweltfaktoren auf die Methankonzentration und die mikrobielle aerobe Methanoxidation. Der Schwerpunkt liegt dabei auf zwei aquatischen Ökosystemen, arktische Süßwassertransekte und Ästuare, und auf deren mikrobieller Ökologie. Diese beiden Ökosysteme beschreiben typische terrestrisch-limnische und limnisch-marine Übergangsbereiche. Arktische Gewässer stellen eine wichtige Quelle für atmosphärisches Methan dar. Sie werden außerdem stark durch den umgebenden Permafrost, der reich an organischer Substanz ist, beeinflusst. Die Ergebnisse der vorliegenden Arbeit zeigen am Beispiel des Lena-Deltas, dass sich die Methankonzentrationen in arktischen Seen und Fließgewässern wesentlich voneinander unterscheiden. Besonderen Einfluss üben hierbei das örtliche Landschaftsbild (z.B. Überflutungsbereiche) und die Charakteristika der Wasserkörper (Seen, Wasserläufe und Flüsse) aus. Die höchsten Methankonzentrationen wurden in Seeabläufen und in Seen einer Überflutungsebene (Seekomplex) gemessen. Im Gegensatz dazu unterschieden sich die Methankonzentrationen an verschiedenen Messpunkten der Lena nur unwesentlich. Der Seekomplex erscheint daher im Vergleich zur Lena heterogener und stark vom umgebenden Bodenökosystem beeinflusst. Die miteinander vernetzten arktischen aquatischen Ökosysteme haben darüber hinaus ein hohes Potential, Methan von methan-reichen Gewässern, wie Wasserläufen und Überflutungsgebieten, zu relativ methan-armen Gewässern wie der Lena zur transportieren. Ästuare sind „hot spots“ der Methanemission von marin beeinflussten Systemen. Sie stellen Übergangszonen zwischen methan-reichem Flusswasser und methan-armem Meerwasser dar. Wie die Untersuchungen am Elbe Ästuar zeigen, kann die Methanverteilung jedoch nicht immer hinreichend durch das konservative Durchmischungs-Model (graduelle Abnahme vom Süß- zum Meerwasser hin) beschrieben werden. Zusätzlich zum methan-reichen Wasser der Elbemündung konnte der Eintrag von Methan in Wattbereichen, Gegenden starker aquatischer und terrestrischer Interaktion, gezeigt werden. Diese Studie verdeutlicht demnach die Komplexität von Ästuarsystemen hinsichtlich der Methanverteilung und die Notwendigkeit, diese in größeren Maßstäben zu untersuchen. Methanoxidationsraten (MOX-Raten) korrelieren gewöhnlich mit den Methankonzentrationen. Dies zeigen die hier vorliegenden Daten aber auch vorherige Studien. Die höchsten MOX-Raten der arktischen Gewässer wurden im Rahmen dieser Arbeit in methan-reichen Fließgewässern sowie einer Überflutungsebene gemessen. Im Elbeästuar wurden die höchsten Werte an den Küstenstationen aufgezeichnet. In den jeweils untersuchten Übergangszonen werden die MOX-Raten jedoch nicht nur durch die Methankonzentrationen gekennzeichnet. In den arktischen Seen werden sie zusätzlich durch die Zellzahl und Populationsstruktur von Methan oxidierenden Bakterien (MOB) bestimmt, welche wiederum durch lokale Umweltfaktoren (unabhängig von der Methankonzentration) und den Transport von MOB zwischen benachbarten Ökosystemen beeinflusst werden. Im Elbeästuar hingegen werden die MOX-Raten neben den Methankonzentrationen größtenteils von der Salinität, die durch die Vermischung von Süß- und Salzwasser reguliert wird, bedingt. Die Ergebnisse dieser Arbeit zeigen auch, dass im Elbeästuar die Salinität, die durch die Vermischung von Süß- und Salzwasser reguliert wird, einen großen Einfluss auf die MOX-Raten hat. Das Ausmaß dieses Einflusses hängt dabei von der Populationsstruktur der MOB und der Geschwindigkeit des Salinitätswechsels ab. Zusammenfassend trägt die vorliegende Arbeit dazu bei, Zusammenhänge zwischen Methankonzentration, dem Prozess und Mikrobiom der aeroben Methanoxidation und bestimmten Umweltfaktoren wie beispielsweise der Salinität in aquatischen Systemen besser zu verstehen. Sie verdeutlicht außerdem, wie bedeutsam es ist, aquatische Ökosysteme in ihrer räumlichen Komplexität und nicht entkoppelt zu betrachten. KW - microbial methane oxidation KW - mikrobielle aerobe Methanoxidation KW - aquatic ecosystems KW - aquatischen Ökosystemen KW - Elbe estuary KW - Elbe Ästuar KW - Lena Delta KW - arktische Gewässer KW - arctic water bodies Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96799 ER - TY - THES A1 - Roers, Michael T1 - Methoden zur Dynamisierung von Klimafolgenanalysen im Elbegebiet T1 - Methods for a dynamisation of climate impact studies in the Elbe River basin BT - Aktualisierung von Szenarienstudien zu den Auswirkungen des Klimawandels und fortlaufende Überprüfung ökohydrologischer Modellergebnisse BT - actualisation of scenario studies on impacts of climate change and continuous verification of ecohydrological model results N2 - Die Elbe und ihr Einzugsgebiet sind vom Klimawandel betroffen. Um die Wirkkette von projizierten Klimaveränderungen auf den Wasserhaushalt und die daraus resultierenden Nährstoffeinträge und -frachten für große Einzugsgebiete wie das der Elbe zu analysieren, können integrierte Umweltmodellsysteme eingesetzt werden. Fallstudien, die mit diesen Modellsystemen ad hoc durchgeführt werden, repräsentieren den Istzustand von Modellentwicklungen und -unsicherheiten und sind damit statisch. Diese Arbeit beschreibt den Einstieg in die Dynamisierung von Klimafolgenanalysen im Elbegebiet. Dies umfasst zum einen eine Plausibilitätsprüfung von Auswirkungsrechnungen, die mit Szenarien des statistischen Szenariengenerators STARS durchgeführt wurden, durch den Vergleich mit den Auswirkungen neuerer Klimaszenarien aus dem ISI-MIP Projekt, die dem letzten Stand der Klimamodellierung entsprechen. Hierfür wird ein integriertes Modellsystem mit "eingefrorenem Entwicklungsstand" verwendet. Die Klimawirkungsmodelle bleiben dabei unverändert. Zum anderen wird ein Bestandteil des integrierten Modellsystems – das ökohydrologische Modell SWIM – zu einer "live"-Version weiterentwickelt. Diese wird durch punktuelle Testung an langjährigen Versuchsreihen eines Lysimeterstandorts sowie an aktuellen Abflussreihen validiert und verbessert. Folgende Forschungsfragen werden bearbeitet: (i) Welche Effekte haben unterschiedliche Klimaszenarien auf den Wasserhaushalt im Elbegebiet und ist eine Neubewertung der Auswirkung des Klimawandels auf den Wasserhaushalt notwendig?, (ii) Was sind die Auswirkungen des Klimawandels auf die Nährstoffeinträge und -frachten im Elbegebiet sowie die Wirksamkeit von Maßnahmen zur Reduktion der Nährstoffeinträge?, (iii) Ist unter der Nutzung (selbst einer sehr geringen Anzahl) verfügbarer tagesaktueller Witterungsdaten in einem stark heterogenen Einzugsgebiet eine valide Ansprache der aktuellen ökohydrologischen Situation des Elbeeinzugsgebiets möglich? Die aktuellen Szenarien bestätigen die Richtung, jedoch nicht das Ausmaß der Klimafolgen: Die Rückgänge des mittleren jährlichen Gesamtabflusses und der monatlichen Abflüsse an den Pegeln bis Mitte des Jahrhunderts betragen für das STARS-Szenario ca. 30 %. Die Rückgänge bei den auf dem ISI-MIP-Szenario basierenden Modellstudien liegen hingegen nur bei ca. 10 %. Hauptursachen für diese Divergenz sind die Unterschiede in den Niederschlagsprojektionen sowie die Unterschiede in der jahreszeitlichen Verteilung der Erwärmung. Im STARS-Szenario gehen methodisch bedingt die Niederschläge zurück und der Winter erwärmt sich stärker als der Sommer. In dem ISI-MIP-Szenario bleiben die Niederschläge nahezu stabil und die Erwärmung im Sommer und Winter unterscheidet sich nur geringfügig. Generell nehmen die Nährstoffeinträge und -frachten mit den Abflüssen in beiden Szenarien unterproportional ab, wobei die Frachten jeweils stärker als die Einträge zurückgehen. Die konkreten Effekte der Abflussänderungen sind gering und liegen im einstelligen Prozentbereich. Gleiches gilt für die Unterschiede zwischen den Szenarien. Der Effekt von zwei ausgewählten Maßnahmen zur Reduktion der Nährstoffeinträge und -frachten unterscheidet sich bei verschiedenen Abflussverhältnissen, repräsentiert durch unterschiedliche Klimaszenarien in unterschiedlich feuchter Ausprägung, ebenfalls nur geringfügig. Die Beantwortung der ersten beiden Forschungsfragen zeigt, dass die Aktualisierung von Klimaszenarien in einem ansonsten "eingefrorenen" Verbund von ökohydrologischen Daten und Modellen eine wichtige Prüfoption für die Plausibilisierung von Klimafolgenanalysen darstellt. Sie bildet die methodische Grundlage für die Schlussfolgerung, dass bei der Wassermenge eine Neubewertung der Klimafolgen notwendig ist, während dies bei den Nährstoffeinträgen und -frachten nicht der Fall ist. Die zur Beantwortung der dritten Forschungsfrage mit SWIM-live durchgeführten Validierungsstudien ergeben Diskrepanzen am Lysimeterstandort und bei den Abflüssen aus den Teilgebieten Saale und Spree. Sie lassen sich zum Teil mit der notwendigen Interpolationsweite der Witterungsdaten und dem Einfluss von Wasserbewirtschaftungsmaßnahmen erklären. Insgesamt zeigen die Validierungsergebnisse, dass schon die Pilotversion von SWIM-live für eine ökohydrologische Ansprache des Gebietswasserhaushaltes im Elbeeinzugsgebiet genutzt werden kann. SWIM-live ermöglicht eine unmittelbare Betrachtung und Beurteilung simulierter Daten. Dadurch werden Unsicherheiten bei der Modellierung direkt offengelegt und können infolge dessen reduziert werden. Zum einen führte die Verdichtung der meteorologischen Eingangsdaten durch die Verwendung von nun ca. 700 anstatt 19 Klima- bzw. Niederschlagstationen zu einer Verbesserung der Ergebnisse. Zum anderen wurde SWIM-live beispielhaft für einen Zyklus aus punktueller Modellverbesserung und flächiger Überprüfung der Simulationsergebnisse genutzt. Die einzelnen Teilarbeiten tragen jeweils zur Dynamisierung von Klimafolgenanalysen im Elbegebiet bei. Der Anlass hierfür war durch die fehlerhaften methodischen Grundlagen von STARS gegeben. Die Sinnfälligkeit der Dynamisierung ist jedoch nicht an diesen konkreten Anlass gebunden, sondern beruht auf der grundlegenden Einsicht, dass Ad-hoc-Szenarienanalysen immer auch pragmatische Vereinfachungen zugrunde liegen, die fortlaufend überprüft werden müssen. N2 - The Elbe River basin is affected by climate change. To analyse the chain of effects of projected climate change on the water balance and the resulting nutrient emissions and loads in large river basins such as the Elbe, integrated environmental model systems can be applied. Case studies that are conducted ad hoc with these model systems represent the current state of model developments and uncertainties - therefore, they are static. This thesis describes access to a dynamisation of climate impact studies in the Elbe River basin. On the one hand, this comprises a verification of impact simulations that are conducted with scenarios from the statistical scenario generator STARS, with the impacts of newer climate scenarios from the ISI-MIP project, that represent state-of-the-art climate modelling. For this purpose, an integrated model system with a "frozen" development status is used. At the same time, the climate impact models remain unchanged. On the other hand, one component of the integrated model system - the ecohydrological model SWIM - is enhanced as a "live"-system. This is validated and improved by punctual testing with experimental long time series from a lysimeter site and with recent runoff time series. The following research questions are addressed: (i) What are the effects of different climate scenarios on the water balance in the Elbe River basin, and is a reassessment of the impacts of climate change on the water balance necessary?, (ii) What are the impacts of climate change on the nutrient emissions and loads in the Elbe River basin as well as the effectiveness of measures for reducing nutrient emissions?, (iii) Is a valid assessment of the actual ecohydrological situation in the Elbe River basin possible, using (only a small amount of) available day-to-day weather data in a highly heterogeneous river basin? The recent scenarios confirm the direction, but not the magnitude, of climate impacts: In the STARS scenario, the decrease in mean annual discharge and mean monthly stream ow until the middle of the century is approx. 30 %. However, the model studies based on the ISI-MIP scenarios show only a decrease of approx. 10 %. The main reason for this divergence can be attributed to differences in the precipitation projections and differences in the seasonal distribution of the warming. In the STARS scenario, the precipitation decreases due to the methodological principles applied and the warming in winter is stronger than in summer. In the ISI-MIP scenario, the precipitation is almost stable and the warming differs only slightly between summer and winter. In general, the nutrient emissions and loads decrease underproportionally with the river basin discharge in both scenarios, with loads declining more sharply than the emissions. The concrete effects of the change in river basin discharge are small, reaching only single-digit percentages. The same holds true for the difference between the scenarios. The effect of selected measures for the reduction of nutrient emissions and loads also differs only slightly between varying runoff conditions, represented by different climate scenarios with dry, mean and wet specifications. Answering the first two research questions shows that the actualisation of climate scenarios in an otherwise "frozen" combination of ecohydrological data and models represents an important testing option for the plausibilisation of climate impact studies. It forms the methodological basis for the conclusion that a reassessment of climate impact is necessary in terms of water quantity, whereas this is not the case for the nutrient emissions and loads. The validation studies that were conducted to answer the third research question show discrepancies at the lysimeter site and in the flows from the sub-catchments of the Saale and Spree Rivers. They can be explained in part by the low spatial density of the climate data and the influences from water-management practices. However, the validation results show that the pilot version of SWIM-live can already be used for an eco-hydrological assessment of the water balance in the Elbe River basin. SWIM-live provides an immediate visualisation and assessment of the simulated data. By this means, uncertainties in the simulations are directly revealed and can be reduced. On the one hand, a concentration of the meteorological input data using approx. 700 instead of 19 climate and precipitation stations leads to an improvement of the results. On the other hand, SWIM-live is used exemplarily for a cycle of punctual model improvement and spatial verification of the simulations. The individual parts of this thesis contribute to the dynamisation of climate impact studies in the Elbe River basin. The motivation for the study was the flawed methodological basis of STARS. Dynamisation is relevant not only for this reason, but is also based on the underlying understanding that ad hoc scenario analyses involve pragmatic simplifications that must be verified continuously. KW - Klimawandel KW - Wasserhaushalt KW - Nährstoffeinträge KW - tagesaktuelle Simulation KW - Elbe KW - climate change KW - water balance KW - nutrient emissions KW - simulation on a day-to-day-basis KW - Elbe Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98844 ER - TY - THES A1 - Schroth, Maximilian T1 - Microfinance and the enhancement of economic development in less developed countries T1 - Mikrofinanzierung und die Förderung wirtschaftlicher Entwicklung in weniger entwickelten Ländern N2 - It is the intention of this study to contribute to further rethinking and innovating in the Microcredit business which stands at a turning point – after around 40 years of practice it is endangered to fail as a tool for economic development and to become a doubtful finance product with a random scope instead. So far, a positive impact of Microfinance on the improvement of the lives of the poor could not be confirmed. Over-indebtment of borrowers due to the pre-dominance of consumption Microcredits has become a widespread problem. Furthermore, a rising number of abusive and commercially excessive practices have been reported. In fact, the Microfinance sector appears to suffer from a major underlying deficit: there does not exist a coherent and transparent understanding of its meaning and objectives so that Microfinance providers worldwide follow their own approaches of Microfinance which tend to differ considerably from each other. In this sense the study aims at consolidating the multi-faced and very often confusingly different Microcredit profiles that exist nowadays. Subsequently, in this study, the Microfinance spectrum will be narrowed to one clear-cut objective, in fact away from the mere monetary business transactions to poor people it has gradually been reduced to back towards a tool for economic development as originally envisaged by its pioneers. Hence, the fundamental research question of this study is whether, and under which conditions, Microfinance may attain a positive economic impact leading to an improvement of the living of the poor. The study is structured in five parts: the three main parts (II.-IV.) are surrounded by an introduction (I.) and conclusion (V.). In part II., the Microfinance sector is analysed critically aiming to identify the challenges persisting as well as their root causes. In the third part, a change to the macroeconomic perspective is undertaken in oder to learn about the potential and requirements of small-scale finance to enhance economic development, particularly within the economic context of less developed countries. By consolidating the insights gained in part IV., the elements of a new concept of Microfinance with the objecitve to achieve economic development of its borrowers are elaborated. Microfinance is a rather sensitive business the great fundamental idea of which is easily corruptible and, additionally, the recipients of which are predestined victims of abuse due to their limited knowledge in finance. It therefore needs to be practiced responsibly, but also according to clear cut definitions of its meaning and objectives all institutions active in the sector should be devoted to comply with. This is especially relevant as the demand for Microfinance services is expected to rise further within the years coming. For example, the recent refugee migration movement towards Europe entails a vast potential for Microfinance to enable these people to make a new start into economic life. This goes to show that Microfinance may no longer mainly be associated with a less developed economic context, but that it will gain importance as a financial instrument in the developed economies, too. N2 - Diese Studie soll einen Beitrag zur Grundlagenforschung in der Mikrofinanzierung leisten und zu Reflektion und Innovation im Mikrofinanzsektor anregen. Letzterer befindet sich zurzeit an einem Scheidepunkt: nach knapp 40 Jahren besteht die Gefahr, dass Mikrofinanzierung zu einem zweifelhaften Finanzprodukt ohne klare Richtung verkommt – anstatt sich als ein Mittel zur Förderung wirtschaftlicher Entwicklung zu etablieren. Bislang konnte noch kein Nachweis erbracht werden, dass Mikrofinanzierung einen positiven Einfluss auf die wirtschaftliche Entwicklung der Armen ausübt. Überschuldung der Kreditnehmer ist zu einem weit verbreiteten Problem geworden, die weite Mehrheit der Mikrokredite geht in den Konsum. Außerdem wird vielerorts über eine wachsende Anzahl missbräuchlicher Verleihpraktiken berichtet. Ein Hauptproblem scheint tatsächlich darin zu liegen, dass die Anbieter von Mikrofinanzdienstleistungen allesamt mit eigenen Mikrofinanzkonzepten arbeiten, die sich teilweise sehr stark voneinander unterscheiden. Ein kohärentes und transparentes Verständnis der Bedeutung und Zielsetzungen von Mikrofinanzierung liegt demnach nicht vor. Das Ziel dieser Studie ist daher, die vielschichtigen und oftmals verwirrenden Mikrokreditprofile zu konsolidieren. Das Spektrum von Mikrofinanzierung in dieser Studie soll auf ein klares Ziel eingegrenzt werden: weg von den wenig greifbaren Geldgeschäften für arme Haushalte hin zu einem Mittel zur Förderung der wirtschaftlichen Entwicklung wie ursprünglich von den Erschaffern der Mikrofinanzierung anvisiert. Die zentrale Forschungsfrage dieser Studie lautet daher, ob, und wenn ja, unter welchen Bedingungen, Mikrofinanzierung einen positiven Einfluss auf die wirtschaftliche Entwicklung und die Verbesserung des Lebens der Armen in weniger entwickelten Ländern ausüben kann. Die Studie gliedert sich in fünf Teile: Die drei Hauptteile (II.-IV.) sind eingerahmt von einer Einführung (I.) sowie einem Fazit (V.). In Teil II. wird der Mikrofinanzsektor kritisch analysiert. Es werden die aktuell bestehenden Probleme aufgezeigt und ihre möglichen Ursachen identifiziert. Im dritten Teil werden mithife einer makroökonomischen Betrachtungsweise Erkenntnisse über das Potenzial von Mikrofinanzierung zur Förderung wirtschaftlicher Entwicklung gesammelt. Ebenso über die dazu zu erfüllenden Anforderungen, insbesondere im Kontext weniger entwickelter Länder. In Teil IV. werden die Erkenntnisse konsolidiert und die Elemente eines neuen Mikrofinanzkonzept erarbeitet, das die Förderung der wirtschaftlichen Entwicklung der Kreditnehmer zum Ziel hat. Mikrofinanzierung ist ein sensibles Geschäft, dessen Grundidee leicht korrumpierbar ist und dessen Empfänger prädestinierte Opfer von Betrug und Missbrauch sind, da sie in der Regel über keinerlei Vorerfahrung in Finanzthemen verfügen. Es bedarf daher einer verantwortungsbewussten Praxis, die gleichermaßen nach klaren und transparenten Richtlinien bezüglich Bedeutung und Zielsetzungen ausgerichtet ist, nach denen sich alle aktiven Marktteilnehmer richten. Dies ist insbesondere auch deshalb relevant, da mit einer wachsenden Nachfrage nach Mikrokrediten in den nächsten Jahren zu rechnen ist. Beispielsweise stellt die aktuelle Flüchtlingsbewegung nach Europa ein riesiges Potenzial dar: Mikrokredite könnten den Grundstein für einen Neustart in das Berufsleben dieser Haushalte legen. Dies zeigt auch, dass Mikrofinanzierung nicht mehr ausschließlich mit dem Kontext weniger entwickelter Länder in Verbindung gebracht wird, sondern dass sie auch in den entwickelten Ländern an Bedeutung gewinnen wird. KW - microfinance KW - microcredits KW - money KW - capital market KW - impact KW - indirect help KW - economic development KW - crisis KW - over-indebtment KW - consumption KW - abuse KW - regulation KW - McKinnon KW - less developed countries KW - fragmentation KW - financial repression KW - complementary effect KW - investment KW - savings KW - banking accounts KW - domestic entrepreneurs KW - seed-financing KW - disposable capital KW - ordo-liberal policies KW - mobile banking KW - private wealth KW - foundations KW - impact investing KW - Mikrofinanzierung KW - Mikrokredite KW - Geld KW - Kapitalmarkt KW - Impact KW - indirekte Hilfe KW - wirtschaftliche Entwicklung KW - Krise KW - Überschuldung KW - Konsum KW - Missbrauch KW - Regulierung KW - McKinnon KW - weniger entwickelte Länder KW - Fragmentierung KW - finanzielle Unterdrückung KW - Komplementaritätseffekt KW - Investitionen KW - Sparen KW - Bankkonto KW - lokale Unternehmer KW - Gründungsfinanzierung KW - Kapitaldisposition KW - ordo-liberale Politik KW - mobile banking KW - Privatvermögen KW - Stiftungen KW - Impact Investing Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94735 ER - TY - THES A1 - Samaras, Stefanos T1 - Microphysical retrieval of non-spherical aerosol particles using regularized inversion of multi-wavelength lidar data T1 - Retrieval der Mikrophysik von nichtkugelförmigen Aerosolpartikeln durch regularisierte Inversion von Mehrwellenlängen-Lidardaten N2 - Numerous reports of relatively rapid climate changes over the past century make a clear case of the impact of aerosols and clouds, identified as sources of largest uncertainty in climate projections. Earth’s radiation balance is altered by aerosols depending on their size, morphology and chemical composition. Competing effects in the atmosphere can be further studied by investigating the evolution of aerosol microphysical properties, which are the focus of the present work. The aerosol size distribution, the refractive index, and the single scattering albedo are commonly used such properties linked to aerosol type, and radiative forcing. Highly advanced lidars (light detection and ranging) have reduced aerosol monitoring and optical profiling into a routine process. Lidar data have been widely used to retrieve the size distribution through the inversion of the so-called Lorenz-Mie model (LMM). This model offers a reasonable treatment for spherically approximated particles, it no longer provides, though, a viable description for other naturally occurring arbitrarily shaped particles, such as dust particles. On the other hand, non-spherical geometries as simple as spheroids reproduce certain optical properties with enhanced accuracy. Motivated by this, we adapt the LMM to accommodate the spheroid-particle approximation introducing the notion of a two-dimensional (2D) shape-size distribution. Inverting only a few optical data points to retrieve the shape-size distribution is classified as a non-linear ill-posed problem. A brief mathematical analysis is presented which reveals the inherent tendency towards highly oscillatory solutions, explores the available options for a generalized solution through regularization methods and quantifies the ill-posedness. The latter will improve our understanding on the main cause fomenting instability in the produced solution spaces. The new approach facilitates the exploitation of additional lidar data points from depolarization measurements, associated with particle non-sphericity. However, the generalization of LMM vastly increases the complexity of the problem. The underlying theory for the calculation of the involved optical cross sections (T-matrix theory) is computationally so costly, that would limit a retrieval analysis to an unpractical point. Moreover the discretization of the model equation by a 2D collocation method, proposed in this work, involves double integrations which are further time consuming. We overcome these difficulties by using precalculated databases and a sophisticated retrieval software (SphInX: Spheroidal Inversion eXperiments) especially developed for our purposes, capable of performing multiple-dataset inversions and producing a wide range of microphysical retrieval outputs. Hybrid regularization in conjunction with minimization processes is used as a basis for our algorithms. Synthetic data retrievals are performed simulating various atmospheric scenarios in order to test the efficiency of different regularization methods. The gap in contemporary literature in providing full sets of uncertainties in a wide variety of numerical instances is of major concern here. For this, the most appropriate methods are identified through a thorough analysis on an overall-behavior basis regarding accuracy and stability. The general trend of the initial size distributions is captured in our numerical experiments and the reconstruction quality depends on data error level. Moreover, the need for more or less depolarization points is explored for the first time from the point of view of the microphysical retrieval. Finally, our approach is tested in various measurement cases giving further insight for future algorithm improvements. N2 - Zahlreiche Berichte von relativ schnellen Klimaveränderungen im vergangenen Jahrhundert liefern überzeugende Argumente über die Auswirkungen von Aerosolen und Wolken auf Wetter und Klima. Aerosole und Wolken wurden als Quellen größter Unsicherheit in Klimaprognosen identifiziert. Die Strahlungsbilanz der Erde wird verändert durch die Partikelgröße, ihre Morphologie und ihre chemische Zusammensetzung. Konkurrierende Effekte in der Atmosphäre können durch die Bestimmung von mikrophysikalischen Partikeleigenschaften weiter untersucht werden, was der Fokus der vorliegenden Arbeit ist. Die Aerosolgrößenverteilung, der Brechungsindex der Partikeln und die Einzel-Streu-Albedo sind solche häufig verwendeten Parameter, die mit dem Aerosoltyp und dem Strahlungsantrieb verbunden sind. Hoch entwickelte Lidare (Light Detection and Ranging) haben die Aerosolüberwachung und die optische Profilierung zu einem Routineprozess gemacht. Lidar-Daten wurden verwendet um die Größenverteilung zu bestimmen, was durch die Inversion des sogenannten Lorenz-Mie-Modells (LMM) gelingt. Dieses Modell bietet eine angemessene Behandlung für sphärisch angenäherte Partikeln, es stellt aber keine brauchbare Beschreibung für andere natürlich auftretende beliebig geformte Partikeln -wie z.B. Staubpartikeln- bereit. Andererseits stellt die Einbeziehung einer nicht kugelförmigen Geometrie –wie z.B. einfache Sphäroide- bestimmte optische Eigenschaften mit verbesserter Genauigkeit dar. Angesichts dieser Tatsache erweitern wir das LMM durch die Approximation von Sphäroid-Partikeln. Dazu ist es notwendig den Begriff einer zweidimensionalen Größenverteilung einzuführen. Die Inversion einer sehr geringen Anzahl optischer Datenpunkte zur Bestimmung der Form der Größenverteilung ist als ein nichtlineares schlecht gestelltes Problem bekannt. Eine kurze mathematische Analyse wird vorgestellt, die die inhärente Tendenz zu stark oszillierenden Lösungen zeigt. Weiterhin werden Optionen für eine verallgemeinerte Lösung durch Regularisierungsmethoden untersucht und der Grad der Schlechtgestelltheit quantifiziert. Letzteres wird unser Verständnis für die Hauptursache der Instabilität bei den berechneten Lösungsräumen verbessern. Der neue Ansatz ermöglicht es uns, zusätzliche Lidar-Datenpunkte aus Depolarisationsmessungen zu nutzen, die sich aus der Nicht-sphärizität der Partikeln assoziieren. Die Verallgemeinerung des LMMs erhöht erheblich die Komplexität des Problems. Die zugrundeliegende Theorie für die Berechnung der beteiligten optischen Querschnitte (T-Matrix-Ansatz) ist rechnerisch so aufwendig, dass eine Neuberechnung dieser nicht sinnvoll erscheint. Darüber hinaus wird ein zweidimensionales Kollokationsverfahren für die Diskretisierung der Modellgleichung vorgeschlagen. Dieses Verfahren beinhaltet Doppelintegrationen, die wiederum zeitaufwendig sind. Wir überwinden diese Schwierigkeiten durch Verwendung vorgerechneter Datenbanken sowie einer hochentwickelten Retrieval-Software (SphInX: Spheroidal Inversion eXperiments). Diese Software wurde speziell für unseren Zweck entwickelt und ist in der Lage mehrere Datensatzinversionen gleichzeitig durchzuführen und eine große Auswahl von mikrophysikalischen Retrieval-Ausgaben bereitzustellen. Eine hybride Regularisierung in Verbindung mit einem Minimierungsverfahren wird als Grundlage für unsere Algorithmen verwendet. Synthetische Daten-Inversionen werden mit verschiedenen atmosphärischen Szenarien durchgeführt, um die Effizienz verschiedener Regularisierungsmethoden zu untersuchen. Die Lücke in der gegenwärtigen wissenschaftlichen Literatur gewisse Unsicherheiten durch breitgefächerte numerische Fälle bereitzustellen, ist ein Hauptanliegen dieser Arbeit. Motiviert davon werden die am besten geeigneten Verfahren einer gründlichen Analyse in Bezug auf ihr Gesamtverhalten, d.h. Genauigkeit und Stabilität, unterzogen. Der allgemeine Trend der Anfangsgrößenverteilung wird in unseren numerischen Experimenten erfasst. Zusätzlich hängt die Rekonstruktionsqualität vom Datenfehler ab. Darüber hinaus wird die Anzahl der notwendigen Depolarisationspunkte zum ersten Mal aus der Sicht des mikrophysikalischen Parameter-Retrievals erforscht. Abschließend verwenden wir unsere Software für verschiedene Messfälle, was weitere Einblicke für künftige Verbesserungen des Algorithmus gibt. KW - microphysics KW - retrieval KW - lidar KW - aerosols KW - regularization KW - ill-posed KW - inversion KW - Mikrophysik KW - Retrieval KW - Lidar KW - Aerosole KW - Regularisierung KW - schlecht gestellt KW - Inversion Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396528 ER - TY - THES A1 - Olivares Jara, René T1 - Mito y Modernidad en la obra de Rosamel del Valle T1 - Mythos und Moderne im Werk Rosamel del Valles T1 - Myth and modernity in the work of Rosamel del Valle N2 - La siguiente investigación aborda la relación entre mito y modernidad en la obra literaria (poemas, cuentos, novelas y crónicas) del autor chileno Rosamel del Valle (Curacaví, 1901 – Santiago de Chile, 1965). En sus distintos textos existe una tensión entre un proyecto poético basado en una visión mítica del mundo y un contexto histórico que privilegia posturas más racionalistas, relegando lo poético y lo mítico. Ya en el siglo XIX la modernidad y los fenómenos asociados de la modernización producen el desplazamiento de la poesía como discurso y del poeta como persona a una situación deficitaria dentro de la sociedad, lo que se extiende en el siglo XX. Debido a este conflicto Rosamel del Valle cuestiona en su obra los alcances de sus propios postulados, tanto estéticos como vitales. Esto conlleva una vacilación entre la reafirmación de su proyecto poético-vital y la consciencia del fracaso. Es por esto que la obra del poeta chileno contiene un Lebenswissen, que concibe a la poesía como una forma privilegiada de vida. Sin embargo, debido a las dificultades de las condiciones históricas es posible entender este Lebenswissen también como un ÜberLebenswissen (Ette). En la primera parte del texto se estudia la concepción mítica de la poesía de del Valle y se analiza los distintos niveles en los que aparece el mito en su obra literaria: como pensamiento, como lenguaje y como narración tradicional. La identificación de la poesía como mito muestra las principales características de la poética de del Valle: una concepción ontológica que diferencia entre una dimensión visible y otra invisible de la realidad; la tendencia mística de la poesía; una concepción cíclica del tiempo que funda una relación con los discursos de la memoria y de la muerte, así como la idea de un pasado utópico que por medio de la poesía podría revivir en el presente; además de la figura de la mujer cómo símbolo del amor y de la poesía. En la segunda parte se investiga la relación y las consecuencias de esta “poesía mítica” en el contexto de la modernidad. Se aborda especialmente el efecto en la poética de Rosamel del Valle de la Entzauberung der Welt (Weber), como experiencia específica de la época. Para esto se destaca ante todo sus impresiones sobre Nueva York. Esta ciudad en la que vivió y trabajó entre 1946 y 1963, se transforma en sus textos en un lugar en el que sería posible el “habitar poético del hombre” en la modernidad. N2 - Die folgende Forschung befasst sich mit der Beziehung zwischen Mythos und Moderne im literarischen Werk (Gedichte, Erzählungen, Romane und Chroniken) des chilenischen Autors Rosamel del Valle (Curacaví, 1901 – Santiago de Chile, 1965). In seinen verschieden Texten gibt es eine Spannung zwischen einem poetischen Projekt, das auf einer mythischen Weltanschauung basiert, und einem historischen Zusammenhang, der die rationalistischen Einstellungen privilegiert und das Poetische und das Mythische verdrängt. Bereits im 19. Jahrhundert bewirkte die Moderne und die assoziierten Phänomene der Modernisierung die Verschiebung der Poesie als Diskurs und des Dichters als Person innerhalb der Gesellschaft auf eine defizitäre Situation hin, die sich bis 20. Jahrhundert ausbreitete. Wegen dieses Konflikts fragt Rosamel del Valle in seinem Werk nach den ästhetischen und vitalen Tragweiten seiner eigenen Postulate. Das bringt ein Zögern zwischen dem Bewusstsein des Scheiterns und der erneuten Bekräftigung der Poesie als Wissensform mit sich. Deshalb beinhaltet das Werk des chilenischen Dichters ein Lebenswissen, das das poetische Projekt als eine privilegierte Lebensform begreift. Wegen der Schwierigkeiten der geschichtlichen Konditionen lässt sich dieses Lebenswissen auch als ein ÜberLebenswissen (Ette) verstehen. Im ersten Teil des Textes wird del Valles mythische Vorstellung der Poesie untersucht und die unterschiedlichen Ebenen analysiert, in denen der Mythos in seinem literarischen Werk erscheint: Denkweise, Sprachform und traditionelle Erzählung. Die Identifizierung von Poesie als Mythos zeigt die wichtigsten Eigenschaften der Poetik del Valles auf: eine ontologische Vorstellung, die zwischen einer sichtbaren und einer unsichtbaren Dimension der Realität differenziert; die mystische Tendenz der Dichtung; eine zyklische Vorstellung der Zeit, die eine Beziehung zu Gedächtnis- und Todesdiskursen begründet, sowie auch die Idee einer utopischen Vergangenheit, die in der Gegenwart durch die Poesie wieder aufleben könnte; außerdem, die Figur der Frau als Symbol der Liebe und der Poesie. Im zweiten Teil werden die Beziehung und die Auswirkung dieser „mythischen Poesie“ auf den Zusammenhang der Moderne untersucht. Insbesondere wird der Effekt der Poetik Rosamel del Valles als epochenspezifische Erfahrung der Entzauberung der Welt (Weber) aufgezeigt. Prägend waren hierfür vor allem seine Eindrücke von New York. Diese Stadt, in der er von 1946 bis 1963 lebte und arbeitete, wird in seinen Texten zu einem Ort, an dem ein „dichterisches Wohnen des Menschen“ in der Moderne möglich wird. N2 - The following research is about the relationship between myth and modernity in the literary work (poems, short stories, novels and chronicles) of the Chilean author Rosamel del Valle (Curacaví, 1901 - Santiago de Chile, 1965). In his diverse texts there is a tension between a poetic project based on a mythical worldview and a historical context that favors more rationalistic views, setting aside what is poetic and mythical. By the nineteenth century, the modernity and its correspondent associated phenomena of modernization caused a shift of poetry in terms of speech, and of the poet as the individual in a precarious situation inside the society, which is extended to the twentieth century. Due to this conflict Rosamel del Valle questions in his work the scope of his own principles both aesthetic and vital. This leads to a vacillation between the confirmation of his poetic-life project and the consciousness of failure. That is why the work of this Chilean poet contains a Lebenswissen, which conceives poetry as a privileged way of life. However, given the historical conditions difficulties it is possible to understand this Lebenswissen also as an ÜberLebenswissen (Ette). The mythical conception of del Valle poetry is studied in the first part of the text, and also the different levels at which the myth appears in his literary work are analyzed either as thoughts, language and a traditional narration. The identification of poetry and myth shows the main features of his poetics: an ontological conception distinguishing between a visible and an invisible dimension of reality; the mystical tendency of poetry; a cyclical conception of time that establishes a relationship with the discourses of memory and death, and the idea of a utopian past, which through poetry would revive in the present; moreover, the figure of the woman as a symbol of love and poetry. In the second part, the relationship and the consequences of this "mythical poetry" were investigated under the context of modernity. The effect of the Entzauberung der Welt (Weber) as the specific experience of those times on Rosamel del Valle’s poetics was especially discussed. For all the above mentioned, his impressions on New York were necessary to be pointed out since it was the city where he lived and worked between 1946 and 1963, which turned in his texts into a place where the “poetic dwelling of man” in modernity could be possible. KW - myth KW - poetry KW - modernity KW - Rosamel del Valle KW - avant-garde KW - Latin America KW - Mythos KW - Poesie KW - Moderne KW - Rosamel del Valle KW - Avantgarde KW - Lateinamerika KW - mito KW - modernidad KW - poesía KW - Rosamel del Valle KW - vanguardia KW - literatura Latinoamericana Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-86539 SN - 978-3-86956-357-2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Gutsch, Martin T1 - Model-based analysis of climate change impacts on the productivity of oak-pine forests in Brandenburg T1 - Modell-basierte Analyse der Auswirkungen des Klimawandels auf die Produktivität von Eichen-Kiefern-Mischbeständen in Brandenburg N2 - The relationship between climate and forest productivity is an intensively studied subject in forest science. This Thesis is embedded within the general framework of future forest growth under climate change and its implications for the ongoing forest conversion. My objective is to investigate the future forest productivity at different spatial scales (from a single specific forest stand to aggregated information across Germany) with focus on oak-pine forests in the federal state of Brandenburg. The overarching question is: how are the oak-pine forests affected by climate change described by a variety of climate scenarios. I answer this question by using a model based analysis of tree growth processes and responses to different climate scenarios with emphasis on drought events. In addition, a method is developed which considers climate change uncertainty of forest management planning. As a first 'screening' of climate change impacts on forest productivity, I calculated the change in net primary production on the base of a large set of climate scenarios for different tree species and the total area of Germany. Temperature increases up to 3 K lead to positive effects on the net primary production of all selected tree species. But, in water-limited regions this positive net primary production trend is dependent on the length of drought periods which results in a larger uncertainty regarding future forest productivity. One of the regions with the highest uncertainty of net primary production development is the federal state of Brandenburg. To enhance the understanding and ability of model based analysis of tree growth sensitivity to drought stress two water uptake approaches in pure pine and mixed oak-pine stands are contrasted. The first water uptake approach consists of an empirical function for root water uptake. The second approach is more mechanistic and calculates the differences of soil water potential along a soil-plant-atmosphere continuum. I assumed the total root resistance to vary at low, medium and high total root resistance levels. For validation purposes three data sets on different tree growth relevant time scales are used. Results show that, except the mechanistic water uptake approach with high total root resistance, all transpiration outputs exceeded observed values. On the other hand high transpiration led to a better match of observed soil water content. The strongest correlation between simulated and observed annual tree ring width occurred with the mechanistic water uptake approach and high total root resistance. The findings highlight the importance of severe drought as a main reason for small diameter increment, best supported by the mechanistic water uptake approach with high root resistance. However, if all aspects of the data sets are considered no approach can be judged superior to the other. I conclude that the uncertainty of future productivity of water-limited forest ecosystems under changing environmental conditions is linked to simulated root water uptake. Finally my study aimed at the impacts of climate change combined with management scenarios on an oak-pine forest to evaluate growth, biomass and the amount of harvested timber. The pine and the oak trees are 104 and 9 years old respectively. Three different management scenarios with different thinning intensities and different climate scenarios are used to simulate the performance of management strategies which explicitly account for the risks associated with achieving three predefined objectives (maximum carbon storage, maximum harvested timber, intermediate). I found out that in most cases there is no general management strategy which fits best to different objectives. The analysis of variance in the growth related model outputs showed an increase of climate uncertainty with increasing climate warming. Interestingly, the increase of climate-induced uncertainty is much higher from 2 to 3 K than from 0 to 2 K. N2 - Diese Arbeit befasst sich mit der Modellierung der Produktivität von Eichen-Kiefern Mischbeständen mit besonderem Fokus auf das Bundesland Brandenburg. Es werden drei Hauptfragen bearbeitet: a) wie verhält sich die Produktivität der beiden Baumarten im Vergleich zu den beiden anderen Hauptbaumarten Fichte und Buche im gesamtdeutschen Vergleich unter verschiedenen Klimaszenarien, b) wie wichtig ist der Prozess der Wasseraufnahme über die Wurzeln bei der Modellierung der Produktivität unter Bedingungen von Trockenjahren, c) wie lassen sich Unsicherheiten durch Bewirtschaftung und Klimaszenarien in der Modellierung der Eichen-Kiefern Mischbestände und bei nachfolgenden Entscheidungsprozessen berücksichtigen? Der methodische Schwerpunkt der Arbeit liegt auf der Modellierung. Im ersten Teil der Arbeit werden mit Hilfe von verschiedenen unabhängigen Umweltvariablen des Klimas und des Bodens Wirkungsbeziehungen zur Produktivität ermittelt, die Aussagen zur Veränderung der Produktivität in Abhängigkeit dieser Umweltvariablen erlauben. Damit können verschiedene Regionen in Deutschland auf ihre Sensitivität der Produktivität gegenüber verschiedenen Klimaszenarien hin untersucht werden. Im zweiten Teil werden innerhalb eines prozess-basierten Waldwachstumsmodell 4C zwei unterschiedliche Ansätze der Wasseraufnahme über die Wurzeln analysiert. Dabei werden Messdaten zur Transpiration, zu Bodenwassergehalten und zu Durchmesserzuwächsen auf Basis von Jahrringchronologien zur Überprüfung herangezogen. Der erste Ansatz ist eine empirisch abgeleitete Gleichung, die die Wasseraufnahme in Abhängigkeit des Wassergehalts beschreibt. Der zweite Ansatz berücksichtigt die unterschiedlichen Druckpotenziale sowie einzelne Widerstände entlang des Wasserflusses vom Boden über die Pflanze in die Atmosphäre. Im dritten Teil der Arbeit wird das Waldwachstumsmodell angewendet und eine Auswahlmethodik vorgestellt, die Entscheidungen bei Unsicherheit erlaubt. Dabei werden die vorhandenen Unsicherheiten, hervorgerufen durch Bewirtschaftung und Klima, in den Prozess der Entscheidungsfindung quantitativ mit einbezogen. Drei verschiedene Bewirtschaftungsstrategien, die unterschiedliche Durchforstungsstärken beinhalten, werden simuliert und ihr Erreichen von drei vorher festgelegten Ziele (maximale Kohlenstoffspeicherung im Bestand, maximale Holzernte, moderates Ziel hinsichtlich Kohlenstoffspeicherung und Holzernte) untersucht. Bezogen auf die erste Frage ergibt die Arbeit zwei wesentliche Ergebnisse. Eine Temperaturerhöhung bis zu drei Kelvin bis 2060 führt zu positiven Ergebnissen in der Produktivität von Eichen-, Kiefern-, Buchen- und Fichtenbeständen. Allerdings ist in niederschlagsarmen Regionen, wie im nordostdeutschen Tiefland, dieser positive Trend stark abhängig von der Länge der Trockenperioden innerhalb der Vegetationszeit. Demzufolge ist die Produktivitätsveränderung der vier Baumarten im Land Brandenburg mit der höchsten Unsicherheit im Vergleich zu den anderen Bundesländern verbunden. Zur zweiten Frage gibt die Arbeit zwei wesentliche Ergebnisse. Im Vergleich mit den Messdaten auf unterschiedlicher zeitlicher und physiologischer Ebene kann kein Ansatz ermittelt werden, der jeweils das bessere Ergebnis erzielt. Im Vergleich von Transpiration, Bodenwassergehalt und Trockenjahren ergeben sich zwar etwas bessere Ergebnisse für den prozess-basierten gegenüber dem empirischen Ansatz, doch sind diese sehr stark abhängig vom angenommenen Wurzelwiderstand. Dieser ist schwer zu bestimmen und verhindert bisher eine breite Anwendung des Ansatzes innerhalb der Waldwachstumsmodelle. Hier ist weiterer Forschungsbedarf vorhanden um bei der Modellierung der Auswirkungen von Trockenjahren auf die Produktivität die Modellunsicherheit zu verringern. Für die letzte Frage ergeben sich ebenso interessante Ergebnisse. Keine Durchforstungsstrategie kann alle drei Zielstellungen erfüllen. Die Methodik erlaubt aber ein großes Maß an Objektivität beim Vergleich der unterschiedlichen Bewirtschaftungsstrategien unter der Unsicherheit der Klimaszenarien. Die Varianz, bezogen auf Ergebnisse zur Bestandesbiomasse, Holzernte und zum jährlichen Holzzuwachs, steigt mit steigender Klimaerwärmung. Dabei ist der Anstieg in der Varianz größer bei einem Temperaturanstieg von zwei Kelvin auf drei Kelvin als von null Kelvin auf zwei Kelvin. Das heißt, Auswirkungen einer Klimaerwärmung verlaufen hier nicht linear. KW - climate change KW - forest management KW - forest growth modelling KW - scenario analysis KW - water uptake KW - Klimawandel KW - Klimaauswirkung KW - Forstwirtschaft KW - Waldbewirtschaftung KW - Waldwachstumsmodellierung KW - Unsicherheit Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-97241 ER - TY - THES A1 - Wätzoldt, Sebastian T1 - Modeling collaborations in adaptive systems of systems T1 - Modellierung von Kollaborationen für adaptive Systeme von Systemen N2 - Recently, due to an increasing demand on functionality and flexibility, beforehand isolated systems have become interconnected to gain powerful adaptive Systems of Systems (SoS) solutions with an overall robust, flexible and emergent behavior. The adaptive SoS comprises a variety of different system types ranging from small embedded to adaptive cyber-physical systems. On the one hand, each system is independent, follows a local strategy and optimizes its behavior to reach its goals. On the other hand, systems must cooperate with each other to enrich the overall functionality to jointly perform on the SoS level reaching global goals, which cannot be satisfied by one system alone. Due to difficulties of local and global behavior optimizations conflicts may arise between systems that have to be solved by the adaptive SoS. This thesis proposes a modeling language that facilitates the description of an adaptive SoS by considering the adaptation capabilities in form of feedback loops as first class entities. Moreover, this thesis adopts the Models@runtime approach to integrate the available knowledge in the systems as runtime models into the modeled adaptation logic. Furthermore, the modeling language focuses on the description of system interactions within the adaptive SoS to reason about individual system functionality and how it emerges via collaborations to an overall joint SoS behavior. Therefore, the modeling language approach enables the specification of local adaptive system behavior, the integration of knowledge in form of runtime models and the joint interactions via collaboration to place the available adaptive behavior in an overall layered, adaptive SoS architecture. Beside the modeling language, this thesis proposes analysis rules to investigate the modeled adaptive SoS, which enables the detection of architectural patterns as well as design flaws and pinpoints to possible system threats. Moreover, a simulation framework is presented, which allows the direct execution of the modeled SoS architecture. Therefore, the analysis rules and the simulation framework can be used to verify the interplay between systems as well as the modeled adaptation effects within the SoS. This thesis realizes the proposed concepts of the modeling language by mapping them to a state of the art standard from the automotive domain and thus, showing their applicability to actual systems. Finally, the modeling language approach is evaluated by remodeling up to date research scenarios from different domains, which demonstrates that the modeling language concepts are powerful enough to cope with a broad range of existing research problems. N2 - Seit einiger Zeit führen ein ansteigender Bedarf nach erweiterter Systemfunktionalität und deren flexible Verwendung zu vernetzten Systemen, die sich zu einem übergeordneten adaptiven System von Systemen (SoS) zusammenschließen. Dieser SoS Zusammenschluss zeigt ein gewünschtes, robustes und flexibles Gesamtverhalten, welches sich aus der Funktionalität der einzelnen Systeme zusammensetzt. Das SoS beinhaltet eine Vielzahl von verschiedenen Systemarten, die sich von eingebetteten bis hin zu Cyber-Physical Systems erstrecken. Einerseits optimiert jedes einzelne System sein Verhalten bezüglich lokaler Ziele. Anderseits müssen die Systeme miteinander interagieren, um neue, zusammengesetzte Funktionalitäten bereitzustellen und damit vorgegebene SoS Ziele zu erreichen, welche durch ein einzelnes System nicht erfüllt werden können. Die Schwierigkeit besteht nun darin, Konflikte zwischen lokalen und globalen Verhaltensstrategien zwischen Systemen innerhalb des SoS zu beseitigen. Diese Doktorarbeit stellt eine Modellierungssprache vor, welche für die Beschreibung von adaptiven SoS geeignet ist. Dabei berücksichtigt die Modellierungssprache die Adaptionslogik des SoS in Form von periodischen Adaptationsschleifen als primäres Sprachkonstrukt. Außerdem übernimmt diese Arbeit den Models@runtime Ansatz, um verfügbares Systemwissen als Laufzeitmodelle in die Adaptationslogik des Systems zu integrieren. Weiterhin liegt der Fokus der Modellierungssprache auf der Beschreibung von Systeminteraktionen innerhalb des SoS. Dies ermöglicht Schlussfolgerungen von individuellem Systemverhalten sowie deren Aggregation zu kollaborativem Verhalten im Kontext von Systeminteraktionen im SoS. Damit unterstützt die entwickelte Modellierungssprache die Beschreibung von lokalem adaptivem Verhalten, die Integration von Wissen über die Modellierung von Laufzeitmodellen und Systeminteraktionen in Form von kollaborativem Verhalten. Alle drei Aspekte werden in die adaptive SoS Architektur integriert. Neben der entwickelten Modellierungssprache führt diese Doktorarbeit Analyseregeln zur Untersuchung des modellierten SoS ein. Diese Regeln ermöglichen die Erkennung von Architekturmustern und möglichen Schwächen im Systementwurf. Zusätzlich wird eine Simulationsumgebung für die Modellierungssprache präsentiert, welche die direkte Ausführung von einer modellierten SoS Architektur erlaubt. Die Analyseregeln und die Simulationsumgebung dienen demnach sowohl der Verifizierung von Systeminteraktionen als auch der spezifizierten Adaptationslogik innerhalb des SoS. Die vorliegende Arbeit implementiert die vorgestellten Konzepte der Modellierungssprache durch deren Abbildung auf einen aktuellen Standard im Automobilbereich und zeigt damit die Anwendbarkeit der Sprache auf gegenwärtige Systeme. Zum Schluss findet eine Evaluierung der Modellierungssprache statt, wobei aktuelle Forschungsszenarien aus unterschiedlichen Bereichen erneut mit der vorgestellten Sprache modelliert werden. Dies zeigt, dass die Modellierungskonzepte geeignet sind, um weite Bereiche existierender Forschungsprobleme zu bewältigen. KW - deurema modeling language KW - adaptive systems KW - systems of systems KW - runtime models KW - feedback loop modeling KW - collaborations KW - Deurema Modellierungssprache KW - Kollaborationen KW - adaptive Systeme KW - Systeme von Systemen KW - Laufzeitmodelle KW - Feedback Loop Modellierung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-97494 ER - TY - THES A1 - Höllerer, Reinhard T1 - Modellierung und Optimierung von Bürgerdiensten am Beispiel der Stadt Landshut T1 - Modeling and optimization of civil services on the example of the city of Landshut N2 - Die Projektierung und Abwicklung sowie die statische und dynamische Analyse von Geschäftsprozessen im Bereich des Verwaltens und Regierens auf kommunaler, Länder- wie auch Bundesebene mit Hilfe von Informations- und Kommunikationstechniken beschäftigen Politiker und Strategen für Informationstechnologie ebenso wie die Öffentlichkeit seit Langem. Der hieraus entstandene Begriff E-Government wurde in der Folge aus den unterschiedlichsten technischen, politischen und semantischen Blickrichtungen beleuchtet. Die vorliegende Arbeit konzentriert sich dabei auf zwei Schwerpunktthemen: • Das erste Schwerpunktthema behandelt den Entwurf eines hierarchischen Architekturmodells, für welches sieben hierarchische Schichten identifiziert werden können. Diese erscheinen notwendig, aber auch hinreichend, um den allgemeinen Fall zu beschreiben. Den Hintergrund hierfür liefert die langjährige Prozess- und Verwaltungserfahrung als Leiter der EDV-Abteilung der Stadtverwaltung Landshut, eine kreisfreie Stadt mit rund 69.000 Einwohnern im Nordosten von München. Sie steht als Repräsentant für viele Verwaltungsvorgänge in der Bundesrepublik Deutschland und ist dennoch als Analyseobjekt in der Gesamtkomplexität und Prozessquantität überschaubar. Somit können aus der Analyse sämtlicher Kernabläufe statische und dynamische Strukturen extrahiert und abstrakt modelliert werden. Die Schwerpunkte liegen in der Darstellung der vorhandenen Bedienabläufe in einer Kommune. Die Transformation der Bedienanforderung in einem hierarchischen System, die Darstellung der Kontroll- und der Operationszustände in allen Schichten wie auch die Strategie der Fehlererkennung und Fehlerbehebung schaffen eine transparente Basis für umfassende Restrukturierungen und Optimierungen. Für die Modellierung wurde FMC-eCS eingesetzt, eine am Hasso-Plattner-Institut für Softwaresystemtechnik GmbH (HPI) im Fachgebiet Kommunikationssysteme entwickelte Methodik zur Modellierung zustandsdiskreter Systeme unter Berücksichtigung möglicher Inkonsistenzen (Betreuer: Prof. Dr.-Ing. Werner Zorn [ZW07a, ZW07b]). • Das zweite Schwerpunktthema widmet sich der quantitativen Modellierung und Optimierung von E-Government-Bediensystemen, welche am Beispiel des Bürgerbüros der Stadt Landshut im Zeitraum 2008 bis 2015 durchgeführt wurden. Dies erfolgt auf Basis einer kontinuierlichen Betriebsdatenerfassung mit aufwendiger Vorverarbeitung zur Extrahierung mathematisch beschreibbarer Wahrscheinlichkeitsverteilungen. Der hieraus entwickelte Dienstplan wurde hinsichtlich der erzielbaren Optimierungen im dauerhaften Echteinsatz verifiziert. [ZW07a] Zorn, Werner: «FMC-QE A New Approach in Quantitative Modeling», Vortrag anlässlich: MSV'07- The 2007 International Conference on Modeling, Simulation and Visualization Methods WorldComp2007, Las Vegas, 28.6.2007. [ZW07b] Zorn, Werner: «FMC-QE, A New Approach in Quantitative Modeling», Veröffentlichung, Hasso-Plattner-Institut für Softwaresystemtechnik an der Universität Potsdam, 28.6.2007. N2 - The project development and implementation as well as the static and dynamic analysis of business processes in the context of administration and governance on a municipal, federal state or national level by information and communication technology, has concerned the media along with politicians and strategists for information technology as well as the general public for a long time. The here-from defined term of E-Government has been examined as the focal point of discussion from most diverse technical, political and semantic perspectives. The present work focuses on two main topics: • The first main topic approaches the development of a hierarchical architecture model for which seven hierarchical layers can be identified. These seem to be necessary as well as sufficient to describe the general case. The background is provided by the long-term processual and administrative experience as head of the IT department at the municipality of Landshut, an independent city with 69.000 inhabitants located in the north-east of Munich. It is representative of many administrative processes in the Federal Republic of Germany, but nonetheless still manageable concerning its complexity and quantity of processes. Therefore, static and dynamic structures can be extracted from the analysis of all core workflows and modelled abstractly. The emphases lie on the description of the existing operating procedures in a municipality. The transformation of the operating requirements in a hierarchical system, the modeling of the control and operational states within all layers, as well as the strategy of error recognition and troubleshooting create a transparent basis for extensive restructuring and optimisation. For modeling was used FMC-eCS, a methodology for the description of state discrete systems, developed at the Hasso-Plattner-Institute for Software Systems Engineering (HPI) in the subject area of communication systems. Furthermore inconsistent system statuses are taken into consideration (advisor: Prof. Dr.-Ing. Werner Zorn [ZW02, …, ZW10]). • The second main topic focuses on the quantitative modeling and optimisation of the E-Government process chain at Landshut´s Citizens Advice Bureau (2008 up to 2015). This is based on a continuous data acquisition with sophisticated pre-processing to extract mathematically describable probability distributions. The derivation of a duty roster for actual application and a quality control conclusively verify the developed stochastic method. KW - E-Government KW - Modellierung KW - Optimierung KW - eGovernment KW - modeling KW - optimization Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-425986 ER - TY - THES A1 - Wichitsa-nguan, Korakot T1 - Modifications and extensions of the logistic regression and Cox model T1 - Modifikationen und Erweiterungen des logistischen Regressionsmodells und des Cox-Modells N2 - In many statistical applications, the aim is to model the relationship between covariates and some outcomes. A choice of the appropriate model depends on the outcome and the research objectives, such as linear models for continuous outcomes, logistic models for binary outcomes and the Cox model for time-to-event data. In epidemiological, medical, biological, societal and economic studies, the logistic regression is widely used to describe the relationship between a response variable as binary outcome and explanatory variables as a set of covariates. However, epidemiologic cohort studies are quite expensive regarding data management since following up a large number of individuals takes long time. Therefore, the case-cohort design is applied to reduce cost and time for data collection. The case-cohort sampling collects a small random sample from the entire cohort, which is called subcohort. The advantage of this design is that the covariate and follow-up data are recorded only on the subcohort and all cases (all members of the cohort who develop the event of interest during the follow-up process). In this thesis, we investigate the estimation in the logistic model for case-cohort design. First, a model with a binary response and a binary covariate is considered. The maximum likelihood estimator (MLE) is described and its asymptotic properties are established. An estimator for the asymptotic variance of the estimator based on the maximum likelihood approach is proposed; this estimator differs slightly from the estimator introduced by Prentice (1986). Simulation results for several proportions of the subcohort show that the proposed estimator gives lower empirical bias and empirical variance than Prentice's estimator. Then the MLE in the logistic regression with discrete covariate under case-cohort design is studied. Here the approach of the binary covariate model is extended. Proving asymptotic normality of estimators, standard errors for the estimators can be derived. The simulation study demonstrates the estimation procedure of the logistic regression model with a one-dimensional discrete covariate. Simulation results for several proportions of the subcohort and different choices of the underlying parameters indicate that the estimator developed here performs reasonably well. Moreover, the comparison between theoretical values and simulation results of the asymptotic variance of estimator is presented. Clearly, the logistic regression is sufficient for the binary outcome refers to be available for all subjects and for a fixed time interval. Nevertheless, in practice, the observations in clinical trials are frequently collected for different time periods and subjects may drop out or relapse from other causes during follow-up. Hence, the logistic regression is not appropriate for incomplete follow-up data; for example, an individual drops out of the study before the end of data collection or an individual has not occurred the event of interest for the duration of the study. These observations are called censored observations. The survival analysis is necessary to solve these problems. Moreover, the time to the occurence of the event of interest is taken into account. The Cox model has been widely used in survival analysis, which can effectively handle the censored data. Cox (1972) proposed the model which is focused on the hazard function. The Cox model is assumed to be λ(t|x) = λ0(t) exp(β^Tx) where λ0(t) is an unspecified baseline hazard at time t and X is the vector of covariates, β is a p-dimensional vector of coefficient. In this thesis, the Cox model is considered under the view point of experimental design. The estimability of the parameter β0 in the Cox model, where β0 denotes the true value of β, and the choice of optimal covariates are investigated. We give new representations of the observed information matrix In(β) and extend results for the Cox model of Andersen and Gill (1982). In this way conditions for the estimability of β0 are formulated. Under some regularity conditions, ∑ is the inverse of the asymptotic variance matrix of the MPLE of β0 in the Cox model and then some properties of the asymptotic variance matrix of the MPLE are highlighted. Based on the results of asymptotic estimability, the calculation of local optimal covariates is considered and shown in examples. In a sensitivity analysis, the efficiency of given covariates is calculated. For neighborhoods of the exponential models, the efficiencies have then been found. It is appeared that for fixed parameters β0, the efficiencies do not change very much for different baseline hazard functions. Some proposals for applicable optimal covariates and a calculation procedure for finding optimal covariates are discussed. Furthermore, the extension of the Cox model where time-dependent coefficient are allowed, is investigated. In this situation, the maximum local partial likelihood estimator for estimating the coefficient function β(·) is described. Based on this estimator, we formulate a new test procedure for testing, whether a one-dimensional coefficient function β(·) has a prespecified parametric form, say β(·; ϑ). The score function derived from the local constant partial likelihood function at d distinct grid points is considered. It is shown that the distribution of the properly standardized quadratic form of this d-dimensional vector under the null hypothesis tends to a Chi-squared distribution. Moreover, the limit statement remains true when replacing the unknown ϑ0 by the MPLE in the hypothetical model and an asymptotic α-test is given by the quantiles or p-values of the limiting Chi-squared distribution. Finally, we propose a bootstrap version of this test. The bootstrap test is only defined for the special case of testing whether the coefficient function is constant. A simulation study illustrates the behavior of the bootstrap test under the null hypothesis and a special alternative. It gives quite good results for the chosen underlying model. References P. K. Andersen and R. D. Gill. Cox's regression model for counting processes: a large samplestudy. Ann. Statist., 10(4):1100{1120, 1982. D. R. Cox. Regression models and life-tables. J. Roy. Statist. Soc. Ser. B, 34:187{220, 1972. R. L. Prentice. A case-cohort design for epidemiologic cohort studies and disease prevention trials. Biometrika, 73(1):1{11, 1986. N2 - In vielen statistischen Anwendungen besteht die Aufgabe darin, die Beziehung zwischen Einflussgrößen und einer Zielgröße zu modellieren. Die Wahl eines geeigneten Modells hängt vom Typ der Zielgröße und vom Ziel der Untersuchung ab - während lineare Modelle für die Beschreibung des Zusammenhanges stetiger Outputs und Einflussgrößen genutzt werden, dienen logistische Regressionsmodelle zur Modellierung binärer Zielgrößen und das Cox-Modell zur Modellierung von Lebendauer-Daten. In epidemiologischen, medizinischen, biologischen, sozialen und ökonomischen Studien wird oftmals die logistische Regression angewendet, um den Zusammenhang zwischen einer binären Zielgröße und den erklärenden Variablen, den Kovariaten, zu modellieren. In epidemiologischen Studien muss häufig eine große Anzahl von Individuen für eine lange Zeit beobachtet werden. Um hierbei Kosten zu reduzieren, wird ein "Case-Cohort-Design" angewendet. Hierbei werden die Einflussgrößen nur für die Individuen erfasst, für die das interessierende Ereignis eintritt, und für eine zufällig gewählte kleine Teilmenge von Individuen, die Subkohorte. In der vorliegenden Arbeit wird das Schätzen im logistischen Regressionsmodell unter Case-Cohort-Design betrachtet. Für den Fall, dass auch die Kovariate binär ist, wurde bereits von Prentice (1986) die asymptotische Normalität des Maximum-Likelihood-Schätzers für den Logarithmus des "odds ratio", einen Parameter, der den Effekt der Kovariate charakterisiert, angegeben. In dieser Arbeit wird über einen Maximum-Likelihood-Zugang ein Schätzer für die Varianz der Grenzverteilung hergeleitet, für den durch empirische Untersuchungen gezeigt wird, dass er dem von Prentice überlegen ist. Ausgehend von dem binärem Kovariate-Modell werden Maximum-Likelihood-Schätzer für logistische Regressionsmodelle mit diskreten Kovariaten unter Case-Cohort-Design hergeleitet. Die asymptotische Normalität wird gezeigt; darauf aufbauend können Formeln für die Standardfehler angegeben werden. Simulationsstudien ergänzen diesen Abschnitt. Sie zeigen den Einfluss des Umfanges der Subkohorte auf die Varianz der Schätzer. Logistische Regression ist geeignet, wenn man das interessierende Ereignis für alle Individuen beobachten kann und wenn man ein festes Zeitintervall betrachtet. Will man die Zeit bis zum Eintreten eines Ereignisses bei der Untersuchung der Wirkung der Kovariate berücksichtigen, so sind Lebensdauermodelle angemessen. Hierbei können auch zensierte Daten behandelt werden. Ein sehr häufig angewendetes Regressionsmodell ist das von Cox (1972) vorgeschlagene, bei dem die Hazardrate durch λ(t|x) = λ0(t) exp(β^Tx) definiert ist. Hierbei ist λ0(t) eine unspezifizierte Baseline-Hazardrate und X ist ein Kovariat-Vektor, β ist ein p-dimensionaler Koeffizientenvektor. Nachdem ein Überblick über das Schätzen und Testen im Cox-Modell und seinen Erweiterungen gegeben wird, werden Aussagen zur Schätzbarkeit des Parameters β durch die "partiallikelihood"- Methode hergeleitet. Grundlage hierzu sind neue Darstellungen der beobachteten Fisher-Information, die die Ergebnisse von Andersen and Gill (1982) erweitern. Unter Regularitätsbedingungen ist der Schätzer asymptotisch normal; die Inverse der Grenzmatrix der Fisher-Information ist die Varianzmatrix der Grenzverteilung. Bedingungen für die Nichtsingularität dieser Grenzmatrix führen zum Begriff der asymptotischen Schätzbarkeit, der in der vorliegenden Arbeit ausführlich untersucht wird. Darüber hinaus ist diese Matrix Grundlage für die Herleitung lokal optimaler Kovariate. In einer Sensitivitätsanalyse wird die Effizienz gewählter Kovariate berechnet. Die Berechnungen zeigen, dass die Baseline-Verteilung nur wenig Einfluss auf die Effizienz hat. Entscheidend ist die Wahl der Kovariate. Es werden einige Vorschläge für anwendbare optimale Kovariate und Berechnungsverfahren für das Auffinden optimaler Kovariate diskutiert. Eine Erweiterung des Cox-Modells besteht darin, zeitabhängige Koeffizienten zuzulassen. Da diese Koeffizientenfunktionen nicht näher spezifiziert sind, werden sie nichtparametrisch geschätzt. Eine mögliche Methode ist die "local-linear-partial-likelihood"-Methode, deren Eigenschaften beispielsweise in der Arbeit von Cai and Sun (2003) untersucht wurden. In der vorliegenden Arbeit werden Simulationen zu dieser Methode durchgeführt. Hauptaspekt ist das Testen der Koeffizientenfunktion. Getestet wird, ob diese Funktion eine bestimmte parametrische Form besitzt. Betrachtet wird der Score-Vektor, der von der "localconstant-partial-likelihood"-Funktion abgeleitet wird. Ausgehend von der asymptotischen Normalität dieses Vektors an verschiedenen Gitterpunkten kann gezeigt werden, dass die Verteilung der geeignet standardisierten quadratischen Form unter der Nullhypothese gegen eine Chi-Quadrat-Verteilung konvergiert. Die Eigenschaften des auf dieser Grenzverteilungsaussage aufbauenden Tests hängen nicht nur vom Stichprobenumfang, sondern auch vom verwendeten Glättungsparameter ab. Deshalb ist es sinnvoll, auch einen Bootstrap-Test zu betrachten. In der vorliegenden Arbeit wird ein Bootstrap-Test zum Testen der Hypothese, dass die Koeffizienten-Funktion konstant ist, d.h. dass das klassische Cox-Modell vorliegt, vorgeschlagen. Der Algorithmus wird angegeben. Simulationen zum Verhalten dieses Tests unter der Nullhypothese und einer speziellen Alternative werden durchgeführt. Literatur P. K. Andersen and R. D. Gill. Cox's regression model for counting processes: a large sample study. Ann. Statist., 10(4):1100{1120, 1982. Z. Cai and Y. Sun. Local linear estimation for time-dependent coefficients in Cox's regression models. Scand. J. Statist., 30(1):93-111, 2003. D. R. Cox. Regression models and life-tables. J. Roy. Statist. Soc. Ser. B, 34:187-220, 1972. R. L. Prentice. A case-cohort design for epidemiologic cohort studies and disease prevention trials. Biometrika, 73(1):1-11, 1986. KW - survival analysis KW - Cox model KW - logistic regression analysis KW - logistische Regression KW - Case-Cohort-Design KW - Cox-Modell Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90033 ER - TY - THES A1 - Ulaganathan, Vamseekrishna T1 - Molecular fundamentals of foam fractionation T1 - Molekulare Grundlagen der Schaumfraktionierung N2 - Foam fractionation of surfactant and protein solutions is a process dedicated to separate surface active molecules from each other due to their differences in surface activities. The process is based on forming bubbles in a certain mixed solution followed by detachment and rising of bubbles through a certain volume of this solution, and consequently on the formation of a foam layer on top of the solution column. Therefore, systematic analysis of this whole process comprises of at first investigations dedicated to the formation and growth of single bubbles in solutions, which is equivalent to the main principles of the well-known bubble pressure tensiometry. The second stage of the fractionation process includes the detachment of a single bubble from a pore or capillary tip and its rising in a respective aqueous solution. The third and final stage of the process is the formation and stabilization of the foam created by these bubbles, which contains the adsorption layers formed at the growing bubble surface, carried up and gets modified during the bubble rising and finally ends up as part of the foam layer. Bubble pressure tensiometry and bubble profile analysis tensiometry experiments were performed with protein solutions at different bulk concentrations, solution pH and ionic strength in order to describe the process of accumulation of protein and surfactant molecules at the bubble surface. The results obtained from the two complementary methods allow understanding the mechanism of adsorption, which is mainly governed by the diffusional transport of the adsorbing protein molecules to the bubble surface. This mechanism is the same as generally discussed for surfactant molecules. However, interesting peculiarities have been observed for protein adsorption kinetics at sufficiently short adsorption times. First of all, at short adsorption times the surface tension remains constant for a while before it decreases as expected due to the adsorption of proteins at the surface. This time interval is called induction time and it becomes shorter with increasing protein bulk concentration. Moreover, under special conditions, the surface tension does not stay constant but even increases over a certain period of time. This so-called negative surface pressure was observed for BCS and BLG and discussed for the first time in terms of changes in the surface conformation of the adsorbing protein molecules. Usually, a negative surface pressure would correspond to a negative adsorption, which is of course impossible for the studied protein solutions. The phenomenon, which amounts to some mN/m, was rather explained by simultaneous changes in the molar area required by the adsorbed proteins and the non-ideality of entropy of the interfacial layer. It is a transient phenomenon and exists only under dynamic conditions. The experiments dedicated to the local velocity of rising air bubbles in solutions were performed in a broad range of BLG concentration, pH and ionic strength. Additionally, rising bubble experiments were done for surfactant solutions in order to validate the functionality of the instrument. It turns out that the velocity of a rising bubble is much more sensitive to adsorbing molecules than classical dynamic surface tension measurements. At very low BLG or surfactant concentrations, for example, the measured local velocity profile of an air bubble is changing dramatically in time scales of seconds while dynamic surface tensions still do not show any measurable changes at this time scale. The solution’s pH and ionic strength are important parameters that govern the measured rising velocity for protein solutions. A general theoretical description of rising bubbles in surfactant and protein solutions is not available at present due to the complex situation of the adsorption process at a bubble surface in a liquid flow field with simultaneous Marangoni effects. However, instead of modelling the complete velocity profile, new theoretical work has been started to evaluate the maximum values in the profile as characteristic parameter for dynamic adsorption layers at the bubble surface more quantitatively. The studies with protein-surfactant mixtures demonstrate in an impressive way that the complexes formed by the two compounds change the surface activity as compared to the original native protein molecules and therefore lead to a completely different retardation behavior of rising bubbles. Changes in the velocity profile can be interpreted qualitatively in terms of increased or decreased surface activity of the formed protein-surfactant complexes. It was also observed that the pH and ionic strength of a protein solution have strong effects on the surface activity of the protein molecules, which however, could be different on the rising bubble velocity and the equilibrium adsorption isotherms. These differences are not fully understood yet but give rise to discussions about the structure of protein adsorption layer under dynamic conditions or in the equilibrium state. The third main stage of the discussed process of fractionation is the formation and characterization of protein foams from BLG solutions at different pH and ionic strength. Of course a minimum BLG concentration is required to form foams. This minimum protein concentration is a function again of solution pH and ionic strength, i.e. of the surface activity of the protein molecules. Although at the isoelectric point, at about pH 5 for BLG, the hydrophobicity and hence the surface activity should be the highest, the concentration and ionic strength effects on the rising velocity profile as well as on the foamability and foam stability do not show a maximum. This is another remarkable argument for the fact that the interfacial structure and behavior of BLG layers under dynamic conditions and at equilibrium are rather different. These differences are probably caused by the time required for BLG molecules to adapt respective conformations once they are adsorbed at the surface. All bubble studies described in this work refer to stages of the foam fractionation process. Experiments with different systems, mainly surfactant and protein solutions, were performed in order to form foams and finally recover a solution representing the foamed material. As foam consists to a large extent of foam lamella – two adsorption layers with a liquid core – the concentration in a foamate taken from foaming experiments should be enriched in the stabilizing molecules. For determining the concentration of the foamate, again the very sensitive bubble rising velocity profile method was applied, which works for any type of surface active materials. This also includes technical surfactants or protein isolates for which an accurate composition is unknown. N2 - Die Fraktionierung ist ein Trennprozess, bei dem verschiedene Materialien auf Grund ihrer Eigenschaften voneinander getrennt werden. Bei der Sedimentation von Teilchen in einer Flüssigkeit dient deren unterschiedliche Dichte zu ihrer Trennung, da schwere Teilchen schneller auf den Boden des Gefäßes sinken als leichtere. Bei der Schaumfraktionierung als Trennprozess dient zur Trennung verschiedener Moleküle in einer Lösung deren Grenzflächenaktivität, d.h. das unterschiedliche Vermögen der Moleküle, sich an der Oberfläche von Gasblasen anzureichern. Durch das Aufsteigen der Blasen in der Flüssigkeit werden daher die Moleküle mit der höheren Grenzflächenaktivität stärker in der Schaumschicht angereichert als die weniger stark grenzflächenaktiven Komponenten. Ziel der vorliegenden Dissertation ist es, den Prozess der Schaumfraktionierung hinsichtlich der Trennung von grenzflächenaktiven Molekülen zu analysieren. Die Bildung von Blasen und deren anschließendes Aufsteigen in der Lösung kann als wichtigstes Element in diesem Prozess angesehen werden. Es ist bekannt, dass die Geschwindigkeit aufsteigender Luftblasen in Wasser eine charakteristische Größe ist, die durch die Anwesenheit grenzflächenaktiver Stoffe (Tenside, Proteine) stark verringert wird. Die vorliegende Dissertation zeigt für das ausgewählte Protein ß-Lactoglobulin und für verschiedene Lebensmittel-Tenside, dass die Messung der Aufstiegsgeschwindigkeit von Luftblasen zur Beurteilung der Anreicherung dieser Moleküle an der Blasenoberfläche ausgezeichnet geeignet ist. Die experimentellen Ergebnisse bei verschiedenen Lösungsbedingungen, wie Konzentration von Protein bzw. Tensid, pH-Wert und Ionenstärke der Lösung, zeigen deutlich, dass die Anreicherung der Proteinmoleküle wesentlich stärker ist als die von Tensiden. Dies gilt auch für Tenside mit einer sehr hohen Grenzflächenaktivität, was im Wesentlichen durch die extrem feste (nahezu irreversible) Anreicherung der Proteinmoleküle zu erklären ist. Die erzielten experimentellen Ergebnisse dienen jetzt als Grundlage für die Weiterentwicklung der Theorie aufsteigender Blasen, die besonders von der Dynamik der Anreicherung der Moleküle geprägt ist. Neueste Untersuchungen haben gezeigt, dass auf der Grundlage dieser experimentellen Ergebnisse erstmals die Geschwindigkeitskonstanten der Anreicherung (Adsorption und Desorption) unabhängig voneinander ermittelt werden können. KW - adsorption KW - air-water interface KW - protein KW - foam KW - rising bubble KW - Adsorption KW - Wasser/Luft Grenzflächen KW - steigende Blasen KW - Schaum KW - Beta-Lactoglobulin Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94263 ER - TY - THES A1 - Putzler, Sascha T1 - Molekulare Charakterisierung des Centrosom-assoziierten Proteins CP91 in Dictyostelium discoideum T1 - Molecular characterization of the centrosome-associated protein CP91 in Dictyostelium discoideum N2 - Das Dictyostelium-Centrosom ist ein Modell für acentrioläre Centrosomen. Es besteht aus einer dreischichtigen Kernstruktur und ist von einer Corona umgeben, welche Nukleationskomplexe für Mikrotubuli beinhaltet. Die Verdoppelung der Kernstruktur wird einmal pro Zellzyklus am Übergang der G2 zur M-Phase gestartet. Durch eine Proteomanalyse isolierter Centrosomen konnte CP91 identifiziert werden, ein 91 kDa großes Coiled-Coil Protein, das in der centrosomalen Kernstruktur lokalisiert. GFP-CP91 zeigte fast keine Mobilität in FRAP-Experimenten während der Interphase, was darauf hindeutet, dass es sich bei CP91 um eine Strukturkomponente des Centrosoms handelt. In der Mitose hingegen dissoziieren das GFP-CP91 als auch das endogene CP91 ab und fehlen an den Spindelpolen von der späten Prophase bis zur Anaphase. Dieses Verhalten korreliert mit dem Verschwinden der zentralen Schicht der Kernstruktur zu Beginn der Centrosomenverdopplung. Somit ist CP91 mit großer Wahrscheinlichkeit ein Bestandteil dieser Schicht. CP91-Fragmente der N-terminalen bzw. C-terminalen Domäne (GFP-CP91 N-Terminus, GFP-CP91 C-Terminus) lokalisieren als GFP-Fusionsproteine exprimiert auch am Centrosom, zeigen aber nicht die gleiche mitotische Verteilung des Volllängenproteins. Das CP91-Fragment der zentralen Coiled-Coil Domäne (GFP-CP91cc) lokalisiert als GFP-Fusionsprotein exprimiert, als ein diffuser cytosolische Cluster, in der Nähe des Centrosoms. Es zeigt eine partiell ähnliche mitotische Verteilung wie das Volllängenprotein. Dies lässt eine regulatorische Domäne innerhalb der Coiled-Coil Domäne vermuten. Die Expression der GFP-Fusionsproteine unterdrückt die Expression des endogenen CP91 und bringt überzählige Centrosomen hervor. Dies war auch eine markante Eigenschaft nach der Unterexpression von CP91 durch RNAi. Zusätzlich zeigte sich in CP91-RNAi Zellen eine stark erhöhte Ploidie verursacht durch schwere Defekte in der Chromosomensegregation verbunden mit einer erhöhten Zellgröße und Defekten im Abschnürungsprozess während der Cytokinese. Die Unterexpression von CP91 durch RNAi hatte auch einen direkten Einfluss auf die Menge an den centrosomalen Proteinen CP39, CP55 und CEP192 und dem Centromerprotein Cenp68 in der Interphase. Die Ergebnisse deuten darauf hin, dass CP91 eine zentrale centrosomale Kernkomponente ist und für den Zusammenhalt der beiden äußeren Schichten der Kernstruktur benötigt wird. Zudem spielt CP91 eine wichtige Rolle für eine ordnungsgemäße Centrosomenbiogenese und, unabhängig davon, bei dem Abschnürungsprozess der Tochterzellen während der Cytokinese. N2 - The Dictyostelium centrosome is a model for acentriolar centrosomes and it consists of a three-layered core structure surrounded by a corona harboring microtubule nucleation complexes. Its core structure duplicates once per cell cycle at the G2/M transition. Through proteomic analysis of isolated centrosomes we have identified CP91, a 91-kDa coiled coil protein that was localized at the centrosomal core structure. While GFP-CP91 showed almost no mobility in FRAP experiments during interphase, both GFP-CP91 and endogenous CP91 dissociated during mitosis and were absent from spindle poles from late prophase to anaphase. Since this behavior correlates with the disappearance of the central layer upon centrosome duplication, CP91 is a putative component of this layer. When expressed as GFP-fusions, CP91 fragments corresponding to the N-terminal and C-terminal domain (GFP-CP91N, and GFP-CP91C respectively) also localized to the centrosome but did not show the mitotic redistribution of the full length protein. The CP91 fragment corresponding to the central coiled coil domain (GFP-CP91cc) localized as a diffuse cluster close to the centrosome and did show a partially similar mitotic redistribution of the full length protein suggesting a regulatory role of the coiled coil domain. Expression of all GFP-fusion proteins suppressed expression of endogenous CP91 and elicited supernumerary centrosomes. This was also very prominent upon depletion of CP91 by RNAi. CP91-RNAi cells exhibited heavily increased ploidy due to severe defects in chromosome segregation along with increased cell size and defects in the abscission process during cytokinesis. Additionally, depletion of CP91 by RNAi had an immediate impact on the amount of the centrosomal core components CP39, CP55 and CEP192 and the centromere protein Cenp68 in interphase cells. Our results indicate that CP91 is a central centrosomal core component required for centrosomal integrity, proper centrosome biogenesis and, independently, for abscission during cytokinesis. KW - Centrosom KW - Dictyostelium KW - Mikrotubuli KW - Mitose KW - Zellkern KW - centrosome KW - dictyostelium KW - microtubules KW - mitosis KW - nucleus Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-394689 ER - TY - THES A1 - Peter, Tatjana T1 - Molekulare Charakterisierung von CP75, einem neuen centrosomalen Protein in Dictyostelium discoideum T1 - Molecular characterization of CP75, a novel Dictyostelium centrosome protein N2 - Das Centrosom ist ein Zellkern-assoziiertes Organell, das nicht von einer Membran umschlossen ist. Es spielt eine wichtige Rolle in vielen Mikrotubuli- abhängigen Prozessen wie Organellenpositionierung, Zellpolarität oder die Organisation der mitotischen Spindel. Das Centrosom von Dictyostelium besteht aus einer dreischichtigen Core-Struktur umgeben von einer Corona, die Mikrotubuli-nukleierende Komplexe enthält. Die Verdoppelung des Centrosoms in Dictyostelium findet zu Beginn der Mitose statt. In der Prophase vergrößert sich die geschichtete Core-Struktur und die Corona löst sich auf. Anschließend trennen sich die beiden äußeren Lagen der Core-Struktur und bilden in der Metaphase die beiden Spindelpole, die in der Telophase zu zwei vollständigen Centrosomen heranreifen. Das durch eine Proteom-Analyse identifizierte Protein CP75 lokalisiert am Centrosom abhängig von den Mitosephasen. Es dissoziiert von der Core-Struktur in der Prometaphase und erscheint an den Spindelpolen in der Telophase wieder. Dieses Verhalten korreliert mit dem Verhalten der mittleren Lage der Core-Struktur in der Mitose, was darauf hinweist, dass CP75 eine Komponente dieser Schicht sein könnte. Die FRAP-Experimente am Interphase- Centrosom zeigen, dass GFP-CP75 dort nicht mobil ist. Das deutet darauf hin, dass das Protein wichtige Funktionen im Strukturerhalt der centrosomalen Core- Struktur übernehmen könnte. Sowohl die C- als auch die N-terminale Domäne von CP75 enthalten centrosomale Targeting-Domäne. Als GFP-Fusionsproteine (GFP-CP75-N und -C) lokalisieren die beiden Fragmente am Centrosom in der Interphase. Während GFP-CP75-C in der Mitose am Centrosom verbleibt, verschwindet GFP-CP75-N in der Metaphase und kehrt erst in der späten Telophase zurück. GFP-CP75-C und GFP-CP75O/E kolokalisieren mit F-Aktin am Zellcortex, zeigen aber keine Interaktion mit Aktin mit der BioID-Methode. Die N-terminale Domäne von CP75 enthält eine potentielle Plk1- Phosphorylierungssequenz. Die Überexpression der nichtphosphorylierbaren Punktmutante (GFP-CP75-Plk-S143A) ruft verschiedene Phänotypen wie verlängerte oder überzählige Centrosomen, vergrößerte Zellkerne und Anreicherung von detyrosinierten Mikrotubuli hervor. Die ähnlichen Phänotypen konnten auch bei GFP-CP75-N und CP75-RNAi beobachtet werden. Der Phänotyp der detyrosinierten Mikrotubuli bringt erstmals den Beweis dafür, dass I in Dictyostelium posttranslationale Modifikation an Tubulinen stattfindet. Außerdem zeigten CP75-RNAi-Zellen Defekte in der Organisation der mitotischen Spindel. Mittels BioID-Methode konnten drei potentielle Interaktionspartner von CP75 identifiziert werden. Diese drei Proteine CP39, CP91 und Cep192 sind ebenfalls Bestandteile des Centrosoms. N2 - The centrosome is a nonmembranous, nucleus-associated organelle. It plays crucial roles in a variety of mucrotubule-dependent processes, such as organelle positioning, cell polarization and mitotic spindle organization. The Dictyostelium centrosome consists of a core structure with three major layers, surrounded by a corona containing micrutubule-nucleation complexes. Dictyostelium centrosome replication starts at the onset of mitosis. In prophase, the core structure enlarges and the corona disappears. Afterwards, the core structure splits and the outer layers form two spindle poles maturating to two new, complete centrosomes in telophase. CP75 is one of nine novel proteins identified in a centrosomal proteome analysis. Endogenous CP75 localizes to the centrosome in a cell cycle- dependent manner. It dissociates from the core structure in early prometaphase and reappears at spindle poles in telophase. Since this pattern fits to the disappearance and reappearance of the central layer of the core structure, this indicates that CP75 is a constituent of this layer. During interphase FRAP experiments reveal that GFP-CP75 exhibits no mobility at the centrosome. This indicates a role in structural maintenance of the centrosomal core. Both the C- and N-terminal domains of CP75 contain a centrosomal targeting domain. Fused to GFP (GFP-CP75-N and -C) both fragments localized to the centrosome in interphase, but only GFP-CP75-N disappears from the centrosome during mitosis. GFP-CP75-C and GFP-CP75O/E also colocalized with F-actin at the cell cortex. But it shows no direct interaction with actin in BioID. The N-terminal domain of CP75 contains Plk1 phosphorylation sites. Overexpression of phosphorylation site-defficient mutant of GFP-CP75 (GFP-CP75-Plk-S143A) causes different phenotypes like enlarged and disrupted nuclei, enlarged and supernumerary centrosomes and detyrosinated microtubules. A very similar phenotype was observed upon overexpression of GFP-CP75-N and upon knockdown of CP75 expression by RNAi. The phenotype of detyrosinated microtubules for the first time shows that posttranslational modification of Tubulin takes place in Dictyostelium. Live cell imaging showed that lack of CP75 caused defect in spindle formation. CP75 interacts in BioID with CP39, CP91 and Cep192, three other components of the centrosome. KW - Dictyostelium KW - Centrosom KW - CP75 KW - dictyostelium KW - centrosome KW - CP75 Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96472 ER - TY - THES A1 - Töle, Nadine T1 - Molekulare und histologische Untersuchungen zur gustatorischen Fettwahrnehmung des Menschen T1 - Molecular and histological analyses of human gustatory fat perception N2 - Die hohe Energieaufnahme durch Fette ist ein Hauptfaktor für die Entstehung von Adipositas, was zu weltweiten Bestrebungen führte, die Fettaufnahme zu verringern. Fettreduzierte Lebensmittel erreichen jedoch, trotz ihrer Weiterentwicklung, nicht die Schmackhaftigkeit ihrer Originale. Die traditionelle Sichtweise, dass die Attraktivität von Fetten allein durch Textur, Geruch, Aussehen und postingestive Effekte bestimmt wird, wird nun durch das Konzept einer gustatorischen Wahrnehmung ergänzt. Bei Nagetieren zeigte sich, dass Lipide unabhängig von den vorgenannten Eigenschaften erkannt werden, sowie, dass Fettsäuren, freigesetzt durch linguale Lipasen, als gustatorische Stimuli fungieren und Fettsäuresensoren in Geschmackszellen exprimiert sind. Die Datenlage für den Menschen erwies sich jedoch als sehr begrenzt, daher war es Ziel der vorliegenden Arbeit molekulare und histologische Voraussetzungen für eine gustatorische Fettwahrnehmung beim Menschen zu untersuchen. Zunächst wurde humanes Geschmacksgewebe mittels RT-PCR und immunhistochemischen Methoden auf die Expression von Fettsäuresensoren untersucht, sowie exprimierende Zellen in Kofärbeexperimenten charakterisiert und quantifiziert. Es wurde die Expression fettsäuresensitiver Rezeptoren nachgewiesen, deren Agonisten das gesamte Spektrum an kurz- bis langkettigen Fettsäuren abdecken (GPR43, GPR84, GPR120, CD36, KCNA5). Ein zweifelsfreier Nachweis des Proteins konnte für den auf langkettige Fettsäuren spezialisierten Rezeptor GPR120 in Typ-I- und Typ-III-Geschmackszellen der Wallpapillen erbracht werden. Etwa 85 % dieser GPR120-exprimierenden Zellen enthielten keine der ausgewählten Rezeptoren der Geschmacksqualitäten süß (TAS1R2/3), umami (TAS1R1/3) oder bitter (TAS2R38). Somit findet sich in humanen Geschmackspapillen nicht nur mindestens ein Sensor, sondern möglicherweise auch eine spezifische, fettsäuresensitive Zellpopulation. Weitere RT-PCR-Experimente und Untersuchungen mittels In-situ-Hybridisierung wurden zur Klärung der Frage durchgeführt, ob Lipasen in den Von-Ebner-Speicheldrüsen (VED) existieren, die freie Fettsäuren aus Triglyceriden als gustatorischen Stimulus freisetzen können. Es zeigte sich zwar keine Expression der bei Nagetieren gefundenen Lipase F (LIPF), jedoch der eng verwandten Lipasen K, M und N in den serösen Zellen der VED. In-silico-Untersuchungen der Sekundär- und Tertiärstrukturen zeigten die hohe Ähnlichkeit zu LIPF, erwiesen aber auch Unterschiede in den Bindungstaschen der Enzyme, welche auf ein differenziertes Substratspektrum hinweisen. Die Anwesenheit eines spezifischen Signalpeptids macht eine Sekretion der Lipasen in den die Geschmacksporen umspülenden Speichel wahrscheinlich und damit auch eine Bereitstellung von Fettsäuren als Stimuli für Fettsäuresensoren. Die Übertragung des durch diese Stimuli hervorgerufenen Signals von Geschmackszellen auf gustatorische Nervenfasern über P2X-Rezeptormultimere wurde mit Hilfe einer vorherigen Intervention mit einem P2X3 /P2X2/3-spezifischen Antagonisten an der Maus als Modellorganismus im Kurzzeit-Präferenztest untersucht. Es zeigte sich weder eine Beeinträchtigung der Wahrnehmung einer Fettsäurelösung, noch einer zuckerhaltigen Kontrolllösung, wohingegen die Wahrnehmung einer Bitterstofflösung reduziert wurde. Somit ist anhand der Ergebnisse dieser Arbeit eine Beteiligung des P2X3-Homomers bzw. des P2X2/3-Heteromers unwahrscheinlich, jedoch die des P2X2-Homomers und damit der gustatorischen Nervenfasern nicht ausgeschlossen. Die Ergebnisse dieser Arbeit weisen auf die Erfüllung grundlegender Voraussetzungen für die gustatorische Fett(säure)wahrnehmung hin und tragen zum Verständnis der sensorischen Fettwahrnehmung und der Regulation der Fettaufnahme bei. Das Wissen um die Regulation dieser Mechanismen stellt eine Grundlage zur Aufklärung der Ursachen und damit der Bekämpfung von Adipositas und assoziierten Krankheiten dar. N2 - High consumption of energy from fat is considered one of the main factors that evoke obesity which led to a worldwide effort to reduce dietary fat intake. However, despite their continuous improvement, fat-reduced foods do not yet reach the palatability of their originals. The traditional view that the attraction to fats is only determined by texture, odor, appearance as well as postingestive effects is now challenged by the concept of gustatory sensation of fats. After excluding or masking the aforementioned features, rodents showed continuous attraction towards lipid solutions. Also long-chain fatty acids liberated from triglycerides by lingual lipases as the main stimulus and the expression of fatty acid-sensitive receptors in taste buds was shown. In contrast, only little data exists for humans. Therefore, this thesis aimed at elucidating the molecular and cellular prerequisites for a gustatory detection of fat. First, human taste tissue was examined by RT-PCR and immunohistochemical methods for the expression of fatty acid sensors and the expressing cells were characterized and quantified by co-staining procedures. The expression of fatty acid-sensitive receptors was shown whose agonists cover the whole range of short- to long-chain fatty acids (GPR43, GPR84, GPR120, CD36, and KCNA5). Protein expression of the long-chain fatty acid receptor GPR120 in type I and type III taste cells was unambiguously demonstrated. About 85 % of the GPR120-expressing cells did not co-express receptors for sweet (TAS1R2/3), umami (TAS1R1/3) or bitter (TAS2R38) taste. Hence, not only does at least one fatty acid sensor exist in human taste papillae, but possibly also a special fatty acid-sensitive cell population. Additional RT-PCR experiments and in situ hybridization analyses were used to address the question, if lipases in the Von-Ebner-salivary glands (VEG) produce free fatty acids from triglycerides as gustatory stimuli. Unlike mice which express lipase F, lipases K, M and N, which are highly related to lipase F, were found to be expressed in the serous cells of the VEG. In silico approaches confirmed high similarities of the secondary and tertiary structures of these lipases to lipase F. Also a marked difference in the binding pocket of the enzymes was observed, which suggests differential substrate specificity. The presence of a signal peptide sequence proposes that the lipases K, M, and N are secreted into the trenches of gustatory papillae. This would result in lipolysis of dietary triglycerides and generation of stimuli for the fatty acid sensor GPR120. Next the hypothesis was tested whether GPR120-generated signals are conveyed to gustatory nerves via P2X-receptor-multimers. To this end short term preference tests were performed in mice after intervention with a P2X3-/P2X2/3-specific antagonist. However, this treatment did not affect the preference of mice for the fatty acid or for a sweet control solution, whereas recognition of a bitter solution was impaired. Thus, an involvement of the P2X3-homomer or the P2X3-/P2X2/3-heteromer seems unlikely. However, these results do not exclude a contribution of P2X2-receptor-heteromers and in turn gustatory nerves for the preference of fatty acid solutions. In summary, the results of this thesis give new insights into the molecular and cellular prerequisites for a gustatory component for fat detection in humans. They also help understanding fat sensation and the regulation of fat intake which in turn may eventually promote novel concepts for the treatment of obesity and related diseases. KW - Geschmack KW - Fettwahrnehmung KW - Fettsäuren KW - Sensorik KW - Lipasen KW - G-Protein gekoppelte Rezeptoren KW - taste KW - fat perception KW - fatty acids KW - lipases KW - G-protein coupled receptors KW - sensory analysis Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93180 ER - TY - THES A1 - Engel, Tilman T1 - Motor control strategies in response to unexpected disturbances of dynamic postural control in people with and without low back pain T1 - Strategien der Bewegungskontrolle nach unerwarteten Störungen der dynamischen posturalen Kontrolle in Personen mit und ohne Rückenschmerzen N2 - Background: Low back pain (LBP) is one of the world wide leading causes of limited activity and disability. Impaired motor control has been found to be one of the possible factors related to the development or persistence of LBP. In particularly, motor control strategies seemed to be altered in situations requiring reactive responses of the trunk counteracting sudden external forces. However, muscular responses were mostly assessed in (quasi) static testing situations under simplified laboratory conditions. Comprehensive investigations in motor control strategies during dynamic everyday situations are lacking. The present research project aimed to investigate muscular compensation strategies following unexpected gait perturbations in people with and without LBP. A novel treadmill stumbling protocol was tested for its validity and reliability to provoke muscular reflex responses at the trunk and the lower extremities (study 1). Thereafter, motor control strategies in response to sudden perturbations were compared between people with LBP and asymptomatic controls (CTRL) (study 2). In accordance with more recent concepts of motor adaptation to pain, it was hypothesized that pain may have profound consequences on motor control strategies in LBP. Therefore, it was investigated whether differences in compensation strategies were either consisting of changes local to the painful area at the trunk, or also being present in remote areas such as at the lower extremities. Methods: All investigations were performed on a custom build split-belt treadmill simulating trip-like events by unexpected rapid deceleration impulses (amplitude: 2 m/s; duration: 100 ms; 200 ms after heel contact) at 1m/s baseline velocity. A total number of 5 (study 1) and 15 (study 2) right sided perturbations were applied during walking trials. Muscular activities were assessed by surface electromyography (EMG), recorded at 12 trunk muscles and 10 (study 1) respectively 5 (study 2) leg muscles. EMG latencies of muscle onset [ms] were retrieved by a semi-automatic detection method. EMG amplitudes (root mean square (RMS)) were assessed within 200 ms post perturbation, normalized to full strides prior to any perturbation [RMS%]. Latency and amplitude investigations were performed for each muscle individually, as well as for pooled data of muscles grouped by location. Characteristic pain intensity scores (CPIS; 0-100 points, von Korff) based on mean intensity ratings reported for current, worst and average pain over the last three months were used to allocate participants into LBP (≥30 points) or CTRL (≤10 points). Test-retest reproducibility between measurements was determined by a compilation of measures of reliability. Differences in muscular activities between LBP and CTRL were analysed descriptively for individual muscles; differences based on grouped muscles were statistically tested by using a multivariate analysis of variance (MANOVA, α =0.05). Results: Thirteen individuals were included into the analysis of study 1. EMG latencies revealed reflex muscle activities following the perturbation (mean: 89 ms). Respective EMG amplitudes were on average 5-fold of those assessed in unperturbed strides, though being characterized by a high inter-subject variability. Test-retest reliability of muscle latencies showed a high reproducibility, both for muscles at the trunk and legs. In contrast, reproducibility of amplitudes was only weak to moderate for individual muscles, but increased when being assessed as a location specific outcome summary of grouped muscles. Seventy-six individuals were eligible for data analysis in study 2. Group allocation according to CPIS resulted in n=25 for LBP and n=29 for CTRL. Descriptive analysis of activity onsets revealed longer delays for all muscles within LBP compared to CTRL (trunk muscles: mean 10 ms; leg muscles: mean 3 ms). Onset latencies of grouped muscles revealed statistically significant differences between LBP and CTRL for right (p=0.009) and left (p=0.007) abdominal muscle groups. EMG amplitude analysis showed a high variability in activation levels between individuals, independent of group assignment or location. Statistical testing of grouped muscles indicated no significant difference in amplitudes between LBP and CTRL. Discussion: The present research project could show that perturbed treadmill walking is suitable to provoke comprehensive reflex responses at the trunk and lower extremities, both in terms of sudden onsets and amplitudes of reflex activity. Moreover, it could demonstrate that sudden loadings under dynamic conditions provoke an altered reflex timing of muscles surrounding the trunk in people with LBP compared to CTRL. In line with previous investigations, compensation strategies seemed to be deployed in a task specific manner, with differences between LBP and CTRL being evident predominately at ventral sides. No muscular alterations exceeding the trunk could be found when being assessed under the automated task of locomotion. While rehabilitation programs tailored towards LBP are still under debate, it is tempting to urge the implementation of dynamic sudden loading incidents of the trunk to enhance motor control and thereby to improve spinal protection. Moreover, in respect to the consistently observed task specificity of muscular compensation strategies, such a rehabilitation program should be rich in variety. N2 - Hintergrund: Unterer Rückenschmerz (LBP) stellt eine der weltweit führenden Ursachen für eine eingeschränkte körperliche Funktion und Belastbarkeit dar. Defizite in der neuromuskulären Ansteuerung gelten als einer der möglichen Faktoren im Zusammenhang mit der Entstehung und Persistenz von LBP. Insbesondere in Situationen, die eine aktive Kompensation von plötzlich auftretenden Lasten am Rumpf beinhalten, konnten veränderte Strategien in der muskulären Antwort bei LBP aufgezeigt werden. Allerdings basierten solche Untersuchungen meistens auf (quasi) statischen Testsituationen unter vereinfachten Laborbedingungen. Ob die beobachteten muskulären Reaktionen isolierter Rumpfbelastungen repräsentativ sind für eine neuromuskuläre Ansteuerung unter dynamischen Alltagsbedingungen ist bisher nicht geklärt. Ziel der vorliegenden Arbeit war es, muskuläre Kompensationsstrategien in Folge unerwarteter Gangperturbationen bei Personen mit und ohne LBP zu untersuchen. Um muskuläre Reflexantworten am Rumpf und an den unteren Extremitäten zu provozieren wurde ein neu entwickeltes Laufband-Stolperprotokoll auf Validität und Reliabilität getestet (Studie 1). Aufbauend erfolgte der Vergleich neuromuskulärer Antworten in Reaktion auf plötzlich applizierte Gangperturbationen zwischen Personen mit LBP und asymptomatischen Kontrollpersonen (CTRL) (Studie 2). In Übereinstimmung mit aktuellen Modellen zur motorischen Anpassung bei Schmerzen wurde untersucht, ob Unterschiede in den beobachteten Kompensationsstrategien auf lokale Veränderungen am Rumpf reduziert sind, oder ebenfalls in rumpffernen Körperregionen auftreten. Methoden: Alle Untersuchungen wurden mit einem Spezial-Laufband durchgeführt, welches mittels unerwarteter schneller Abbremsimpulse (Amplitude: 2 m/s, Dauer: 100 ms, 200 ms nach Fersenkontakt) die Simulation von Stolperereignissen während der Gangbewegung (1 m/s) erlaubt. Eine Anzahl von 5 (Studie 1) bzw. 15 (Studie 2) rechtsseitigen Perturbationen wurde im Verlaufs des Stolperprotokolls appliziert. Muskuläre Aktivitäten wurden mittels Elektromyographie (EMG) von 12 Rumpf- sowie 10 (Studie 1) bzw. 5 (Studie 2) Beinmuskeln aufgezeichnet. EMG-Latenzen wurden mittels eines halb-automatischen Detektions-Verfahrens ermittelt. Die Berechnung der EMG Amplituden (RMS) erfolgte für den Zeitraum von 200 ms nach Perturbation, normiert auf den gesamten Schrittzyklus des unperturbierten Ganges [%]. Latenz- und Amplituden-Messgrößen wurden für jeden Muskel individuell und für gepoolte Daten (gruppiert nach Lokalisation) berechnet. Charakteristische Schmerzintensitätswerte (CPIS, 0-100 Punkte, von Korff), basierend auf gemittelten Angaben zu akuten, sowie höchsten und durchschnittlichen Schmerzen der letzten drei Monate wurden zur Einteilung in LBP (≥30 Punkte) und CTRL (≤ 10 Punkte) verwendet. Zur Beurteilung der Test-retest Reliabilität wurden verschiedene Reliabilitätsparameter herangezogen. Unterschiede in den Muskelaktivitäten zwischen LBP und CTRL wurden für individuelle Muskeln deskriptiv analysiert. Gepoolte Daten gruppierter Muskeln wurden mittels multivariater Varianzanalyse (MANOVA; α = 0,05) statistisch getestet. Ergebnisse: Ergebnisse von 13 Probanden wurden für die Analyse von Studie 1 herangezogen. EMG-Latenzen zeigten Muskelaktivitäten repräsentativ für Reflexantworten im Nachgang applizierter Gangperturbationen, sowohl an Rumpf- als auch an Beinmuskulatur (Mittelwert: 89 ms, Range: 75 bis 117 ms). EMG-Amplituden erreichten im Durchschnitt ein 5-fach erhöhtes Aktivitätsniveau innerhalb des 200 ms Zeitfensters nach Perturbation (Range: 106 bis 909 RMS%), jedoch gezeichnet von einer hohen interindividuellen Variabilität zwischen den Probanden. Eine hohe Reproduzierbarkeit für EMG-Latenzen konnte anhand der Reliabilitätsparameter aufgezeigt werden. EMG-Amplituden dagegen erwiesen sich als nur geringfügig reliabel bei der Betrachtung individueller Muskeln. Für die Datenanalyse in Studie 2 waren 76 Probanden geeignet. Die Gruppenzuteilung nach CPIS ergab n = 25 für LBP und n = 29 für CTRL. EMG-Latenzen zeigten eine erhöhte Aktivitätsverzögerung aller Muskeln für LBP im Vergleich zu CTRL (Rumpf: Mittelwert 10 ms; Bein: Mittelwert 3 ms). EMG-Latenzen gruppierter Muskeln zeigten statistisch signifikante Unterschiede zwischen LBP und CTRL für rechtsseitige (p=0,009) und linksseitige (p=0,007) abdominale Muskelgruppen. EMG-Amplituden waren geprägt von einer hohen interindividuellen Variabilität, unabhängig von Gruppenzuordnung oder Lokalisation. Diskussion: Das vorliegende Forschungsprojekt konnte belegen, dass Gangperturbationen dafür geeignet sind, umfassende Reflexantworten am Rumpf und den unteren Extremitäten zu provozieren. Darüber hinaus konnte gezeigt werden, dass unerwartete Gangperturbationen zu einer zeitlich verzögerten Reflexantwort der rumpfumgreifenden Muskulatur bei Personen mit LBP im Vergleich zur Kontrollgruppe führen. In Übereinstimmung mit den Ergebnissen vorheriger Untersuchungen erscheinen dabei die gewählten Kompensationsstrategien aufgabenspezifisch angepasst zu sein. Veränderte muskuläre Reaktionsmuster abseits des Rumpfes konnten trotz Einbezug weiterer Lokalisationen nicht gefunden werden. Gegenüber isolierten Rumpfbelastungen erlaubt der Einsatz indirekter Perturbationsbelastungen während des Ganges alltagsrelevante situationsspezifische Defizite neuromuskulärer Kontrolle gezielt zu untersuchen. Bei der Erstellung neuer Theapiekonzepte zur Steigerung der neuromuskulären Kontrolle sollte in diesem Zusammenhang die Einbindung alltagsähnlicher indirekter Belastungsformen des Rumpfes diskutiert werden. KW - low back pain KW - trunk KW - perturbation KW - EMG KW - reflex KW - stumbling KW - Rückenschmerz KW - Rumpf KW - Perturbationen KW - Gang KW - Stolpern KW - Reflexaktivität Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-400742 ER - TY - THES A1 - Paz Soto Riveros, Paulina T1 - Mujeres de apocalipsis T1 - Apokalipsen Frauen T1 - Apocalyptc Women BT - beatas novohispanas y religiosidad popular en el siglo XVIII BT - neuhispanische Betschwester und populäre Religion im 17. Jahrhundert BT - New Spain beatas and popular religiosity N2 - Mujeres del Apocalipsis address new readings on gender in Colonial Latin-American Culture. The study is based on inquisition records of Beatas: pious woman, commonly accused of heretical behaviour. Women who gained freedom and a partial share of power through religion imaginary. A citical approach to the reading of her life and imageneries shows the apperance of a new concept of womanhood in the era. N2 - Mujeres del Apocalipsis propone nuevas lecturas de género en relación a las mujeres piadosas que habitaron Nueva España en el siglo XVIII. El estudio sebasa en un corpus de los archivos de sus procesos inquisitoriales, mucho de ellos aún indéditos. Estas mujeres ganaron libertad y accedieon a una parcial autonomía en el mundo colonial. A través de su lectura, se descubren las estrategías tácticas a través de las cuales las beatas pactaron una nueva forma de se mujer en aquella era. KW - popular-culture KW - gender KW - XVIII century KW - apocalipsys KW - religious tranformations KW - confessors KW - género KW - cultura popular KW - siglo XVIII KW - apocalipsis KW - reformas religisas KW - confesores Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90435 ER - TY - THES A1 - Hajasch, Lydia T1 - Möglichkeiten der Mittelstandsförderung durch Vergaberechtsgestaltung und Vergaberechtspraxis T1 - The possibilities of using public procurement law and practice to promote and support SMEs N2 - Die Förderungswürdigkeit und die Förderungsfähigkeit mittelständischer Unternehmen ist ein gesamteuropäisches, wirtschaftspolitisches Anliegen. Hiervon zeugen zum einen zahlreiche Regelungen im Primär-, Sekundär-, Verfassungs- und einfachgesetzlichem Recht, zum anderen auch die Bedeutung der mittelständischen Unternehmen im wirtschaftlichen, gesellschaftlichen und sozialen Gefüge. So herrscht innerhalb der Europäischen Union nicht nur der Slogan „Vorfahrt für KMU“, sondern auch die im Frühjahr 2014 verabschiedeten Vergaberichtlinien legten ein besonderes Augenmerk auf die Förderung des Zugangs der KMU zum öffentlichen Beschaffungsmarkt. Denn gemessen am Steuerungs- und Lenkungspotenzial der Auftragsvergabe, deren Einfluss auf die Innovationstätigkeit der Wirtschaft sowie deren Auswirkungen auf die Wirtschafts- und Wettbewerbstätigkeit auf der einen Seite und dem gesamtwirtschaftlichen Stellenwert der mittelständischen Unternehmen auf der anderen Seite, sind mittelständische Unternehmen trotz zahlreicher europäischer und nationaler Initiativen im Vergabeverfahren unterrepräsentiert. Neben der undurchsichtigen Regelungsstruktur des deutschen Vergaberechts, unterliegen die mittelständischen Unternehmen vom Beginn bis zum Ende des Vergabeverfahrens besonderen Schwierigkeiten. Dieser Ausgangsbefund wurde zum Anlass genommen, um die Möglichkeiten der Mittelstandsförderung durch Vergaberechtsgestaltung und Vergaberechtspraxis erneut auf den Prüfstand zu stellen. N2 - The support and promotion of small and medium-sized enterprises (SMEs) is an economic policy objective throughout Europe. This is demonstrated by numerous regulations found in primary, secondary and constitutional law, and by the important social and economic role that SMEs play within society. In accordance with the European Union’s “think small first” principle, procurement directives were adopted in the spring of 2014 in which particular emphasis was placed on facilitating SMEs’ access to the public procurement process. While public procurement has enormous potential to drive innovation and an impact on economic activity and competitiveness in general, SMEs are of great value to the economy as a whole. Nevertheless, and despite numerous European and national initiatives, SMEs are underrepresented in public procurement procedures. In addition to being subject to the opaque rules of German procurement law, SMEs also face particular difficulties from the beginning to the end of the public procurement process. This analysis was taken as a starting point to conduct research into the possibilities of using public procurement law and practice to promote and support SMEs. KW - Vergaberecht KW - public procurement KW - Mittelstandsförderung KW - small and medium-sized enterprises KW - mittelständische Unternehmen KW - promotion of small and medium-sized enterprises KW - Zentrale Beschaffungsstellen KW - central purchasing bodies KW - Bietergemeinschaften KW - association of undertakings KW - Eignungsleihe KW - subcontractors KW - Nachunternehmer KW - division of contracts into lots KW - Losaufteilung KW - limiting the number of lots KW - Mehrfachbezuschlagung KW - Loslimitierung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395946 ER - TY - THES A1 - Georgieva, Viktoria T1 - Neotectonics & Cooling History of the Southern Patagonian Andes T1 - Neotektonik und Abkühlgeschichte der Südpatagonschen Anden BT - assessing the Role of Ridge Collision and Slab Window Formation inboard of the Chile Triple Junction (46-47°S) BT - die Rolle von ozeanischer Rückenkollision und der Bilding eines “slab window” am Chile-Triplepunkt (47°S) N2 - The collision of bathymetric anomalies, such as oceanic spreading centers, at convergent plate margins can profoundly affect subduction dynamics, magmatism, and the structural and geomorphic evolution of the overriding plate. The Southern Patagonian Andes of South America are a prime example for sustained oceanic ridge collision and the successive formation and widening of an extensive asthenospheric slab window since the Middle Miocene. Several of the predicted upper-plate geologic manifestations of such deep-seated geodynamic processes have been studied in this region, but many topics remain highly debated. One of the main controversial topics is the interpretation of the regional low-temperature thermochronology exhumational record and its relationship with tectonic and/or climate-driven processes, ultimately manifested and recorded in the landscape evolution of the Patagonian Andes. The prominent along-strike variance in the topographic characteristics of the Andes, combined with coupled trends in low-temperature thermochronometer cooling ages have been interpreted in very contrasting ways, considering either purely climatic (i.e. glacial erosion) or geodynamic (slab-window related) controlling factors. This thesis focuses on two main aspects of these controversial topics. First, based on field observations and bedrock low-temperature thermochronology data, the thesis addresses an existing research gap with respect to the neotectonic activity of the upper plate in response to ridge collision - a mechanism that has been shown to affect the upper plate topography and exhumational patterns in similar tectonic settings. Secondly, the qualitative interpretation of my new and existing thermochronological data from this region is extended by inverse thermal modelling to define thermal histories recorded in the data and evaluate the relative importance of surface vs. geodynamic factors and their possible relationship with the regional cooling record. My research is centered on the Northern Patagonian Icefield (NPI) region of the Southern Patagonian Andes. This site is located inboard of the present-day location of the Chile Triple Junction - the juncture between the colliding Chile Rise spreading center and the Nazca and Antarctic Plates along the South American convergent margin. As such this study area represents the region of most recent oceanic-ridge collision and associated slab window formation. Importantly, this location also coincides with the abrupt rise in summit elevations and relief characteristics in the Southern Patagonian Andes. Field observations, based on geological, structural and geomorphic mapping, are combined with bedrock apatite (U-Th)/He and apatite fission track (AHe and AFT) cooling ages sampled along elevation transects across the orogen. This new data reveals the existence of hitherto unrecognized neotectonic deformation along the flanks of the range capped by the NPI. This deformation is associated with the closely spaced oblique collision of successive oceanic-ridge segments in this region over the past 6 Ma. I interpret that this has caused a crustal-scale partitioning of deformation and the decoupling, margin-parallel migration, and localized uplift of a large crustal sliver (the NPI block) along the subduction margin. The location of this uplift coincides with a major increase of summit elevations and relief at the northern edge of the NPI massif. This mechanism is compatible with possible extensional processes along the topographically subdued trailing edge of the NPI block as documented by very recent and possibly still active normal faulting. Taken together, these findings suggest a major structural control on short-wavelength variations in topography in the Southern Patagonian Andes - the region affected by ridge collision and slab window formation. The second research topic addressed here focuses on using my new and existing bedrock low-temperature cooling ages in forward and inverse thermal modeling. The data was implemented in the HeFTy and QTQt modeling platforms to constrain the late Cenozoic thermal history of the Southern Patagonian Andes in the region of the most recent upper-plate sectors of ridge collision. The data set combines AHe and AFT data from three elevation transects in the region of the Northern Patagonian Icefield. Previous similar studies claimed far-reaching thermal effects of the approaching ridge collision and slab window to affect patterns of Late Miocene reheating in the modelled thermal histories. In contrast, my results show that the currently available data can be explained with a simpler thermal history than previously proposed. Accordingly, a reheating event is not needed to reproduce the observations. Instead, the analyzed ensemble of modelled thermal histories defines a Late Miocene protracted cooling and Pliocene-to-recent stepwise exhumation. These findings agree with the geological record of this region. Specifically, this record indicates an Early Miocene phase of active mountain building associated with surface uplift and an active fold-and-thrust belt, followed by a period of stagnating deformation, peneplanation, and lack of synorogenic deposition in the Patagonian foreland. The subsequent period of stepwise exhumation likely resulted from a combination of pulsed glacial erosion and coeval neotectonic activity. The differences between the present and previously published interpretation of the cooling record can be reconciled with important inconsistencies of previously used model setup. These include mainly the insufficient convergence of the models and improper assumptions regarding the geothermal conditions in the region. This analysis puts a methodological emphasis on the prime importance of the model setup and the need for its thorough examination to evaluate the robustness of the final outcome. N2 - Die Kollision ozeanischer Rückensysteme entlang aktiver Subduktionszonen kann eine nachhaltige Wirkung auf die geodynamische, magmatische, strukturelle und geomorphologische Entwicklung der Oberplatte ausüben. Die Südpatagonischen Anden repräsentieren ein außergewöhnliches Beispiel für eine aktive ozeanische Rückenkollision mit einem Kontinentalrand, die über mehrere Millionen Jahre hinweg aufrechterhalten wurde. Dieser Prozess wurde begleitet von großräumigen Mantelprozessen mit der gleichzeitigen Bildung eines asthenosphärischen Fensters unter Südpatagonien – eine weiträumige Öffnung zwischen den divergierenden ozeanischen Platten unter der Oberplatte, die den Kontakt des asthenosphärischen Mantels mit der kontinentalen Lithosphäre ermöglicht hat. Auch wenn die daraus resultierenden geologischen Erscheinungsformen der Oberplatte bereits in unterschiedlichen Regionen studiert wurden, bleiben viele Fragen hinsichtlich der assoziierten Exhumations- Abkühlungs- und Deformationsprozesse noch offen. Eine kontroverse Frage in diesem Zusammenhang bezieht sich auf die Interpretation von Niedrigtemperatur-Thermochronologiedaten, welche die jüngste Abkühlungs- und Deformationsgeschichte der Erdkruste und die Landschaftsentwicklung in Südpatagonien dokumentieren. Diese Abkühlgeschichte kann theoretisch zeitliche und/oder räumliche Variationen im Erosionspotential von Oberflächenprozessen und der daraus resultierenden jüngsten Exhumation beleuchten oder auch den Einfluss überlagerter thermischer Effekte des hochliegenden Mantels widerspiegeln. Die ausgeprägten topographischen Änderungen entlang des Streichens der Patagonischen Anden, die offenbar auch an Trends in den thermochronometrischen Daten gekoppelt sind, wurden in der Vergangenheit bereits äußerst kontrovers interpretiert. Endglieder dieser Diskussion sind entweder klimatisch gesteuerte Prozessmodelle und eine damit verbundene räumliche Variabilität in der Exhumation (glaziale Erosion) oder geodynamischen Prozesse, die insbesondere eine regional begrenzte Deformation und Hebung mit der Kollision des ozeanischen Chile-Rückens in Verbindung bringen. Diese Dissertation ist daher auf zwei wesentliche Aspekte dieser Problematik fokussiert. Sie befasst sich einerseits mit der soweit kaum erforschten Existenz junger (neotektonischer) Deformationsphänomene, die unmittelbar mit der Rückenkollision in Verbindung steht und das Potenzial hat, die Topographie und die thermochronometrisch dokumentierte Abkühlgeschichte des Patagonischen Gebirgszuges mitbeeinflusst zu haben. Ein weiterer Forschungsfokus liegt auf der erweiterten Interpretation eines Teils der im Rahmen dieser Arbeit erstellten sowie von vorhandenen thermochronometrischen Datensätzen durch inverse numerische Modellierungen. Diese Modellierungen hatten das Ziel, die thermische Geschichte der Proben, die am besten die beobachteten Daten reproduzieren kann, zu definieren und die relative Bedeutung geodynamischer und oberflächennaher Prozesse abzuschätzen. Das Untersuchungsgebiet liegt in dem Gebirgsmassiv des Nordpatagonischen Eisfeldes von Südostpatagonien. Dieser Teil der Südpatagonischen Anden liegt in der Region, wo die derzeitig aktive Kollision des Chile-Rückens seit 6 Millionen Jahren im Gange ist. Der Nordrand des Gebirgsmassivs fällt zusammen mit der abrupten Zunahme der Topographie am Übergang von den Nord- in den Südpatagonischen Anden - das Gebiet, das von ozeanischer Rückenkollision betroffen wurde und durch die Bildung des asthenosphärischen Fensters gekennzeichnet ist. Diverse Feldbeobachtungen, kombiniert mit neuen thermochronometrischen Daten ((U-Th)/He- und Spaltspurendatierungen an Apatiten von Festgesteinsproben, AHe und AFT), dokumentieren die bisher unbekannte Existenz junger tektonischer Bewegungen entlang der Flanken dieses erhöhten Gebirgszuges, welche die topographischen, geomorphologischen und thermochronometrischen Charakteristika der Region deutlich beeinflusst haben. Diese Deformation wurde ausgelöst durch die schräge Kollision von Segmenten des Chile- Rückens, die eine Partitionierung in der Krustendeformation in Komponenten die jeweils parallel und orthogonal zum konvergenten Plattenrand orientiert sind, nach sich zog. Dieser hierbei entstandene Krustenblock des Nordpatagonischen Eisfeldes wurde entlang der Plattengrenze entkoppelt und nordwärts bewegt. Diese Kinematik führte zur lokalen Hebung und Extension (Absenkung) jeweils entsprechend am Nord- und Südrand des Krustenblocks. Die resultierende differentielle Hebung und Extension dieses Krustenblocks korreliert sehr gut mit Muster der räumlichen Verteilung der Topographie und den regionalen thermochronometrischen Daten und legt somit eine direkte Beziehung zwischen geodynamischen Randbedingungen, tektonischer Deformation, Exhumation und Landschaftsentwicklung nahe. Der zweite Forschungsfokus liegt auf der Implementierung meiner neuen sowie bereits publizierter thermochronometrischer Daten in Vorwärts- und inversen numerischen Modellierungen. Es wurden die frei verfügbaren Modellierungsplattformen HeFTy und QTQt benutzt, um die Abkühlungsgeschichte der Südpatagonischen Anden im Gebiet der jüngsten ozeanischen Rückenkollision zu definieren. Der Datensatz kombiniert AHe und AFT Abkühlalter aus drei Höhenprofilen in der Region des Nordpatagonischen Eisfeldes. Kürzlich publizierte Studien, die auf identischen Datierungsmethoden und numerischen Ansätzen beruhen, postulieren, dass ein signifikanter und räumlich weitreichender thermischer Effekt, , sich bereits während des Obermiozäns in den thermochronometrischen Daten manifestiert und auf die Bildung des asthenosphärischen Fensters zurückzuführen ist. Im Unterschied dazu zeigen meine Ergebnisse, dass die verfügbaren thermochronometrischen Daten mit einem einfacheren thermischen Szenario erklärt werden können und ein thermischer Puls nicht notwendig ist, um die Abkühlalter in der vorliegenden Form zu reproduzieren. Das kumulative Ergebnis der Modellierungen dokumentiert eine alternative Möglichkeit mit einer langsamen und/oder stagnierenden Abkühlung im Obermiozän, auf die dann im Pliozän eine schnelle und ausgeprägte schrittweise Abkühlung stattfand. Diese Ergebnisse sind kompatibel mit der geologischen Geschichte der Region. So wurde in diesem Gebiet eine Phase aktiver Einengung, Hebung und Exhumation im Unteren Miozän nachgewiesen. Dieser Episode folgte eine Phase der Ruhe in der Deformation, eine großräumige Einebnung der Deformationsfront durch fluviatile Prozesse und eine drastische Abnahme synorogener Ablagerungen. Die darauffolgende Phase schrittweiser Abkühlung resultierte aus einer Kombination von einerseits rekurrenten weiträumigen Vergletscherungen und damit einhergehender glazialer Erosion und andererseits von gleichzeitigen lokalen tektonischen Vertikalbewegungen durch Störungen, die im plattentektonischen Kontext aktiver ozeanischer Rückenkollision entstanden. Die signifikanten Unterschiede zwischen bereits publizierten und den hier präsentierten Ergebnissen beruhen auf der Erkenntnis wichtiger Nachteile der früher benutzten Modellannahmen. Diese beinhalten z.B. die unzureichende Konvergenz (unzureichende Anzahl an Iterationen) und Vorgaben bezüglich der regionalen geothermischen Bedingungen. Diese kritische Betrachtung zeigt, dass methodische Schwerpunkte und Annahmen dieser Modellierungen gründlich geprüft werden müssen, um eine objektive Abschätzung der Ergebnisse zu erzielen. Zusammenfassend kann festgestellt werden, dass der Impakt bisher unbekannter neotektonischer Strukturen entlang des konvergenten Plattenrandes von Südpatagonien sehr weitreichende Folgen hat. Diese Strukturen stehen räumlich und zeitlich in direkter Beziehung zur seit dem Obermiozän andauernden Subduktion verschiedener Segmente des Chile-Spreizungszentrums; sie unterstreichen die fundamentale Bedeutung der Subduktion bathymetrischer Anomalien für die tektonische und geomorphologische Entwicklung der Oberplatte, besonders in Regionen mit ausgeprägten Erosionsprozessen. Die hier dokumentierten Ergebnisse aus der inversen numerischen Modellierung thermochronometrischer Daten stellen bereits publizierte Befunde aus Studien infrage, die auf ähnlichen Ansätzen beruhen und welche den regionalen thermischen Effekt des asthenosphärischen Fensters in Südpatagonien hervorheben. Meine Ergebnisse dokumentieren stattdessen eine Abkühlungsgeschichte, die durch eine synergistische, klimatisch und tektonisch bedingte schrittweise Exhumation definiert ist. Eine abschließende synoptische Betrachtung der gesamten thermochronometrischen Daten in Südpatagonien belegt das Fehlen von Mustern in der regionalen Verteilung von Abkühlaltern entlang des Streichens des Orogens. Die Existenz eines solchen Trends wurde früher postuliert und im Rahmen eines transienten Pulses dynamischer Topographie und Exhumation interpretiert, der mit der Bildung und Migration des asthenosphärischen Fensters assoziiert wurde. Meine neue Zusammenstellung und Interpretation der Thermochronometrie zeigt stattdessen, dass die regionale Verteilung von Abkühlaltern in Südpatagonien vor allem durch die langfristig wirksame räumliche Verteilung glazialer Erosionsprozesse bestimmt wird, die u.a. zu einer tieferen Exhumation im Zentrum des Orogens geführt hat. Dieses regionale Exhumationsmuster wird allerdings lokal durch differentielle Hebung von Krustenblöcken modifiziert, die mit den neotektonischen Bewegungen im Rahmen der Kollision des Kontinentalrandes mit dem ozeanischen Chile-Rücken und der Partitionierung der Deformation in Zusammenhang stehen. KW - neotectonics KW - ridge-collision KW - asthenospheric slab-window KW - thermochronology KW - Patagonia KW - Apatite (U-Th)/He, apatite fission track dating KW - thermal modeling KW - Apatit-(U-Th)/He Datierung KW - Apatit-Spaltspurendatierung KW - Patagonia KW - asthenospherisches "slab-window" KW - Neotektonik KW - Rückenkollision KW - thermische Modellierung KW - Thermochronologie Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104185 ER - TY - THES A1 - Knoop, Mats Timothy T1 - Neue Polyacrylnitril-basierte, schmelzspinnbare Präkursoren für Carbonfasern N2 - Diese Arbeit zu Grunde liegenden Forschung zielte darauf ab, neue schmelzbare Acrylnitril-Copolymere zu entwickeln. Diese sollten im Anschluss über ein Schmelzspinnverfahren zur Chemiefaser geformt und im letzten Schritt zur Carbonfaser konvertiert werden. Zu diesem Zweck wurden zunächst orientierende Untersuchungen an unterschiedlichen Copolymeren des Acrylnitril aus Lösungspolymerisation durchgeführt. Die Untersuchungen zeigten, dass elektrostatische Wechselwirkungen besser als sterische Abschirmung dazu geeignet sind, Schmelzbarkeit unterhalb der Zersetzungstemperatur von Polyacrylnitril zu bewirken. Aus der Vielzahl untersuchter Copolymere stellten sich jene mit Methoxyethylacrylat (MEA) als am effektivsten heraus. Für diese Copolymere wurden sowohl die Copolymerisationsparameter bestimmt als auch die grundlegende Kinetik der Lösungspolymerisation untersucht. Die Copolymere mit MEA wurden über Schmelzspinnen zur Faser umgeformt und diese dann untersucht. Hierbei wurden auch Einflüsse verschiedener Parameter, wie z.B. die der Molmasse, auf die Fasereigenschaften und -herstellung untersucht. Zuletzt wurde ein Heterophasenpolymerisationsverfahren zur Herstellung von Copolymeren aus AN/MEA entwickelt; dadurch konnten die Materialeigenschaften weiter verbessert werden. Zur Unterdrückung der thermoplastischen Eigenschaften der Fasern wurde ein geeignetes Verfahren entwickelt und anschließend die Konversion zu Carbonfasern durchgeführt. N2 - The aim of this work was to develop new meltable acrylonitrile co-polymers. Those should be processed into a fiber via melt-spinning, and finally be converted into carbon fibers. Various co-polymers of acrylonitrile were synthesized by solution polymerization. The investigations showed that electrostatic interactions are more effective than steric shielding for achieving meltability of co-polymers of acrylonitrile. Out of the wide range of co-polymers prepared, those with the co-monomer methoxyethylacrylate were the most effective ones. For these co-polymers copolymerization parameters and basic kinetics were investigated. The co-polymers were processed into fibers via melt-spinning. The influence of various parameters such as molar mass on the process and the mechanical properties of the fibers was studied. Subsequently, a new emulsion polymerization process for the synthesis of the co-polymers was developed, resulting in further improved material properties. Finally a process for deactivation of thermoplasticity by chemical treatment was developed. T2 - Novel meltable polyacrylonitrile precursor for carbon fibres KW - schmelzbares PAN KW - PAN Emulsionspolymerisation KW - meltable PAN KW - Carbonfaserprecursor KW - carbon fibre KW - precursor Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103972 ER - TY - THES A1 - Harding, Eleanor Elizabeth T1 - Neurocognitive entrainment to meter influences syntactic comprehension in music and language T1 - Neurokognitives Entrainment durch Metrum beeinflusst Syntaxverständnis in Musik und Sprache BT - an individual-differences approach BT - ein Zugang über individuelle Unterschiede N2 - Meter and syntax have overlapping elements in music and speech domains, and individual differences have been documented in both meter perception and syntactic comprehension paradigms. Previous evidence insinuated but never fully explored the relationship that metrical structure has to syntactic comprehension, the comparability of these processes across music and language domains, and the respective role of individual differences. This dissertation aimed to investigate neurocognitive entrainment to meter in music and language, the impact that neurocognitive entrainment had on syntactic comprehension, and whether individual differences in musical expertise, temporal perception and working memory played a role during these processes. A theoretical framework was developed, which linked neural entrainment, cognitive entrainment, and syntactic comprehension while detailing previously documented effects of individual differences on meter perception and syntactic comprehension. The framework was developed in both music and language domains and was tested using behavioral and EEG methods across three studies (seven experiments). In order to satisfy empirical evaluation of neurocognitive entrainment and syntactic aspects of the framework, original melodies and sentences were composed. Each item had four permutations: regular and irregular metricality, based on the hierarchical organization of strong and weak notes and syllables, and preferred and non-preferred syntax, based on structurally alternate endings. The framework predicted — for both music and language domains — greater neurocognitive entrainment in regular compared to irregular metricality conditions, and accordingly, better syntactic integration in regular compared to irregular metricality conditions. Individual differences among participants were expected for both entrainment and syntactic processes. Altogether, the dissertation was able to support a holistic account of neurocognitive entrainment to musical meter and its subsequent influence on syntactic integration of melodies, with musician participants. The theoretical predictions were not upheld in the language domain with musician participants, but initial behavioral evidence in combination with previous EEG evidence suggest that perhaps non-musician language EEG data would support the framework’s predictions. Musicians’ deviation from hypothesized results in the language domain were suspected to reflect heightened perception of acoustic features stemming from musical training, which caused current ‘overly’ regular stimuli to distract the cognitive system. The individual-differences approach was vindicated by the surfacing of two factors scores, Verbal Working Memory and Time and Pitch Discrimination, which in turn correlated with multiple experimental data across the three studies. N2 - Metrum und Syntax weisen sowohl in Musik als auch Sprache ähnliche Strukturelemente auf und in beiden Domänen sind interindividuelle Unterschiede in der Wahrnehmung von Metrum und Syntax berichtet worden. Bisherige Befunde deuten eine Wechselwirkung von metrischer Struktur auf syntaktische Verarbeitung an. Bislang gibt es jedoch keine konkreten Untersuchungen, die diese Beziehung systematisch beleuchtet haben, die Vergleichbarkeit dieser Prozesse in Musik und Sprache eruiert oder den Einfluss interindividueller Unterschiede erforscht haben. Die vorliegende Dissertation zielte daher darauf ab, ein neurokognitives Phänomen — Entrainment — in Musik und Sprache zu untersuchen, dessen Einfluss auf syntaktisches Verstehen zu definieren und herauszufinden, ob individuelle Unterschiede in musikalischer Vorerfahrung, Zeitwahrnehmung oder Arbeitsgedächtnis eine entscheidende Rolle bei diesen Prozessen spielt. Es wurde ein theoretischer Rahmen entwickelt, der neuronales Entrainment, kognitives Entrainment und syntaktisches Verstehen verknüpft und bereits dokumentierte individuelle Unterschiede in der Wahrnehmung vom Metrum und in syntaktischem Verstehen berücksichtigt. Dieser Rahmen wurde sowohl für Musik als auch Sprache formuliert und mit Hilfe von Verhaltens- und EEG-Untersuchungen in drei Studien (zusammengesetzt aus sieben Experimenten) getestet. Um eine empirische Untersuchung von neurokognitivem Entrainment und syntaktischem Verstehen zu ermöglichen, wurde geeignetes Melodie- und Satzmaterial entwickelt. Jede Melodie und jeder Satz wurde in vier Variationen dargeboten: regelmäßiges/unregelmäßiges Metrum, basierend auf der hierarchischen Organisation von betonten/unbetonten Noten und Silben, und bevorzugte/nicht bevorzugte Syntax, basierend auf strukturell verschiedenen Satzenden. Es wurde erwartet, dass in beiden Domänen regelmäßiges Metrum zu größerem neurokognitiven Entrainment führt als unregelmäßiges Metrum. Individuelle Unterschiede zwischen den Teilnehmern wurden sowohl für Entrainment als auch für die syntaktische Verarbeitung erwartet. Insgesamt kann die Dissertation den Einfluss von musikalischem Metrum auf neurokognitives Entrainment sowie dessen Einfluss wiederum auf die syntaktische Integration von Melodien bestätigen. Für die Sprachverarbeitung konnten diese Zusammenhänge in der hier getesteten Stichprobe von Musikern nicht nachgewiesen werden. Frühere Befunde aus Verhaltens- und EEG-Studien legen jedoch nahe, dass Untersuchungen mit Nichtmusikern ein solches Ergebnis erbringen könnten. Dass Musiker von unseren Hypothesen abweichende Ergebnisse in der Sprachverarbeitung zeigen, kann damit zu tun haben, dass sie durch ihr musikalisches Training akustische Merkmale besser wahrnehmen, wodurch "übermäßig" reguläre Stimuli kognitive Interferenzeffekte induzieren können. Des Weiteren konnte in allen drei Studien gezeigt werden, dass individuelle Wahrnehmungsunterschiede durch zwei Faktoren definiert werden: verbales Arbeitsgedächtnis sowie Zeit- und Tonhöhenunterscheidung. KW - entrainment KW - Entrainment KW - syntax KW - Syntax KW - meter KW - Metrum KW - language KW - Sprache KW - music KW - Musik Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102258 ER - TY - THES A1 - Martínez Valdés, Eduardo Andrés T1 - Neuromuscular adaptations of either endurance or high-intensity interval training T1 - Neuromuskuläre Anpassung bei Ausdauer oder Hochintensiv-Intervalltraining BT - are there any differential adaptations in the motor unit population? BT - gibt es Adaptationsunterschiede in den Aktionspotenzialen motorischer Einheiten? N2 - During the last decade, high intensity interval training (HIIT) has been used as an alternative to endurance (END) exercise, since it requires less time to produce similar physiological adaptations. Previous literature has focused on HIIT changes in aerobic metabolism and cardiorespiratory fitness, however, there are currently no studies focusing on its neuromuscular adaptations. Therefore, this thesis aimed to compare the neuromuscular adaptations of both HIIT and END after a two-week training intervention, by using a novel technology called high-density surface electromyography (HDEMG) motor unit decomposition. This project consisted in two experiments, where healthy young men were recruited (aged between 18 to 35 years). In experiment one, the reliability of HDEMG motor unit variables (mean discharge rate, peak-to-peak amplitude, conduction velocity and discharge rate variability) was tested (Study 1), a new method to track the same motor units longitudinally was proposed (Study 2), and the level of low (<5Hz) and high (>5Hz) frequency motor unit coherence between vastus medialis (VM) and lateralis (VL) knee extensor muscles was measured (Study 4). In experiment two, a two-week HIIT and END intervention was conducted where cardiorespiratory fitness parameters (e.g. peak oxygen uptake) and motor unit variables from the VM and VL muscles were assessed pre and post intervention (Study 3). The results showed that HDEMG is reliable to monitor changes in motor unit activity and also allows the tracking of the same motor units across different testing sessions. As expected, both HIIT and END improved cardiorespiratory fitness parameters similarly. However, the neuromuscular adaptations of both types of training differed after the intervention, with HIIT showing a significant increase in knee extensor muscle strength that was accompanied by increased VM and VL motor unit discharge rates and HDEMG amplitude at the highest force levels [(50 and 70% of the maximum voluntary contraction force (MVC)], while END training induced a marked increase in time to task failure at lower force levels (30% MVC), without any influence on HDEMG amplitude and discharge rates. Additionally, the results showed that VM and VL muscles share most of their synaptic input since they present a large amount of low and high frequency motor unit coherence, which can explain the findings of the training intervention where both muscles showed similar changes in HDEMG amplitude and discharge rates. Taken together, the findings of the current thesis show that despite similar improvements in cardiopulmonary fitness, HIIT and END induced opposite adjustments in motor unit behavior. These results suggest that HIIT and END show specific neuromuscular adaptations, possibly related to their differences in exercise load intensity and training volume. N2 - Als Alternative zu Ausdauertraining (END) wurde während des letzten Jahrzehnts hochintensives Intervalltraining (HIIT) eingesetzt, da es weniger Zeit in Anspruch nimmt um ähnliche physiologische Anpassungen herbeizuführen. Die Literatur hat sich bislang auf Veränderungen des aeroben Stoffwechsels und der kardiorespiratorischen Fitness durch HIIT konzentriert, es fehlt jedoch an Studien, die sich mit der neuromuskulären Anpassung auseinandersetzen. Deswegen war das Ziel dieser Thesis die neuromuskulären Anpassungserscheinungen durch HIIT und END nach einer 2-wöchigen Trainingsintervention zu vergleichen. Dafür wurde eine neuartige Technik, die sogenannte High-Density Oberflächen Elektromyographie Motoreinheiten Zersetzung (HDEMG) genutzt. Dieses Projekt bestand aus zwei Experimenten, für die junge gesunde Männer zwischen 18 und 35 Jahren rekrutiert wurden. Im Rahmen des ersten Experiments wurde die Reliabilität der HDEMG Variablen (Entladungsrate, Amplitude, Weiterleitungsgeschwindigkeit und die Variabilität der Entladungsrate) untersucht (Studie 1), eine neue Methode zur longitudinalen Verfolgung der Motoreinheiten entwickelt (Studie 2) und die Kohärenz niedriger- (<5Hz) und hoher Frequenzen (>5Hz) der Knieextensoren vastus medialis (VM) und vastus lateralis (VL) gemessen (Studie 4). Das zweite Experiment beinhaltete eine zweiwöchige HIIT und END Intervention, bei der Parameter der kardiorespiratorischen Fitness (beispielsweise die maximale Sauerstoffaufnahme) und Parameter der Motoreinheiten des VM und VL vor- und nach der Intervention erfasst wurden (Studie 3). Die Ergebnisse bestätigen, dass HDEMG eine zuverlässige Methode zur Erkennung von Veränderungen der Motoreinheit-Aktivitäten ist, sowie zur Verfolgung der selben Motoreinheiten in verschiedenen Messungen. Wie erwartet haben HIIT und END die kardiorespiratorische Fitness gleichermaßen verbessert. Trotzdem unterscheiden sich die neuromuskulären Anpassungserscheinungen beider Trainingsinterventionen insofern, als dass durch HIIT ein signifikanter Kraftzuwachs der Knieextensoren hervorgerufen wurde, der durch eine erhöhte Entladungsrate der VM und VL Motoreinheiten und eine erhöhte HDEMG Amplitude bei größter Kraft [50 und 70% der Maximalkraft (MVC)] begleitet wurde. END hingegen bewirkte einen deutlichen Anstieg der „time to task failure“ bei niedrigeren Kraftintensitäten (30% MVC), ohne dabei die HDEMG Amplitude oder Entladungsrate zu beeinflussen. Außerdem konnten die Ergebnisse belegen, dass VM und VL einen Großteil des synaptischen Inputs teilen, da beide Muskeln eine hohe Kohärenz bei niedrigen- (<5Hz) und höheren Frequenzen (>5Hz) zeigen. Dies könnte eine mögliche Erklärung für die Ergebnisse der Trainingsintervention sein, bei der beide Muskeln ähnliche Veränderungen in der HDEMG Amplitude und der Entladungsrate vorwiesen. Zusammenfassend zeigen die Ergebnisse dieser Thesis, dass HIIT und END trotz ähnlicher Verbesserungen der kardiorespiratorischen Fitness unterschiedliche Anpassungen des Verhaltens der Motoreinheiten hervorrufen. Die Ergebnisse unterstreichen, dass HIIT und END spezifische Adaptionen auslösen, die möglicherweise auf den Unterschieden von Trainingsintensität und -volumen basieren. KW - high-density surface electromyography KW - motor unit decomposition KW - motor unit tracking KW - motor unit discharge rate KW - motor unit adaptation KW - neuromuscular adaptation KW - high-intensity interval training KW - endurance training KW - Mehrkanal-Oberflächen-Elektromyographie KW - motorischer Einheiten Zersetzung KW - motorischer Einheiten Verfolgung KW - motorischer Einheiten Entladungsrate KW - motorischer Einheiten Anpassung KW - neuromuskuläre Anpassung KW - hochintensives Intervalltraining KW - Ausdauertraining Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396383 ER - TY - THES A1 - Couturier, Jean-Philippe T1 - New inverse opal hydrogels as platform for detecting macromolecules T1 - Neue inverse Opal-Hydrogele als Plattform für die Detektion von Makromolekülen N2 - In this thesis, a route to temperature-, pH-, solvent-, 1,2-diol-, and protein-responsive sensors made of biocompatible and low-fouling materials is established. These sensor devices are based on the sensitivemodulation of the visual band gap of a photonic crystal (PhC), which is induced by the selective binding of analytes, triggering a volume phase transition. The PhCs introduced by this work show a high sensitivity not only for small biomolecules, but also for large analytes, such as glycopolymers or proteins. This enables the PhC to act as a sensor that detects analytes without the need of complex equipment. Due to their periodical dielectric structure, PhCs prevent the propagation of specific wavelengths. A change of the periodicity parameters is thus indicated by a change in the reflected wavelengths. In the case explored, the PhC sensors are implemented as periodically structured responsive hydrogels in formof an inverse opal. The stimuli-sensitive inverse opal hydrogels (IOHs) were prepared using a sacrificial opal template of monodispersed silica particles. First, monodisperse silica particles were assembled with a hexagonally packed structure via vertical deposition onto glass slides. The obtained silica crystals, also named colloidal crystals (CCs), exhibit structural color. Subsequently, the CCs templates were embedded in polymer matrix with low-fouling properties. The polymer matrices were composed of oligo(ethylene glycol) methacrylate derivatives (OEGMAs) that render the hydrogels thermoresponsive. Finally, the silica particles were etched, to produce highly porous hydrogel replicas of the CC. Importantly, the inner structure and thus the ability for light diffraction of the IOHs formed was maintained. The IOH membrane was shown to have interconnected pores with a diameter as well as interconnections between the pores of several hundred nanometers. This enables not only the detection of small analytes, but also, the detection of even large analytes that can diffuse into the nanostructured IOH membrane. Various recognition unit – analyte model systems, such as benzoboroxole – 1,2-diols, biotin – avidin and mannose – concanavalin A, were studied by incorporating functional comonomers of benzoboroxole, biotin and mannose into the copolymers. The incorporated recognition units specifically bind to certain low and highmolar mass biomolecules, namely to certain saccharides, catechols, glycopolymers or proteins. Their specific binding strongly changes the overall hydrophilicity, thus modulating the swelling of the IOH matrices, and in consequence, drastically changes their internal periodicity. This swelling is amplified by the thermoresponsive properties of the polymer matrix. The shift of the interference band gap due to the specific molecular recognition is easily visible by the naked eye (up to 150 nm shifts). Moreover, preliminary trial were attempted to detect even larger entities. Therefore anti-bodies were immobilized on hydrogel platforms via polymer-analogous esterification. These platforms incorporate comonomers made of tri(ethylene glycol) methacrylate end-functionalized with a carboxylic acid. In these model systems, the bacteria analytes are too big to penetrate into the IOH membranes, but can only interact with their surfaces. The selected model bacteria, as Escherichia coli, show a specific affinity to anti-body-functionalized hydrogels. Surprisingly in the case functionalized IOHs, this study produced weak color shifts, possibly opening a path to detect directly living organism, which will need further investigations. N2 - Periodisch strukturierte, funktionelle responsive Hydrogele wurden in Form von inversen Opalen (IOH) aufgebaut und als Basiselement für Temperatur-, pH-, lösungsmittel-, 1,2-diol- oder protein-sensitive Sensorsysteme entwickelt. Dazu wurden aus biokompatiblen Bausteinen funktionelle photonische Kristalle aufgebaut, deren optische Bandlücke durch selektive Bindung eines Analyten moduliert wird, indem dieser einen Volumen-Phasenübergang induziert.Mittels solcher responsiver photonische Kristalle ist es möglich, Analyte ohne aufwendige Geräte durch Farbänderung einfach zu detektieren. Die entwickelten Systeme zeigen nicht nur eine hohe Empfindlichkeit gegenüber kleinen Biomolekülen, sondern auch gegenüber größeren Analyten wie z.B. Glycopolymeren und Proteinen, was bisher nicht bekannt war. Die stimuli-sensitiven inversen Opal Hydrogele (IOHs) wurden in mehreren Stufen hergestellt. Als erstes wurden dafür kolloidale Kristalle mit hexagonal gepackten Strukturen aus monodispersen SiO2-Partikeln auf Glasträgern auf ebaut (“Opal”). Die Opale mit charakteristischen Strukturfarben wurden anschließend in eine polymere Hydrogelmatrix eingebettet. Diese wurde aus Oligo(ethylenglycol)methacrylaten (OEGMAs) hergestellt, so dass die Hydrogele sowohl thermosensitives als auch “lowfouling” Verhalten zeigen. Im letzten Schritt wurden die SiO2-Partikel entfernt und so eine hochporöse Hydrogel-Replika der Opale erhalten unter Erhalt deren innerer Struktur und Strukturfarbe. Die miteinander verbunden Poren der IOHMembran besitzen einen Durchmesser von einigen hundert Nanometern. Dies ermöglichte nicht nur die Detektion von kleinen Analyten, sondern auch die Detektion von deutlich größeren, makromolekularen Analyten, die ebenfalls in die Nanostrukturen der IOH Membran diffundieren können. Modellsysteme bestanden immer aus einer Erkennungsgruppe und einem Analyten, beispielsweise aus Benzoboroxol – 1,2-Diol, Biotin – Avidin und Mannose – Lectin (Concanavalin A). Für dieseModellsysteme wurden OEGMAs mitMonomeren copolymerisiert, die mit Benzoboroxol, Biotin bzw.Mannose funktionalisiert waren. Die so im Polymer eingebauten Erkennungsgruppen binden spezifisch an bestimmte Biomoleküle unterschiedlicherMolmassen, wie z.B. niedermolekulare Saccharide oder Catechin, als auch hochmolekulare Glycopolymere oder Proteine. Der spezifische Bindungsvorgang moduliert die Gesamthydrophilie, so dass sich der Quellgrad der IOH-Matrix ändert. Dies wiederrumverändert die innere Periodizität und damit die Strukturfarbe. Dabei wird der Quelleffekt durch die Thermosensitivität der Hydrogele massiv verstärkt. Eine spezifischeMolekülanbindung lässt sich so optisch, z.T. sogar mit dem Auge, erkennen aufgrund der deutlichen Verschiebung der Strukturfarbe um bis zu 150 nm. Des Weiteren wurden auch erste Versuche zur Detektion von noch größeren Analyten unternommen. Dafür wurden Antiköper durch nachträgliche Modifizierung der Polymerseitenketten auf den Hydrogeloberflächen immobilisiert. Mit diesem Modellsystem konnten unterschiedliche Bakterienarten durch Antikörper spezifisch gebunden werden. Die verwendeten Bakterienarten sind zwar zu groß, um in die Membran des IOH Systems einzudringen, können jedoch mit der IOH-Oberfläche wechselwirken. Insbesondere dasModellsystem mit Escherichia coli zeigte eine starke, spezifische Affinität zu dem Antikörper-funktionalisierten IOH. Überraschenderweise zeigte sich bei den Versuchen in Gegenwart des Analyten eine kleine Farbänderung der funktionalisierten IOH. Damit eröffnet sich u.U. dieMöglichkeit, mit solchen responsiven photonischen Kristallen auch lebende Organismen spezifisch und einfach zu detektieren, was in weiterführenden Arbeiten zu klären sein wird. KW - inverse opal KW - hydrogel KW - responsive polymer KW - inverse Opale KW - Hydrogel KW - schaltbare Polymere Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98412 ER - TY - THES A1 - Halecker, Bastian T1 - New perspective and insights on business model innovation using systems thinking and action case studies T1 - Neue Perspektive und Einblicke in die Geschäftsmodellinnovation durch die Anwendung von System Denken und Aktionsfallstudien N2 - In recent years, entire industries and their participants have been affected by disruptive technologies, resulting in dramatic market changes and challenges to firm’s business logic and thus their business models (BMs). Firms from mature industries are increasingly realizing that BMs that worked successfully for years have become insufficient to stay on track in today’s “move fast and break things” economy. Firms must scrutinize the core logic that informs how they do business, which means exploring novel ways to engage customers and get them to pay. This can lead to a complete renewal of existing BMs or innovating completely new BMs. BMs have emerged as a popular object of research within the last decade. Despite the popularity of the BM, the theoretical and empirical foundation underlying the concept is still weak. In particular, the innovation process for BMs has been developed and implemented in firms, but understanding of the mechanisms behind it is still lacking. Business model innovation (BMI) is a complex and challenging management task that requires more than just novel ideas. Systematic studies to generate a better understanding of BMI and support incumbents with appropriate concepts to improve BMI development are in short supply. Further, there is a lack of knowledge about appropriate research practices for studying BMI and generating valid data sets in order to meet expectations in both practice and academia. This paper-based dissertation aims to contribute to research practice in the field of BM and BMI and foster better understanding of the BM concept and BMI processes in incumbent firms from mature industries. The overall dissertation presents three main results. The first result is a new perspective, or the systems thinking view, on the BM and BMI. With the systems thinking view, the fuzzy BM concept is clearly structured and a BMI framework is proposed. The second result is a new research strategy for studying BMI. After analyzing current research practice in the areas of BMs and BMI, it is obvious that there is a need for better research on BMs and BMI in terms of accuracy, transparency, and practical orientation. Thus, the action case study approach combined with abductive methodology is proposed and proven in the research setting of this thesis. The third result stems from three action case studies in incumbent firms from mature industries employed to study how BMI occurs in practice. The new insights and knowledge gained from the action case studies help to explain BMI in such industries and increase understanding of the core of these processes. By studying these issues, the articles complied in this thesis contribute conceptually and empirically to the recently consolidated but still increasing literature on the BM and BMI. The conclusions and implications made are intended to foster further research and improve managerial practices for achieving BMI in a dramatically changing business environment. N2 - In den letzten Jahren sind ganze Branchen und ihre Teilnehmer durch neue disruptive Technologien stark beeinflusst worden, was zu dramatischen Marktveränderungen und Herausforderungen für die Art und Weise wie das Geschäft des Unternehmens funktioniert, geführt hat. Firmen aus reifen Industrien erkennen zunehmend, dass die bestehenden Geschäftsmodelle, die jahrelang erfolgreich funktionierten, dem neuen Veränderungsdruck der dynamischen Wirtschaft nicht mehr genügen. Die Unternehmen müssen ihre Geschäftslogik radikal hinterfragen. Diese beschreibt, wie sie Geschäfte machen, wie sie mit dem Kunden interagieren und wie sie letztlich Geld verdienen. Dies kann zu einer kompletten Erneuerung der bestehenden Geschäftsmodelle führen oder völlig neue innovative Geschäftsmodelle hervorbringen. Geschäftsmodelle haben sich als ein beliebtes Forschungsobjekt in den letzten zehn Jahren etabliert. Trotz der Popularität des Geschäftsmodell Konzeptes sind die theoretischen und empirischen Grundlagen dahinter nach wie vor eher schwach ausgeprägt. Insbesondere besteht für den Geschäftsmodellinnovationsprozess, wie er in Unternehmen implementiert und angewendet wird, nur ein unzureichendes Verständnis. Geschäftsmodellinnovation ist eine komplexe und anspruchsvolle Managementaufgabe, die mehr als nur neue Ideen erfordert. Systematische Untersuchungen, die zu einem besseren Verständnis von Geschäftsmodellinnovation führen und damit etablierten Unternehmen mit entsprechenden Konzepte unterstützt, gibt es zu wenige. Des Weiteren gibt es ein Defizit bei geeigneten Forschungspraktiken, um Geschäftsmodellinnovationen zu untersuchen, welche sowohl den praktischen als auch wissenschaftlichen Anforderungen gerecht werden. Die vorliegende kumulative Dissertation zielt darauf ab, die Forschungspraxis im Bereich der Geschäftsmodelle und der Geschäftsmodellinnovation zu fördern und ein besseres Verständnis zum Geschäftsmodell Konzept als auch zur Geschäftsmodellinnovation in etablierten Unternehmen in reifen Industrien zu schaffen. Die Dissertation liefert dabei drei wesentliche Ergebnisse. Das erste Ergebnis ist eine neue Perspektive auf das Geschäftsmodell Konzept und die Geschäftsmodellinnovation mit Hilfe des System Denkens (Systemtheorie). Mit einer systemischen Sicht wird das bis dahin unscharfe Konzept klar strukturiert und es wird ein Rahmenwerk für Geschäftsmodellinnovation vorgeschlagen. Das zweite Ergebnis ist eine neue Forschungsstrategie für die Untersuchung von Geschäftsmodellinnovation. Nach der Analyse der gängigen Praxis der aktuellen Forschung in den Bereichen Geschäftsmodell und Geschäftsmodellinnovation, wird klar, dass die aktuelle Forschung Schwächen in Bezug auf Genauigkeit, Transparenz und Praxisorientierung aufweist. Somit wird die Aktionsfallstudie in Kombination mit der Abduktion als modernes Forschungsdesign vorgeschlagen und in dieser Arbeit angewendet. Das dritte Ergebnis ergibt sich aus drei durchgeführten Aktionsfallstudien in etablierten Unternehmen aus reifen Industrien, um das Phänomen Geschäftsmodellinnovation in der Praxis zu untersuchen. Die neuen Einsichten und Erkenntnisse, die aus den Aktionsfallstudien gewonnen wurden, helfen dabei Geschäftsmodellinnovation zu erklären und das Verständnis für den Gesamtprozess zu erhöhen. Die Arbeit liefert damit sowohl einen konkreten konzeptionellen als auch empirischen Beitrag zu der sich weiter konsolidierenden aber nach wie vor unscharfen Literatur der Geschäftsmodelle und Geschäftsmodellinnovation. Die Schlussfolgerungen und Handlungsempfehlungen zeigen einen klaren Weg für zukünftige Forschungen auf und liefern konkrete praktische Implikationen für das Management im Umgang mit den anstehenden radikalen Geschäftsmodellveränderungen. KW - business model KW - business model innovation KW - action case study KW - systems thinking KW - mature industry KW - Geschäftsmodell KW - Geschäftsmodellinnovation KW - System Denken KW - Systemtheorie KW - Aktionsfallstudie KW - Abduktion Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90404 ER - TY - THES A1 - Vacogne, Charlotte D. T1 - New synthetic routes towards well-defined polypeptides, morphologies and hydrogels T1 - Neue Syntheserouten zu wohldefinierten Polypeptiden, Morphologien und Hydrogelen N2 - Proteins are natural polypeptides produced by cells; they can be found in both animals and plants, and possess a variety of functions. One of these functions is to provide structural support to the surrounding cells and tissues. For example, collagen (which is found in skin, cartilage, tendons and bones) and keratin (which is found in hair and nails) are structural proteins. When a tissue is damaged, however, the supporting matrix formed by structural proteins cannot always spontaneously regenerate. Tailor-made synthetic polypeptides can be used to help heal and restore tissue formation. Synthetic polypeptides are typically synthesized by the so-called ring opening polymerization (ROP) of α-amino acid N-carboxyanhydrides (NCA). Such synthetic polypeptides are generally non-sequence-controlled and thus less complex than proteins. As such, synthetic polypeptides are rarely as efficient as proteins in their ability to self-assemble and form hierarchical or structural supramolecular assemblies in water, and thus, often require rational designing. In this doctoral work, two types of amino acids, γ-benzyl-L/D-glutamate (BLG / BDG) and allylglycine (AG), were selected to synthesize a series of (co)polypeptides of different compositions and molar masses. A new and versatile synthetic route to prepare polypeptides was developed, and its mechanism and kinetics were investigated. The polypeptide properties were thoroughly studied and new materials were developed from them. In particular, these polypeptides were able to aggregate (or self-assemble) in solution into microscopic fibres, very similar to those formed by collagen. By doing so, they formed robust physical networks and organogels which could be processed into high water-content, pH-responsive hydrogels. Particles with highly regular and chiral spiral morphologies were also obtained by emulsifying these polypeptides. Such polypeptides and the materials derived from them are, therefore, promising candidates for biomedical applications. N2 - Proteine, auch Polypeptide genannt, sind große Biomoleküle, die aus kleineren Aminosäuren bestehen. Diese sind zu langen Ketten miteinander verbunden, wie die Perlen auf einer Perlenkette. Sie werden in Zellen produziert, können in Tieren und Pflanzen gefunden werden und haben vielfältige Funktionen. Eine dieser Funktionen ist es, die umgebenen Zellen und Gewebe wie ein Gerüst zu stützen. Kollagen (welches in Haut, Knorpel, Sehnen und Knochen zu finden ist) und Keratin (welches in Haaren und Nägeln vorkommt) gehören zu diesen Strukturproteinen. Jedoch wenn ein Gewebe beschädigt ist, beispielsweise als Folge eines Unfalls, kann sich das Grundgerüst aus diesen Strukturproteinen manchmal nicht mehr selbst regenerieren. Maßgefertigte synthetische Polypeptide, können dafür verwendet werden, die Heilung und Wiederherstellung des Gewebes zu Unterstützen. Diese Polypeptide werden mit einer Reihe an chemischen Reaktionen synthetisiert, welche hauptsächlich darauf abzielen Aminosäuren miteinander zu verknüpfen. Synthetische Polypeptide sind weniger Komplex als die von Zellen hergestellten, natürlichen Polypeptide (Proteine). Während in den natürlichen Polypeptiden die Aminosäuren in einer von der DNA definierten Reihenfolge, welche als Sequenz bezeichnet wird, angeordnet sind, sind sie in synthetischen Polypeptiden zumeist zufällig verteilt. Die Konsequenz daraus ist, dass synthetische Polypeptide nicht immer so Leistungsfähig sind wie natürliche Proteine und ein durchdachtes Design benötigen. Zwei Aminosäuren wurden in dieser Dissertation sorgfältig ausgewählt und verwendet um eine Serie an Polypeptiden mit unterschiedlicher Zusammensetzung und Länge zu synthetisieren. Ein neuer und vielseitiger Syntheseweg wurde ebenfalls entwickelt und der zugrundeliegende Mechanismus untersucht. Die Polypeptide wurden gründlich analysiert und neue Materialien wurden aus ihnen entwickelt. In Lösung gebracht formten diese Fasern, ähnlich denen von Kollagen, welche sich wiederum zu robusten Netzwerken anordneten. Aus diesen Netzwerken ließen sich Hydrogele herstellen, welche in der Lage waren große Mengen an Wasser aufzunehmen. Diese Hydrogele wiederum stellen vielversprechende Kandidaten für biomedizinische Anwendungen dar. KW - polymer KW - chemistry KW - biomaterial KW - polymerization KW - kinetics KW - polypeptide KW - colloid KW - gelation KW - hydrogel KW - organogel KW - secondary structure KW - physical KW - NCA KW - N-carboxyanhydride KW - Polymer KW - Chemie KW - Biomaterial KW - Polymerisation KW - Kinetik KW - Polypeptid KW - Kolloid KW - Gelieren KW - Hydrogel KW - Organogel KW - Sekundärstruktur KW - physikalisch KW - NCA KW - N-carboxyanhydrid Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396366 ER - TY - THES A1 - Mazzonetto, Sara T1 - On the exact simulation of (skew) Brownian diffusions with discontinuous drift T1 - Über die exakte Simulation (skew) Brownsche Diffusionen mit unstetiger Drift T1 - Simulation exacte de diffusions browniennes (biaisées) avec dérive discontinue N2 - This thesis is focused on the study and the exact simulation of two classes of real-valued Brownian diffusions: multi-skew Brownian motions with constant drift and Brownian diffusions whose drift admits a finite number of jumps. The skew Brownian motion was introduced in the sixties by Itô and McKean, who constructed it from the reflected Brownian motion, flipping its excursions from the origin with a given probability. Such a process behaves as the original one except at the point 0, which plays the role of a semipermeable barrier. More generally, a skew diffusion with several semipermeable barriers, called multi-skew diffusion, is a diffusion everywhere except when it reaches one of the barriers, where it is partially reflected with a probability depending on that particular barrier. Clearly, a multi-skew diffusion can be characterized either as solution of a stochastic differential equation involving weighted local times (these terms providing the semi-permeability) or by its infinitesimal generator as Markov process. In this thesis we first obtain a contour integral representation for the transition semigroup of the multiskew Brownian motion with constant drift, based on a fine analysis of its complex properties. Thanks to this representation we write explicitly the transition densities of the two-skew Brownian motion with constant drift as an infinite series involving, in particular, Gaussian functions and their tails. Then we propose a new useful application of a generalization of the known rejection sampling method. Recall that this basic algorithm allows to sample from a density as soon as one finds an - easy to sample - instrumental density verifying that the ratio between the goal and the instrumental densities is a bounded function. The generalized rejection sampling method allows to sample exactly from densities for which indeed only an approximation is known. The originality of the algorithm lies in the fact that one finally samples directly from the law without any approximation, except the machine's. As an application, we sample from the transition density of the two-skew Brownian motion with or without constant drift. The instrumental density is the transition density of the Brownian motion with constant drift, and we provide an useful uniform bound for the ratio of the densities. We also present numerical simulations to study the efficiency of the algorithm. The second aim of this thesis is to develop an exact simulation algorithm for a Brownian diffusion whose drift admits several jumps. In the literature, so far only the case of a continuous drift (resp. of a drift with one finite jump) was treated. The theoretical method we give allows to deal with any finite number of discontinuities. Then we focus on the case of two jumps, using the transition densities of the two-skew Brownian motion obtained before. Various examples are presented and the efficiency of our approach is discussed. N2 - In dieser Dissertation wird die exakte Simulation zweier Klassen reeller Brownscher Diffusionen untersucht: die multi-skew Brownsche Bewegung mit konstanter Drift sowie die Brownsche Diffusionen mit einer Drift mit endlich vielen Sprüngen. Die skew Brownsche Bewegung wurde in den sechzigern Jahren von Itô and McKean als eine Brownsche Bewegung eingeführt, für die die Richtung ihrer Exkursionen am Ursprung zufällig mit einer gegebenen Wahrscheinlichkeit ausgewürfelt wird. Solche asymmetrischen Prozesse verhalten sich im Wesentlichen wie der Originalprozess außer bei 0, das sich wie eine semipermeable Barriere verhält. Allgemeiner sind skew Diffusionsprozesse mit mehreren semipermeablen Barrieren, auch multi-skew Diffusionen genannt, Diffusionsprozesse mit Ausnahme an den Barrieren, wo sie jeweils teilweise reflektiert wird. Natürlich ist eine multi-skew Diffusion durch eine stochastische Differentialgleichung mit Lokalzeiten (diese bewirken die Semipermeabilität) oder durch ihren infinitesimalen Generator als Markov Prozess charakterisiert. In dieser Arbeit leiten wir zunächst eine Konturintegraldarstellung der Übergangshalbgruppe der multi-skew Brownschen Bewegung mit konstanter Drift durch eine feine Analyse ihrer komplexen Eigenschaften her. Dank dieser Darstellung wird eine explizite Darstellung der Übergangswahrscheinlichkeiten der zweifach-skew Brownschen Bewegung mit konstanter Drift als eine unendliche Reihe Gaußscher Dichten erhalten. Anschlieẞend wird eine nützliche Verallgemeinerung der bekannten Verwerfungsmethode vorgestellt. Dieses grundlegende Verfahren ermöglicht Realisierungen von Zufallsvariablen, sobald man eine leicht zu simulierende Zufallsvariable derart findet, dass der Quotient der Dichten beider Zufallsvariablen beschränkt ist. Die verallgmeinerte Verwerfungsmethode erlaubt eine exakte Simulation für Dichten, die nur approximiert werden können. Die Originalität unseres Verfahrens liegt nun darin, dass wir, abgesehen von der rechnerbedingten Approximation, exakt von der Verteilung ohne Approximation simulieren. In einer Anwendung simulieren wir die zweifach-skew Brownsche Bewegung mit oder ohne konstanter Drift. Die Ausgangsdichte ist dabei die der Brownschen Bewegung mit konstanter Drift, und wir geben gleichmäẞige Schranken des Quotienten der Dichten an. Dazu werden numerische Simulationen gezeigt, um die Leistungsfähigkeit des Verfahrens zu demonstrieren. Das zweite Ziel dieser Arbeit ist die Entwicklung eines exakten Simulationsverfahrens für Brownsche Diffusionen, deren Drift mehrere Sprünge hat. In der Literatur wurden bisher nur Diffusionen mit stetiger Drift bzw. mit einer Drift mit höchstens einem Sprung behandelt. Unser Verfahren erlaubt den Umgang mit jeder endlichen Anzahl von Sprüngen. Insbesondere wird der Fall zweier Sprünge behandelt, da unser Simulationsverfahren mit den bereits erhaltenen Übergangswahrscheinlichkeiten der zweifach-skew Brownschen Bewegung verwandt ist. An mehreren Beispielen demonstrieren wir die Effizienz unseres Ansatzes. KW - exact simulation KW - exakte Simulation KW - skew diffusions KW - Skew Diffusionen KW - local time KW - discontinuous drift KW - diskontinuierliche Drift Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102399 ER - TY - THES A1 - Lyu, Xiaojing T1 - Operators on singular manifolds T1 - Operatoren auf singuläre Mannigfaltigkeiten N2 - We study the interplay between analysis on manifolds with singularities and complex analysis and develop new structures of operators based on the Mellin transform and tools for iterating the calculus for higher singularities. We refer to the idea of interpreting boundary value problems (BVPs) in terms of pseudo-differential operators with a principal symbolic hierarchy, taking into account that BVPs are a source of cone and edge operator algebras. The respective cone and edge pseudo-differential algebras in turn are the starting point of higher corner theories. In addition there are deep relationships between corner operators and complex analysis. This will be illustrated by the Mellin symbolic calculus. N2 - Wir studieren den Zusammenhang zwischen Analysis auf Mannigfaltigkeiten mit Singularitäten und komplexer Analysis und entwickeln neue Strukturen von Operatoren basierend auf der Mellin-Transformation und Hilfsmitteln für die Iteration des Kalküls für höhere Singularitäten. Wir beziehen uns auf die Idee von der Interpretation von Randwert-Problemen (BVPs) durch Pseudo-Differential-operatoren und Hauptsymbol-Hierarchien, unter Berüksichtigung der Tatsache, dass BVPs eine Quelle von Konus- und Kanten-Operator- algebren sind. Die betreffenden Konus- und Kanten-Pseudo-differentiellen Algebren sind wiederum der Startpunkt von höheren Eckentheorien. Zusätzlich bestehen tiefe Beziehungen zwischen Ecken-Operatoren und komplexer Analysis. Dies wird illustiert durch den Mellin-Symbol Kalkül. KW - order filtration KW - Mellin-Symbols KW - singular manifolds KW - Ordnungs-Filtrierung KW - Mellin-Symbole KW - singuläre Mannigfaltigkeiten Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103643 ER - TY - THES A1 - Müller, Maximilian T1 - Organisationsmodelle für Beschaffung, Betrieb und Finanzierung von Lufttransportkapazitäten in der internationalen Katastrophenhilfe T1 - Organizational models for procurement, operations and funding of air transport capacities in humanitarian aid N2 - Die Dissertation befasst sich mit der Organisation von humanitären Lufttransporten bei internationalen Katastrophen. Diese Flüge finden immer dann statt, wenn die eigene Hilfeleistungsfähigkeit der von Katastrophen betroffenen Regionen überfordert ist und Hilfe aus dem Ausland angefordert wird. Bei jedem der darauffolgenden Hilfseinsätze stehen Hilfsorganisationen und weitere mit der Katastrophenhilfe beteiligte Akteure erneut vor der Herausforderung, in kürzester Zeit eine logistische Kette aufzubauen, damit die Güter zum richtigen Zeitpunkt in der richtigen Menge am richtigen Ort eintreffen. Humanitäre Lufttransporte werden in der Regel als Charterflüge organisiert und finden auf langen Strecken zu Zielen statt, die nicht selten abseits der hochfrequentierten Warenströme liegen. Am Markt ist das Angebot für derartige Transportdienstleistungen nicht gesichert verfügbar und unter Umständen müssen Hilfsorganisationen warten bis Kapazitäten mit geeigneten Flugzeugen zur Verfügung stehen. Auch qualitativ sind die Anforderungen von Hilfsorganisationen an die Hilfsgütertransporte höher als im regulären Linientransport. Im Rahmen der Dissertation wird ein alternatives Organisationsmodell für die Beschaffung und den Betrieb sowie die Finanzierung von humanitären Lufttransporten aufgebaut. Dabei wird die gesicherte Verfügbarkeit von besonders flexibel einsetzbaren Flugzeugen in Betracht gezogen, mit deren Hilfe die Qualität und insbesondere die Planbarkeit der Hilfeleistung verbessert werden könnte. Ein idealtypisches Modell wird hier durch die Kopplung der Kollektivgütertheorie, die der Finanzwissenschaft zuzuordnen ist, mit der Vertragstheorie als Bestandteil der Neuen Institutionenökonomik erarbeitet. Empirische Beiträge zur Vertragstheorie bemängeln, dass es bei der Beschaffung von transaktionsspezifischen Investitionsgütern, wie etwa Flugzeugen mit besonderen Eigenschaften, aufgrund von Risiken und Umweltunsicherheiten zu ineffizienten Lösungen zwischen Vertragspartnern kommt. Die vorliegende Dissertation zeigt eine Möglichkeit auf, wie durch Aufbau einer gemeinsamen Informationsbasis ex-ante, also vor Vertragsschluss, Risiken und Umweltunsicherheiten reduziert werden können. Dies geschieht durch eine temporale Erweiterung eines empirischen Modells zur Bestimmung der Organisationsform bei transaktionsspezifischen Investitionsgütern aus der Regulierungsökonomik. Die Arbeitet leistet darüber hinaus einen Beitrag zur Steigerung der Effizienz in der humanitären Logistik durch die fallspezifische Betrachtung von horizontalen Kooperationen und Professionalisierung der Hilfeleistung im Bereich der humanitären Luftfahrt. N2 - Once a disaster occurs and recovery capabilities of the affected regions are exceeded, relief organizations from abroad are faced with sudden demand for establishing a logistical chain in order to deliver relief goods and services at the right time at the right place. Usually, transport capacities for long haul humanitarian transports are ordered as charter flights on the spot market. Market capacities are limited which can lead to delays and surcharges for positioning, though. Based upon theory of finance and institutional economics this thesis shows an organizational model for procurement, operations and funding where secured availability of resources is anticipated. This theoretical approach is then confronted with recent development in civil protection and defense aviation, such as approaches to cooperation through pooling and sharing of capacities and public private partnership, in order to give an economic policy advice. KW - humanitäre Logistik KW - Luftfahrt KW - Katastrophenhilfe KW - Organisationsmodell KW - Finanzierung KW - Hilfsorganisationen KW - Sicherheit KW - Pooling KW - öffentlich private Partnerschaften KW - Organisationsprozesse KW - humanitarian logistics KW - aviation KW - humanitarian aid KW - organization model KW - funding KW - relief organization KW - security KW - pooling KW - public private partnership KW - business processes Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-101021 ER - TY - THES A1 - Ludewig, Matthias T1 - Path integrals on manifolds with boundary and their asymptotic expansions T1 - Pfadintegrale auf Mannigfaltigkeiten mit Rand und ihre asymptotischen Entwicklungen N2 - It is "scientific folklore" coming from physical heuristics that solutions to the heat equation on a Riemannian manifold can be represented by a path integral. However, the problem with such path integrals is that they are notoriously ill-defined. One way to make them rigorous (which is often applied in physics) is finite-dimensional approximation, or time-slicing approximation: Given a fine partition of the time interval into small subintervals, one restricts the integration domain to paths that are geodesic on each subinterval of the partition. These finite-dimensional integrals are well-defined, and the (infinite-dimensional) path integral then is defined as the limit of these (suitably normalized) integrals, as the mesh of the partition tends to zero. In this thesis, we show that indeed, solutions to the heat equation on a general compact Riemannian manifold with boundary are given by such time-slicing path integrals. Here we consider the heat equation for general Laplace type operators, acting on sections of a vector bundle. We also obtain similar results for the heat kernel, although in this case, one has to restrict to metrics satisfying a certain smoothness condition at the boundary. One of the most important manipulations one would like to do with path integrals is taking their asymptotic expansions; in the case of the heat kernel, this is the short time asymptotic expansion. In order to use time-slicing approximation here, one needs the approximation to be uniform in the time parameter. We show that this is possible by giving strong error estimates. Finally, we apply these results to obtain short time asymptotic expansions of the heat kernel also in degenerate cases (i.e. at the cut locus). Furthermore, our results allow to relate the asymptotic expansion of the heat kernel to a formal asymptotic expansion of the infinite-dimensional path integral, which gives relations between geometric quantities on the manifold and on the loop space. In particular, we show that the lowest order term in the asymptotic expansion of the heat kernel is essentially given by the Fredholm determinant of the Hessian of the energy functional. We also investigate how this relates to the zeta-regularized determinant of the Jacobi operator along minimizing geodesics. N2 - Es ist "wissenschaftliche Folklore", abgeleitet von der physikalischen Anschauung, dass Lösungen der Wärmeleitungsgleichung auf einer riemannschen Mannigfaltigkeit als Pfadintegrale dargestellt werden können. Das Problem mit Pfadintegralen ist allerdings, dass schon deren Definition Mathematiker vor gewisse Probleme stellt. Eine Möglichkeit, Pfadintegrale rigoros zu definieren ist endlich-dimensionale Approximation, oder time-slicing-Approximation: Für eine gegebene Unterteilung des Zeitintervals in kleine Teilintervalle schränkt man den Integrationsbereich auf diejenigen Pfade ein, die auf jedem Teilintervall geodätisch sind. Diese endlichdimensionalen Integrale sind wohldefiniert, und man definiert das (unendlichdimensionale) Pfadintegral als den Limes dieser (passend normierten) Integrale, wenn die Feinheit der Unterteilung gegen Null geht. In dieser Arbeit wird gezeigt, dass Lösungen der Wärmeleitungsgleichung auf einer allgemeinen riemannschen Mannigfaltigkeit tatsächlich durch eine solche endlichdimensionale Approximation gegeben sind. Hierbei betrachten wir die Wärmeleitungsgleichung für allgemeine Operatoren von Laplace-Typ, die auf Schnitten in Vektorbündeln wirken. Wir zeigen auch ähnliche Resultate für den Wärmekern, wobei wir uns allerdings auf Metriken einschränken müssen, die eine gewisse Glattheitsbedingung am Rand erfüllen. Eine der wichtigsten Manipulationen, die man an Pfadintegralen vornehmen möchte, ist das Bilden ihrer asymptotischen Entwicklungen; in Falle des Wärmekerns ist dies die Kurzzeitasymptotik. Um die endlich-dimensionale Approximation hier nutzen zu können, ist es nötig, dass die Approximation uniform im Zeitparameter ist. Dies kann in der Tat erreicht werden; zu diesem Zweck geben wir starke Fehlerabschätzungen an. Schließlich wenden wir diese Resultate an, um die Kurzzeitasymptotik des Wärmekerns (auch im degenerierten Fall, d.h. am Schittort) herzuleiten. Unsere Resultate machen es außerdem möglich, die asymptotische Entwicklung des Wärmekerns mit einer formalen asymptotischen Entwicklung der unendlichdimensionalen Pfadintegrale in Verbindung zu bringen. Auf diese Weise erhält man Beziehungen zwischen geometrischen Größen der zugrundeliegenden Mannigfaltigkeit und solchen des Pfadraumes. Insbesondere zeigen wir, dass der Term niedrigster Ordnung in der asymptotischen Entwicklung des Wärmekerns im Wesentlichen durch die Fredholm-Determinante der Hesseschen des Energie-Funktionals gegeben ist. Weiterhin untersuchen wir die Verbindung zur zeta-regularisierten Determinante des Jakobi-Operators entlang von minimierenden Geodätischen. KW - heat equation KW - heat kernel KW - path integral KW - determinant KW - asymptotic expansion KW - Laplace expansion KW - heat asymptotics KW - Wiener measure KW - Wärmeleitungsgleichung KW - Wärmekern KW - Pfadintegrale KW - asymptotische Entwicklung KW - Determinante Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94387 ER - TY - THES A1 - Prasse, Paul T1 - Pattern recognition for computer security T1 - Mustererkennung für Computersicherheit BT - discriminative models for email spam campaign and malware detection BT - diskriminative Modelle zur Erkennung von Email Spam-Kampagnen und Malware N2 - Computer Security deals with the detection and mitigation of threats to computer networks, data, and computing hardware. This thesis addresses the following two computer security problems: email spam campaign and malware detection. Email spam campaigns can easily be generated using popular dissemination tools by specifying simple grammars that serve as message templates. A grammar is disseminated to nodes of a bot net, the nodes create messages by instantiating the grammar at random. Email spam campaigns can encompass huge data volumes and therefore pose a threat to the stability of the infrastructure of email service providers that have to store them. Malware -software that serves a malicious purpose- is affecting web servers, client computers via active content, and client computers through executable files. Without the help of malware detection systems it would be easy for malware creators to collect sensitive information or to infiltrate computers. The detection of threats -such as email-spam messages, phishing messages, or malware- is an adversarial and therefore intrinsically difficult problem. Threats vary greatly and evolve over time. The detection of threats based on manually-designed rules is therefore difficult and requires a constant engineering effort. Machine-learning is a research area that revolves around the analysis of data and the discovery of patterns that describe aspects of the data. Discriminative learning methods extract prediction models from data that are optimized to predict a target attribute as accurately as possible. Machine-learning methods hold the promise of automatically identifying patterns that robustly and accurately detect threats. This thesis focuses on the design and analysis of discriminative learning methods for the two computer-security problems under investigation: email-campaign and malware detection. The first part of this thesis addresses email-campaign detection. We focus on regular expressions as a syntactic framework, because regular expressions are intuitively comprehensible by security engineers and administrators, and they can be applied as a detection mechanism in an extremely efficient manner. In this setting, a prediction model is provided with exemplary messages from an email-spam campaign. The prediction model has to generate a regular expression that reveals the syntactic pattern that underlies the entire campaign, and that a security engineers finds comprehensible and feels confident enough to use the expression to blacklist further messages at the email server. We model this problem as two-stage learning problem with structured input and output spaces which can be solved using standard cutting plane methods. Therefore we develop an appropriate loss function, and derive a decoder for the resulting optimization problem. The second part of this thesis deals with the problem of predicting whether a given JavaScript or PHP file is malicious or benign. Recent malware analysis techniques use static or dynamic features, or both. In fully dynamic analysis, the software or script is executed and observed for malicious behavior in a sandbox environment. By contrast, static analysis is based on features that can be extracted directly from the program file. In order to bypass static detection mechanisms, code obfuscation techniques are used to spread a malicious program file in many different syntactic variants. Deobfuscating the code before applying a static classifier can be subjected to mostly static code analysis and can overcome the problem of obfuscated malicious code, but on the other hand increases the computational costs of malware detection by an order of magnitude. In this thesis we present a cascaded architecture in which a classifier first performs a static analysis of the original code and -based on the outcome of this first classification step- the code may be deobfuscated and classified again. We explore several types of features including token $n$-grams, orthogonal sparse bigrams, subroutine-hashings, and syntax-tree features and study the robustness of detection methods and feature types against the evolution of malware over time. The developed tool scans very large file collections quickly and accurately. Each model is evaluated on real-world data and compared to reference methods. Our approach of inferring regular expressions to filter emails belonging to an email spam campaigns leads to models with a high true-positive rate at a very low false-positive rate that is an order of magnitude lower than that of a commercial content-based filter. Our presented system -REx-SVMshort- is being used by a commercial email service provider and complements content-based and IP-address based filtering. Our cascaded malware detection system is evaluated on a high-quality data set of almost 400,000 conspicuous PHP files and a collection of more than 1,00,000 JavaScript files. From our case study we can conclude that our system can quickly and accurately process large data collections at a low false-positive rate. N2 - Computer-Sicherheit beschäftigt sich mit der Erkennung und der Abwehr von Bedrohungen für Computer-Netze, Daten und Computer-Hardware. In dieser Dissertation wird die Leistungsfähigkeit von Modellen des maschinellen Lernens zur Erkennung von Bedrohungen anhand von zwei konkreten Fallstudien analysiert. Im ersten Szenario wird die Leistungsfähigkeit von Modellen zur Erkennung von Email Spam-Kampagnen untersucht. E-Mail Spam-Kampagnen werden häufig von leicht zu bedienenden Tools erzeugt. Diese Tools erlauben es dem Benutzer, mit Hilfe eines Templates (z.B. einer regulären Grammatik) eine Emailvorlage zu definieren. Ein solches Template kann z.B. auf die Knoten eines Botnetzes verteilt werden. Dort werden Nachrichten mit diesem Template generiert und an verschiedene Absender verschickt. Die damit entstandenen E-Mail Spam-Kampagnen können riesige Datenmengen produzieren und somit zu einer Gefahr für die Stabilität der Infrastruktur von E-Mail-Service-Providern werden. Im zweiten Szenario wird die Leistungsfähigkeit von Modellen zur Erkennung von Malware untersucht. Malware bzw. Software, die schadhaften Programmcode enthält, kann Web-Server und Client-Computer über aktive Inhalte und Client-Computer über ausführbare Dateien beeinflussen. Somit kann die die reguläre und legitime Nutzung von Diensten verhindert werden. Des Weiteren kann Malware genutzt werden, um sensible Informationen zu sammeln oder Computer zu infiltrieren. Die Erkennung von Bedrohungen, die von E-Mail-Spam-Mails, Phishing-E-Mails oder Malware ausgehen, gestaltet sich schwierig. Zum einen verändern sich Bedrohungen von Zeit zu Zeit, zum anderen werden E-Mail-Spam-Mails oder Malware so modifiziert, dass sie von aktuellen Erkennungssystemen nicht oder nur schwer zu erkennen sind. Erkennungssysteme, die auf manuell erstellten Regeln basieren, sind deshalb wenig effektiv, da sie ständig administriert werden müssen. Sie müssen kontinuierlich gewartet werden, um neue Regeln (für veränderte oder neu auftretende Bedrohungen) zu erstellen und alte Regeln anzupassen bzw. zu löschen. Maschinelles Lernen ist ein Forschungsgebiet, das sich mit der Analyse von Daten und der Erkennung von Mustern beschäftigt, um bestimmte Aspekte in Daten, wie beispielsweise die Charakteristika von Malware, zu beschreiben. Mit Hilfe der Methoden des Maschinellen Lernens ist es möglich, automatisiert Muster in Daten zu erkennen. Diese Muster können genutzt werden, um Bedrohung gezielt und genau zu erkennen. Im ersten Teil wird ein Modell zur automatischen Erkennung von E-Mail-Spam-Kampag\-nen vorgestellt. Wir verwenden reguläre Ausdrücke als syntaktischen Rahmen, um E-Mail-Spam-Kampagnen zu beschreiben und E-Mails die zu einer E-Mail-Spam-Kampagne gehören zu identifizieren. Reguläre Ausdrücke sind intuitiv verständlich und können einfach von Administratoren genutzt werden, um E-Mail-Spam-Kampagnen zu beschreiben. Diese Arbeit stellt ein Modell vor, das für eine gegebene E-Mail-Spam-Kampagne einen regulären Ausdruck vorhersagt. In dieser Arbeit stellen wir ein Verfahren vor, um ein Modell zu bestimmen, das reguläre Ausdrücke vorhersagt, die zum Einen die Gesamtheit aller E-Mails in einer Spam-Kampagne abbilden und zum Anderen so verständlich aufgebaut sind, dass ein Systemadministrator eines E-Mail Servers diesen verwendet. Diese Problemstellung wird als ein zweistufiges Lernproblem mit strukturierten Ein- und Ausgaberäumen modelliert, welches mit Standardmethoden des Maschinellen Lernens gelöst werden kann. Hierzu werden eine geeignete Verlustfunktion, sowie ein Dekodierer für das resultierende Optimierungsproblem hergeleitet. Der zweite Teil behandelt die Analyse von Modellen zur Erkennung von Java-Script oder PHP-Dateien mit schadhaften Code. Viele neu entwickelte Malwareanalyse-Tools nutzen statische, dynamische oder eine Mischung beider Merkmalsarten als Eingabe, um Modelle zur Erkennung von Malware zu bilden. Um dynamische Merkmale zu extrahieren, wird eine Software oder ein Teil des Programmcodes in einer gesicherten Umgebung ausgeführt und das Verhalten (z.B. Speicherzugriffe oder Funktionsaufrufe) analysiert. Bei der statischen Analyse von Skripten und Software werden Merkmale direkt aus dem Programcode extrahiert. Um Erkennungsmechanismen, die nur auf statischen Merkmalen basieren, zu umgehen, wird der Programmcode oft maskiert. Die Maskierung von Programmcode wird genutzt, um einen bestimmten schadhaften Programmcode in vielen syntaktisch unterschiedlichen Varianten zu erzeugen. Der originale schadhafte Programmcode wird dabei erst zur Laufzeit generiert. Wird der Programmcode vor dem Anwenden eines Vorhersagemodells demaskiert, spricht man von einer vorwiegend statischen Programmcodeanalyse. Diese hat den Vorteil, dass enthaltener Schadcode einfacher zu erkennen ist. Großer Nachteil dieses Ansatzes ist die erhöhte Laufzeit durch das Demaskieren der einzelnen Dateien vor der Anwendung des Vorhersagemodells. In dieser Arbeit wird eine mehrstufige Architektur präsentiert, in der ein Klassifikator zunächst eine Vorhersage auf Grundlage einer statischen Analyse auf dem originalen Programmcode trifft. Basierend auf dieser Vorhersage wird der Programcode in einem zweiten Schritt demaskiert und erneut ein Vorhersagemodell angewendet. Wir betrachten dabei eine Vielzahl von möglichen Merkmalstypen, wie $n$-gram Merkmale, orthogonal sparse bigrams, Funktions-Hashes und Syntaxbaum Merkmale. Zudem wird in dieser Dissertation untersucht, wie robust die entwickelten Erkennungsmodelle gegenüber Veränderungen von Malware über die Zeit sind. Das vorgestellte Verfahren ermöglicht es, große Datenmengen mit hoher Treffergenauigkeit nach Malware zu durchsuchen. Alle in dieser Dissertation vorgestellten Modelle wurden auf echten Daten evaluiert und mit Referenzmethoden verglichen. Das vorgestellte Modell zur Erkennung von E-Mail-Spam-Kampagnen hat eine hohe richtig-positive Rate und eine sehr kleine falsch-positiv Rate die niedriger ist, als die eines kommerziellen E-Mail-Filters. Das Modell wird von einem kommerziellen E-Mail Service Provider während des operativen Geschäfts genutzt, um eingehende und ausgehende E-Mails eines E-Mails-Servers zu überprüfen. Der Ansatz zur Malwareerkennung wurde auf einem Datensatz mit rund 400.000 verdächtigen PHP Dateien und einer Sammlung von mehr als 1.000.000 Java-Script Dateien evaluiert. Die Fallstudie auf diesen Daten zeigt, dass das vorgestellte System schnell und mit hoher Genauigkeit riesige Datenmengen mit wenigen Falsch-Alarmen nach Malware durchsuchen kann. KW - malware detection KW - structured output prediction KW - pattern recognition KW - computer security KW - email spam detection KW - maschninelles Lernen KW - Computersicherheit KW - strukturierte Vorhersage KW - Klassifikation KW - Vorhersage KW - Spam KW - Malware Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100251 ER - TY - THES A1 - Ata, Metin T1 - Phase-space reconstructions of cosmic velocities and the cosmic web T1 - Phasenraumrekonstruktionen kosmischer Geschwindigkeiten und des kosmischen Netzes BT - structure formation models - galaxy bias models - galaxy redshift surveys - inference analysis N2 - In the current paradigm of cosmology, the formation of large-scale structures is mainly driven by non-radiating dark matter, making up the dominant part of the matter budget of the Universe. Cosmological observations however, rely on the detection of luminous galaxies, which are biased tracers of the underlying dark matter. In this thesis I present cosmological reconstructions of both, the dark matter density field that forms the cosmic web, and cosmic velocities, for which both aspects of my work are delved into, the theoretical formalism and the results of its applications to cosmological simulations and also to a galaxy redshift survey.The foundation of our method is relying on a statistical approach, in which a given galaxy catalogue is interpreted as a biased realization of the underlying dark matter density field. The inference is computationally performed on a mesh grid by sampling from a probability density function, which describes the joint posterior distribution of matter density and the three dimensional velocity field. The statistical background of our method is described in Chapter ”Implementation of argo”, where the introduction in sampling methods is given, paying special attention to Markov Chain Monte-Carlo techniques. In Chapter ”Phase-Space Reconstructions with N-body Simulations”, I introduce and implement a novel biasing scheme to relate the galaxy number density to the underlying dark matter, which I decompose into a deterministic part, described by a non-linear and scale-dependent analytic expression, and a stochastic part, by presenting a negative binomial (NB) likelihood function that models deviations from Poissonity. Both bias components had already been studied theoretically, but were so far never tested in a reconstruction algorithm. I test these new contributions againstN-body simulations to quantify improvements and show that, compared to state-of-the-art methods, the stochastic bias is inevitable at wave numbers of k≥0.15h Mpc^−1 in the power spectrum in order to obtain unbiased results from the reconstructions. In the second part of Chapter ”Phase-Space Reconstructions with N-body Simulations” I describe and validate our approach to infer the three dimensional cosmic velocity field jointly with the dark matter density. I use linear perturbation theory for the large-scale bulk flows and a dispersion term to model virialized galaxy motions, showing that our method is accurately recovering the real-space positions of the redshift-space distorted galaxies. I analyze the results with the isotropic and also the two-dimensional power spectrum.Finally, in Chapter ”Phase-space Reconstructions with Galaxy Redshift Surveys”, I show how I combine all findings and results and apply the method to the CMASS (for Constant (stellar) Mass) galaxy catalogue of the Baryon Oscillation Spectroscopic Survey (BOSS). I describe how our method is accounting for the observational selection effects inside our reconstruction algorithm. Also, I demonstrate that the renormalization of the prior distribution function is mandatory to account for higher order contributions in the structure formation model, and finally a redshift-dependent bias factor is theoretically motivated and implemented into our method. The various refinements yield unbiased results of the dark matter until scales of k≤0.2 h Mpc^−1in the power spectrum and isotropize the galaxy catalogue down to distances of r∼20h^−1 Mpc in the correlation function. We further test the results of our cosmic velocity field reconstruction by comparing them to a synthetic mock galaxy catalogue, finding a strong correlation between the mock and the reconstructed velocities. The applications of both, the density field without redshift-space distortions, and the velocity reconstructions, are very broad and can be used for improved analyses of the baryonic acoustic oscillations, environmental studies of the cosmic web, the kinematic Sunyaev-Zel’dovic or integrated Sachs-Wolfe effect. N2 - In der gegenwärtigen Anschauung der Kosmologie wird die Bildung von großräumigen Strukturen vor allem durch nicht strahlende, Dunkle Materie beeinflusst, die den überwiegenden Teil des Materieanteils des Universums ausmacht. Kosmologische Beobachtungen beruhen jedoch auf dem Nachweis von leuchtenden Galaxien, die gebiaste Indikatoren (biased tracer) der darunterliegenden Dunklen Materie sind. In dieser Arbeit präsentiere ich Rekonstruktionen des kosmischen Netzes der Dunklen Materie und kosmischer Geschwindigkeitsfelder. Beide Aspekte meiner Arbeit, der theoretische Formalismus und die Ergebnisse der Anwendungen sowohl auf kosmologische Simulationen als auch auf Galaxie-Rotverschiebungssurveys, weden detaiiert aufgeführt. Die Grundlage dieser Methode beruht auf einem statistischen Ansatz, bei dem ein gegebener Galaxienkatalog als eine Realisierung des darunter liegenden Dunklen Materiedichtefeldes interpretiert wird. Unsere Rekonstruktionen werden rechnerisch auf einem Gitter durch das Sampling einer Wahrscheinlichkeitsdichtefunktion durchgeführt, die die gemeinsame a posteriori Wahrscheinlichkeit der Materiedichte und des dreidimensionalen Geschwindigkeitsfeldes beschreibt. Der statistische Hintergrund unserer Methode ist im Kapitel "Implantation of argo" beschrieben, wobei die Einführung in die Samplingmethoden unter besonderer Berücksichtigung der Markov-Kette-Monte-Carlo-Technik erfolgt. Im Kapitel "Phase-Space Reconstructions with N-body Simulations" stelle ich ein neuartiges Biasmodell vor, welches die Galaxienanzahldichte mit der darunter liegenden Dunklen Materiedichte verknüpft. Diesen zerlege ich in einen deterministischen, nicht linearen und skalenabhängigen analytischen Teil und einen stochastischen Teil. Das letztere beschreibe ich durch einen Negativ-Binomial-Likelihood Ausdruck, welches die Abweichungen von Poissonität modelliert. Beide Biaskomponenten wurden bereits theoretisch untersucht, aber bisher noch nie in einem Rekonstruktionsalgorithmus getestet. Ich evaluiere diese neuen Beiträge mit $N$-Körper-Simulationen, um die Verbesserungen zu beurteilen und um zu zeigen, dass der stochastische Bias im Leistungsspektrum bei Wellenzahlen von k < 0.15 h Mpc^- 1 unabdingbar ist. Im zweiten Teil des Kapitels "Phase-Space Reconstructions with N-body Simulations" beschreibe und validiere ich unseren Ansatz, das kosmische Geschwindigkeitsfeld gemeinsam mit der Dunklen Materiedichte zu rekonstruieren. Ich verwende lineare Störungstheorie für die großräumigen Potentialströme und einen Dispersionsterm, um virialisierte Galaxiebewegungen zu modellieren. Die Ergebnisse zeigen, dass unsere Methode die Rotverschiebungsverzerrungen der Positionen der Galaxien genau beschreibt. Ich analysiere die Ergebnisse sowohl mit dem anisotropen Leistungsspektrum, als auch mit dem zweidimensionalen Leistungsspektrum. Schließlich zeige ich im Kapitel "Phase-space Reconstructions with Galaxy Redshift Surveys", wie ich alle Ergebnisse kombiniere und die Methode auf den CMASS (für Constant (stellar) Mass) Galaxienkatalog anwende. Ich beschreibe, wie unsere Methode die Selektionseffekte der Beobachtungen innerhalb des Rekonstruktionsalgorithmus berücksichtigt. Weiterhin demonstriere ich, dass die Renormalisierung der a priori Verteilung zwingend erforderlich ist, um die Beiträge höherer Ordnung im Strukturbildungsmodell zu berücksichtigen. Außerdem wird ein rotverschiebungsabhängiger Bias-Faktor theoretisch motiviert und in unseren Algorithmus implementiert. Unsere Rekonstruktionen, welche diese verschiedenen Verfeinerungen beinhaten, führen zu robusten Ergebnissen hinsichtlich des Feldes der Dunklen Materie bis zu Skalen von k <0.2 Mpc^-1 im Leistungsspektrum. Außerdem werden Anisotropien in dem rekonstruierten Galaxienkatalog bis zu Abständen von r~20 h^-1 Mpc in der Korrelationsfunktion zu einem hohen Grad überwunden. Wir testen die Ergebnisse unserer kosmischen Geschwindigkeitsrekonstruktion, indem wir sie mit einem synthetischen Mock-Galaxienkatalog vergleichen und bestätigen eine starke Korrelation zwischen den Mock- und den rekonstruierten Geschwindigkeiten. Die Anwendungen sowohl des Dichtefeldes ohne Rotverschiebungsverzerrungen als auch der Geschwindigkeitsrekonstruktionen sind sehr vielfältig und können für verbesserte Analysen der baryonischen akustischen Oszillationen, Umgebungsstudien des kosmischen Netzes, des kinematischen Sunjajew-Seldowitsch-Effekts oder des integrierten Sachs-Wolfe-Effekts verwendet werden. KW - large-scale structure formation KW - großräumige Strukturen KW - Kosmologie KW - Theorie KW - cosmology KW - theory Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403565 ER - TY - THES A1 - Leiendecker, Mai-Thi T1 - Physikalische Hydrogele auf Polyurethan-Basis T1 - Physical hydrogels based on polyurethanes N2 - Physical hydrogels have gained recent attention as cell substrates, since viscoelasticity or stress relaxation is a powerful parameter in mechanotransduction, which has long been neglected. We designed multi-functional polyurethanes to form physical hydrogels via a unique tunable gelation mechanism. The anionic polyurethanes spontaneously form aggregates in water that are kept in a soluble state through electrostatic repulsion. Fast subsequent gelation can be triggered by charge shielding which allows the aggregation and network building to proceed. This can be induced by adding either acids or salts, resulting in acidic (pH 4-5) or pH-neutral hydrogels, respectively. Whereas conventional polyurethane-based hydrogels are commonly prepared from toxic isocyanate precursors, the physical hydrogelation mechanism described here does not involve chemically reactive species which is ideal for in situ applications in sensitive environments. Both stiffness and stress relaxation can be tuned independently over a broad range and the gels exhibit excellent stress recovery behavior. N2 - Physikalische Hydrogele gewinnen derzeit als Zellsubstrate zunehmend an Interesse, da Viskoelastizität oder Stressrelaxation ein bedeutender Parameter in der Mechanotransduktion ist, der bisher vernachlässigt wurde. In dieser Arbeit wurden multi-funktionelle Polyurethane entworfen, die über einen neuartigen Gelierungsmechanismus physikalische Hydrogele bilden. In Wasser bilden die anionischen Polyurethane spontan Aggregate, welche durch elektrostatische Abstoßung in Lösung gehalten werden. Eine schnelle Gelierung kann von hier aus durch Ladungsabschirmung erreicht werden, wodurch die Aggregation voranschreitet und ein Netzwerk ausgebildet wird. Dies kann durch die Zugabe von verschiedenen Säuren oder Salzen geschehen, sodass sowohl saure (pH 4 - 5) als auch pH-neutrale Hydrogele erhalten werden können. Während konventionelle Hydrogele auf Polyurethan-Basis in der Regel durch toxische isocyanat-haltige Präpolymere hergestellt werden, eignet sich der hier beschriebene physikalische Gelierungsmechanismus für in situ Anwendungen in sensitiven Umgebungen. Sowohl Härte als auch Stressrelaxation der Hydrogele können unabhängig voneinander über einen breiten Bereich eingestellt werden. Darüberhinaus zeichnen sich die Hydrogele durch exzellente Stressregeneration aus. KW - Polyurethane KW - Hydrogele KW - physikalische Hydrogele KW - Kolloidchemie KW - Viskoelastizität KW - Stressrelaxation KW - Stressrelaxierung KW - Bulkgele KW - Mikrogele KW - Mechanotransduktion KW - polyurethanes KW - hydrogels KW - physical hydrogels KW - colloidal chemistry KW - viscoelasticity KW - stress-relaxation KW - stress relaxation KW - bulk gels KW - microgels KW - mechanotransduction Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103917 ER - TY - THES A1 - Richter, Robert T1 - Physiotherapie und Wissenschaft T1 - Physiotherapy and science BT - die wissenschaftliche Emanzipation der Physiotherapie im Spannungsfeld von Disziplinbildung und Professionalisierung BT - the scientific emancipation on the Physiotherapy in the area of conflict from forming a scientific discipline and professionalization N2 - Die empirische Studie hat die Verwissenschaftlichung der Physiotherapie und deren Relevanz für die berufliche Praxis in Deutschland zum Gegenstand. Unter Verwissenschaftlichung werden Prozesse der wissenschaftlichen Disziplinbildung und Akademisierung verstanden. Die Praxisrelevanz drückt sich in Veränderungsbestrebungen der Physiotherapie vom Beruf hin zur Profession aus. Ausgehend von wissenschaftstheoretischen Ansätzen zur Disziplinbildung, Akademisierung und Professionalisierung sowie dem diesbezüglichen physiotherapeutischen Forschungsstand wendet sich die Arbeit aus den Perspektiven historischer und gegenwärtiger wissenschaftlicher Formierungsprozesse der empirischen Analyse des beschriebenen Gegenstandes zu. Die zentralen Fragestellungen der vorliegenden Arbeit sind: Auf welcher theoretischen Basis werden welche der Physiotherapie impliziten Gegenstände im Kontext welchen Theorie-Praxis-Verständnisses konstituiert? Und: Gibt es ein theoretisches Fundament in Form von Theorien und Modellen, aus welchem sich forschungsmethodologische und wissenschaftstheoretische Zugänge begründen lassen und inwieweit zeigt sich hier das Potential zur Heranbildung einer wissenschaftlichen Disziplin? Wie bezieht sich die Wissenschaft dabei auf eine professionelle Praxis und umgekehrt? Der empirische Zugang zum Gegenstand erfolgte auf zwei Wegen: 1. Fachzeitschriftenanalyse zur Erfassung der Historizität, 2. Experteninterviews zur Erfassung der Kontextualität der Verwissenschaftlichung. Die vorliegende Arbeit versteht sich als Beitrag zum wissenschaftlichen Diskurs in der Physiotherapie. Sie verfolgt das Ziel, eine empirisch belastbare Aussage bezüglich des Gelingens einer Disziplinbildung sowie des Akademisierungsprozesses in Deutschland zu treffen und diese in Beziehung zum Praxisfeld zu setzen. Empirisch relevant ist hierfür die Analyse der Historie. Letztere wiederum definiert den Weg zu einer ebenfalls zu analysierenden gegenwärtigen gesellschaftlichen Verortung. Die vorliegenden Analysen rekonstruieren die Emanzipation der Physiotherapie in Deutschland von einem Heilhilfsberuf hin zu einer eigenständigen Profession mit dem Fokus auf Prozesse der Disziplinbildung und Akademisierung. Die Ergebnisse der Arbeit sind vielfältig und zeigen, dass die deutsche Physiotherapie sich unter anderem durch die Akademisierung auf dem Weg zu einer Wissenschaft sowie einer Profession befindet. Allerdings führt die Parallelität von Theoriebildung und Praxishandeln im Sinne einer kaum nachweisbaren Verschränkung beider Handlungsebenen zu dem Schluss, dass die untersuchten Prozesse bislang nicht zwangsläufig zu wissenschaftlich emanzipatorischem Erfolg führen müssen. N2 - The topic of this thesis is the scientification of physiotherapy and its relevance for a professional practice in Germany. The meaning of scientification is the process of scientific discipline formation and academization. The practical relevance is expressed in a changing process of physiotherapy from a former occupation to a scientific founded profession. The monograph is based on theoretical approaches of scientific discipline formation, academization and professionalization as well as the related current state of research in the field of physiotherapy. The empirical study analyzes the topic from a perspective of historicity and contextuality of scientification. The central research questions of this thesis are: What is the theoretical basis on which physiotherapy implicit objects are constituted in the context of which theoretical and practical understanding? And: Is there a theoretical basis in form of theories and models to justify research methodology and theoretical scientific approaches with an implicit capability for a scientific discipline of physiotherapy? How does science thereby refer to a professional practice and vice versa? The subject’s empirical approach was designed in two ways: 1. A journal analysis to evaluate the historicity 2. Expert interviews to assess the contextuality of scientification. The present work considers itself a contribution to the scientific discourse in the field of physiotherapy, with the aim for an empirical founded statement about the successful process of scientification of physiotherapy in Germany and the relation of this process to the field of practice. Empirically relevant for this is a historical analysis, which determines the way to an also analyzed contextual positioning in society. The present analyzes reconstructs the emancipation of physiotherapy in Germany by a paramedical towards an independent profession with focus on the forming processes of a discipline formation and academization. The results of the analysis are diverse and show that the German physiotherapy inter alia is on the way to become a scientific field through increasing academization as well as an independent profession. However, the parallelism of theory formation and acting in practice, without a nameable interaction of both levels, leads to the conclusion that the examined processes do not generate an emancipatory success in a necessary manner. KW - Physiotherapie KW - Verwissenschaftlichung KW - wissenschaftliche Disziplin KW - Disziplinbildung KW - Akademisierung KW - Professionalisierung KW - empirische Studie KW - Theorie Praxis Beziehung KW - physiotherapy KW - scientification KW - scientific diszipline KW - academization KW - professionalisation KW - empirical study KW - theory practice relation KW - diszipline formation Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94704 ER -