TY - THES A1 - Stief, Anna T1 - Genetics and ecology of plant heat stress memory Y1 - 2016 ER - TY - THES A1 - Olonscheck, Mady T1 - Climate change impacts on electricity and residential energy demand T1 - Auswirkungen des Klimawandels auf den Stromsektor und den Energiebedarf von Wohngebäuden N2 - The energy sector is both affected by climate change and a key sector for climate protection measures. Energy security is the backbone of our modern society and guarantees the functioning of most critical infrastructure. Thus, decision makers and energy suppliers of different countries should be familiar with the factors that increase or decrease the susceptibility of their electricity sector to climate change. Susceptibility means socioeconomic and structural characteristics of the electricity sector that affect the demand for and supply of electricity under climate change. Moreover, the relevant stakeholders are supposed to know whether the given national energy and climate targets are feasible and what needs to be done in order to meet these targets. In this regard, a focus should be on the residential building sector as it is one of the largest energy consumers and therefore emitters of anthropogenic CO 2 worldwide. This dissertation addresses the first aspect, namely the susceptibility of the electricity sector, by developing a ranked index which allows for quantitative comparison of the electricity sector susceptibility of 21 European countries based on 14 influencing factors. Such a ranking has not been completed to date. We applied a sensitivity analysis to test the relative effect of each influencing factor on the susceptibility index ranking. We also discuss reasons for the ranking position and thus the susceptibility of selected countries. The second objective, namely the impact of climate change on the energy demand of buildings, is tackled by means of a new model with which the heating and cooling energy demand of residential buildings can be estimated. We exemplarily applied the model to Germany and the Netherlands. It considers projections of future changes in population, climate and the insulation standards of buildings, whereas most of the existing studies only take into account fewer than three different factors that influence the future energy demand of buildings. Furthermore, we developed a comprehensive retrofitting algorithm with which the total residential building stock can be modeled for the first time for each year in the past and future. The study confirms that there is no correlation between the geographical location of a country and its position in the electricity sector susceptibility ranking. Moreover, we found no pronounced pattern of susceptibility influencing factors between countries that ranked higher or lower in the index. We illustrate that Luxembourg, Greece, Slovakia and Italy are the countries with the highest electricity sector susceptibility. The electricity sectors of Norway, the Czech Republic, Portugal and Denmark were found to be least susceptible to climate change. Knowledge about the most important factors for the poor and good ranking positions of these countries is crucial for finding adequate adaptation measures to reduce the susceptibility of the electricity sector. Therefore, these factors are described within this study. We show that the heating energy demand of residential buildings will strongly decrease in both Germany and the Netherlands in the future. The analysis for the Netherlands focused on the regional level and a finer temporal resolution which revealed strong variations in the future heating energy demand changes by province and by month. In the German study, we additionally investigated the future cooling energy demand and could demonstrate that it will only slightly increase up to the middle of this century. Thus, increases in the cooling energy demand are not expected to offset reductions in heating energy demand. The main factor for substantial heating energy demand reductions is the retrofitting of buildings. We are the first to show that the given German and Dutch energy and climate targets in the building sector can only be met if the annual retrofitting rates are substantially increased. The current rate of only about 1 % of the total building stock per year is insufficient for reaching a nearly zero-energy demand of all residential buildings by the middle of this century. To reach this target, it would need to be at least tripled. To sum up, this thesis emphasizes that country-specific characteristics are decisive for the electricity sector susceptibility of European countries. It also shows for different scenarios how much energy is needed in the future to heat and cool residential buildings. With this information, existing climate mitigation and adaptation measures can be justified or new actions encouraged. N2 - Der Energiesektor ist sowohl vom Klimawandel betroffen als auch ein Schlüsselsektor für Maßnahmen zum Klimaschutz. Energiesicherheit ist das Rückgrat unserer modernen Gesellschaft und gewährleistet das Funktionieren der meisten kritischen Infrastrukturen. Daher sollten Entscheidungsträger und Energieversorger verschiedener Länder mit den Faktoren vertraut sein, welche die Anfälligkeit ihres Elektrizitätssektors gegenüber dem Klimawandel beeinflussen. Anfälligkeit meint die sozio-ökonomischen und strukturellen Eigenschaften des Elektrizitätssektors, die die Nachfrage nach und das Angebot an Strom unter sich änderndem Klima erhöhen oder verringern. Darüber hinaus sollten die relevanten Akteure wissen, ob die gesetzten nationalen Energie- und Klimaziele umsetzbar sind und was getan werden muss, um diese Ziele zu erreichen. In diesem Zusammenhang sollte ein Schwerpunkt auf dem Wohngebäudesektor liegen, da dieser einer der größten Energieverbraucher und damit anthropogen bedingter CO2-Emittenten weltweit ist. Diese Dissertation befasst sich mit dem ersten Aspekt, der Anfälligkeit des Elektrizitätssektors, durch die Entwicklung eines Rankings, welches einen quantitativen Vergleich der Anfälligkeit des Elektrizitätssektors von 21 europäischen Ländern anhand von 14 Einflussfaktoren ermöglicht. Solch ein Ranking wurde bisher noch nicht erstellt. Wir führten eine Sensitivitätsanalyse durch, um den relativen Einfluss eines jeden Einflussfaktors auf das Ranking gemäß der Anfälligkeit zu testen. Wir diskutieren zudem Gründe für die Ranking-Position und damit die Anfälligkeit ausgewählter Länder. Das zweite Thema, der Einfluss des Klimawandels auf den Gebäudeenergiebedarf, wird mittels eines neuen Modells bearbeitet, mit welchem der Heiz- und Kühlenergiebedarf von Wohngebäuden abgeschätzt werden kann. Wir wandten das Modell exemplarisch für Deutschland und die Niederlande an. Es berücksichtigt Prognosen für zukünftige Veränderungen der Bevölkerung, des Klimas und des Dämmstandards von Gebäuden, während die meisten der bestehenden Studien nur weniger als drei verschiedene Faktoren berücksichtigen, die den zukünftigen Energiebedarf von Gebäuden beeinflussen. Darüber hinaus haben wir einen umfassenden Sanierungsalgorithmus entworfen, mit welchem der gesamte Wohngebäudebestand erstmals für jedes Jahr in der Vergangenheit und Zukunft modelliert werden kann. Die Studie bestätigt, dass es keinen Zusammenhang zwischen der geographischen Lage eines Landes und seiner Position im Ranking gemäß der Anfälligkeit seines Elektrizitätssektors gibt. Wir fanden auch kein deutliches Muster der Einflussfaktoren für die Anfälligkeit zwischen Ländern, die beim Ranking schlechter oder besser abschnitten. Wir verdeutlichen, dass Luxemburg, Griechenland, die Slowakei und Italien die Länder mit der höchsten Anfälligkeit ihres Elektrizitätssektors sind. Die Elektrizitätssektoren von Norwegen, Tschechien, Portugal und Dänemark zeigten sich als am wenigsten anfällig gegenüber dem Klimawandel. Kenntnisse hinsichtlich der wichtigsten Faktoren für die schlechte bzw. gute Rankingposition dieser Länder sind von entscheidender Bedeutung, um geeignete Anpassungsmaßnahmen zu finden, welche die Anfälligkeit des Elektrizitätssektors reduzieren. Daher werden solche Faktoren in dieser Studie beschrieben. Wir zeigen, dass der Heizenergiebedarf von Wohngebäuden sowohl in Deutschland als auch in den Niederlanden in der Zukunft stark abnehmen wird. Die Analyse für die Niederlande konzentrierte sich auf die regionale Ebene und hatte eine feinere zeitliche Auflösung, wodurch starke zukünftige Veränderungen beim Heizenergiebedarf pro Provinz und Monat deutlich wurden. In der deutschen Studie untersuchten wir zusätzlich den zukünftigen Kühlenergiebedarf und konnten darlegen, dass dieser bis zur Mitte dieses Jahrhunderts nur leicht zunehmen wird. So werden Steigerungen beim Kühlenergiebedarf voraussichtlich nicht die Reduktionen des Heizenergiebedarfs wettmachen. Der wichtigste Faktor für beträchtliche Heizenergiebedarfssenkungen ist die Sanierung von Gebäuden. Wir sind die ersten, die zeigen, dass die festgelegten deutschen und niederländischen Energie- und Klimaziele im Gebäudesektor nur dann erfüllt werden können, wenn die jährliche Sanierungsrate deutlich erhöht wird. Die derzeitige Rate von nur etwa 1% des Gesamtgebäudebestandes pro Jahr reicht nicht aus, dass bis zur Mitte dieses Jahrhunderts alle Wohngebäude einen nahezu energieneutralen Standard erreichen. Dafür müsste sie mindestens verdreifacht werden. Diese Arbeit betont, dass länderspezifische Merkmale eine entscheidende Rolle spielen für die Anfälligkeit des Elektrizitätssektors europäischer Länder. Sie zeigt zudem für verschiedene Szenarien, wie viel Energie in der Zukunft benötigt wird, um Wohngebäude zu heizen und zu kühlen. Mit diesen Informationen lassen sich bestehende Klimaschutz- und Anpassungsmaßnahmen rechtfertigen oder neue Maßnahmen anregen. KW - climate change KW - energy demand KW - residential buildings KW - mitigation KW - susceptibility of the European electricity sector KW - Klimawandel KW - Stromsektor KW - Sanierung KW - Gebäudenergiebedarf KW - Haushalte KW - Europa Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98378 ER - TY - THES A1 - Schumacher, Reinhard T1 - Adam Smith, foreign trade and economic development BT - essays in historiographic revision Y1 - 2016 ER - TY - THES A1 - Al-Saffar, Loay Talib Ahmed T1 - Analysing prerequisites, expectations, apprehensions, and attitudes of University students studying computer science Y1 - 2016 ER - TY - THES A1 - Marc, Odin T1 - Earthquake-induced landsliding T1 - Erdbeben induzierten Hangrutschungen BT - earthquakes as erosional agents across timescales BT - Erdbeben als Erosions-Agenten über Zeitskalen N2 - Earthquakes deform Earth's surface, building long-lasting topographic features and contributing to landscape and mountain formation. However, seismic waves produced by earthquakes may also destabilize hillslopes, leading to large amounts of soil and bedrock moving downslope. Moreover, static deformation and shaking are suspected to damage the surface bedrock and therefore alter its future properties, affecting hydrological and erosional dynamics. Thus, earthquakes participate both in mountain building and stimulate directly or indirectly their erosion. Moreover, the impact of earthquakes on hillslopes has important implications for the amount of sediment and organic matter delivered to rivers, and ultimately to oceans, during episodic catastrophic seismic crises, the magnitude of life and property losses associated with landsliding, the perturbation and recovery of landscape properties after shaking, and the long term topographic evolution of mountain belts. Several of these aspects have been addressed recently through individual case studies but additional data compilation as well as theoretical or numerical modelling are required to tackle these issues in a more systematic and rigorous manner. This dissertation combines data compilation of earthquake characteristics, landslide mapping, and seismological data interpretation with physically-based modeling in order to address how earthquakes impact on erosional processes and landscape evolution. Over short time scales (10-100 s) and intermediate length scales (10 km), I have attempted to improve our understanding and ability to predict the amount of landslide debris triggered by seismic shaking in epicentral areas. Over long time scales (1-100 ky) and across a mountain belt (100 km) I have modeled the competition between erosional unloading and building of topography associated with earthquakes. Finally, over intermediate time scales (1-10 y) and at the hillslope scale (0.1-1 km) I have collected geomorphological and seismological data that highlight persistent effects of earthquakes on landscape properties and behaviour. First, I compiled a database on earthquakes that produced significant landsliding, including an estimate of the total landslide volume and area, and earthquake characteristics such as seismic moment and source depth. A key issue is the accurate conversion of landslide maps into volume estimates. Therefore I also estimated how amalgamation - when mapping errors lead to the bundling of multiple landslide into a single polygon - affects volume estimates from various earthquake-induced landslide inventories and developed an algorithm to automatically detect this artifact. The database was used to test a physically-based prediction of the total landslide area and volume caused by earthquakes, based on seismological scaling relationships and a statistical description of the landscape properties. The model outperforms empirical fits in accuracy, with 25 out of 40 cases well predicted, and allows interpretation of many outliers in physical terms. Apart from seismological complexities neglected by the model I found that exceptional rock strength properties or antecedent conditions may explain most outliers. Second, I assessed the geomorphic effects of large earthquakes on landscape dynamics by surveying the temporal evolution of precipitation-normalized landslide rate. I found strongly elevated landslide rates following earthquakes that progressively recover over 1 to 4 years, indicating that regolith strength drops and recovers. The relaxation is clearly non-linear for at least one case, and does not seem to correlate with coseismic landslide reactivation, water table level increase or tree root-system recovery. I suggested that shallow bedrock is damaged by the earthquake and then heals on annual timescales. Such variations in ground strength must be translated into shallow subsurface seismic velocities that are increasingly surveyed with ambient seismic noise correlations. With seismic noise autocorrelation I computed the seismic velocity in the epicentral areas of three earthquakes where I constrained a change in landslide rate. We found similar recovery dynamics and timescales, suggesting that seismic noise correlation techniques could be further developed to meaningfully assess ground strength variations for landscape dynamics. These two measurements are also in good agreement with the temporal dynamics of post-seismic surface displacement measured by GPS. This correlation suggests that the surface healing mechanism may be driven by tectonic deformation, and that the surface regolith and fractured bedrock may behave as a granular media that slowly compacts as it is sheared or vibrated. Last, I compared our model of earthquake-induced landsliding with a standard formulation of surface deformation caused by earthquakes to understand which parameters govern the competition between the building and destruction of topography caused by earthquakes. In contrast with previous studies I found that very large (Mw>8) earthquakes always increase the average topography, whereas only intermediate (Mw ~ 7) earthquakes in steep landscapes may reduce topography. Moreover, I illustrated how the net effect of earthquakes varies with depth or landscape steepness implying a complex and ambivalent role through the life of a mountain belt. Further I showed that faults producing a Gutenberg-Richter distribution of earthquake sizes, will limit topography over a larger range of fault sizes than faults producing repeated earthquakes with a characteristic size. N2 - Erdbeben gestalten die Erdoberfläche, sie tragen langfristig zum Aufbau von Topografie sowie zur Landschafts- und Gebirgsbildung bei. Die von Erdbeben erzeugten seismischen Erschütterungen können Gebirge jedoch auch destabilisieren und grosse Mengen an Boden sowie Grundgestein zum Abrutschen bringen und zerrüten. Erdbeben wirken daher sowohl auf die Gebirgsbildung als auch auf ihre Denudation. Ein detailliertes Verständnis der Auswirkungen von Erdbeben auf Hangstabilität ist eine wichtige Voraussetzung um die Zusammenhänge mit anderen Prozesse besser nachzuvollziehen: der kurzfristige Transport von Sedimenten und organischem Material in Flüsse und ihre Ablagerung bis in die Ozeane; der Verlust von Leben und Infrastruktur durch Hangrutschungen verbunden mit episodischen, katastrophalen, seismischen Ereignissen; die Störung und Wiederherstellung von Landschaftseigenschaften nach Erdbeben; sowie die langfristigen topographischen Entwicklung von ganzen Gebirgsketten. Einige dieser Forschungsfragen wurden kürzlich in einzelnen Fallstudien betrachtet aber zusätzliche Datenerfassung, theoretische und numerische Modellierung sind erforderlich, um diese Prozesse detaillierter zu erfassen. In dieser Dissertation werden Daten zu Eigenschaften der Erdbeben sowie aus Hangrutsch kartierungen und die Interpretation seismologischer Daten mit physikalischer Modellierung kombiniert, um die folgende übergreifende Frage zu beantworten: Wie beeinflussen Erdbeben die Erosionsprozesse in der Landschaftsentwicklung? Auf einer kurzen Zeitskala (10-100 s) und einer mittleren räumlichen Skala (10 km), habe ich versucht sowohl unser Prozessverständnis zu vertiefen als auch Vorhersagen über das gesamte Volumen der Rutschungen welche durch seismische Beben in der unmittelbaren Umgebung von Epizentren ausgelöst wurden, zu treffen und zu verbessern Auf einer langen Zeitskala (1-100 ky) und über einen Gebirgsgürtel (100 km) habe ich die durch Erdbeben ausgelösten konkurrierenden Prozesse von Abflachung von Topografie durch Erosion und den Aufbau von Topografie durch Hebung, modelliert. Auf einer mittleren Zeitskala (1-10 Jahre) und einer relativ kleinen Hangskala (0,1-1 km) habe ich geomorphologische und seismologische Daten erhoben, welche die anhaltenden Auswirkungen von Erdbeben auf Landschaftseigenschaften und deren Dynamic hervorheben. Zuerst habe ich eine Datenbank von Erdbeben erstellt, welche erhebliche Hangrutschungen ausgelöst hatten, einschliesslich einer Schätzung des gesamten Hangrutschungsvolumens und der Erdbebencharakteristiken wie z.B. seismischer Moment und Lage des Hypozentrums. Ich habe auch beurteilt, wie die Kartierung von Erdrutschen die Abschätzungen des Gesamtvolumens fehlerhaft beeinflussen können und präsentiere einen Algorithmus, um solche Fehler automatisch zu erkennen. Diese Datenbank wurde verwendet, um eine physisch-basierte Vorhersage der durch Erdbeben verursachten gesamten Hangrutschungsflächen und Volumen zu testen, welche auf seismologischen Skalierungsbeziehungen und auf einer statistischen Beschreibung der Landschaftseigenschaften basiert. Zweitens untersuchte ich den Einfluss von starken Erdbeben auf die Landschaftsdynamik durch das Vermessen der temporalen Entwicklung der Suszeptibilität von Hangrutschungen. Ich habe gezeigt, dass die stark erhöhte Hangrutschrate nach dem Erdbeben schrittweise nach einigen Jahren zurückging. Diesen Rückgang über die Zeit interpretiere ich als die Zerrüttung von oberflächennahem Gestein durch das Erdbeben und die Heilung der dadurch entstandenen Risse über der Zeit. Meine Daten deuten darauf hin, dass die Zerrüttungen und die anschliessende Heilung des Festgesteins in dem epizentralen Gebieten mit ambienten, seismischen Hintergrundrauschen überwacht werden kann. Möglicherweise wird die Heilung zusätzlich durch andauernde post-seismische Deformation angetrieben. Am Ende der Arbeit vergleiche ich meine entwickelten Modelle von erdbebenbedingten Hangrutschungen mit einer Standardformel für erdbebenverursachte Oberflächendeformierung. Mit diesem Vergleich zeige ich welche Parameter den Wettstreit zwischen der Hebung von Topografie und der gleichzeitigen Zerstörung von Topografie durch Erdbeben bestimmen. Ich zeige, dass nur mittlere - Mw ~ 7 - Erdbeben die Topografie reduzieren können im Gegensatz zu stärkeren - Mw > 8 - Beben die immer einen effektive Bildung von Topografie verursachen. Meine Ergebnisse zeigen die komplexen Zusammenhänge von Erdbeben in der Gebirgsbildung. KW - earthquake KW - landslide KW - erosion KW - Erdbeben KW - Erdrutsch KW - Erosion KW - topography KW - Topographie Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96808 ER - TY - THES A1 - Gutsch, Martin T1 - Model-based analysis of climate change impacts on the productivity of oak-pine forests in Brandenburg T1 - Modell-basierte Analyse der Auswirkungen des Klimawandels auf die Produktivität von Eichen-Kiefern-Mischbeständen in Brandenburg N2 - The relationship between climate and forest productivity is an intensively studied subject in forest science. This Thesis is embedded within the general framework of future forest growth under climate change and its implications for the ongoing forest conversion. My objective is to investigate the future forest productivity at different spatial scales (from a single specific forest stand to aggregated information across Germany) with focus on oak-pine forests in the federal state of Brandenburg. The overarching question is: how are the oak-pine forests affected by climate change described by a variety of climate scenarios. I answer this question by using a model based analysis of tree growth processes and responses to different climate scenarios with emphasis on drought events. In addition, a method is developed which considers climate change uncertainty of forest management planning. As a first 'screening' of climate change impacts on forest productivity, I calculated the change in net primary production on the base of a large set of climate scenarios for different tree species and the total area of Germany. Temperature increases up to 3 K lead to positive effects on the net primary production of all selected tree species. But, in water-limited regions this positive net primary production trend is dependent on the length of drought periods which results in a larger uncertainty regarding future forest productivity. One of the regions with the highest uncertainty of net primary production development is the federal state of Brandenburg. To enhance the understanding and ability of model based analysis of tree growth sensitivity to drought stress two water uptake approaches in pure pine and mixed oak-pine stands are contrasted. The first water uptake approach consists of an empirical function for root water uptake. The second approach is more mechanistic and calculates the differences of soil water potential along a soil-plant-atmosphere continuum. I assumed the total root resistance to vary at low, medium and high total root resistance levels. For validation purposes three data sets on different tree growth relevant time scales are used. Results show that, except the mechanistic water uptake approach with high total root resistance, all transpiration outputs exceeded observed values. On the other hand high transpiration led to a better match of observed soil water content. The strongest correlation between simulated and observed annual tree ring width occurred with the mechanistic water uptake approach and high total root resistance. The findings highlight the importance of severe drought as a main reason for small diameter increment, best supported by the mechanistic water uptake approach with high root resistance. However, if all aspects of the data sets are considered no approach can be judged superior to the other. I conclude that the uncertainty of future productivity of water-limited forest ecosystems under changing environmental conditions is linked to simulated root water uptake. Finally my study aimed at the impacts of climate change combined with management scenarios on an oak-pine forest to evaluate growth, biomass and the amount of harvested timber. The pine and the oak trees are 104 and 9 years old respectively. Three different management scenarios with different thinning intensities and different climate scenarios are used to simulate the performance of management strategies which explicitly account for the risks associated with achieving three predefined objectives (maximum carbon storage, maximum harvested timber, intermediate). I found out that in most cases there is no general management strategy which fits best to different objectives. The analysis of variance in the growth related model outputs showed an increase of climate uncertainty with increasing climate warming. Interestingly, the increase of climate-induced uncertainty is much higher from 2 to 3 K than from 0 to 2 K. N2 - Diese Arbeit befasst sich mit der Modellierung der Produktivität von Eichen-Kiefern Mischbeständen mit besonderem Fokus auf das Bundesland Brandenburg. Es werden drei Hauptfragen bearbeitet: a) wie verhält sich die Produktivität der beiden Baumarten im Vergleich zu den beiden anderen Hauptbaumarten Fichte und Buche im gesamtdeutschen Vergleich unter verschiedenen Klimaszenarien, b) wie wichtig ist der Prozess der Wasseraufnahme über die Wurzeln bei der Modellierung der Produktivität unter Bedingungen von Trockenjahren, c) wie lassen sich Unsicherheiten durch Bewirtschaftung und Klimaszenarien in der Modellierung der Eichen-Kiefern Mischbestände und bei nachfolgenden Entscheidungsprozessen berücksichtigen? Der methodische Schwerpunkt der Arbeit liegt auf der Modellierung. Im ersten Teil der Arbeit werden mit Hilfe von verschiedenen unabhängigen Umweltvariablen des Klimas und des Bodens Wirkungsbeziehungen zur Produktivität ermittelt, die Aussagen zur Veränderung der Produktivität in Abhängigkeit dieser Umweltvariablen erlauben. Damit können verschiedene Regionen in Deutschland auf ihre Sensitivität der Produktivität gegenüber verschiedenen Klimaszenarien hin untersucht werden. Im zweiten Teil werden innerhalb eines prozess-basierten Waldwachstumsmodell 4C zwei unterschiedliche Ansätze der Wasseraufnahme über die Wurzeln analysiert. Dabei werden Messdaten zur Transpiration, zu Bodenwassergehalten und zu Durchmesserzuwächsen auf Basis von Jahrringchronologien zur Überprüfung herangezogen. Der erste Ansatz ist eine empirisch abgeleitete Gleichung, die die Wasseraufnahme in Abhängigkeit des Wassergehalts beschreibt. Der zweite Ansatz berücksichtigt die unterschiedlichen Druckpotenziale sowie einzelne Widerstände entlang des Wasserflusses vom Boden über die Pflanze in die Atmosphäre. Im dritten Teil der Arbeit wird das Waldwachstumsmodell angewendet und eine Auswahlmethodik vorgestellt, die Entscheidungen bei Unsicherheit erlaubt. Dabei werden die vorhandenen Unsicherheiten, hervorgerufen durch Bewirtschaftung und Klima, in den Prozess der Entscheidungsfindung quantitativ mit einbezogen. Drei verschiedene Bewirtschaftungsstrategien, die unterschiedliche Durchforstungsstärken beinhalten, werden simuliert und ihr Erreichen von drei vorher festgelegten Ziele (maximale Kohlenstoffspeicherung im Bestand, maximale Holzernte, moderates Ziel hinsichtlich Kohlenstoffspeicherung und Holzernte) untersucht. Bezogen auf die erste Frage ergibt die Arbeit zwei wesentliche Ergebnisse. Eine Temperaturerhöhung bis zu drei Kelvin bis 2060 führt zu positiven Ergebnissen in der Produktivität von Eichen-, Kiefern-, Buchen- und Fichtenbeständen. Allerdings ist in niederschlagsarmen Regionen, wie im nordostdeutschen Tiefland, dieser positive Trend stark abhängig von der Länge der Trockenperioden innerhalb der Vegetationszeit. Demzufolge ist die Produktivitätsveränderung der vier Baumarten im Land Brandenburg mit der höchsten Unsicherheit im Vergleich zu den anderen Bundesländern verbunden. Zur zweiten Frage gibt die Arbeit zwei wesentliche Ergebnisse. Im Vergleich mit den Messdaten auf unterschiedlicher zeitlicher und physiologischer Ebene kann kein Ansatz ermittelt werden, der jeweils das bessere Ergebnis erzielt. Im Vergleich von Transpiration, Bodenwassergehalt und Trockenjahren ergeben sich zwar etwas bessere Ergebnisse für den prozess-basierten gegenüber dem empirischen Ansatz, doch sind diese sehr stark abhängig vom angenommenen Wurzelwiderstand. Dieser ist schwer zu bestimmen und verhindert bisher eine breite Anwendung des Ansatzes innerhalb der Waldwachstumsmodelle. Hier ist weiterer Forschungsbedarf vorhanden um bei der Modellierung der Auswirkungen von Trockenjahren auf die Produktivität die Modellunsicherheit zu verringern. Für die letzte Frage ergeben sich ebenso interessante Ergebnisse. Keine Durchforstungsstrategie kann alle drei Zielstellungen erfüllen. Die Methodik erlaubt aber ein großes Maß an Objektivität beim Vergleich der unterschiedlichen Bewirtschaftungsstrategien unter der Unsicherheit der Klimaszenarien. Die Varianz, bezogen auf Ergebnisse zur Bestandesbiomasse, Holzernte und zum jährlichen Holzzuwachs, steigt mit steigender Klimaerwärmung. Dabei ist der Anstieg in der Varianz größer bei einem Temperaturanstieg von zwei Kelvin auf drei Kelvin als von null Kelvin auf zwei Kelvin. Das heißt, Auswirkungen einer Klimaerwärmung verlaufen hier nicht linear. KW - climate change KW - forest management KW - forest growth modelling KW - scenario analysis KW - water uptake KW - Klimawandel KW - Klimaauswirkung KW - Forstwirtschaft KW - Waldbewirtschaftung KW - Waldwachstumsmodellierung KW - Unsicherheit Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-97241 ER - TY - THES A1 - Teshebaeva, Kanayim T1 - SAR interferometry analysis of surface processes in the Pamir – Tien Shan active orogens - emphasis on coseismic deformation and landslides T1 - SAR Interferometrie Analyse von Erdoberflächen-Veränderungen im tektonisch aktiven Pamir-Tien Shan Gebirge - Schwerpunkt auf koseismische Verformung und Hangrutschungen N2 - This thesis presents new approaches of SAR methods and their application to tectonically active systems and related surface deformation. With 3 publications two case studies are presented: (1) The coseismic deformation related to the Nura earthquake (5th October 2008, magnitude Mw 6.6) at the eastern termination of the intramontane Alai valley. Located between the southern Tien Shan and the northern Pamir the coseismic surface displacements are analysed using SAR (Synthetic Aperture RADAR) data. The results show clear gradients in the vertical and horizontal directions along a complex pattern of surface ruptures and active faults. To integrate and to interpret these observations in the context of the regional active tectonics a SAR data analysis is complemented with seismological data and geological field observations. The main moment release of the Nura earthquake appears to be on the Pamir Frontal thrust, while the main surface displacements and surface rupture occurred in the footwall and along of the NE–SW striking Irkeshtam fault. With InSAR data from ascending and descending satellite tracks along with pixel offset measurements the Nura earthquake source is modelled as a segmented rupture. One fault segment corresponds to high-angle brittle faulting at the Pamir Frontal thrust and two more fault segments show moderate-angle and low-friction thrusting at the Irkeshtam fault. The integrated analysis of the coseismic deformation argues for a rupture segmentation and strain partitioning associated to the earthquake. It possibly activated an orogenic wedge in the easternmost segment of the Pamir-Alai collision zone. Further, the style of the segmentation may be associated with the presence of Paleogene evaporites. (2) The second focus is put on slope instabilities and consequent landslides in the area of prominent topographic transition between the Fergana basin and high-relief Alai range. The Alai range constitutes an active orogenic wedge of the Pamir – Tien Shan collision zone that described as a progressively northward propagating fold-and-thrust belt. The interferometric analysis of ALOS/PALSAR radar data integrates a period of 4 years (2007-2010) based on the Small Baseline Subset (SBAS) time-series technique to assess surface deformation with millimeter surface change accuracy. 118 interferograms are analyzed to observe spatially-continuous movements with downslope velocities up to 71 mm/yr. The obtained rates indicate slow movement of the deep-seated landslides during the observation time. We correlated these movements with precipitation and seismic records. The results suggest that the deformation peaks correlate with rainfall in the 3 preceding months and with one earthquake event. In the next step, to understand the spatial pattern of landslide processes, the tectonic morphologic and lithologic settings are combined with the patterns of surface deformation. We demonstrate that the lithological and tectonic structural patterns are the main controlling factors for landslide occurrence and surface deformation magnitudes. Furthermore active contractional deformation in the front of the orogenic wedge is the main mechanism to sustain relief. Some of the slower but continuously moving slope instabilities are directly related to tectonically active faults and unconsolidated young Quaternary syn-orogenic sedimentary sequences. The InSAR observed slow moving landslides represent active deep-seated gravitational slope deformation phenomena which is first time observed in the Tien Shan mountains. Our approach offers a new combination of InSAR techniques and tectonic aspects to localize and understand enhanced slope instabilities in tectonically active mountain fronts in the Kyrgyz Tien Shan. N2 - Die vorliegende Arbeit stellt neue Ansätze zu Methoden des „Synthetic Aperture Radar“ (SAR) vor und wendet diese auf tektonisch aktive Systeme und die damit einhergehende Oberflächenverformung an. In drei wissenschaftlich begutachteten Publikationen in internationalen Fachzeitschriften werden im wesentlichen zwei Fallstudien präsentiert: (1) Die koseismische Verformung in Folge des Nura-Erdbebens (5. Oktober 2008, Mw 6.6) am östlichen Rand des intramontanen Alai-Beckens. Die koseismischen Verformungen an der Erdoberfläche wurden im Bereich zwischen dem südlichen Tien Shan und dem nördlichen Pamir mit Hilfe von SAR („Synthetic Aperture Radar“) Daten analysiert. Die Ergebnisse zeigen klare, sowohl horizontale als auch vertikale Gradienten, die entlang eines komplexen Musters von Brüchen an der Oberfläche und aktiven Störungen ausgebildet sind. Um diese Beobachtungen interpretieren und in den regionalen tektonischen Zusammenhang stellen zu können, wurde die SAR-Analyse durch seismologische und geologische Felduntersuchungen ergänzt. Die hauptsächliche Freisetzung der seismischen Energie des Nura-Erdbebens scheint an der frontalen Pamir-Überschiebung erfolgt zu sein, während die Hauptverformung und Oberflächenrupturen im Liegenden und entlang der NE-SW streichenden Irkeshtam-Störung auftraten. Unter Nutzung von InSAR-Daten von den aufsteigenden und absteigenden Satelliten-Bahnen sowie von Pixel-Versatz-Messungen wurde das Nura-Erdbeben als ein segmentierter Bruch modelliert. Dabei entspricht ein Segment einer steilen spröden Verwerfung an der frontalen Pamir-Überschiebung, während zwei andere Segmente mittel-steile und reibungsarme Verwerfungen an der Irkeshtam-Störung zeigen. Die integrierte Analyse der koseismischen Deformation spricht für eine Segmentierung des Bruches und eine Verteilung der Verformung in Folge des Erdbebens. Dies hat möglicherweise einen Gebirgskeil im äußersten östlichen Teil der Pamir-Alai-Kollisionszone aktiviert. Zudem könnte die Art der Segmentierung mit der Ablagerung von Paläogenen Evaporiten assoziiert sein. (2) Der zweite Schwerpunkt wurde auf tief-liegende langsame Böschungsverformungen gelegt, die insbesondere im Gebiet des markanten Übergangs zwischen dem Fergana-Tal und dem Hochrelief der Alai-Gebirgskette ausgeprägt sind. Die Alai-Kette stellt einen aktiven Gebirgskeil der Pamir-Tien-Shan-Kollisionszone dar, welche als ein sich stufenweise nach Norden fortsetzender Falten- und Überschiebungsgürtel beschrieben wird. Die interferometrische Analyse von ALOS/PALSAR-Radardaten deckt einen Zeitraum von vier Jahren ab (2007-2010) und nutzt den „Small-Basline-Subset“ (SBAS) Zeitreihenansatz um Oberflächendeformationen mit Millimeter-Genauigkeit zu bestimmen. 118 Interferogramme wurden analysiert, um die räumlich-kontinuierlichen Bewegungen mit Hangabwärts-Geschwindigkeiten von bis zu 71 mm/Jahr zu beobachten. Die erhaltenen Raten weisen auf eine langsame Bewegung von tief-verwurzelten Hangrutschungen während der Beobachtungszeit hin. Wir korrelierten diese Bewegungen mit Niederschlags- und seismischen Beobachtungen. Die Ergebnisse deuten darauf hin, dass die größten Deformationen mit den Regenmengen der drei vorhergehenden Monate und mit einem Erdbebenereignis korrelieren. Im nächsten Schritt wurden die tektonischen und lithologischen Verhältnisse mit den Mustern der Oberflächendeformation kombiniert, um das räumliche Muster der Hangrutschungsprozesse zu verstehen. Wir zeigen, dass die lithologischen und tektonischen Strukturen die Hauptkontrollmechanismen für das Auftreten von Hangrutschungen und für den Grad der Oberflächendeformation sind. Darüber hinaus ist die aktive Kontraktion und Einengungstektonik an der Vorderseite und Front des kontinentalen Akkretionskeils der hauptsächliche Mechanismus der Relieferhaltung. Einige der langsameren aber kontinuierlich in Bewegung befindlichen Instabilitäten stehen in direktem Zusammenhang mit der tektonisch aktiven Störungen und Hebung sowie mit unkonsolidierten, jung-quartären synorogenen Molassesedimenten. Unser Ansatz bietet eine neue Kombination von InSAR-Techniken und tektonischen Aspekten um Hanginstabilitäten in tektonisch aktiven Gebirgsfronten im Kirgisischen Tien Shan zu lokalisieren und zu verstehen. KW - Synthetic Aperture Radar KW - earthquake KW - landslide KW - Pamir-Tien Shan KW - InSAR KW - Synthetic Aperture Radar KW - Erdbeeben KW - Hangrutsch KW - Pamir-Tien Shan KW - InSAR- Techniken Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96743 ER - TY - THES A1 - Beltran, Juan Camilo Moreno T1 - Characterization of the Clp protease complex and identification of putative substrates in N. tabacum Y1 - 2016 ER - TY - THES A1 - Reimer, Anna Maria T1 - The poetics of the real and aesthetics of the reel BT - medial visuality in the contemporary Indian English novel N2 - The dissertation proposes that the spread of photography and popular cinema in 19th- and 20th-century-India have shaped an aesthetic and affective code integral to the reading and interpretation of Indian English novels, particularly when they address photography and/or cinema film, as in the case of the four corpus texts. In analyzing the nexus between ‘real’ and ‘reel’, the dissertation shows how the texts address the reader as media consumer and virtual image projector. Furthermore, the study discusses the Indian English novel against the backdrop of the cultural and medial transformations of the 20th century to elaborate how these influenced the novel’s aesthetics. Drawing upon reception aesthetics, the author devises the concept of the ‘implied spectator’ to analyze the aesthetic impact of the novels’ images as visual textures. No God in Sight (2005) by Altaf Tyrewala comprises of a string of 41 interior monologues, loosely connected through their narrators’ random encounters in Mumbai in the year 2000. Although marked by continuous perspective shifts, the text creates a sensation of acute immediacy. Here, the reader is addressed as implied spectator and is sutured into the narrated world like a film spectator ― an effect created through the use of continuity editing as a narrative technique. Similarly, Ruchir Joshi’s The Last Jet Engine Laugh (2002) coll(oc)ates disparate narrative perspectives and explores photography as an artistic practice, historiographic recorder and epistemological tool. The narrative appears guided by the random viewing of old photographs by the protagonist and primary narrator, the photographer Paresh Bhatt. However, it is the photographic negative and the practice of superimposition that render this string of episodes and different perspectives narratively consequential and cosmologically meaningful. Photography thus marks the perfect symbiosis of autobiography and historiography. Tabish Khair’s Filming. A Love Story (2007) immerses readers in the cine-aesthetic of 1930s and 40s Bombay film, the era in which the embedded plot is set. Plotline, central scenes and characters evoke the key films of Indian cinema history such as Satyajit Ray’s “Pather Panchali” or Raj Kapoor’s “Awara”. Ultimately, the text written as film dissolves the boundary between fiction and (narrated) reality, reel and real, thereby showing that the images of individual memory are inextricably intertwined with and shaped by collective memory. Ultimately, the reconstruction of the past as and through film(s) conquers trauma and endows the Partition of India as a historic experience of brutal contingency with meaning. The Bioscope Man (Indrajit Hazra, 2008) is a picaresque narrative set in Calcutta - India’s cultural capital and birthplace of Indian cinema at the beginning of the 20th century. The autodiegetic narrator Abani Chatterjee relates his rise and fall as silent film star, alternating between the modes of tell and show. He is both autodiegetic narrator and spectator or perceiving consciousness, seeing himself in his manifold screen roles. Beyond his film roles however, the narrator remains a void. The marked psychoanalytical symbolism of the text is accentuated by repeated invocations of dark caves and the laterna magica. Here too, ‘reel life’ mirrors and foreshadows real life as Indian and Bengali history again interlace with private history. Abani Chatterjee thus emerges as a quintessentially modern man of no qualities who assumes definitive shape only in the lost reels of the films he starred in. The final chapter argues that the static images and visual frames forwarded in the texts observe an integral psychological function: Premised upon linear perspective they imply a singular, static subjectivity appealing to the postmodern subject. In the corpus texts, the rise of digital technology in the 1990s thus appears not so much to have displaced older image repertories, practices and media techniques, than it has lent them greater visibility and appeal. Moreover, bricolage and pastiche emerge as cultural techniques which marked modernity from its inception. What the novels thus perpetuate is a media archeology not entirely servant to the poetics of the real. The permeable subject and the notion of the gaze as an active exchange as encapsulated in the concept of darshan - ideas informing all four texts - bespeak the resilience of a mythical universe continually re-instantiated in new technologies and uses. Eventually, the novels convey a sense of subalternity to a substantially Hindu nationalist history and historiography, the centrifugal force of which developed in the twentieth century and continues into the present. N2 - Die Dissertation stellt die These auf, dass Photographie und Film im Indien des 19. und 20. Jhd. einen ästhetisch-affektiven Code geprägt haben, der für das Verständnis des Indisch-Englischen Romans von großer Bedeutung ist. Dies gilt umso mehr wenn diese Medien explizit thematisiert werden, so wie es hier der Fall ist. Indem die Verbindung zwischen Realem und (Foto-/Kino-) Film untersucht wird, zeigt die Forschungsarbeit, wie die Texte ihre Leser als Medienkonsumenten und virtuelle ‛Bildprojektoren’ ansprechen. Auf dem kritischen Ansatz der Rezeptionsästhetik aufbauend, entwickelt die Autorin das Konzept des 'impliziten Betrachters', um so die ästhetische Wirkung der Texte auf den Leser analysieren zu können. No God in Sight (2005) von Altaf Tyrewala ist eine Aneinanderreihung von 41 inneren Monologen, lose verbunden durch Zufallsbegegnungen im Mumbai des Jahres 2000. Obgleich von ständigen Perspektivwechseln geprägt, schafft der Text ein Gefühl unmittelbaren Erlebens. In seiner Funktion als impliziter Betrachter wird der Leser hier quasi als Filmzuschauer in die erzählte Welt hineinprojiziert bzw. ‚vernäht‘. Dieser Effekt entsteht durch die Anwendung einer dem Film entlehnten Technik, dem ‚continuity editing‘. Auch Ruchir Joshi‘ The Last Jet Engine Laugh (2002) vereint widersprüchliche Erzählperspektiven. Der Roman beleuchtet Fotographie als künstlerische Praxis, historiographisches Speichermedium und epistemologisches Werkzeug. Das Narrativ erscheint allein durch die Betrachtung alter Fotos durch den Protagonist und primären Erzähler Paresh Bhatt gelenkt. Jedoch sind es das fotographische Negativ und die fotographische Überblendung, welche die disparaten Episoden und Perspektiven erzählerisch schlüssig und kosmologisch bedeutungsvoll machen. Mithin repräsentiert Fotographie hier die Symbiose von Autobiographie und Historiographie. Tabish Khairs Filming. A Love Story (2007) versetzt den Leser in die Welt des Bombay-Films der 1930er und 40er Jahre, in dem die Haupthandlung spielt. Handlung, Szenenbilder und selbst die Namen der Protagonisten verweisen unmittelbar auf Schlüsselfilme der indischen Filmgeschichte wie Satyajit Rays "Pather Panchali" oder Raj Kapoors "Awara".Geschrieben als Film, löst der Text die Grenze zwischen Fiktion und (erzählter) Realität, Film(-rolle) und Realem auf um zu zeigen, dass die individuellen Erinnerungsbilder unauflöslich mit der kollektiven Erinnerung verbunden sind und letztlich von ihr geprägt werden. Die Rekonstruktion der Vergangenheit als und durch (den) Film(e) überwindet schließlich das historische Trauma der Teilung Indiens in ihrer brutalen Sinnlosigkeit. The Bioscope Man (2008) ist ein pikaresker Roman und spielt zu Beginn des 20. Jahrhunderts in Kalkutta, damals noch Indiens kulturelle Hauptstadt und Geburtsstätte des indischen Kinos. Abani Chatterjee erzählt abwechselnd als konventioneller autodiegetischer Erzähler und als Zuschauer bzw. wahrnehmendes Bewusstsein von seinem Aufstieg und Fall als Stummfilmstar. Jenseits seiner Rollen bleibt der Erzähler jedoch eine Leerstelle. Der psychoanalytische Symbolismus des Textes wird durch wiederholte Aufrufung der Motive der Höhle und der Laterna Magica hervorgehoben. Auch hier spiegelt das Leben auf der Filmrolle das ‚echte‘ Leben, indem indische und bengalische Geschichte mit der individuellen (Lebens-)Geschichte verwoben werden. Chatterjee ist letztlich Inbegriff des modernen Menschen, des ‚Mannes ohne Eigenschaften‘ der nur in den verschwundenen Filmen in denen er einst spielte konkrete Form annimmt. Das Schlusskapitel argumentiert, dass die in den Texten entworfenen Bilder eine essentielle psychologische Funktion erfüllen: Auf der Linearperspektive basierend implizieren sie eine singuläre, statische Subjektivität die auf die Leserin als postmodernes Subjekt ansprechend wirkt. In den Texten scheint der Aufstieg der digitalen Technik und ihrer Bildwelt ältere Bilder, visuelle Praktiken und Medientechniken weniger ersetzt, als ihnen größere Sichtbarkeit und Appeal verliehen zu haben. Weiterhin werden Bricolage und Pastiche als originär moderne (Kultur-)Techniken dargestellt. Die den Romanen inhärente Medienarchäologie untersteht daher nicht vollständig der Poetik des Realen. Die hinduistisch geprägten Ideen vom ‚durchlässigen‘ Subjekt und vom Sehen als aktivem Austausch wie es der Begriff „darshan“ konzeptualisiert, verweisen auf die Widerstandskraft eines mythischen Universums das sich in den neuen Technologien kontinuierlich fortpflanzt. Letztlich versinnlichen und versinnbildlichen die Romane die Hindu-nationalistisch geprägte Geschichte des 20. Jahrhunderts, deren Zentrifugalkraft in ihrer Exklusivität und Aggressivität bis heute nachwirkt. KW - postcolonial literatures in English KW - Indian English novel KW - visual culture KW - Hindi film KW - Indian cinema KW - phenomenology KW - reception aesthetics KW - media studies KW - No God in Sight KW - The Last Jet Engine Laugh KW - Filming. A Love Story KW - The Bioscope Man KW - visual textures KW - media anthropology KW - photography KW - implied spectator KW - rasadhvani KW - Pather Panchali KW - Awara KW - postkoloniale englische Literaturen KW - indisch-englischer Roman KW - Intermedialität KW - suture KW - indisches Kino KW - Medienwissenschaft Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-95660 ER - TY - THES A1 - Räling, Romy T1 - Age of acquisition and semantic typicality effects T1 - Erwerbsalter- und semantische Typikalitätseffekte BT - evidences for distinct processing origins from behavioural and ERP data in healthy and impaired semantic processing BT - Evidenzen für distinktive Verarbeitungsursprünge aus behavioralen und elektrophysiologischen Daten der sprachgesunden und beeinträchtigten semantischen Verarbeitung N2 - Age of acquisition (AOA) is a psycholinguistic variable that significantly influences behavioural measures (response times and accuracy rates) in tasks that require lexical and semantic processing. Its origin is – unlike the origin of semantic typicality (TYP), which is assumed at the semantic level – controversially discussed. Different theories propose AOA effects to originate either at the semantic level or at the link between semantics and phonology (lemma-level). The dissertation aims at investigating the influence of AOA and its interdependence with the semantic variable TYP on particularly semantic processing in order to pinpoint the origin of AOA effects. Therefore, three studies have been conducted that considered the variables AOA and TYP in semantic processing tasks (category verifications and animacy decisions) by means of behavioural and partly electrophysiological (ERP) data and in different populations (healthy young and elderly participants and in semantically impaired individuals with aphasia (IWA)). The behavioural and electrophysiological data of the three studies provide evidence for distinct processing levels of the variables AOA and TYP. The data further support previous assumptions on a semantic origin for TYP but question the same for AOA. The findings, however, support an origin of AOA effects at the transition between the word form (phonology) and the semantic level that can be captured at the behavioural but not at the electrophysiological level. N2 - Das Erwerbsalter (engl. age of acquisition, AOA) ist eine psycholinguistische Variable, die Verhaltensdaten (Reaktionszeiten und Fehlerraten) von sprachgesunden Studienteilnehmern in Aufgaben zur lexikalisch-semantischen Verarbeitung nachweislich beeinflusst. Während für die Typikalität (engl. typicality, TYP), eine weitere wichtige psycholinguistische Variable, der Verarbeitungsursprung auf der semantischen Ebene als sicher angenommen werden kann, wird der Ursprung des Erwerbsalters bis heute kontrovers diskutiert. Verschiedene Theorien erwägen den Ursprung von Erwerbsaltereffekten entweder auf der semantischen Ebene oder auf der Verbindungsroute zwischen der Semantik und der Phonologie (Lemma-Level). Das Ziel der Dissertation ist die Evaluation eines semantischen Ursprunges von Erwerbsaltereffekten sowie des Wechselspiels des Erwerbsalters mit der semantischen Variable Typikalität. Im Rahmen des Promotionsprojektes wurden drei Studien durchgeführt, die die Variablen Erwerbsalter und Typikalität in Aufgaben zum Sprachverständnis (Belebtheits-Entscheiden und Kategorie-Vertreter-Verifikation) mit Hilfe unterschiedlicher Methoden (Verhaltens- und EEG-Messungen) und Populationen (junge und ältere Sprachgesunde und Aphasiker mit einem spezifisch semantischen Defizit) untersuchen. Die erhobenen Daten der drei Studien liefern Evidenzen für unterschiedliche Verarbeitungsursprünge der Variablen Erwerbsalter und Typikalität. Während die Daten bisherige Annahmen eines semantischen Ursprunges von Typikalitätseffekten unterstützen, stellen sie entsprechendes für Erwerbsaltereffekte in Frage. Insbesondere die behavioralen Ergebnisse liefern jedoch Evidenzen für einen Verarbeitungsursprung des Erwerbsalters auf den Verbindungsrouten zwischen den Wortformebenen (phonologisches bzw. graphematisches Inputlexikon) und der semantischen Ebene. KW - semantische Typikalität KW - Erwerbsalter KW - Aphasie KW - semantische Verarbeitung KW - ereigniskorrelierte Potentiale KW - semantic typicality KW - age of acquisition KW - aphasia KW - semantic processing KW - event-related potentials Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-95943 ER - TY - THES A1 - Oliveira, Joana Santos Lapa T1 - Role of different ceramides on the nanostructure of Stratum Corneum models and the influence of selected penetration enhancers Y1 - 2016 ER - TY - THES A1 - Scholz, Markus Reiner T1 - Spin polarization, circular dichroism, and robustness of topological surface states T1 - Spinpolarisation, Zirkulardichroismus und Robustheit Topologischer Oberflächenzustände BT - a photoemission study BT - eine Photoemissionsstudie N2 - Dreidimensionale topologische Isolatoren sind ein neues Materialsystem, welches dadurch charakterisiert ist, dass es in seinem Inneren isolierend an der Ober äche jedoch leitend ist. Ursächlich für die Leitfähigkeit an der Ober äche sind sogenannte topologische Ober- ächenzustände, welche das Valenzband des Inneren mit dem Leitungsband des Inneren verbinden. An der Ober äche ist also die Bandlücke, welche die isolierende Eigenschaft verursacht, geschlossen. Die vorliegende Arbeit untersucht diese Ober ächenzustände mittels spin- und winkelauf- gelöster Photoemissionsspektroskopie. Es wird gezeigt, dass in den Materialien Bi2Se3 und Bi2Te3, in übereinstimmung mit der Literatur, die entscheidenden Charakteristika eines topologischen Ober ächenzustands vorzu nden sind: Die Ober ächenzustände dieser Sys- teme durchqueren die Bandlücke in ungerader Anzahl, sie sind nicht entartet und weisen folgerichtig eine hohe Spinpolarisation auf. Weiterhin wird durch Aufdampfen diverser Adsorbate gezeigt, dass der Ober ächenzustän- de von Bi2Se3 und Bi2Te3, wie erwartet, extrem robust ist. Ober ächenzustände topologisch trivialer Systeme erfüllen diese Eigenschaft nicht; bereits kleine Verunreinigungen kön- nen diese Zustände zerstören, bzw. die Ober äche isolierend machen. Die topologischen Ober ächenzustände können in der vorliegenden Arbeit noch bis zur Detektionsgrenze der experimentellen Messmethode nachgewiesen werden und die Ober äche bleibt Leitfähig. Unter den Adsorbaten be ndet sich auch Eisen, ein bekanntermaßen magnetisches Materi- al. Eine der Grundvoraussetzungen für topologische Isolatoren ist die Zeitumkehrsymme- trie, die Elektronen, welche den topologischen Ober ächenzustand besetzen, vorschreibt, dass sie eine bestimmte Spinrichtung haben müssen, wenn sie sich beispielsweise nach links bewegen und den entgegengesetzten Spin wenn sie sich nach rechts bewegen. In magnetischen Materialien ist die Zeitumkehrsymmetrie jedoch explizit gebrochen und die gezeigte Robustheit des Ober ächenzustands gegen magnetische Materialien daher uner- wartet. Die Zeitumkehrsymmetrie sorgt auch dafür, dass eine Streuung der Elektronen um 180°, beispielsweise an einem Gitterdefekt oder an einem Phonon strikt verboten ist. Bei einem solchen Streuprozess bleibt die Spinrichtung erhalten, da aber in der Gegenrichtung nur Zustände mit entgegengesetztem Spin vorhanden sind kann das Elektron nicht in diese Richtung gestreut werden. Dieses Prinzip wird anhand der Lebensdauer der durch Pho- toemission angeregten Zustände untersucht. Hierbei wird gezeigt, dass die Kopplung der Elektronen des Ober ächenzustands von Bi2Te3 an Phononen unerwartet hoch ist und dass sich eine Anisotropie in der Bandstruktur des Selbigen auch in den Lebensdauern der ange- regten Zustände widerspiegelt. Weiterhin wird gezeigt, dass sich die Ein üsse von magne- tischen und nicht-magnetischen Verunreinigungen auf die Lebensdauern stark voneinander unterscheiden. Im letzten Teil der vorliegenden Arbeit wird untersucht, ob eine Asymmetrie in der Inten- sitätsverteilung der winkelaufgelösten Photoemissionsspektren, bei Anregung mit zirku- lar polarisiertem Licht, in Bi2Te3 Rückschlüsse auf die Spinpolarisation der Elektronen erlaubt. Bei Variation der Energie des eingestrahlten Lichts wird ein Vorzeichenwechsel der Asymmetrie beobachtet. Daraus lässt sich schlussfolgern, dass die Asymmetrie keine Rückschlüsse auf die Spinpolarisation erlaubt. N2 - This thesis is focussed on the electronic properties of the new material class named topological insulators. Spin and angle resolved photoelectron spectroscopy have been applied to reveal several unique properties of the surface state of these materials. The first part of this thesis introduces the methodical background of these quite established experimental techniques. In the following chapter, the theoretical concept of topological insulators is introduced. Starting from the prominent example of the quantum Hall effect, the application of topological invariants to classify material systems is illuminated. It is explained how, in presence of time reversal symmetry, which is broken in the quantum Hall phase, strong spin orbit coupling can drive a system into a topologically non trivial phase. The prediction of the spin quantum Hall effect in two dimensional insulators an the generalization to the three dimensional case of topological insulators is reviewed together with the first experimental realization of a three dimensional topological insulator in the Bi1-xSbx alloys given in the literature. The experimental part starts with the introduction of the Bi2X3 (X=Se, Te) family of materials. Recent theoretical predictions and experimental findings on the bulk and surface electronic structure of these materials are introduced in close discussion to our own experimental results. Furthermore, it is revealed, that the topological surface state of Bi2Te3 shares its orbital symmetry with the bulk valence band and the observation of a temperature induced shift of the chemical potential is to a high probability unmasked as a doping effect due to residual gas adsorption. The surface state of Bi2Te3 is found to be highly spin polarized with a polarization value of about 70% in a macroscopic area, while in Bi2Se3 the polarization appears reduced, not exceeding 50%. We, however, argue that the polarization is most likely only extrinsically limited in terms of the finite angular resolution and the lacking detectability of the out of plane component of the electron spin. A further argument is based on the reduced surface quality of the single crystals after cleavage and, for Bi2Se3 a sensitivity of the electronic structure to photon exposure. We probe the robustness of the topological surface state in Bi2X3 against surface impurities in Chapter 5. This robustness is provided through the protection by the time reversal symmetry. Silver, deposited on the (111) surface of Bi2Se3 leads to a strong electron doping but the surface state is observed up to a deposited Ag mass equivalent to one atomic monolayer. The opposite sign of doping, i.e., hole-like, is observed by exposing oxygen to Bi2Te3. But while the n-type shift of Ag on Bi2Se3 appears to be more or less rigid, O2 is lifting the Dirac point of the topological surface state in Bi2Te3 out of the valence band minimum at $\Gamma$. After increasing the oxygen dose further, it is possible to shift the Dirac point to the Fermi level, while the valence band stays well beyond. The effect is found reversible, by warming up the samples which is interpreted in terms of physisorption of O2. For magnetic impurities, i.e., Fe, we find a similar behavior as for the case of Ag in both Bi2Se3 and Bi2Te3. However, in that case the robustness is unexpected, since magnetic impurities are capable to break time reversal symmetry which should introduce a gap in the surface state at the Dirac point which in turn removes the protection. We argue, that the fact that the surface state shows no gap must be attributed to a missing magnetization of the Fe overlayer. In Bi2Te3 we are able to observe the surface state for deposited iron mass equivalents in the monolayer regime. Furthermore, we gain control over the sign of doping through the sample temperature during deposition. Chapter6 is devoted to the lifetime broadening of the photoemission signal from the topological surface states of Bi2Se3 and Bi2Te3. It is revealed that the hexagonal warping of the surface state in Bi2Te3 introduces an anisotropy for electrons traveling along the two distinct high symmetry directions of the surface Brillouin zone, i.e., $\Gamma$K and $\Gamma$M. We show that the phonon coupling strength to the surface electrons in Bi2Te3 is in nice agreement with the theoretical prediction but, nevertheless, higher than one may expect. We argue that the electron-phonon coupling is one of the main contributions to the decay of photoholes but the relatively small size of the Fermi surface limits the number of phonon modes that may scatter off electrons. This effect is manifested in the energy dependence of the imaginary part of the electron self energy of the surface state which shows a decay to higher binding energies in contrast to the monotonic increase proportional to E$^2$ in the Fermi liquid theory due to electron-electron interaction. Furthermore, the effect of the surface impurities of Chapter 5 on the quasiparticle life- times is investigated. We find that Fe impurities have a much stronger influence on the lifetimes as compared to Ag. Moreover, we find that the influence is stronger independently of the sign of the doping. We argue that this observation suggests a minor contribution of the warping on increased scattering rates in contrast to current belief. This is additionally confirmed by the observation that the scattering rates increase further with increasing silver amount while the doping stays constant and by the fact that clean Bi2Se3 and Bi2Te3 show very similar scattering rates regardless of the much stronger warping in Bi2Te3. In the last chapter we report on a strong circular dichroism in the angle distribution of the photoemission signal of the surface state of Bi2Te3. We show that the color pattern obtained by calculating the difference between photoemission intensities measured with opposite photon helicity reflects the pattern expected for the spin polarization. However, we find a strong influence on strength and even sign of the effect when varying the photon energy. The sign change is qualitatively confirmed by means of one-step photoemission calculations conducted by our collaborators from the LMU München, while the calculated spin polarization is found to be independent of the excitation energy. Experiment and theory together unambiguously uncover the dichroism in these systems as a final state effect and the question in the title of the chapter has to be negated: Circular dichroism in the angle distribution is not a new spin sensitive technique. KW - topological insulators KW - angle resolved photoelectron spectroscopy KW - spin resolved photoelectron spectroscopy KW - Bi2Se3 KW - Bi2Te3 KW - quasiparticle interactions KW - circular dichroism KW - spin-orbit coupling KW - time reversal symmetry KW - surface states KW - Spinpolarisation KW - Zirkulardichroismus KW - topologische Isolatoren KW - Oberflächenzustände KW - winkelaufgelöste Photoelektronenspektroskopie KW - spinaufgelöste Photoelektronenspektroskopie KW - Magnetismus KW - Bi2Te3 KW - Bi2Se3 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96686 ER - TY - THES A1 - Kamranfar, Iman T1 - Functional analysis of gene regulatory networks controlled by stress responsive transcription factors in Arabidopsis thaliana Y1 - 2015 ER - TY - THES A1 - Orf, Isabel T1 - Photorespiratory metabolism in the cyanobacterial model Synechocystis sp. strain PCC 6803 BT - a systems biology approach Y1 - 2016 ER - TY - THES A1 - Chutsagulprom, Nawinda T1 - Ensemble-based filters dealing with non-Gaussianity and nonlinearity Y1 - 2016 ER - TY - THES A1 - Rohlf, Helena L. T1 - The development of aggression in middle childhood T1 - Die Entwicklung aggressiven Verhaltens in der mittleren Kindheit BT - longitudinal analyses of the role of anger regulation, social rejection, and peer socialization BT - längsschnittliche Analysen des Einflusses von Ärgerregulation, sozialer Zurückweisung und Peer-Sozialisation N2 - Background: The engagement in aggressive behavior in middle childhood is linked to the development of severe problems in later life. Thus, identifying factors and processes that con-tribute to the continuity and increase of aggression in middle childhood is essential in order to facilitate the development of intervention programs. The present PhD thesis aimed at expand-ing the understanding of the development of aggression in middle childhood by examining risk factors in the intrapersonal and interpersonal domains as well as the interplay between these factors: Maladaptive anger regulation was examined as an intrapersonal risk factor; processes that occur in the peer context (social rejection and peer socialization) were included as interpersonal risk factors. In addition, in order to facilitate the in situ assessment of anger regulation strategies, an observational measure of anger regulation was developed and validated. Method: The research aims were addressed within the scope of four articles. Data from two measurement time points about ten months apart were available for the analyses. Participants were elementary school children aged from 6 to 10 years at T1 and 7 to 11 years at T2. The first article was based on cross-sectional analyses including only the first time point; in the remaining three articles longitudinal associations across the two time points were analyzed. The first two articles were concerned with the development and cross-sectional as well as longitudinal validation of observational measure of anger regulation in middle childhood in a sample of 599 children. Using the same sample, the third article investigated the longitudinal link between maladaptive anger regulation and aggression considering social rejection as a mediating variable. The frequency as well as different functions of aggression (reactive and proactive) were included as outcomes measures. The fourth article examined the influence of class-level aggression on the development of different forms of aggression (relational and physical) over time under consideration of differences in initial individual aggression in a sample of 1,284 children. In addition, it was analyzed if the path from aggression to social rejection varies as a function of class-level aggression. Results: The first two articles revealed that the observational measure of anger regulation developed for the purpose of this research was cross-sectionally related to anger reactivity, aggression and social rejection as well as longitudinally related to self-reported anger regula-tion. In the third article it was found that T1 maladaptive anger regulation showed no direct link to T2 aggression, but an indirect link through T1 social rejection. This indirect link was found for the frequency of aggression as well as for reactive and proactive aggression. The fourth article revealed that with regard to relational aggression, a high level of classroom ag-gression predicted an increase of individual aggression only among children with initially low levels of aggression. For physical aggression, it was found that the overall level of aggression in the class affected all children equally. In addition, physical aggression increased the likelihood of social rejection irrespective of the class-level of aggression whereas relational aggression caused social rejection only in classes with a generally low level of relational aggression. The analyses of gender-specific effects showed that children were mainly influenced by their same-gender peers and that the effect on the opposite gender was higher if children engaged in gender-atypical forms of aggressive behavior. Conclusion: The results provided evidence for the construct and criterion validity of the observational measure of maladaptive anger regulation that was developed within the scope of this research. Furthermore, the findings indicated that maladaptive anger regulation constitutes an important risk factor of aggression through the influence of social rejection. Finally, the results demonstrated that the level of aggression among classmates is relevant for the development of individual aggression over time and that the children´s evaluation of relationally aggressive behavior varies as a function of the normativity of relational aggression in the class. The study findings have implications for the measurement of anger regulation in middle childhood as well as for the prevention of aggression and social rejection. N2 - Hintergrund: Das Auftreten aggressiven Verhaltens in der mittleren Kindheit ist mit einer Reihe von problematischen Folgen verbunden. Das Identifizieren von Prozessen und Faktoren, die zur Kontinuität und zu einem Anstieg aggressiven Verhaltens in der mittleren Kindheit beitragen, ist essentiell; nicht zuletzt, um die Entwicklung von Interventionsprogrammen zu ermöglichen. Das Ziel der vorliegenden Dissertation war es, das Wissen über die Entwicklung von Aggression in der mittleren Kindheit auszuweiten, indem Risikofaktoren aus dem intrapersonalen und dem interpersonalen Bereich sowie das Zusammenspiel dieser Faktoren untersucht wurden: Maladaptive Ärgerregulation wurde als ein intrapersonaler Risikofaktor untersucht; Prozesse, die sich im Peerkontext abspielen (soziale Zurückweisung und Peersozialisation), wurden als interpersonale Risikofaktoren analysiert. Zudem wurde eine Beobachtungsmethode für Ärgerregulation entwickelt und validiert, um die Erfassung von Ärgerregulationsstrategien in situ zu ermöglichen. Methode: Die Forschungsfragen wurden im Rahmen von vier Artikeln addressiert. Daten aus zwei Messzeitpunkten, die etwa zehn Monate auseinander lagen, wurden für die Analysen verwendet. Die Teilnehmer waren Grundschulkinder, die zu T1 zwischen 6 bis 10 Jahre und zu T2 zwischen 7 und 11 Jahre alt waren. Der erste Artikel basierte auf querschnittlichen Analysen, die nur den ersten Messzeitpunkt einschlossen; in den weiteren drei Artikeln wurden längsschnittliche Effekte über die zwei Messzeitpunkte analysiert. Die ersten beiden Artikel beschäftigten sich mit der Entwicklung und der quer- und längsschnittlichen Validierung der Beobachtungsmethode für Ärgerregulation, wobei eine Stichprobe aus 599 Kindern verwendet wurde. Mittels der gleichen Stichprobe wurde im dritten Artikel der längsschnittliche Zusammenhang zwischen maladaptiver Ärgerregulation und Aggression unter Berücksichtigung des vermittelnden Einflusses sozialer Zurückweisung untersucht. Die Häufigkeit und die verschiedenen Funktionen von Aggression (reaktiv und proaktiv) wurden als abhängige Variablen einbezogen. Der vierte Artikel untersuchte in einer Stichprobe aus 1.284 Kindern den Einfluss der mittleren Aggression in einer Klasse auf die Entwicklung verschiedener Formen von Aggression (physisch und relational) unter Berücksichtigung der ursprünglichen individuellen Aggression. Zudem wurde analysiert, ob der Effekt von Aggression auf soziale Zurückweisung in Abhängigkeit der Aggression in der Klasse variiert. Ergebnisse: Die ersten beiden Artikel zeigten, dass die Beobachtungsmethode für Ärgerregulation im Querschnitt mit Ärgerreaktivität, Aggression und sozialer Zurückweisung und im Längsschnitt mit selbstberichteter Ärgerregulation zusammenhängt. Im dritten Artikel wurde gefunden, dass Ärgerregulation zu T1 nicht direkt mit T2 Aggression assoziiert ist, aber es zeigte sich ein indirekter Effekt über den Einfluss von T1 sozialer Zurückweisung. Dieser indirekte Effekt fand sich sowohl für die Häufigkeit von Aggression als auch für reaktive und proaktive Aggression. Der vierte Artikel zeigte, dass in Hinblick auf relationale Aggression ein hohes Maß an Aggression in der Klasse nur bei Kindern, die ein niedriges Ausgangsniveau an Aggression hatten, einen Anstieg an individueller Aggression vorhersagt. Für physische Aggression zeigte sich, dass die Aggression in der Klasse alle Kinder gleichermaßen beeinflusst. Zudem erhöhte physische Aggression die Wahrscheinlichkeit für soziale Zurückweisung, unabhängig von der mittleren Aggression in der Klasse, während sich für relationale Aggression gezeigt hat, dass aggressives Verhalten nur in Klassen mit einem niedrigen Level an Aggression mit sozialer Zurückweisung assoziiert ist. Diskussion: Die Ergebnisse liefern Evidenz für die Kontrukt- und Kriteriumsvalidität der Beobachtungsmethode für Ärgerregulation, die im Rahmen dieser Dissertation entwickelt wurde. Außerdem deuten die Ergebnisse darauf hin, dass maladaptive Ärgerregulation über den Einfluss von sozialer Zurückweisung einen wichtigen Risikofaktor für Aggression darstellt. Die Ergebnisse zeigen zudem, dass das Maß an Aggression in einer Klasse relevant ist für die Entwicklung individueller Aggression über die Zeit und dass die Bewertung von relationaler Aggression abhängig ist von der Normativität von relationaler Aggression in der Klasse. Die Ergebnisse dieser Dissertation haben Implikationen, die zum einen die Erfassung von Ärgerregulation in der mittleren Kindheit und zum anderen die Prävention von Aggression und sozialer Zurückweisung betreffen. KW - aggression KW - middle childhood KW - anger regulation KW - social rejection KW - peer influences KW - Aggression KW - mittlere Kindheit KW - Ärgerregulation KW - soziale Zurückweisung KW - Peer-Einflüsse Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-95457 ER - TY - THES A1 - Vu, Thi Thanh Van T1 - Local government on the way to good governance T1 - Lokale Regierung auf dem Weg zu Good Governance BT - the case of Hanoi and Berlin BT - Fallstudie in Berlin und Hanoi N2 - Bad governance causes economic, social, developmental and environmental problems in many developing countries. Developing countries have adopted a number of reforms that have assisted in achieving good governance. The success of governance reform depends on the starting point of each country – what institutional arrangements exist at the out-set and who the people implementing reforms within the existing institutional framework are. This dissertation focuses on how formal institutions (laws and regulations) and informal institutions (culture, habit and conception) impact on good governance. Three characteristics central to good governance - transparency, participation and accountability are studied in the research. A number of key findings were: Good governance in Hanoi and Berlin represent the two extremes of the scale, while governance in Berlin is almost at the top of the scale, governance in Hanoi is at the bottom. Good governance in Hanoi is still far from achieved. In Berlin, information about public policies, administrative services and public finance is available, reliable and understandable. People do not encounter any problems accessing public information. In Hanoi, however, public information is not easy to access. There are big differences between Hanoi and Berlin in the three forms of participation. While voting in Hanoi to elect local deputies is formal and forced, elections in Berlin are fair and free. The candidates in local elections in Berlin come from different parties, whereas the candidacy of local deputies in Hanoi is thoroughly controlled by the Fatherland Front. Even though the turnout of voters in local deputy elections is close to 90 percent in Hanoi, the legitimacy of both the elections and the process of representation is non-existent because the local deputy candidates are decided by the Communist Party. The involvement of people in solving local problems is encouraged by the government in Berlin. The different initiatives include citizenry budget, citizen activity, citizen initiatives, etc. Individual citizens are free to participate either individually or through an association. Lacking transparency and participation, the quality of public service in Hanoi is poor. Citizens seldom get their services on time as required by the regulations. Citizens who want to receive public services can bribe officials directly, use the power of relationships, or pay a third person – the mediator ("Cò" - in Vietnamese). In contrast, public service delivery in Berlin follows the customer-orientated principle. The quality of service is high in relation to time and cost. Paying speed money, bribery and using relationships to gain preferential public service do not exist in Berlin. Using the examples of Berlin and Hanoi, it is clear to see how transparency, participation and accountability are interconnected and influence each other. Without a free and fair election as well as participation of non-governmental organisations, civil organisations, and the media in political decision-making and public actions, it is hard to hold the Hanoi local government accountable. The key differences in formal institutions (regulative and cognitive) between Berlin and Hanoi reflect the three main principles: rule of law vs. rule by law, pluralism vs. monopoly Party in politics and social market economy vs. market economy with socialist orientation. In Berlin the logic of appropriateness and codes of conduct are respect for laws, respect of individual freedom and ideas and awareness of community development. People in Berlin take for granted that public services are delivered to them fairly. Ideas such as using money or relationships to shorten public administrative procedures do not exist in the mind of either public officials or citizens. In Hanoi, under a weak formal framework of good governance, new values and norms (prosperity, achievement) generated in the economic transition interact with the habits of the centrally-planned economy (lying, dependence, passivity) and traditional values (hierarchy, harmony, family, collectivism) influence behaviours of those involved. In Hanoi “doing the right thing” such as compliance with law doesn’t become “the way it is”. The unintended consequence of the deliberate reform actions of the Party is the prevalence of corruption. The socialist orientation seems not to have been achieved as the gap between the rich and the poor has widened. Good governance is not achievable if citizens and officials are concerned only with their self-interest. State and society depend on each other. Theoretically to achieve good governance in Hanoi, institutions (formal and informal) able to create good citizens, officials and deputies should be generated. Good citizens are good by habit rather than by nature. The rule of law principle is necessary for the professional performance of local administrations and People’s Councils. When the rule of law is applied consistently, the room for informal institutions to function will be reduced. Promoting good governance in Hanoi is dependent on the need and desire to change the government and people themselves. Good governance in Berlin can be seen to be the result of the efforts of the local government and citizens after a long period of development and continuous adjustment. Institutional transformation is always a long and complicated process because the change in formal regulations as well as in the way they are implemented may meet strong resistance from the established practice. This study has attempted to point out the weaknesses of the institutions of Hanoi and has identified factors affecting future development towards good governance. But it is not easy to determine how long it will take to change the institutional setting of Hanoi in order to achieve good governance. N2 - Bad governance (schlechte Regierungsführung) verursacht neben wirtschaftlichen und sozialen Schäden auch Umwelt- und Entwicklungsprobleme in vielen Entwicklungsländern. Entwicklungsländer haben zahlreiche Reformen in Angriff genommen, welche sie in der Entwicklung von good governance (gute Regierungsführung) unterstützen sollen. Der Erfolg solcher Reformen staatlicher Steuerungs- und Regelsysteme hängt jedoch maßgeblich von der Ausgangssituation in den einzelnen Ländern ab. Einfluss auf den Erfolg haben Faktoren wie z. B. die existierende institutionelle Ordnung, auf die zu Beginn solcher Reformen zurückgegriffen werden kann. Auch der verantwortliche Personenkreis, der mit der Umsetzung der Reformen beauftragt wird, ist für deren Erfolg maßgeblich. Diese Dissertation befasst sich damit, wie sich formelle Institutionen (Gesetze und Regeln) sowie informelle Institutionen (Kultur, Gewohnheit und Wahrnehmung) auf good governance auswirken können. Im Rahmen dieser Forschungsarbeit werden drei Merkmale mit besonderem Bezug zu good governance untersucht: Transparenz, Partizipation und Rechenschaftspflicht. Folgende Untersuchungsergebnisse sind hervorzuheben: In Bezug auf good governance stellen Berlin und Hanoi zwei Extreme dar. Während Berlin auf einer „good-governance-Skala“ im positiven oberen Bereich anzusiedeln wäre, müsste sich Hanoi eher im unteren Bereich wiederfinden. Good governance im Sinne von verantwortungsvoller Regierungsführung ist in Hanoi bei weitem noch nicht erreicht. So sind in Berlin Informationen sowohl über die Ziele und die Entscheidungen der am Politikprozess beteiligten Akteure und über Dienstleistungen der Verwaltung als auch über die öffentlichen Finanzen allgemein abrufbar, verlässlich und verständlich. Dies ist nicht der Fall in Hanoi. Während in Berlin die BürgerInnen keine Schwierigkeiten im Zugang zu öffentlichen Informationen haben, so sind diese Informationen in Hanoi nicht oder nur schwer erhältlich. Weiterhin gibt es zwischen Hanoi und Berlin erhebliche Unterschiede in den drei Arten der Partizipation. Während die Wahlen kommunaler Vertreter in Hanoi rein formell und erzwungen sind, so sind Wahlen in Berlin gleich, geheim und frei. Bei den Berliner Kommunalwahlen entstammen die VertreterInnen den unterschiedlichen Parteien und Wählervereinigungen, während die Kandidatur der KommunalvertreterInnen in Hanoi weitgehend durch die Volksfront bestimmt wird. Obwohl die Wahlbeteiligung bei den lokalen Wahlen in Hanoi bei fast 90% liegt, so ist die Legitimität sowohl der Wahlen selbst als auch des Vertretungsprozesses so gut wie nicht vorhanden. Die zu wählenden VolksvertreterInnen werden ausschließlich durch die Kommunistische Partei bestimmt. In Berlin wird die Teilhabe der BürgerInnen bei der Lösung kommunaler Probleme durch die Regierung gefördert. Hierzu werden unterschiedliche Methoden genutzt, u. a. der Bürgerhaushalt, Bürgerportale, Bürgerinitiativen etc. Einzelne BürgerInnen können entscheiden, ob sie sich individuell oder auch kollektiv einbringen. Durch das Fehlen von Transparenz und bürgerlicher Teilhabe ist die Qualität öffentlicher Dienstleistungen in Hanoi gering. So werden Dienstleistungen selten innerhalb der Fristerbracht, die gesetzlich vorgegeben ist. BürgerInnen, die dennoch öffentliche Dienstleistungen in Anspruch nehmen und zeitnah erhalten wollen, können die verantwortlichen Beamten direkt bestechen, ihre persönlichen Beziehungen nutzen oder eine dritte Person gegen Bezahlung beauftragen – einen „Mediator“ (Vietnamesisch: „Cò“). Im Gegensatz hierzu werden Dienstleistungen in Berlin kundenorientiert erbracht. Die Qualität der Dienstleistungen ist in Bezug auf Zeit und Kosten hochwertig. Schmiergeldzahlungen, Bestechung sowie das Nutzen persönlicher Beziehungen im Austausch für „bessere“ öffentliche Dienstleistungen sind in Berlin unüblich. Die Analyse der Fallstudien in Berlin und Hanoi verdeutlichen, wie Transparenz, bürgerliche Teilhabe sowie Rechenschaftspflicht miteinander verflochten sind und sich gegenseitig beeinflussen. Es ist schwierig die Kommunalverwaltung in Hanoi zur Rechenschaft zu ziehen. Hierzu fehlt es an geeigneten Instrumenten, wie z.B. freie und gleiche Wahlen. Es fehlt ebenfalls die Beteiligung von Akteuren wie freien Medien, Nichtregierungsorganisationen und zivilgesellschaftlichen Organisationen. Der wesentliche Unterschied formeller regulativer und kognitiver Institutionen zwischen Berlin und Hanoi wird anhand von drei Prinzipien dargestellt: Rechtsstaatlichkeit (Rule of Law) vs. Herrschaft durch Recht (rule by law), Pluralismus vs. Einheitspartei innerhalb der Politik sowie Marktwirtschaft vs. Marktwirtschaft sozialistischer Prägung. In Berlin gelten Verhaltensnormen, welche das Gesetz und die individuelle Freiheit respektieren. Ebenso herrscht das Bewusstsein vor, die Gemeinschaft zu fördern. EinwohnerInnen Berlins erachten es als selbstverständlich, dass sie öffentliche Dienstleistungen gerecht in Anspruch nehmen können. Die Vorstellung, Geld oder Beziehungen auf unrechtmäßige Art zu nutzen, um Verwaltungsvorgänge abzukürzen, herrschen weder bei Verwaltung noch bei den BürgerInnen vor. Innerhalb eines schwachen formellen Rahmens von good governance in Hanoi interagieren neue Werte und Normen einer Volkswirtschaft im Umbruch (Wohlstand, Erfolg) mit denen einer Planwirtschaft (Lügen, Abhängigkeit, Passivität) sowie mit denen traditioneller Gesellschaften (Hierarchie, Harmonie, Familie, Kollektivismus) und beeinflussen die Handlungen der Akteure. In Hanoi wird es nicht als selbstverständlich angesehen, das zu tun, was in Berlin als „das Richtige“ angesehen würde, z. B. Gesetze einzuhalten. Unbeabsichtigte Konsequenzen willkürlicher Reformaktivitäten der Partei zeigen sich im Fortbestehen von Korruption. Die sozialistische Orientierung der Marktwirtschaft scheint nicht erreicht worden zu sein, da sich die Schere zwischen Reich und Arm geweitet hat. Good governance ist unerreichbar, wenn BürgerInnen, Verwaltung und PolitikerInnen hauptsächlich von Eigeninteressen gelenkt werden. Der Staat und die Gesellschaft hängen voneinander ab. Um theoretisch good governance in Hanoi zu erreichen, müssten (formelle und informelle) Institutionen geschaffen werden, die positiven Einfluss auf BürgerInnen, Verwaltung und VolksvertreterInnen haben. BürgerInnen sind „gut“ aufgrund von Lernprozessen und Gewöhnung und nicht aufgrund ihrer Natur. Das Rechtstaatlichkeitsprinzip ist notwendig, um die Leistungsbereitschaft lokaler Verwaltungen sowie der Volksvertretungen zu stärken. Sobald Rechtstaatlichkeit konsequente Anwendung findet, verringert sich auch der Raum, in dem informelle Institutionen angewendet werden können. Die Förderung von good governance in Hanoi hängt im Wesentlichen vom Verlangen ab, die Regierung und die Menschen zu verändern. Good governance in Berlin sollte als Ergebnis eines andauernden Prozesses von Entwicklung und Änderung von Lokalregierung und BürgerInnen angesehen werden. Institutionelle Transformation ist ein langwieriger und komplizierter Prozess. Veränderungen formeller Regelungen sowie die Art der Implementierung solch neuer Regelungen trifft möglicherweise auf starken Widerstand seitens etablierter Akteure mit ihren Gewohnheiten. In dieser Studie wurde gezeigt, welches die Schwachpunkte der Institutionen in Hanoi sind. Ebenso wurden jene Faktoren identifiziert, welche die zukünftige Entwicklung in Richtung von good governance beeinflussen können. Es ist jedoch schwierig einzuschätzen, wie lange es dauern wird, das institutionelle Gefüge in Hanoi hin zu verantwortungsvoller Regierungsführung zu ändern. KW - local governance KW - Hanoi KW - Berlin KW - good governance KW - gute Regierungsführung KW - schlechte Regierungsführung KW - Hanoi KW - Berlin KW - Transparenz KW - Partizipation KW - Rechenschaftspflicht KW - Rechtsstaatlichkeit KW - Korruption KW - neuer Institutionalismus KW - Kultur KW - Institution KW - kulturell-kognitive Institution KW - regulative Institution KW - formale Institution KW - informelle Institution KW - Teilhabe der BürgerInnen KW - sozialistische Orientierung der Marktwirtschaft Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93943 ER - TY - THES A1 - Bojahr, Andre T1 - Hypersound interaction studied by time-resolved inelastic light and x-ray scattering T1 - Wechselwirkende Hyperschallwellen untersucht mittels zeitaufgelöster inelastischer Licht- und Röntgenstreuung N2 - This publications-based thesis summarizes my contribution to the scientific field of ultrafast structural dynamics. It consists of 16 publications, about the generation, detection and coupling of coherent gigahertz longitudinal acoustic phonons, also called hypersonic waves. To generate such high frequency phonons, femtosecond near infrared laser pulses were used to heat nanostructures composed of perovskite oxides on an ultrashort timescale. As a consequence the heated regions of such a nanostructure expand and a high frequency acoustic phonon pulse is generated. To detect such coherent acoustic sound pulses I use ultrafast variants of optical Brillouin and x-ray scattering. Here an incident optical or x-ray photon is scattered by the excited sound wave in the sample. The scattered light intensity measures the occupation of the phonon modes. The central part of this work is the investigation of coherent high amplitude phonon wave packets which can behave nonlinearly, quite similar to shallow water waves which show a steepening of wave fronts or solitons well known as tsunamis. Due to the high amplitude of the acoustic wave packets in the solid, the acoustic properties can change significantly in the vicinity of the sound pulse. This may lead to a shape change of the pulse. I have observed by time-resolved Brillouin scattering, that a single cycle hypersound pulse shows a wavefront steepening. I excited hypersound pulses with strain amplitudes until 1% which I have calibrated by ultrafast x-ray diffraction (UXRD). On the basis of this first experiment we developed the idea of the nonlinear mixing of narrowband phonon wave packets which we call "nonlinear phononics" in analogy with the nonlinear optics, which summarizes a kaleidoscope of surprising optical phenomena showing up at very high electric fields. Such phenomena are for instance Second Harmonic Generation, four-wave-mixing or solitons. But in case of excited coherent phonons the wave packets have usually very broad spectra which make it nearly impossible to look at elementary scattering processes between phonons with certain momentum and energy. For that purpose I tested different techniques to excite narrowband phonon wave packets which mainly consist of phonons with a certain momentum and frequency. To this end epitaxially grown metal films on a dielectric substrate were excited with a train of laser pulses. These excitation pulses drive the metal film to oscillate with the frequency given by their inverse temporal displacement and send a hypersonic wave of this frequency into the substrate. The monochromaticity of these wave packets was proven by ultrafast optical Brillouin and x-ray scattering. Using the excitation of such narrowband phonon wave packets I was able to observe the Second Harmonic Generation (SHG) of coherent phonons as a first example of nonlinear wave mixing of nanometric phonon wave packets. N2 - Diese publikationsbasierte Dissertation fasst meinen Beitrag zum Forschungsgebiet der ultraschnellen Strukturdynamik zusammen. Diese Arbeit besteht aus 16 Publikationen aus den Bereichen der Erzeugung, Detektion und Kopplung von kohärenten Gigahertz longitudinal-akustischen Phononen, auch Hyperschallwellen genannt. Um solch hochfrequente Phononen zu erzeugen, werden Femtosekunden nahinfrarot Laserpulse benutzt, um Nanostrukturen auf einer ultraschnellen Zeitskala zu erhitzen. Die aufgeheizten Regionen der Nanostruktur dehnen sich aufgrund der hohen Temperatur aus und ein hochfrequenter Schallpuls wird generiert. Um solche akustischen Pulse zu detektieren benutze ich ultraschnelle Varianten der Brillouin- und Röntgenstreuung. Dabei wird ein einfallendes optisches oder Röntgenphoton an der erzeugten Schallwelle gestreut. Die gemessene Streuintensität ist hierbei ein Maß für die Besetzung einzelner Phononenzustände. Der zentrale Teil dieser Arbeit ist die Untersuchung von kohärenten Phonon-Wellenpaketen mit sehr hoher Amplitude. Diese Wellenpakete können sich nichtlinear verhalten, sehr ähnlich zu Flachwasserwellen bei denen nichtlineare Effekte in Form eines Aufsteilens der Wellenfronten oder der Existenz von Solitonen, bekannt als Tsunamis, äußern. Durch die hohe Amplitude der akustischen Wellenpakete können sich die akustischen Eigenschaften des Festkörpers in der Umgebung des Schallpulses signifikant ändern, welches sich dann in einer Formänderung des Schallpulses widerspiegelt. Ich konnte mittels zeitaufgelöster Brillouinstreuung das Aufsteilen der Wellenfronten eines Hyperschallpulses bestehend aus einem einzigen Oszillationszyklus beobachten. Hierbei wurden Hyperschallwellen mit einer Dehnungsamplitude von bis zu 1% angeregt, wobei ich diesen Wert mittels ultraschneller Röntgenbeugung kalibrieren konnte. Mit diesem ersten Experiment als Basis entwickelten wir die Idee der nichtlinearen Wellenmischung von schmalbandigen Phonon-Wellenpaketen unter dem Titel "nichtlineare Phononik" in Analogie zur nichtlinearen Optik, welche sich aus einer Reihe von verblüffenden optischen Phänomenen bei sehr hohen elektrischen Feldstärken zusammensetzt. Solche Phänomene sind z. B. die optische Frequenzverdopplung, das Vier-Wellen-Mischen oder Solitone. Nur sind im Falle von kohärenten Phononen die erzeugten Spektren sehr breitbandig, was die Untersuchung von spezifischen Phononen mit festem Impuls und definierter Frequenz fast unmöglich macht. Aus diesem Grund testete ich verschiedene Methoden um schmalbandige Phonon-Wellenpakete anzuregen, welche im Wesentlichen aus Phononen bestimmten Impulses und definierter Frequenz bestehen. Dafür wurden schließ lich epitaktisch auf ein dielektrisches Substrat aufgewachsene Metallfilme mit einen Laserpulszug angeregt. Hier sorgen die Lichtpulse für eine periodische Oszillation des Metalfilms, wobei die Anregefrequenz durch den inversen zeitlichen Abstand der Lichtpulse gegeben ist. Diese periodische Oszillation sendet dann ein Hyperschallwellenpaket eben dieser Frequenz ins Substrat. Die Monochromie dieser Wellenpakete konnte dabei mittels ultraschneller Brillouin- und Röntgenstreuung bestätigt werden. Durch die Benutzung dieser schmalbandigen Phonon-Wellenpakete war es mir möglich, die Frequenzverdopplung (SHG) von kohärenten Phononen zu beobachten, was ein erstes Beispiel für die nichtlineare Wellenmischung von nanometrischen Phonon-Wellenpaketen ist. KW - hypersound KW - nonlinear acoustics KW - ultrafast KW - Brillouin scattering KW - x-ray diffraction KW - self-steepening KW - second-harmonic generation KW - Phononen KW - Wechselwirkung KW - Anharmonizität KW - nichtlineare Wellenmischung KW - zweite Harmonische KW - Phononenstreuung KW - nichlineare Phononik Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93860 ER - TY - THES A1 - Kovach, Ildiko T1 - Development, characterization of Janus emulsions, and their usage as a template phase for fabricating biopolymer scaffolds Y1 - 2016 ER - TY - THES A1 - Riebe, Daniel T1 - Experimental and theoretical investigations of molecular ions by spectroscopy as well as ion mobility and mass spectrometry T1 - Experimentelle und theoretische Untersuchungen molekularer Ionen durch Spektroskopie sowie Ionenmobilitäts- und Massenspektrometrie N2 - The aim of this thesis was the elucidation of different ionization methods (resonance-enhanced multiphoton ionization – REMPI, electrospray ionization – ESI, atmospheric pressure chemical ionization – APCI) in ion mobility (IM) spectrometry. In order to gain a better understanding of the ionization processes, several spectroscopic, mass spectrometric and theoretical methods were also used. Another focus was the development of experimental techniques, including a high resolution spectrograph and various combinations of IM and mass spectrometry. The novel high resolution 2D spectrograph facilitates spectroscopic resolutions in the range of commercial echelle spectrographs. The lowest full width at half maximum of a peak achieved was 25 pm. The 2D spectrograph is based on the wavelength separation of light by the combination of a prism and a grating in one dimension, and an etalon in the second dimension. This instrument was successfully employed for the acquisition of Raman and laser-induced breakdown spectra. Different spectroscopic methods (light scattering and fluorescence spectroscopy) permitting a spatial as well as spectral resolution, were used to investigate the release of ions in the electrospray. The investigation is based on the 50 nm shift of the fluorescence band of rhodamine 6G ions of during the transfer from the electrospray droplets to the gas phase. A newly developed ionization chamber operating at reduced pressure (0.5 mbar) was coupled to a time-of-flight mass spectrometer. After REMPI of H2S, an ionization chemistry analogous to H2O was observed with this instrument. Besides H2S+ and its fragments, H3S+ and protonated analyte ions could be observed as a result of proton-transfer reactions. For the elucidation of the peaks in IM spectra, a combination of IM spectrometer and linear quadrupole ion trap mass spectrometer was developed. The instrument can be equipped with various ionization sources (ESI, REMPI, APCI) and was used for the characterization of the peptide bradykinin and the neuroleptic promazine. The ionization of explosive compounds in an APCI source based on soft x-radiation was investigated in a newly developed ionization chamber attached to the ion trap mass spectrometer. The major primary and secondary reactions could be characterized and explosive compound ions could be identified and assigned to the peaks in IM spectra. The assignment is based on the comparison of experimentally determined and calculated IM. The methods of calculation currently available exhibit large deviations, especially in the case of anions. Therefore, on the basis of an assessment of available methods, a novel hybrid method was developed and characterized. N2 - Ziel dieser Arbeit war die Aufklärung unterschiedlicher Ionisationsmethoden (Resonanz-verstärkte Mehrphotonenionisation – REMPI, Elektrosprayionisation – ESI, chemische Ionisation bei Atmosphärendruck – APCI) in der Ionenmobilitäts (IM)-Spektrometrie. Um ein besseres Verständnis der Ionisationsprozesse zu erhalten, wurden zusätzlich ver¬schiedene spektroskopische, massenspektrometrische und theoretische Methoden eingesetzt. Ein weiterer Schwerpunkt war die Entwicklung neuer experimenteller Techniken, darunter ein hochauflösender Spektrograph und verschiedene Kombinationen von IM- und Massenspektrometern. Der neuartige, hochauflösende 2D Spektrograph ermöglicht spektroskopische Auflösungen im Bereich kommerzieller Echelle-Spektrographen. Die geringste erreichte Halbwertsbreite eines Peaks betrug 25 pm. Der 2D Spektrograph beruht auf der Wellenlängenseparation von Licht durch eine Kombination aus einem Prisma und einem Gitter in der einen Dimension und einem Etalon in der zweiten Dimension. Das Instrument wurde erfolgreich zur Aufnahme von Raman- und laserinduzierten Plasmaspektren ein¬gesetzt. Verschiedene spektroskopische Methoden (Lichtstreuung und Fluoreszenzspektroskopie), die sowohl eine räumliche, als auch eine spektrale Auflösung erlauben, wurden zur Untersuchung der Freisetzung der Ionen im Elektrospray angewandt. Die Untersuchung beruht auf der Verschiebung der Fluoreszenzbande von Rhodamin 6G-Ionen um 50 nm beim Übergang aus den Elektrospray-Tropfen in die Gasphase. Eine neuent¬wickelte Ionisationskammer bei reduziertem Druck (0,5 mbar) wurde an ein Flugzeit-Massenspektrometer gekoppelt. Darin wurde nach REMPI von H2S eine zum H2O analoge Ionisationschemie beobachtet. Neben H2S+ und seinen Fragmenten wurden als Ergebnis von Proto-nen-Transferreaktionen H3S+ und protonierte Analytionen beobachtet. Zur Aufklärung der Peaks in IM-Spektren wurde eine Kopplung von IM-Spektrometer und linearem Quadrupol-Ionenfallen-Massenspektrometer entwickelt. Die Kopplung kann mit verschiedenen Ionisationsquellen (ESI, REMPI, APCI) ausgestattet werden und wurde zur Charakterisierung des Peptids Bradykinin und des Neuroleptikums Promazin angewendet. Die Ionisation von Sprengstoffen in einer APCI-Quelle, die auf weicher Röntgenstrahlung beruht, wurde in einer neu entwickelten, an das Ionenfallen-Massenspektrometer gekoppelten Ionisationskammer untersucht. Dabei konnten die wichtigsten Primär- und Sekundärreaktionen charakterisiert, sowie Sprengstoffionen identifiziert und den Peaks in den IM-Spektren zugeordnet werden. Diese Zuordnung beruht auf dem Vergleich von experimentell bestimmten und berechneten IM. Da die aktuell verfügbaren Berechnungsmethoden insbesondere für Anionen zu große Abweichungen zu den experimentell bestimmten IM aufweisen, wurde auf Basis der Bewertung verfügbarer Methoden eine neue Hybridmethode entwickelt und charakterisiert. KW - ion mobility spectrometry KW - mass spectrometry KW - explosives KW - X-ray KW - photoionization KW - ion mobility calculations KW - Ionenmobilitätsspektrometrie KW - Massenspektrometrie KW - Sprengstoffe KW - Röntgenstrahlung KW - Photoionisation KW - Ionenmobilitäts-Berechnungen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94632 ER - TY - THES A1 - Dionysopoulou, Kyriaki T1 - General-relativistic magnetohydrodynamics in compact objects BT - a resistive-magnetohydrodynamics approach Y1 - 2016 ER - TY - THES A1 - Kalbe, Johannes T1 - Stepping stones hominin dispersal out of Africa BT - pleistocene lakes and wetlands in the Levant Y1 - 2016 ER - TY - THES A1 - Reinecke, Antje Adriana T1 - Impact of protein structure on the mechanics and assembly of mytilus byssal threads Y1 - 2016 ER - TY - THES A1 - Olen, Stephanie M. T1 - Understanding Himalayan denudation at the catchment and orogen scale T1 - Verständnis von Denudation auf regionalem und orogenem Maßstab im Himalaja N2 - Understanding the rates and processes of denudation is key to unraveling the dynamic processes that shape active orogens. This includes decoding the roles of tectonic and climate-driven processes in the long-term evolution of high- mountain landscapes in regions with pronounced tectonic activity and steep climatic and surface-process gradients. Well-constrained denudation rates can be used to address a wide range of geologic problems. In steady-state landscapes, denudation rates are argued to be proportional to tectonic or isostatic uplift rates and provide valuable insight into the tectonic regimes underlying surface denudation. The use of denudation rates based on terrestrial cosmogenic nuclide (TCN) such as 10Beryllium has become a widely-used method to quantify catchment-mean denudation rates. Because such measurements are averaged over timescales of 102 to 105 years, they are not as susceptible to stochastic changes as shorter-term denudation rate estimates (e.g., from suspended sediment measurements) and are therefore considered more reliable for a comparison to long-term processes that operate on geologic timescales. However, the impact of various climatic, biotic, and surface processes on 10Be concentrations and the resultant denudation rates remains unclear and is subject to ongoing discussion. In this thesis, I explore the interaction of climate, the biosphere, topography, and geology in forcing and modulating denudation rates on catchment to orogen scales. There are many processes in highly dynamic active orogens that may effect 10Be concentrations in modern river sands and therefore impact 10Be-derived denudation rates. The calculation of denudation rates from 10Be concentrations, however, requires a suite of simplifying assumptions that may not be valid or applicable in many orogens. I investigate how these processes affect 10Be concentrations in the Arun Valley of Eastern Nepal using 34 new 10Be measurements from the main stem Arun River and its tributaries. The Arun Valley is characterized by steep gradients in climate and topography, with elevations ranging from <100 m asl in the foreland basin to >8,000 asl in the high sectors to the north. This is coupled with a five-fold increase in mean annual rainfall across strike of the orogen. Denudation rates from tributary samples increase toward the core of the orogen, from <0.2 to >5 mm/yr from the Lesser to Higher Himalaya. Very high denudation rates (>2 mm/yr), however, are likely the result of 10Be TCN dilution by surface and climatic processes, such as large landsliding and glaciation, and thus may not be representative of long-term denudation rates. Mainstem Arun denudation rates increase downstream from ~0.2 mm/yr at the border with Tibet to 0.91 mm/yr at its outlet into the Sapt Kosi. However, the downstream 10Be concentrations may not be representative of the entire upstream catchment. Instead, I document evidence for downstream fining of grains from the Tibetan Plateau, resulting in an order-of-magnitude apparent decrease in the measured 10Be concentration. In the Arun Valley and across the Himalaya, topography, climate, and vegetation are strongly interrelated. The observed increase in denudation rates at the transition from the Lesser to Higher Himalaya corresponds to abrupt increases in elevation, hillslope gradient, and mean annual rainfall. Thus, across strike (N-S), it is difficult to decipher the potential impacts of climate and vegetation cover on denudation rates. To further evaluate these relationships I instead took advantage of an along-strike west-to-east increase of mean annual rainfall and vegetation density in the Himalaya. An analysis of 136 published 10Be denudation rates from along strike of the revealed that median denudation rates do not vary considerably along strike of the Himalaya, ~1500 km E-W. However, the range of denudation rates generally decreases from west to east, with more variable denudation rates in the northwestern regions of the orogen than in the eastern regions. This denudation rate variability decreases as vegetation density increases (R=- 0.90), and increases proportionately to the annual seasonality of vegetation (R=0.99). Moreover, rainfall and vegetation modulate the relationship between topographic steepness and denudation rates such that in the wet, densely vegetated regions of the Himalaya, topography responds more linearly to changes in denudation rates than in dry, sparsely vegetated regions, where the response of topographic steepness to denudation rates is highly nonlinear. Understanding the relationships between denudation rates, topography, and climate is also critical for interpreting sedimentary archives. However, there is a lack of understanding of how terrestrial organic matter is transported out of orogens and into sedimentary archives. Plant wax lipid biomarkers derived from terrestrial and marine sedimentary records are commonly used as paleo- hydrologic proxy to help elucidate these problems. I address the issue of how to interpret the biomarker record by using the plant wax isotopic composition of modern suspended and riverbank organic matter to identify and quantify organic matter source regions in the Arun Valley. Topographic and geomorphic analysis, provided by the 10Be catchment-mean denudation rates, reveals that a combination of topographic steepness (as a proxy for denudation) and vegetation density is required to capture organic matter sourcing in the Arun River. My studies highlight the importance of a rigorous and careful interpretation of denudation rates in tectonically active orogens that are furthermore characterized by strong climatic and biotic gradients. Unambiguous information about these issues is critical for correctly decoding and interpreting the possible tectonic and climatic forces that drive erosion and denudation, and the manifestation of the erosion products in sedimentary archives. N2 - Schlüssel im Verständnis der dynamischen Prozesse in aktiven Orogenen ist die Kenntnis der Abtragungsraten und -prozesse. Eine breite Auswahl geologischer Fragen können mit well-constrained Abtragungsraten erörtert werden. Sind Landschaften im Gleichgewicht so sind die Denudationsraten proportional zu den tektonischen und isostatischen Hebungsraten und geben somit wichtige Hinweise über die tektonischen Eigenschaften der Region. Eine weit verbreitete und etablierte Methode zur Bestimmung mittlerer Denudationsraten eines bestimmten Einzugsgebietes ist Beryllium-10, ein terrestrisches kosmogenes Nuklid (10Be TCN). 10Be TCN Messungen stellen durchschnittliche Abtragungsraten über einen Zeitraum von 10^2 – 10^5 Jahren dar und sind daher weniger verletzlich gegenüber stochastischen Änderungen wie Erosionsraten, die über einen kurzen Zeitraum ermittelt werden z.B. in Suspension. Sie sind daher zuverlässig einsetzbar um langfristige Prozesse zu vergleichen. Allerdings ist unklar welche Einfluss verschiedene klimatische, biologische oder erdoberflächen Prozesse auf die 10Be Konzentration ausüben und somit auch auf die resultierenden Abtragungsraten. In dieser Doktorarbeit, setze ich mich mit dem Zwischenspiel von Klima, Biosphäre, Topographie und Geologie auseinander und dem Einfluss, den sie auf Abtragungsraten ausüben sowohl auf regionalem wie auch auf orogenem Maßstab. In hoch dynamischen aktiven Gebirgen gibt es viele Prozesse, welche die 10Be Konzentration in heutigen Flusssanden beeinflussen und damit auch die, mittels 10Be berechneten, Abtragungsraten. Um diese Raten mittels 10Be Konzentrationen zu berechnen benötigen wir einige vereinfachende Annahmen, die möglicherweise in anderen Regionen keine Gültigkeit haben. Ich untersuche den Einfluss dieser Prozesse auf die 10Be Konzentration. Dazu haben wir im Arun Tal im Osten Nepals 34 neue 10Be Konzentrationen des Arun Flusses und seinen Zuflüssen untersucht. Charakteristisch für das Arun Tal sind die steilen Gradienten im Klima mit einem fünffachen Anstieg des mittleren jährlichen Regenfalls über das Orogens, und in der Topographie mit Höhen von weniger als 100 m über Meer im Vorlandbecken bis über 8000 m über Meer im Gebirge. Die Abtragungsraten der Proben der Zuflüsse nehmen gegen das Zentrum des Gebirges von weniger <0.2 zu mehr als >5 mm/yr zu d.h. ansteigend vom Lesser zum Higher Himalaya. Sehr hohe Denudationsraten (> 2mm/yr) können durch erdoberflächen und klimatische Prozesse verwässert werden z. B. grosse Erdrutsche und Vergletscherungen, und sind daher nicht unbedingt repräsentativ für langzeitliche Abtragungsraten. Im Arun nehmen die Raten des Hauptflusses flussabwärts von 0.2 mm/yr im Bereich der Grenze zu Tibet auf 0.91 mm/yr am Ausfluss in Sapt Kosi zu. Es ist möglich, dass diese 10Be Konzentrationen nicht das vollständige flussauswärtsliegende Einzugsgebiet repräsentieren. Stattdessen lege ich dar wie sich die Korngrösse ab dem tibetischen Plateau verfeinert und dazu führt, dass die 10Be Konzentrationen offenkundig im Bereich einer Grössenordnung abnehmen. Im Arun Tal und sowie über den ganzen Himalaja sind Topographie, Klima und Vegetation sehr stark miteinander verbunden. Das Ansteigen der Denudationsraten im Übergang vom Lesser zum Higher Himalaya stimmt mit dem abrupten Ansteigen der Höhe, des Hangneigungsgradienten und des mittleren jährlichen Regenfalles überein. Es ist schwierig die möglichen Einflüssen von Klima und der Vegetationsdichte auf die Abtragungsraten über das Orogen hinweg (N-S) zu entziffern. Stattdessen, nutzen wir den Vorteil der, von West nach Ost, parallel zum Himalaja verlaufenden, Zunahme des mittleren jährlichen Regenfalles und der Vegetationsdichte. Eine Analyse 136 publizierter 10Be TCN Abtragungsraten entlang des Gebirges, zeigt dass die im Streichen liegenden mittleren Denudationsraten (ca. 1500 km Ost-West) nicht deutlich variieren. Generell sinkt die Wertebereich der Denudationsraten vom Westen gegen Osten, wobei in den nordwestlichen Regionen des Himalajas variablere Abtragungsraten vorherrschen als in den östlichen Regionen. Diese Vielfalt in den Denudationsraten sinkt mit steigender Vegetationsdichte (R=-0.90) und steigt proportional zur (jährlichen) Saisonalität der Vegetation (R=0.99). Vielmehr noch wird das Verhältnis zwischen der topographischen Steilheit und den Abtragungsraten durch Regen und Vegetation beeinflusst z. B. in feuchten Gebieten mit starker Vegetation reagiert die Topographie linearer auf Wechsel in den Abtragungsraten als in trockenen, kaum bewachsenen Regionen, wo die Reaktion der topographischen Steilheit auf die Denudationsraten äusserst nicht-linear ist. Das Verständnis der Beziehung zwischen Erosion, Topographie und Klima ist auch entscheidend für die Interpretation von Sedimentarchiven. Unser Wissen über die Repräsentativität von terrestrisches organisches Material, abgelagert in z.B. Flussdeltas, für die Einzugsgebiete der entsprechenden Flüsse, ist nach wie vor nur vage. Dennoch sind Blattwachse höherer Landpflanzen, extrahiert aus terrestrischen und marinen Sedimenten, ein häufig verwendeter paläohydrologischer Proxy. Im Rahmen dieser Arbeit nutzen wir die Isotopenzusammensetzung von Pflanzenwachsen aus Suspensionsmaterial und aus Flusssedimenten als Herkunftsmarker und zur Quantifizierung des organischen Materials im Arun Tal. Die Analyse von Vegetationsdichte und Regenverteilung in Kombination mit Abtragungsraten des Einzugsgebietes, welche durch die mittleren 10Be-Erosionsraten gestützt werden, zeigen, dass das Vorhandensein dichter Vegetation ein zwar notwendiges, aber nicht hinreichendes Kriterium für hohen OM-Export ist. Vielmehr können wir zeigen, dass nur eine Kombination aus dichter Vegetationsdecke und Erosion zu hohem OM-Export führt. Für die Interpretation entspechender Archive bedeutet das, dass sie im Wesentlichen jene Bereiche des Einzugsgebietes repräsentieren, welche durch hohe Pflanzendichte und starke Erosion charakterisiert sind. Diese Studien belegen wie wichtig es ist die Abtragungsraten in aktiven Gebirgen umfassend zu verstehen. Für die Interpretation kann dieses Verständnis der möglichen tektonischen und klimatischen Gewalten, welche Erosion und Abtragung steuern, und auch das Verständnis der Sedimentarchive aus den Gebirgen stammend, entscheidend sein. KW - geology KW - geomorphology KW - Himalaya KW - Geologie KW - Geomorphologie KW - Himalaja Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91423 ER - TY - THES A1 - Schroth, Maximilian T1 - Microfinance and the enhancement of economic development in less developed countries T1 - Mikrofinanzierung und die Förderung wirtschaftlicher Entwicklung in weniger entwickelten Ländern N2 - It is the intention of this study to contribute to further rethinking and innovating in the Microcredit business which stands at a turning point – after around 40 years of practice it is endangered to fail as a tool for economic development and to become a doubtful finance product with a random scope instead. So far, a positive impact of Microfinance on the improvement of the lives of the poor could not be confirmed. Over-indebtment of borrowers due to the pre-dominance of consumption Microcredits has become a widespread problem. Furthermore, a rising number of abusive and commercially excessive practices have been reported. In fact, the Microfinance sector appears to suffer from a major underlying deficit: there does not exist a coherent and transparent understanding of its meaning and objectives so that Microfinance providers worldwide follow their own approaches of Microfinance which tend to differ considerably from each other. In this sense the study aims at consolidating the multi-faced and very often confusingly different Microcredit profiles that exist nowadays. Subsequently, in this study, the Microfinance spectrum will be narrowed to one clear-cut objective, in fact away from the mere monetary business transactions to poor people it has gradually been reduced to back towards a tool for economic development as originally envisaged by its pioneers. Hence, the fundamental research question of this study is whether, and under which conditions, Microfinance may attain a positive economic impact leading to an improvement of the living of the poor. The study is structured in five parts: the three main parts (II.-IV.) are surrounded by an introduction (I.) and conclusion (V.). In part II., the Microfinance sector is analysed critically aiming to identify the challenges persisting as well as their root causes. In the third part, a change to the macroeconomic perspective is undertaken in oder to learn about the potential and requirements of small-scale finance to enhance economic development, particularly within the economic context of less developed countries. By consolidating the insights gained in part IV., the elements of a new concept of Microfinance with the objecitve to achieve economic development of its borrowers are elaborated. Microfinance is a rather sensitive business the great fundamental idea of which is easily corruptible and, additionally, the recipients of which are predestined victims of abuse due to their limited knowledge in finance. It therefore needs to be practiced responsibly, but also according to clear cut definitions of its meaning and objectives all institutions active in the sector should be devoted to comply with. This is especially relevant as the demand for Microfinance services is expected to rise further within the years coming. For example, the recent refugee migration movement towards Europe entails a vast potential for Microfinance to enable these people to make a new start into economic life. This goes to show that Microfinance may no longer mainly be associated with a less developed economic context, but that it will gain importance as a financial instrument in the developed economies, too. N2 - Diese Studie soll einen Beitrag zur Grundlagenforschung in der Mikrofinanzierung leisten und zu Reflektion und Innovation im Mikrofinanzsektor anregen. Letzterer befindet sich zurzeit an einem Scheidepunkt: nach knapp 40 Jahren besteht die Gefahr, dass Mikrofinanzierung zu einem zweifelhaften Finanzprodukt ohne klare Richtung verkommt – anstatt sich als ein Mittel zur Förderung wirtschaftlicher Entwicklung zu etablieren. Bislang konnte noch kein Nachweis erbracht werden, dass Mikrofinanzierung einen positiven Einfluss auf die wirtschaftliche Entwicklung der Armen ausübt. Überschuldung der Kreditnehmer ist zu einem weit verbreiteten Problem geworden, die weite Mehrheit der Mikrokredite geht in den Konsum. Außerdem wird vielerorts über eine wachsende Anzahl missbräuchlicher Verleihpraktiken berichtet. Ein Hauptproblem scheint tatsächlich darin zu liegen, dass die Anbieter von Mikrofinanzdienstleistungen allesamt mit eigenen Mikrofinanzkonzepten arbeiten, die sich teilweise sehr stark voneinander unterscheiden. Ein kohärentes und transparentes Verständnis der Bedeutung und Zielsetzungen von Mikrofinanzierung liegt demnach nicht vor. Das Ziel dieser Studie ist daher, die vielschichtigen und oftmals verwirrenden Mikrokreditprofile zu konsolidieren. Das Spektrum von Mikrofinanzierung in dieser Studie soll auf ein klares Ziel eingegrenzt werden: weg von den wenig greifbaren Geldgeschäften für arme Haushalte hin zu einem Mittel zur Förderung der wirtschaftlichen Entwicklung wie ursprünglich von den Erschaffern der Mikrofinanzierung anvisiert. Die zentrale Forschungsfrage dieser Studie lautet daher, ob, und wenn ja, unter welchen Bedingungen, Mikrofinanzierung einen positiven Einfluss auf die wirtschaftliche Entwicklung und die Verbesserung des Lebens der Armen in weniger entwickelten Ländern ausüben kann. Die Studie gliedert sich in fünf Teile: Die drei Hauptteile (II.-IV.) sind eingerahmt von einer Einführung (I.) sowie einem Fazit (V.). In Teil II. wird der Mikrofinanzsektor kritisch analysiert. Es werden die aktuell bestehenden Probleme aufgezeigt und ihre möglichen Ursachen identifiziert. Im dritten Teil werden mithife einer makroökonomischen Betrachtungsweise Erkenntnisse über das Potenzial von Mikrofinanzierung zur Förderung wirtschaftlicher Entwicklung gesammelt. Ebenso über die dazu zu erfüllenden Anforderungen, insbesondere im Kontext weniger entwickelter Länder. In Teil IV. werden die Erkenntnisse konsolidiert und die Elemente eines neuen Mikrofinanzkonzept erarbeitet, das die Förderung der wirtschaftlichen Entwicklung der Kreditnehmer zum Ziel hat. Mikrofinanzierung ist ein sensibles Geschäft, dessen Grundidee leicht korrumpierbar ist und dessen Empfänger prädestinierte Opfer von Betrug und Missbrauch sind, da sie in der Regel über keinerlei Vorerfahrung in Finanzthemen verfügen. Es bedarf daher einer verantwortungsbewussten Praxis, die gleichermaßen nach klaren und transparenten Richtlinien bezüglich Bedeutung und Zielsetzungen ausgerichtet ist, nach denen sich alle aktiven Marktteilnehmer richten. Dies ist insbesondere auch deshalb relevant, da mit einer wachsenden Nachfrage nach Mikrokrediten in den nächsten Jahren zu rechnen ist. Beispielsweise stellt die aktuelle Flüchtlingsbewegung nach Europa ein riesiges Potenzial dar: Mikrokredite könnten den Grundstein für einen Neustart in das Berufsleben dieser Haushalte legen. Dies zeigt auch, dass Mikrofinanzierung nicht mehr ausschließlich mit dem Kontext weniger entwickelter Länder in Verbindung gebracht wird, sondern dass sie auch in den entwickelten Ländern an Bedeutung gewinnen wird. KW - microfinance KW - microcredits KW - money KW - capital market KW - impact KW - indirect help KW - economic development KW - crisis KW - over-indebtment KW - consumption KW - abuse KW - regulation KW - McKinnon KW - less developed countries KW - fragmentation KW - financial repression KW - complementary effect KW - investment KW - savings KW - banking accounts KW - domestic entrepreneurs KW - seed-financing KW - disposable capital KW - ordo-liberal policies KW - mobile banking KW - private wealth KW - foundations KW - impact investing KW - Mikrofinanzierung KW - Mikrokredite KW - Geld KW - Kapitalmarkt KW - Impact KW - indirekte Hilfe KW - wirtschaftliche Entwicklung KW - Krise KW - Überschuldung KW - Konsum KW - Missbrauch KW - Regulierung KW - McKinnon KW - weniger entwickelte Länder KW - Fragmentierung KW - finanzielle Unterdrückung KW - Komplementaritätseffekt KW - Investitionen KW - Sparen KW - Bankkonto KW - lokale Unternehmer KW - Gründungsfinanzierung KW - Kapitaldisposition KW - ordo-liberale Politik KW - mobile banking KW - Privatvermögen KW - Stiftungen KW - Impact Investing Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94735 ER - TY - THES A1 - Sakschewski, Boris T1 - Impacts of major anthropogenic pressures on the terrestrial biosphere and its resilience to global change Y1 - 2015 ER - TY - THES A1 - Küttner, Uwe-Alexander T1 - That-initial turns in English conversation BT - an interactional linguistic investigation of two formats for designedly tying a current turn to a prior Y1 - 2016 ER - TY - THES A1 - Bittermann, Klaus T1 - Semi-empirical sea-level modelling T1 - Semiempirische Meeresspiegelmodellierung N2 - Semi-empirical sea-level models (SEMs) exploit physically motivated empirical relationships between global sea level and certain drivers, in the following global mean temperature. This model class evolved as a supplement to process-based models (Rahmstorf (2007)) which were unable to fully represent all relevant processes. They thus failed to capture past sea-level change (Rahmstorf et al. (2012)) and were thought likely to underestimate future sea-level rise. Semi-empirical models were found to be a fast and useful tool for exploring the uncertainties in future sea-level rise, consistently giving significantly higher projections than process-based models. In the following different aspects of semi-empirical sea-level modelling have been studied. Models were first validated using various data sets of global sea level and temperature. SEMs were then used on the glacier contribution to sea level, and to infer past global temperature from sea-level data via inverse modelling. Periods studied encompass the instrumental period, covered by tide gauges (starting 1700 CE (Common Era) in Amsterdam) and satellites (first launched in 1992 CE), the era from 1000 BCE (before CE) to present, and the full length of the Holocene (using proxy data). Accordingly different data, model formulations and implementations have been used. It could be shown in Bittermann et al. (2013) that SEMs correctly predict 20th century sea-level when calibrated with data until 1900 CE. SEMs also turned out to give better predictions than the Intergovernmental Panel on Climate Change (IPCC) 4th assessment report (AR4, IPCC (2007)) models, for the period from 1961–2003 CE. With the first multi-proxy reconstruction of global sea-level as input, estimate of the human-induced component of modern sea-level change and projections of future sea-level rise were calculated (Kopp et al. (2016)). It turned out with 90% confidence that more than 40 % of the observed 20th century sea-level rise is indeed anthropogenic. With the new semi-empirical and IPCC (2013) 5th assessment report (AR5) projections the gap between SEM and process-based model projections closes, giving higher credibility to both. Combining all scenarios, from strong mitigation to business as usual, a global sea-level rise of 28–131 cm relative to 2000 CE, is projected with 90% confidence. The decision for a low carbon pathway could halve the expected global sea-level rise by 2100 CE. Present day temperature and thus sea level are driven by the globally acting greenhouse-gas forcing. Unlike that, the Milankovich forcing, acting on Holocene timescales, results mainly in a northern-hemisphere temperature change. Therefore a semi-empirical model can be driven with northernhemisphere temperatures, which makes it possible to model the main subcomponent of sea-level change over this period. It showed that an additional positive constant rate of the order of the estimated Antarctic sea-level contribution is then required to explain the sea-level evolution over the Holocene. Thus the global sea level, following the climatic optimum, can be interpreted as the sum of a temperature induced sea-level drop and a positive long-term contribution, likely an ongoing response to deglaciation coming from Antarctica. N2 - Semiempirische Meeresspiegelmodelle (SEMe) nutzen die physikalisch motivierte, empirische Beziehung des globalen Meeresspiegels zu einem bestimmten Antrieb. Im Folgenden ist das die mittlere globale Temperatur. Diese Modellklasse entstand als Ergänzung zu prozeßbasierten Modellen, die nicht alle relevanten Prozesse abbilden konnten (Rahmstorf (2007)) und die deshalb weder den beobachteten Meeresspiegel erklären konnten (Rahmstorf et al. (2012)) noch vertrauenswürdige Zukunftsprojektionen lieferten. Semiempirische Modelle sind eine gute und schnelle Option, die Unsicherheit im zukünftigen Meeresspiegelanstieg auszuloten, wobei sie konsistent höhere Zukunftsprojektionen lieferten als prozeßbasierte Modelle. Im Folgenden wurden verschiedene Aspekte der semiempirischen Meeresspiegelmodellierung untersucht. Modelle wurden erst mit verschiedenen globalen Temperatur- und Meeresspiegeldatensätzen validiert. SEMe wurden dann auf den Meeresspiegelbeitrag von Gletschern angewandt und genutzt, um die globale Temperatur aus Meeresspiegeldaten abzuleiten. Die untersuchten Zeiträume variieren zwischen dem instrumentellen Abschnitt mit Pegelstandsmessungen (seit dem Jahr 1700 in Amsterdam) und Satellitendaten (seit 1992), dem Zeitraum seit 1000 vor Christus und dem gesamten Holozän (mittels Proxydaten). Entsprechend wurden verschiedene Daten, Modellformulierungen und -implementationen benutzt. Es konnte in Bittermann et al. (2013) gezeigt werden, dass SEMe den beobachteten Meeresspiegel des 20sten Jahrhunderts korrekt vorhersagen können, wenn sie bis zum Jahr 1900 kalibriert wurden. Auch für den Zeitraum 1961 bis 2003 lieferten SEMe bessere Vorhersagen als der vierte Sachstandsbericht des Intergovernmental Panel on Climate Change (AR4, IPCC (2007)). Mit der ersten globalen multi-proxy Rekonstruktion des globalen Meeresspiegels als Input konnten sowohl der anthropogene Anteil des modernen Meeresspiegelanstiegs als auch Zukunftsprojektionen berechnet werden (Kopp et al. (2016)). Es zeigt sich mit 90% Sicherheit, dass mehr als 40 % des beobachteten Meeresspiegelanstiegs im 20sten Jahrhundert anthropogenen Ursprungs sind. Mit den neuen semiempirischen Zukunftsprojektionen und denen des fünften Sachstandsberichtes (AR5) des IPCC (2013) läßt sich die Kluft zwischen SEMen und prozeßbasierten Modellen schließen, was beide vertrauenswürdiger macht. Über alle Szenarien hinweg, von starker Treibhausgaseinsparung bis zum ungebremsten Ausstoß, ergibt sich, mit 90% Sicherheit, zwischen 2000 und 2100 ein Meeresspiegelanstieg von 28 bis 131 cm. Die Entscheidung starker Treibhausgaseinsparungen kann den erwarteten globalen Meeresspiegelanstieg im Jahr 2100 halbieren. Die gegenwärtige globale Temperatur, und damit der globale Meeresspiegel, werden von dem global wirkenden Treibhausgasforcing bestimmt. Im Gegensatz dazu wirkt das orbitale Forcing, welches über Holozän-Zeitskalen dominiert, hauptsächlich auf die Nordhemisphäre. Deshalb kann man ein SEM mit Nordhemisphärentemperaturen antreiben und dadurch die Hauptkomponente der Meeresspiegeländerung über das Holozän simulieren. Es stellte sich heraus, dass eine zusätzliche konstante Rate, von der Größenordnung des antarktischen Beitrags zum Meeresspiegel, nötig ist, um den Meeresspiegelverlauf des Holozäns zu erklären. Der Meeresspiegel seit dem Holozän-Klimaoptimum kann also als eine Summe von temperaturbedingtem Fallen und einem langfristigen positiven Beitrag, wahrscheinlich einer andauernden Reaktion auf die Deglaziation der Antarktis, interpretiert werden. KW - sea level KW - Meeresspiegel KW - climate change KW - Klimawandel KW - projections KW - Projektionen KW - anthropogenic sea level KW - anthropogener Meeresspiegel KW - Holocene KW - Holozän KW - semi-empirical models KW - semiempirische Modelle Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93881 ER - TY - THES A1 - Nied, Manuela T1 - The role of soil moisture and weather patterns for flood occurrence and characteristics at the river basin scale T1 - Die Bedeutung von Mustern der Bodenfeuchte und des Wetters für das Auftreten und die Ausprägung von Hochwasserereignissen auf der Skala des Flusseinzugsgebietes N2 - Flood generation at the scale of large river basins is triggered by the interaction of the hydrological pre-conditions and the meteorological event conditions at different spatial and temporal scales. This interaction controls diverse flood generating processes and results in floods varying in magnitude and extent, duration as well as socio-economic consequences. For a process-based understanding of the underlying cause-effect relationships, systematic approaches are required. These approaches have to cover the complete causal flood chain, including the flood triggering meteorological event in combination with the hydrological (pre-)conditions in the catchment, runoff generation, flood routing, possible floodplain inundation and finally flood losses. In this thesis, a comprehensive probabilistic process-based understanding of the causes and effects of floods is advanced. The spatial and temporal dynamics of flood events as well as the geophysical processes involved in the causal flood chain are revealed and the systematic interconnections within the flood chain are deciphered by means of the classification of their associated causes and effects. This is achieved by investigating the role of the hydrological pre-conditions and the meteorological event conditions with respect to flood occurrence, flood processes and flood characteristics as well as their interconnections at the river basin scale. Broadening the knowledge about flood triggers, which up to now has been limited to linking large-scale meteorological conditions to flood occurrence, the influence of large-scale pre-event hydrological conditions on flood initiation is investigated. Using the Elbe River basin as an example, a classification of soil moisture, a key variable of pre-event conditions, is developed and a probabilistic link between patterns of soil moisture and flood occurrence is established. The soil moisture classification is applied to continuously simulated soil moisture data which is generated using the semi-distributed conceptual rainfall-runoff model SWIM. Applying successively a principal component analysis and a cluster analysis, days of similar soil moisture patterns are identified in the period November 1951 to October 2003. The investigation of flood triggers is complemented by including meteorological conditions described by a common weather pattern classification that represents the main modes of atmospheric state variability. The newly developed soil moisture classification thereby provides the basis to study the combined impact of hydrological pre-conditions and large-scale meteorological event conditions on flood occurrence at the river basin scale. A process-based understanding of flood generation and its associated probabilities is attained by classifying observed flood events into process-based flood types such as snowmelt floods or long-rain floods. Subsequently, the flood types are linked to the soil moisture and weather patterns. Further understanding of the processes is gained by modeling of the complete causal flood chain, incorporating a rainfall-runoff model, a 1D/2D hydrodynamic model and a flood loss model. A reshuffling approach based on weather patterns and the month of their occurrence is developed to generate synthetic data fields of meteorological conditions, which drive the model chain, in order to increase the flood sample size. From the large number of simulated flood events, the impact of hydro-meteorological conditions on various flood characteristics is detected through the analysis of conditional cumulative distribution functions and regression trees. The results show the existence of catchment-scale soil moisture patterns, which comprise of large-scale seasonal wetting and drying components as well as of smaller-scale variations related to spatially heterogeneous catchment processes. Soil moisture patterns frequently occurring before the onset of floods are identified. In winter, floods are initiated by catchment-wide high soil moisture, whereas in summer the flood-initiating soil moisture patterns are diverse and the soil moisture conditions are less stable in time. The combined study of both soil moisture and weather patterns shows that the flood favoring hydro-meteorological patterns as well as their interactions vary seasonally. In the analysis period, 18 % of the weather patterns only result in a flood in the case of preceding soil saturation. The classification of 82 past events into flood types reveals seasonally varying flood processes that can be linked to hydro-meteorological patterns. For instance, the highest flood potential for long-rain floods is associated with a weather pattern that is often detected in the presence of so-called ‘Vb’ cyclones. Rain-on-snow and snowmelt floods are associated with westerly and north-westerly wind directions. The flood characteristics vary among the flood types and can be reproduced by the applied model chain. In total, 5970 events are simulated. They reproduce the observed event characteristics between September 1957 and August 2002 and provide information on flood losses. A regression tree analysis relates the flood processes of the simulated events to the hydro-meteorological (pre-)event conditions and highlights the fact that flood magnitude is primarily controlled by the meteorological event, whereas flood extent is primarily controlled by the soil moisture conditions. Describing flood occurrence, processes and characteristics as a function of hydro-meteorological patterns, this thesis is part of a paradigm shift towards a process-based understanding of floods. The results highlight that soil moisture patterns as well as weather patterns are not only beneficial to a probabilistic conception of flood initiation but also provide information on the involved flood processes and the resulting flood characteristics. N2 - Hochwasserereignisse in großen Flusseinzugsgebieten entstehen durch das Zusammenwirken der hydrologischen Vorbedingungen und der meteorologischen Ereignisbedingungen. Das Zusammenwirken findet auf verschiedenen räumlichen und zeitlichen Skalen statt und steuert dabei unterschiedliche Prozesse der Hochwasserentstehung. Diese führen zu Hochwassern mit vielfältigen Eigenschaften, die sich unter anderem in maximalem Pegelstand, räumlicher Ausdehnung, Andauer und sozio-ökonomischen Folgen unterscheiden. Für ein prozessbasiertes Verständnis der zugrunde liegenden Zusammenhänge zwischen Ursache und Wirkung sind systematische Ansätze notwendig. Diese müssen die gesamte kausale Hochwasserprozesskette, von dem Hochwasser auslösenden meteorologischen Ereignis welches auf die hydrologischen Vorbedingungen im Einzugsgebiet trifft, über Abflussbildung, Wellenablauf und mögliche Überflutungen, bis hin zum Hochwasserschaden umfassen. Die vorliegende Arbeit hat das Ziel, zu einem umfassenden probabilistischen, prozessbasierten Verständnis der Ursachen und Auswirkungen von Hochwassern beizutragen. Neben der räumlichen und zeitlichen Dynamik von Hochwasserereignissen werden die an der kausalen Hochwasserprozesskette beteiligten geophysikalischen Prozesse analysiert. Systematische Zusammenhänge von Ursachen und Wirkungen innerhalb der Hochwasserprozesskette werden durch die Analyse von Klassifizierungen der hydrologischen Vorbedingungen und der meteorologischen Ereignisbedingungen offengelegt. Des Weiteren wird der Einfluss der klassifizierten Bedingungen bezüglich Hochwasserentstehung, Hochwasserprozessen und Hochwassereigenschaften sowie deren Verbindungen untereinander auf Ebene des Flusseinzugsgebiets quantifiziert. Das Wissen über hochwasserauslösende Bedingungen, welches bisher auf die Analyse von Großwetterlagen und deren Einfluss auf die Hochwasserentstehung beschränkt war, wird um den Einflussfaktor der großskaligen hydrologischen Vorbedingungen ergänzt. Am Beispiel des Einzugsgebiets der Elbe wird eine Klassifizierungsmethode für die Bodenfeuchte, einer bedeutenden hydrologischen Vorbedingung, entwickelt. Durch die Klassifizierung der Bodenfeuchte kann ein probabilistischer Zusammenhang zwischen räumlichen Bodenfeuchtemustern und dem Auftreten von Hochwasser hergestellt werden. Die Bodenfeuchteklassifizierung wird angewandt auf Bodenfeuchtedaten, die mit dem konzeptionellen Niederschlags-Abfluss-Modell SWIM durch kontinuierliche Simulation erzeugt werden. Eine Hauptkomponenten- und anschließende Clusteranalyse identifizieren dabei Tage ähnlicher räumlicher Bodenfeuchteverteilung im Zeitraum November 1951 bis Oktober 2003. Die meteorologischen Ereignisbedingungen werden durch eine gängige Wetterlagenklassifikation beschrieben, welche die charakteristischen atmosphärischen Zustände abbildet. Gemeinsam mit der neu entwickelten Bodenfeuchteklassifizierung bildet dies die Grundlage für die Untersuchung des kombinierten Einflusses der hydrologischen Vorbedingungen und der großräumigen meteorologischen Ereignisbedingungen auf die Entstehung von Hochwasser auf Flussgebietsskala. Das prozessorientierte Verständnis der Hochwasserentstehung und die damit einhergehenden Wahrscheinlichkeiten werden durch die Klassifizierung von vergangenen Hochwasserereignissen in prozessbasierte Hochwassertypen wie Schneeschmelzhochwasser oder Hochwasser auf Grund von langanhaltendendem Regen erzielt. Anschließend werden den Hochwassertypen die jeweils vorliegenden Bodenfeuchtemuster und Wetterlagen zugeordnet. Die Hochwasserprozesse werden zudem durch Simulation der gesamten kausalen Hochwasserprozesskette unter Einbeziehung eines Niederschlags-Abfluss-Modells, eines 1D/2D hydrodynamischen Modells sowie eines Hochwasserschadensmodells modelliert. Ein neu entwickelter Permutationsansatz basierend auf der Wetterlage und dem Monat ihres Auftretens generiert synthetische meteorologische Datensätze, welche der Modellkette als Eingangsdaten dienen, um eine repräsentative Anzahl von Hochwasserereignissen zu erzeugen. Durch die Vielzahl an simulierten Hochwasserereignissen kann der systematische Einfluss der hydro-meteorologischen Bedingungen auf verschiedene Hochwassermerkmale mit Hilfe von bedingten Verteilungsfunktionen und Regressionsbäumen gezeigt werden. Die Ergebnisse belegen die Existenz von Mustern der Bodenfeuchte auf Ebene von Flusseinzugsgebieten. Die Muster bilden sowohl großräumige jahreszeitliche Schwankungen der Bodenfeuchte als auch kleinskalige heterogene Prozesse im Einzugsgebiet ab. Häufig vor Hochwassern auftretende Bodenfeuchtemuster werden identifiziert. Im Winter wird Hochwasser vornehmlich durch eine flächendeckend hohe Bodenfeuchte eingeleitet. Im Sommer sind die Bodenfeuchtemuster zeitlich variabler und die mit Hochwasser in Verbindung stehenden Muster zahlreicher. Die Ergänzung der Bodenfeuchtemuster um die Wetterlagenklassifikation zeigt für die Hochwasserentstehung, dass die Beiträge der einzelnen hydro-meteorologischen Muster sowie deren Zusammenwirken jahreszeitlich variieren. Im Untersuchungszeitraum resultieren 18 % der Wetterlagen nur bei vorangehender Bodensättigung in einem Hochwasser. Die Zuordnung von 82 Hochwasserereignissen zu prozess-basierten Hochwassertypen zeigt ebenfalls saisonal unterschiedliche Prozesse auf, welche mit den hydro-meteorologischen Mustern in Verbindung gebracht werden können. Beispielsweise ist das größte Hochwasserpotenzial auf Grund von langanhaltendem Regen auf eine Wetterlage zurückzuführen, die häufig in Gegenwart von sogenannten "Vb" Zyklonen beobachtet wird. Regen-auf-Schnee und Schneeschmelz-Ereignisse werden im Zusammenhang mit westlichen und nordwestlichen Windrichtungen beobachtet. Die prozessbasierten Hochwassertypen und die resultierenden Hochwassereigenschaften können durch die angewandte Modellkette wiedergegeben werden. Insgesamt werden 5970 Ereignisse simuliert, welche die beobachteten Hochwassereigenschaften zwischen September 1957 und August 2002 reproduzieren. Zusätzlich können durch die Modellkette auch Aussagen über auftretende Hochwasserschäden gemacht werden. Eine Regressionsbaum-Analyse setzt die Hochwasserprozesse der simulierten Ereignisse in Beziehung zu den hydro-meteorologischen Bedingungen. Dabei wird deutlich, dass der Pegelstand primär durch die meteorologischen Ereignisbedingungen bestimmt wird, wohingegen die räumliche Ausdehnung des Hochwassers primär durch die Bodenfeuchtebedingungen beeinflusst wird. Die vorliegende Arbeit ist Teil eines Paradigmenwechsels hin zu einem prozessbasierten Hochwasserverständnis. Die Beschreibung von Hochwasserentstehung, Hochwasserprozessen und Hochwassereigenschaften in Abhängigkeit von hydro-meteorologischen Mustern zeigt, dass Bodenfeuchtemuster sowie Wetterlagen nicht nur zu einer probabilistischen Analyse der Hochwasserentstehung beitragen, sondern auch Aufschluss über die ablaufenden Hochwasserprozesse und die daraus resultierenden Hochwassereigenschaften geben. KW - floods KW - antecedent conditions KW - soil moisture patterns KW - weather patterns KW - flood types KW - Hochwasser KW - hydrologische Vorbedingungen KW - Muster der Bodenfeuchte KW - Wetterlagen KW - Hochwassertypen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94612 ER - TY - THES A1 - Ulaganathan, Vamseekrishna T1 - Molecular fundamentals of foam fractionation T1 - Molekulare Grundlagen der Schaumfraktionierung N2 - Foam fractionation of surfactant and protein solutions is a process dedicated to separate surface active molecules from each other due to their differences in surface activities. The process is based on forming bubbles in a certain mixed solution followed by detachment and rising of bubbles through a certain volume of this solution, and consequently on the formation of a foam layer on top of the solution column. Therefore, systematic analysis of this whole process comprises of at first investigations dedicated to the formation and growth of single bubbles in solutions, which is equivalent to the main principles of the well-known bubble pressure tensiometry. The second stage of the fractionation process includes the detachment of a single bubble from a pore or capillary tip and its rising in a respective aqueous solution. The third and final stage of the process is the formation and stabilization of the foam created by these bubbles, which contains the adsorption layers formed at the growing bubble surface, carried up and gets modified during the bubble rising and finally ends up as part of the foam layer. Bubble pressure tensiometry and bubble profile analysis tensiometry experiments were performed with protein solutions at different bulk concentrations, solution pH and ionic strength in order to describe the process of accumulation of protein and surfactant molecules at the bubble surface. The results obtained from the two complementary methods allow understanding the mechanism of adsorption, which is mainly governed by the diffusional transport of the adsorbing protein molecules to the bubble surface. This mechanism is the same as generally discussed for surfactant molecules. However, interesting peculiarities have been observed for protein adsorption kinetics at sufficiently short adsorption times. First of all, at short adsorption times the surface tension remains constant for a while before it decreases as expected due to the adsorption of proteins at the surface. This time interval is called induction time and it becomes shorter with increasing protein bulk concentration. Moreover, under special conditions, the surface tension does not stay constant but even increases over a certain period of time. This so-called negative surface pressure was observed for BCS and BLG and discussed for the first time in terms of changes in the surface conformation of the adsorbing protein molecules. Usually, a negative surface pressure would correspond to a negative adsorption, which is of course impossible for the studied protein solutions. The phenomenon, which amounts to some mN/m, was rather explained by simultaneous changes in the molar area required by the adsorbed proteins and the non-ideality of entropy of the interfacial layer. It is a transient phenomenon and exists only under dynamic conditions. The experiments dedicated to the local velocity of rising air bubbles in solutions were performed in a broad range of BLG concentration, pH and ionic strength. Additionally, rising bubble experiments were done for surfactant solutions in order to validate the functionality of the instrument. It turns out that the velocity of a rising bubble is much more sensitive to adsorbing molecules than classical dynamic surface tension measurements. At very low BLG or surfactant concentrations, for example, the measured local velocity profile of an air bubble is changing dramatically in time scales of seconds while dynamic surface tensions still do not show any measurable changes at this time scale. The solution’s pH and ionic strength are important parameters that govern the measured rising velocity for protein solutions. A general theoretical description of rising bubbles in surfactant and protein solutions is not available at present due to the complex situation of the adsorption process at a bubble surface in a liquid flow field with simultaneous Marangoni effects. However, instead of modelling the complete velocity profile, new theoretical work has been started to evaluate the maximum values in the profile as characteristic parameter for dynamic adsorption layers at the bubble surface more quantitatively. The studies with protein-surfactant mixtures demonstrate in an impressive way that the complexes formed by the two compounds change the surface activity as compared to the original native protein molecules and therefore lead to a completely different retardation behavior of rising bubbles. Changes in the velocity profile can be interpreted qualitatively in terms of increased or decreased surface activity of the formed protein-surfactant complexes. It was also observed that the pH and ionic strength of a protein solution have strong effects on the surface activity of the protein molecules, which however, could be different on the rising bubble velocity and the equilibrium adsorption isotherms. These differences are not fully understood yet but give rise to discussions about the structure of protein adsorption layer under dynamic conditions or in the equilibrium state. The third main stage of the discussed process of fractionation is the formation and characterization of protein foams from BLG solutions at different pH and ionic strength. Of course a minimum BLG concentration is required to form foams. This minimum protein concentration is a function again of solution pH and ionic strength, i.e. of the surface activity of the protein molecules. Although at the isoelectric point, at about pH 5 for BLG, the hydrophobicity and hence the surface activity should be the highest, the concentration and ionic strength effects on the rising velocity profile as well as on the foamability and foam stability do not show a maximum. This is another remarkable argument for the fact that the interfacial structure and behavior of BLG layers under dynamic conditions and at equilibrium are rather different. These differences are probably caused by the time required for BLG molecules to adapt respective conformations once they are adsorbed at the surface. All bubble studies described in this work refer to stages of the foam fractionation process. Experiments with different systems, mainly surfactant and protein solutions, were performed in order to form foams and finally recover a solution representing the foamed material. As foam consists to a large extent of foam lamella – two adsorption layers with a liquid core – the concentration in a foamate taken from foaming experiments should be enriched in the stabilizing molecules. For determining the concentration of the foamate, again the very sensitive bubble rising velocity profile method was applied, which works for any type of surface active materials. This also includes technical surfactants or protein isolates for which an accurate composition is unknown. N2 - Die Fraktionierung ist ein Trennprozess, bei dem verschiedene Materialien auf Grund ihrer Eigenschaften voneinander getrennt werden. Bei der Sedimentation von Teilchen in einer Flüssigkeit dient deren unterschiedliche Dichte zu ihrer Trennung, da schwere Teilchen schneller auf den Boden des Gefäßes sinken als leichtere. Bei der Schaumfraktionierung als Trennprozess dient zur Trennung verschiedener Moleküle in einer Lösung deren Grenzflächenaktivität, d.h. das unterschiedliche Vermögen der Moleküle, sich an der Oberfläche von Gasblasen anzureichern. Durch das Aufsteigen der Blasen in der Flüssigkeit werden daher die Moleküle mit der höheren Grenzflächenaktivität stärker in der Schaumschicht angereichert als die weniger stark grenzflächenaktiven Komponenten. Ziel der vorliegenden Dissertation ist es, den Prozess der Schaumfraktionierung hinsichtlich der Trennung von grenzflächenaktiven Molekülen zu analysieren. Die Bildung von Blasen und deren anschließendes Aufsteigen in der Lösung kann als wichtigstes Element in diesem Prozess angesehen werden. Es ist bekannt, dass die Geschwindigkeit aufsteigender Luftblasen in Wasser eine charakteristische Größe ist, die durch die Anwesenheit grenzflächenaktiver Stoffe (Tenside, Proteine) stark verringert wird. Die vorliegende Dissertation zeigt für das ausgewählte Protein ß-Lactoglobulin und für verschiedene Lebensmittel-Tenside, dass die Messung der Aufstiegsgeschwindigkeit von Luftblasen zur Beurteilung der Anreicherung dieser Moleküle an der Blasenoberfläche ausgezeichnet geeignet ist. Die experimentellen Ergebnisse bei verschiedenen Lösungsbedingungen, wie Konzentration von Protein bzw. Tensid, pH-Wert und Ionenstärke der Lösung, zeigen deutlich, dass die Anreicherung der Proteinmoleküle wesentlich stärker ist als die von Tensiden. Dies gilt auch für Tenside mit einer sehr hohen Grenzflächenaktivität, was im Wesentlichen durch die extrem feste (nahezu irreversible) Anreicherung der Proteinmoleküle zu erklären ist. Die erzielten experimentellen Ergebnisse dienen jetzt als Grundlage für die Weiterentwicklung der Theorie aufsteigender Blasen, die besonders von der Dynamik der Anreicherung der Moleküle geprägt ist. Neueste Untersuchungen haben gezeigt, dass auf der Grundlage dieser experimentellen Ergebnisse erstmals die Geschwindigkeitskonstanten der Anreicherung (Adsorption und Desorption) unabhängig voneinander ermittelt werden können. KW - adsorption KW - air-water interface KW - protein KW - foam KW - rising bubble KW - Adsorption KW - Wasser/Luft Grenzflächen KW - steigende Blasen KW - Schaum KW - Beta-Lactoglobulin Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94263 ER - TY - THES A1 - Lehmann, Jascha In-su T1 - Changes in extratropical storm track activity and their implications for extreme weather events Y1 - 2016 ER - TY - THES A1 - Lutz, Johannes T1 - Reducing anger and aggession through eliciting incompatible emotions BT - an affective-motivational approach to situated anger and aggression control Y1 - 2016 ER - TY - THES A1 - Schröder, Henning T1 - Ultrafast electron dynamics in Fe(CO)5 and Cr(CO)6 T1 - Ultraschnelle Elektronendynamik in Fe(CO)5 und Cr(CO)6 N2 - In this thesis, the two prototype catalysts Fe(CO)₅ and Cr(CO)₆ are investigated with time-resolved photoelectron spectroscopy at a high harmonic setup. In both of these metal carbonyls, a UV photon can induce the dissociation of one or more ligands of the complex. The mechanism of the dissociation has been debated over the last decades. The electronic dynamics of the first dissociation occur on the femtosecond timescale. For the experiment, an existing high harmonic setup was moved to a new location, was extended, and characterized. The modified setup can induce dynamics in gas phase samples with photon energies of 1.55eV, 3.10eV, and 4.65eV. The valence electronic structure of the samples can be probed with photon energies between 20eV and 40eV. The temporal resolution is 111fs to 262fs, depending on the combination of the two photon energies. The electronically excited intermediates of the two complexes, as well as of the reaction product Fe(CO)₄, could be observed with photoelectron spectroscopy in the gas phase for the first time. However, photoelectron spectroscopy gives access only to the final ionic states. Corresponding calculations to simulate these spectra are still in development. The peak energies and their evolution in time with respect to the initiation pump pulse have been determined, these peaks have been assigned based on literature data. The spectra of the two complexes show clear differences. The dynamics have been interpreted with the assumption that the motion of peaks in the spectra relates to the movement of the wave packet in the multidimensional energy landscape. The results largely confirm existing models for the reaction pathways. In both metal carbonyls, this pathway involves a direct excitation of the wave packet to a metal-to-ligand charge transfer state and the subsequent crossing to a dissociative ligand field state. The coupling of the electronic dynamics to the nuclear dynamics could explain the slower dissociation in Fe(CO)₅ as compared to Cr(CO)₆. N2 - Diese Dissertation handelt von der Untersuchung der zwei Modell-Katalysatoren Fe(CO)₅ und Cr(CO)₆ mittels zeitaufgelöster Photoelektronen Spektroskopie an einem High Harmonic Setup. In beiden Metallcarbonyl kann die Dissoziation von einem, oder mehreren Liganden durch ein UV Photon ausgelöst werden. Der Dissoziation-Mechanismus wurde in den letzten Jahrzehnten diskutiert. Die Abspaltung des ersten Liganden und die damit verbundenen elektronischen Dynamiken finden auf Zeitskalen von Femtosekunden statt. Für die Durchführung dieses Experiments wurde ein bestehender High Harmonic Setup in ein neues Labor verlegt. Der Aufbau wurde erweitert und charakterisiert. Mit dem modifizierten Aufbau können nun Reaktionen in Gas-Phasen-Proben mit Photonenenergien von 1.55eV, 3.10eV und 4.65eV ausgelöst werden. Dabei kann die Valenz-Elektronen-Struktur mit Photonenenergien zwischen 20eV und 40eV untersucht werden. Die Zeitauflösung liegt im Bereich von 111fs bis 262fs und hängt von der Kombination der zwei Photonenenergien ab. Die beiden Komplexe sowie Fe(CO)₄ konnten in der Gas-Phase zum ersten Mal in elektronisch angeregten Zuständen mittels zeitaufgelöster Photoelektronenspektroskopie beobachtet werden. Im Allgemeinen kann jedoch mit der Photoelektronenspektroskopie nur der ionische Endzustand untersucht werden. Modellrechnungen zu den Spektren und die Entwicklung der dazugehörigen Theorie befinden derzeit noch in der Entwicklungsphase. Die Peaks in den Spektren konnten anhand von Literatur zugeordnet werden. Die Spektren der beiden Komplexe unterscheiden sich deutlich. Zu deren Interpretation wurde die Näherung verwendet, dass die Dynamik der Peaks in den Spektren die Bewegung des Wellenpakets in der multidimensionalen Energielandschaft darstellt. Die neuen Daten bestätigen weitestgehend bestehende Modelle für die Reaktionsmechanismen. Der Reaktionsmechanismus verläuft für beide Metallcarbonyle über eine direkte Anregung des Wellenpakets in einen metal-to-ligand charge transfer Zustand. Von dem angeregten Zustand aus kann das Wellenpaket in den dissoziativen ligand field Zustand wechseln. Dass die Reaktion in Fe(CO)₅ langsamer als in Cr(CO)₆ abläuft, kann durch die Kopplung der Dynamiken von Elektronen und Kernen erklärt werden. KW - dissertation KW - Dissertation KW - photo electron spectroscopy KW - physical chemistry KW - molecular dynamics KW - high harmonic generation KW - iron pentacarbonyl KW - chromium hexacarbonyl KW - metal carbonyls KW - ultrafast KW - dynamics KW - Photoelektronen KW - Spektroskopie KW - Moleküldynamik KW - high harmonic KW - Eisenpentacarbonyl KW - Chromhexacarbonyl KW - Photodissoziation KW - photodissociation KW - ligand KW - bond Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94589 ER - TY - THES A1 - Wittenberg, Eva T1 - With Light Verb Constructions from Syntax to Concepts T1 - Mit Funktionsverbgefügen von der Syntax zur konzeptuellen Struktur N2 - This dissertation uses a common grammatical phenomenon, light verb constructions (LVCs) in English and German, to investigate how syntax-semantics mapping defaults influence the relationships between language processing, representation and conceptualization. LVCs are analyzed as a phenomenon of mismatch in the argument structure. The processing implication of this mismatch are experimentally investigated, using ERPs and a dual task. Data from these experiments point to an increase in working memory. Representational questions are investigated using structural priming. Data from this study suggest that while the syntax of LVCs is not different from other structures’, the semantics and mapping are represented differently. This hypothesis is tested with a new categorization paradigm, which reveals that the conceptual structure that LVC evoke differ in interesting, and predictable, ways from non-mismatching structures’. N2 - Diese Dissertation untersucht mittels psycho- und neurolinguistischer Experimente, wie deutsche und englische Funktionsverbgefüge (’light verb constructions’) mental repräsentiert und verarbeitet werden. Funktionsverbgefüge sind Konstruktionen wie einen Kuss geben, in denen die Semantik überwiegend durch die Nominalisierung Kuss geliefert wird, während das Funktionsverb geben lediglich den syntaktischen Rahmen und grammatische Marker, aber nur wenige Bedeutungsaspekte beiträgt. T3 - Potsdam Cognitive Science Series - 7 KW - light verb constructions KW - syntax KW - semantics KW - event-related potential KW - priming KW - Syntax KW - Semantik KW - Sprachverarbeitung KW - Funktionsverbgefüge KW - Priming Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82361 SN - 978-3-86956-329-9 SN - 2190-4545 SN - 2190-4553 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Gomez, David T1 - Mechanisms of biochemical reactions within crowded environments T1 - Mechanismus der Biochemische Reaktionen im vollgestopfte Umgebungen N2 - The cell interior is a highly packed environment in which biological macromolecules evolve and function. This crowded media has effects in many biological processes such as protein-protein binding, gene regulation, and protein folding. Thus, biochemical reactions that take place in such crowded conditions differ from diluted test tube conditions, and a considerable effort has been invested in order to understand such differences. In this work, we combine different computationally tools to disentangle the effects of molecular crowding on biochemical processes. First, we propose a lattice model to study the implications of molecular crowding on enzymatic reactions. We provide a detailed picture of how crowding affects binding and unbinding events and how the separate effects of crowding on binding equilibrium act together. Then, we implement a lattice model to study the effects of molecular crowding on facilitated diffusion. We find that obstacles on the DNA impair facilitated diffusion. However, the extent of this effect depends on how dynamic obstacles are on the DNA. For the scenario in which crowders are only present in the bulk solution, we find that at some conditions presence of crowding agents can enhance specific-DNA binding. Finally, we make use of structure-based techniques to look at the impact of the presence of crowders on the folding a protein. We find that polymeric crowders have stronger effects on protein stability than spherical crowders. The strength of this effect increases as the polymeric crowders become longer. The methods we propose here are general and can also be applied to more complicated systems. N2 - Innerhalb einer Zelle, im Zytosol, entstehen und arbeiten sehr viele biologische Makromoleküle. Die Dichte dieser Moleküle ist sehr hoch und dieses ‘vollgestopfte’ Zytosol hat vielfältige Auswirkungen auf viele biologische Prozessen wie zum Beispiel Protein-Protein Interaktionen, Genregulation oder die Faltung von Proteinen. Der Ablauf von vielen biochemische Reaktionen in dieser Umgebung weicht von denen unter verdünnte Laborbedingungen ab. Um die Effekte dieses ‘makromolekularen Crowdings’ zu verstehen, wurde in den letzten Jahren bereits viel Mühe investiert. In dieser Arbeit kombinieren wir verschiede Computermethoden, um die Wirkungen des ‘makromolekularen Crowdings’ auf biologische Prozesse besser zu verstehen. Zuerst schlagen wir ein Gittermodell vor, um damit die Effekte des ‘makromolekularen Crowdings’ auf enzymatische Reaktionen zu studieren. Damit stellen wir ein detailliertes Bild zusammen, wie Crowding die Assoziations- und Dissozotationsraten beeinflusst und wie verschiedene crowding-Effekte zusammen auf die Gleichgewichtskonstante wirken. Weiterhin implementieren wir ein Gittermodell der ‘erleichterte Diffusion’. Unsere Ergebnisse zeigen, dass Hindernisse an der DNA die vereinfachte Diffusion beeinträchtigen. Das Ausmass dieser Wirkung hängt dabei von der Dynamik der Hindernisse an der DNA ab. Im dem Fall dass Crowder ausschließlich in der Lösung vorhanden sind, erhöhen sich unter bestimmten Bedingungen DNA-spezifische Bindungen. Schließlich nutzten wir strukturbasierte Techniken um damit die Auswirkungen von Crowding auf die Faltung von Proteinen zu untersuchen. Wir fanden dabei, dass Polymer Crowder stärkere Wirkungen auf die Proteinstabilität haben als kugelförmige Crowder. Dieser Effekt verstärkte sich mit der Länge der untersuchten Polymere. Die Methoden die hier vorgeschlagen werden, sind generell anwendbar und können auch an deutlich komplexeren Systemen angewandt werden. KW - molecular crowding KW - gene expression KW - enzymatic activity KW - protein folding KW - Molecular crowding KW - enzymatische Reaktionen KW - Genregulation KW - Faltung von Proteinen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94593 ER - TY - THES A1 - Antoniewicz, Franziska T1 - Automatic evaluations of exercising T1 - Automatische Evaluationen von Sport N2 - Changing the perspective sometimes offers completely new insights to an already well-known phenomenon. Exercising behavior, defined as planned, structured and repeated bodily movements with the intention to maintain or increase the physical fitness (Caspersen, Powell, & Christenson, 1985), can be thought of as such a well-known phenomenon that has been in the scientific focus for many decades (Dishman & O’Connor, 2005). Within these decades a perspective that assumes rational and controlled evaluations as the basis for decision making, was predominantly used to understand why some people engage in physical activity and others do not (Ekkekakis & Zenko, 2015). Dual-process theories (Ekkekakis & Zenko, 2015; Payne & Gawronski, 2010) provide another perspective, that is not exclusively influenced by rational reasoning. These theories differentiate two different processes that guide behavior “depending on whether they operate automatically or in a controlled fashion“ (Gawronski & Creighton, 2012, p. 282). Following this line of thought, exercise behavior is not solely influenced by thoughtful deliberations (e.g. concluding that exercising is healthy) but also by spontaneous affective reactions (e.g. disliking being sweaty while exercising). The theoretical frameworks of dual-process models are not new in psychology (Chaiken & Trope, 1999) and have already been used for the explanation of numerous behaviors (e.g. Hofmann, Friese, & Wiers, 2008; Huijding, de Jong, Wiers, & Verkooijen, 2005). However, they have only rarely been used for the explanation of exercise behavior (e.g. Bluemke, Brand, Schweizer, & Kahlert, 2010; Conroy, Hyde, Doerksen, & Ribeiro, 2010; Hyde, Doerksen, Ribeiro, & Conroy, 2010). The assumption of two dissimilar behavior influencing processes, differs fundamentally from previous theories and thus from the research that has been conducted in the last decades in exercise psychology. Research mainly concentrated on predictors of the controlled processes and addressed the identified predictors in exercise interventions (Ekkekakis & Zenko, 2015; Hagger, Chatzisarantis, & Biddle, 2002). Predictors arising from the described automatic processes, for example automatic evaluations for exercising (AEE), have been neglected in exercise psychology for many years. Until now, only a few researchers investigated the influence of these AEE for exercising behavior (Bluemke et al., 2010; Brand & Schweizer, 2015; Markland, Hall, Duncan, & Simatovic, 2015). Marginally more researchers focused on the impact of AEE for physical activity behavior (Calitri, Lowe, Eves, & Bennett, 2009; Conroy et al., 2010; Hyde et al., 2010; Hyde, Elavsky, Doerksen, & Conroy, 2012). The extant studies mainly focused on the quality of AEE and the associated quantity of exercise (exercise much or little; Bluemke et al., 2010; Calitri et al., 2009; Conroy et al., 2010; Hyde et al., 2012). In sum, there is still a dramatic lack of empirical knowledge, when applying dual-process theories to exercising behavior, even though these theories have proven to be successful in explaining behavior in many other health-relevant domains like eating, drinking or smoking behavior (e.g. Hofmann et al., 2008). The main goal of the present dissertation was to collect empirical evidence for the influence of AEE on exercise behavior and to expand the so far exclusively correlational studies by experimentally controlled studies. By doing so, the ongoing debate on a paradigm shift from controlled and deliberative influences of exercise behavior towards approaches that consider automatic and affective influences (Ekkekakis & Zenko, 2015) should be encouraged. All three conducted publications are embedded in dual-process theorizing (Gawronski & Bodenhausen, 2006, 2014; Strack & Deutsch, 2004). These theories offer a theoretical framework that could integrate the established controlled variables of exercise behavior explanation and additionally consider automatic factors for exercise behavior like AEE. Taken together, the empirical findings collected suggest that AEE play an important and diverse role for exercise behavior. They represent exercise setting preferences, are a cause for short-term exercise decisions and are decisive for long-term exercise adherence. Adding to the few already present studies in this field, the influence of (positive) AEE for exercise behavior was confirmed in all three presented publications. Even though the available set of studies needs to be extended in prospectively studies, first steps towards a more complete picture have been taken. Closing with the beginning of the synopsis: I think that time is right for a change of perspectives! This means a careful extension of the present theories with controlled evaluations explaining exercise behavior. Dual-process theories including controlled and automatic evaluations could provide such a basis for future research endeavors in exercise psychology. N2 - Ein anderer Blickwinkel eröffnet manchmal komplett neue Erkenntnisse in so manches bekanntes Phänomen. Sporttreiben, definiert als geplante, strukturierte und wiederholt ablaufende Körperbewegungen mit der Intention die körperliche Fitness aufrecht zu erhalten oder zu verbessern (Caspersen, Powell & Christenson, 1985), kann als ein solches bekanntes Phänomen angesehen werden, welches seit vielen Dekaden im wissenschaftlichen Fokus steht (Dishman & O’Connor, 2005). Um zu verstehen warum manche Menschen körperlich aktiv sind und andere nicht, wurde in den letzten Dekaden meist angenommen, dass rationale und kontrollierte Bewertungen Entscheidungen beeinflussen (Ekkekakis & Zenko, 2015). Zwei-Prozess Theorien (Payne & Garwonski, 2010) bieten eine andere Perspektive, welche nicht nur durch rationales Überlegen beeinflusst ist. Diese Theorien unterscheiden zwei unterschiedliche Prozesse welche Verhalten beeinflussen „depending on whether they operate automatically or in a controlled fashion“ (Gawronski & Creighton, 2012, S. 282). Sportprädiktoren mit dem Ursprung in automatischen Prozessen, z.B. automatische Evaluationen von Sport (AES), wurden in der sportpsychologischen Forschung seit vielen Jahren vernachlässigt. Bisher haben nur wenige Wissenschaftler die Rolle von AES untersucht (Brand & Schweizer, 2015; Markland, Hall, Duncan, & Simatovic, 2015). Das Hauptziel der vorliegenden Dissertation ist es, empirische Belege für den Einfluss von AES auf Sportverhalten zu sammeln und die bisher ausschließlich korrelativen Studien um experimentelle zu erweitern. Meine erste Publikation adressierte eine Kernannahme von AES, die Eigenschaft der Automatizität der erfassten affektiven Evaluationen. Der methodische Ansatz der Studie über ein subliminales AMP (Murphy & Zajonc, 1993; Payne, Cheng, Govorun, & Stewart, 2005) ermöglichte die Schlussfolgerung, dass automatische affektive Evaluationen nach der Stimulusdarstellung ausgelöst wurden. Der Einfluss von AES auf qualitative Sportcharakteristika, die Präferenz eines bestimmten Sportsettings, wurde aufgezeigt. Meine zweite Publikation beabsichtigte notwendige Informationen für die Implementation von Sportinterventionen zu liefern, welche die automatische Komponente von Sportverhalten fokussieren. Das Adressieren automatischer Komponenten in Sportintervention wurde erst kürzlich gefordert (Marteau, Hollands, & Fletcher, 2012). In einer Abfolge von drei Studien wurde die experimentelle Zugänglichkeit, die sinnvolle Manipulation in eine gesundheitsrelevante Richtung und die damit verbundenen Verhaltenskonsequenzen von veränderten AES untersucht. Positive AES wurden durch Evaluatives Konditionieren (EK; Hofmann, De Houwer, Perugini, Baeyens, & Crombez, 2010) induziert. Dabei werden systematisch Bilder von Sporttreiben mit Bildern welche angenehme Empfindungen wecken kombiniert. Nicht-sportassoziierte Bilder werden hingegen konsequent von Bildern gefolgt, die unangenehme Emotionen hervorrufen. Die experimentelle Manipulation führte zur Wahl höherer Sportintensitäten in einer nachfolgenden Sportaufgabe. Darüber hinaus deuteten die Analysen darauf hin, dass das assoziative Erlernen positiver AES nicht in gleichen Anteilen durch den Erwerb positiver Assoziationen zu Sport und negativer Assoziationen mit Nicht-Sport gesteuert wurde. Meine dritte Publikation adressierte unterschiedlichen Anteile von AES im Hinblick auf langfristiges Sportverhalten, speziell die Sportkursadhärenz in einem 14-wöchigen Sportprogramm. Sportverhalten, wie das Besuchen eines Aerobickurses, kann mit positiven affektiven Assoziationen (PAA; z.B. Sport mit Musik ist angenehm) und negativen affektiven Assoziationen (NAA; z.B. Muskelkater ist unangenehm) gleichermaßen verbunden sein. Wissen über den individuellen Einfluss der einzelnen Komponenten auf Sportverhalten würde das Verständnis von AES erleichtern. Die bisher dominierenden Befunde von AES als Prädiktor für kurzfristiges Sportverhalten (z.B.Hyde et al., 2012) wurden erweitert und der Einfluss der AES für sportspezifische Entscheidungen (Brand & Schweizer, 2015) auf eine langfristige Perspektive erweitert. Da Adhärenz in Sportkursen ein gewaltiges Problem in aktuellen Gesundheitsprogrammen (Marcus et al., 2000) darstellt, ist zusätzliches Wissen über Prädiktoren der Sportadhärenz (wie AES) wertvoll für die erfolgreiche Implementation von Sportinterventionen. Die vorgestellten Studien meiner Dissertation hatten das Ziel empirische Belege für die Bedeutung von AES für Sportverhalten zu bieten. Zusammengefasst legen die gesammelten Befunde nahe, dass AES eine wichtige und vielfältige Rolle für Sportverhalten. Diese repräsentieren Präferenzen für Sportsettings, stellen eine Ursache für kurzfristige Sportentscheidungen dar und sind entscheidend für langfristige Sportadhärenz. In Ergänzung zu den wenigen bisher existierenden Studien in dem Feld, wurde der Einfluss von (positiven) AES für Sportverhalten in allen drei beschriebenen Studien bestätigt. KW - automaticity KW - dual-processes KW - exercise KW - health KW - implicit KW - automatisch KW - Zwei-Prozess Modelle KW - Sport KW - Gesundheit KW - implizit Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-92280 ER - TY - THES A1 - Ludewig, Matthias T1 - Path integrals on manifolds with boundary and their asymptotic expansions T1 - Pfadintegrale auf Mannigfaltigkeiten mit Rand und ihre asymptotischen Entwicklungen N2 - It is "scientific folklore" coming from physical heuristics that solutions to the heat equation on a Riemannian manifold can be represented by a path integral. However, the problem with such path integrals is that they are notoriously ill-defined. One way to make them rigorous (which is often applied in physics) is finite-dimensional approximation, or time-slicing approximation: Given a fine partition of the time interval into small subintervals, one restricts the integration domain to paths that are geodesic on each subinterval of the partition. These finite-dimensional integrals are well-defined, and the (infinite-dimensional) path integral then is defined as the limit of these (suitably normalized) integrals, as the mesh of the partition tends to zero. In this thesis, we show that indeed, solutions to the heat equation on a general compact Riemannian manifold with boundary are given by such time-slicing path integrals. Here we consider the heat equation for general Laplace type operators, acting on sections of a vector bundle. We also obtain similar results for the heat kernel, although in this case, one has to restrict to metrics satisfying a certain smoothness condition at the boundary. One of the most important manipulations one would like to do with path integrals is taking their asymptotic expansions; in the case of the heat kernel, this is the short time asymptotic expansion. In order to use time-slicing approximation here, one needs the approximation to be uniform in the time parameter. We show that this is possible by giving strong error estimates. Finally, we apply these results to obtain short time asymptotic expansions of the heat kernel also in degenerate cases (i.e. at the cut locus). Furthermore, our results allow to relate the asymptotic expansion of the heat kernel to a formal asymptotic expansion of the infinite-dimensional path integral, which gives relations between geometric quantities on the manifold and on the loop space. In particular, we show that the lowest order term in the asymptotic expansion of the heat kernel is essentially given by the Fredholm determinant of the Hessian of the energy functional. We also investigate how this relates to the zeta-regularized determinant of the Jacobi operator along minimizing geodesics. N2 - Es ist "wissenschaftliche Folklore", abgeleitet von der physikalischen Anschauung, dass Lösungen der Wärmeleitungsgleichung auf einer riemannschen Mannigfaltigkeit als Pfadintegrale dargestellt werden können. Das Problem mit Pfadintegralen ist allerdings, dass schon deren Definition Mathematiker vor gewisse Probleme stellt. Eine Möglichkeit, Pfadintegrale rigoros zu definieren ist endlich-dimensionale Approximation, oder time-slicing-Approximation: Für eine gegebene Unterteilung des Zeitintervals in kleine Teilintervalle schränkt man den Integrationsbereich auf diejenigen Pfade ein, die auf jedem Teilintervall geodätisch sind. Diese endlichdimensionalen Integrale sind wohldefiniert, und man definiert das (unendlichdimensionale) Pfadintegral als den Limes dieser (passend normierten) Integrale, wenn die Feinheit der Unterteilung gegen Null geht. In dieser Arbeit wird gezeigt, dass Lösungen der Wärmeleitungsgleichung auf einer allgemeinen riemannschen Mannigfaltigkeit tatsächlich durch eine solche endlichdimensionale Approximation gegeben sind. Hierbei betrachten wir die Wärmeleitungsgleichung für allgemeine Operatoren von Laplace-Typ, die auf Schnitten in Vektorbündeln wirken. Wir zeigen auch ähnliche Resultate für den Wärmekern, wobei wir uns allerdings auf Metriken einschränken müssen, die eine gewisse Glattheitsbedingung am Rand erfüllen. Eine der wichtigsten Manipulationen, die man an Pfadintegralen vornehmen möchte, ist das Bilden ihrer asymptotischen Entwicklungen; in Falle des Wärmekerns ist dies die Kurzzeitasymptotik. Um die endlich-dimensionale Approximation hier nutzen zu können, ist es nötig, dass die Approximation uniform im Zeitparameter ist. Dies kann in der Tat erreicht werden; zu diesem Zweck geben wir starke Fehlerabschätzungen an. Schließlich wenden wir diese Resultate an, um die Kurzzeitasymptotik des Wärmekerns (auch im degenerierten Fall, d.h. am Schittort) herzuleiten. Unsere Resultate machen es außerdem möglich, die asymptotische Entwicklung des Wärmekerns mit einer formalen asymptotischen Entwicklung der unendlichdimensionalen Pfadintegrale in Verbindung zu bringen. Auf diese Weise erhält man Beziehungen zwischen geometrischen Größen der zugrundeliegenden Mannigfaltigkeit und solchen des Pfadraumes. Insbesondere zeigen wir, dass der Term niedrigster Ordnung in der asymptotischen Entwicklung des Wärmekerns im Wesentlichen durch die Fredholm-Determinante der Hesseschen des Energie-Funktionals gegeben ist. Weiterhin untersuchen wir die Verbindung zur zeta-regularisierten Determinante des Jakobi-Operators entlang von minimierenden Geodätischen. KW - heat equation KW - heat kernel KW - path integral KW - determinant KW - asymptotic expansion KW - Laplace expansion KW - heat asymptotics KW - Wiener measure KW - Wärmeleitungsgleichung KW - Wärmekern KW - Pfadintegrale KW - asymptotische Entwicklung KW - Determinante Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94387 ER - TY - THES A1 - Bosch, Sina T1 - Morphosyntactic feature structure in the native and non-native mental lexicon BT - a priming study of stem allomorphy and inflectional affixes of German Y1 - 2015 ER - TY - THES A1 - Feldmann, Johannes T1 - Stability of the West Antarctic Ice Sheet BT - From the concept of similitude to dynamic modeling Y1 - 2015 ER - TY - THES A1 - Baumann, Julian T1 - Four essays in innovation and industrial economics Y1 - 2016 ER - TY - THES A1 - Breuer, David T1 - The plant cytoskeleton as a transportation network T1 - Modellierung des pflanzliche Zytoskeletts als Transportnetzwerk N2 - The cytoskeleton is an essential component of living cells. It is composed of different types of protein filaments that form complex, dynamically rearranging, and interconnected networks. The cytoskeleton serves a multitude of cellular functions which further depend on the cell context. In animal cells, the cytoskeleton prominently shapes the cell's mechanical properties and movement. In plant cells, in contrast, the presence of a rigid cell wall as well as their larger sizes highlight the role of the cytoskeleton in long-distance intracellular transport. As it provides the basis for cell growth and biomass production, cytoskeletal transport in plant cells is of direct environmental and economical relevance. However, while knowledge about the molecular details of the cytoskeletal transport is growing rapidly, the organizational principles that shape these processes on a whole-cell level remain elusive. This thesis is devoted to the following question: How does the complex architecture of the plant cytoskeleton relate to its transport functionality? The answer requires a systems level perspective of plant cytoskeletal structure and transport. To this end, I combined state-of-the-art confocal microscopy, quantitative digital image analysis, and mathematically powerful, intuitively accessible graph-theoretical approaches. This thesis summarizes five of my publications that shed light on the plant cytoskeleton as a transportation network: (1) I developed network-based frameworks for accurate, automated quantification of cytoskeletal structures, applicable in, e.g., genetic or chemical screens; (2) I showed that the actin cytoskeleton displays properties of efficient transport networks, hinting at its biological design principles; (3) Using multi-objective optimization, I demonstrated that different plant cell types sustain cytoskeletal networks with cell-type specific and near-optimal organization; (4) By investigating actual transport of organelles through the cell, I showed that properties of the actin cytoskeleton are predictive of organelle flow and provided quantitative evidence for a coordination of transport at a cellular level; (5) I devised a robust, optimization-based method to identify individual cytoskeletal filaments from a given network representation, allowing the investigation of single filament properties in the network context. The developed methods were made publicly available as open-source software tools. Altogether, my findings and proposed frameworks provide quantitative, system-level insights into intracellular transport in living cells. Despite my focus on the plant cytoskeleton, the established combination of experimental and theoretical approaches is readily applicable to different organisms. Despite the necessity of detailed molecular studies, only a complementary, systemic perspective, as presented here, enables both understanding of cytoskeletal function in its evolutionary context as well as its future technological control and utilization. N2 - Das Zytoskelett ist ein notwendiger Bestandteil lebender Zellen. Es besteht aus verschiedenen Arten von Proteinfilamenten, die ihrerseits komplexe, sich dynamisch reorganisierende und miteinander verknüpfte Netzwerke bilden. Das Zytoskelett erfüllt eine Vielzahl von Funktionen in der Zelle. In Tierzellen bestimmt das Aktin-Zytoskelett maßgeblich die mechanischen Zelleigenschaften und die Zellbewegung. In Pflanzenzellen hingegen kommt dem Aktin-Zytoskelett eine besondere Bedeutung in intrazellulären Transportprozessen zu, bedingt insbesondere durch die starre pflanzliche Zellwand sowie die Zellgröße. Als wesentlicher Faktor für Zellwachstum und somit auch die Produktion von Biomasse, ist Zytoskelett-basierter Transport daher von unmittelbarer ökologischer und ökonomischer Bedeutung. Während das Wissen über die molekularen Grundlagen Zytoskelett-basierter Transportprozesse beständig wächst, sind die zugrunde liegenden Prinzipien zellweiter Organisation bisher weitgehend unbekannt. Diese Dissertation widmet sich daher folgender Frage: Wie hängt die komplexe Architektur des pflanzlichen Zytoskeletts mit seiner intrazellulären Transportfunktion zusammen? Eine Antwort auf diese Frage erfordert eine systemische Perspektive auf Zytoskelettstruktur und -transport. Zu diesem Zweck habe ich Mikroskopiedaten mit hoher raumzeitlicher Auflösung sowie Computer-gestützte Bildanalysen und mathematische Ansätzen der Graphen- und Netzwerktheorie kombiniert. Die vorliegende Dissertation umfasst fünf meiner Publikationen, die sich einem systemischen Verständnis des pflanzlichen Zytoskeletts als Transportnetzwerk widmen: (1) Dafür habe ich Bilddaten-basierte Netzwerkmodelle entwickelt, die eine exakte und automatisierte Quantifizierung der Architektur des Zytoskeletts ermöglichen. Diese Quantifizierung kann beispielsweise in genetischen oder chemischen Versuchen genutzt werden und für eine weitere Erforschung der genetischen Grundlagen und möglicher molekularer Interaktionspartner des Zytoskeletts hilfreich sein; (2) Ich habe nachgewiesen, dass das pflanzliche Aktin-Zytoskelett Eigenschaften effizienter Transportnetzwerk aufweist und Hinweise auf seine evolutionären Organisationsprinzipien liefert; (3) Durch die mathematische Optimierung von Transportnetzwerken konnte ich zeigen, dass unterschiedliche Pflanzenzelltypen spezifische und optimierte Organisationsstrukturen des Aktin-Zytoskeletts aufweisen; (4) Durch quantitative Analyse des Transports von Organellen in Pflanzenzellen habe ich nachgewiesen, dass sich Transportmuster ausgehend von der Struktur des Aktin-Zytoskeletts vorhersagen lassen. Dabei spielen sowohl die Organisation des Zytoskeletts auf Zellebene als auch seine Geometrie eine zentrale Rolle. (5) Schließlich habe ich eine robuste, optimierungs-basierte Methode entwickelt, die es erlaubt, individuelle Filamente eines Aktin-Netzwerks zu identifizieren. Dadurch ist es möglich, die Eigenschaften einzelner Zytoskelettfilamente im zellulären Kontext zu untersuchen. Die im Zuge dieser Dissertation entwickelten Methoden wurden frei und quelloffen als Werkzeuge zur Beantwortung verwandter Fragestellung zugänglich gemacht. Insgesamt liefern die hier präsentierten Ergebnisse und entwickelten Methoden quantitative, systemische Einsichten in die Transportfunktion des Zytoskeletts. Die hier etablierte Kombination von experimentellen und theoretischen Ansätzen kann, trotz des Fokusses auf das pflanzliche Zytoskelett, direkt auf andere Organismen angewendet werden. Als Ergänzung molekularer Studien bildet ein systemischer Blickwinkel, wie er hier entwickelt wurde, die Grundlage für ein Verständnis sowohl des evolutionären Kontextes als auch zukünftiger Kontroll- und Nutzungsmöglichkeiten des pflanzlichen Zytoskeletts. KW - systems biology KW - mathematical modeling KW - cytoskeleton KW - plant science KW - graph theory KW - image analysis KW - Systembiologie KW - mathematische Modellierung KW - Zytoskelett KW - Zellbiologie KW - Graphtheorie KW - Bildanalyse Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93583 ER - TY - THES A1 - Makower, Katharina T1 - The roles of secondary metabolites in microcystis inter-strain interactions T1 - Die Rolle von Sekundärmetaboliten in den Wechselbeziehungen zwischen Microcystis-Stämmen N2 - Among the bloom-forming and potentially harmful cyanobacteria, the genus Microcystis represents a most diverse taxon, on the genomic as well as on morphological and secondary metabolite levels. Microcystis communities are composed of a variety of diversified strains. The focus of this study lies on potential interactions between Microcystis representatives and the roles of secondary metabolites in these interaction processes. The role of secondary metabolites functioning as signaling molecules in the investigated interactions is demonstrated exemplary for the prevalent hepatotoxin microcystin. The extracellular and intracellular roles of microcystin are tested in microarray-based transcriptomic approaches. While an extracellular effect of microcystin on Microcystis transcription is confirmed and connected to a specific gene cluster of another secondary metabolite in this study, the intracellularly occurring microcystin is related with several pathways of the primary metabolism. A clear correlation of a microcystin knockout and the SigE-mediated regulation of carbon metabolism is found. According to the acquired transcriptional data, a model is proposed that postulates the regulating effect of microcystin on transcriptional regulators such as the alternative sigma factor SigE, which in return captures an essential role in sugar catabolism and redox-state regulation. For the purpose of simulating community conditions as found in the field, Microcystis colonies are isolated from the eutrophic lakes near Potsdam, Germany and established as stably growing under laboratory conditions. In co-habitation simulations, the recently isolated field strain FS2 is shown to specifically induce nearly immediate aggregation reactions in the axenic lab strain Microcystis aeruginosa PCC 7806. In transcriptional studies via microarrays, the induced expression program in PCC 7806 after aggregation induction is shown to involve the reorganization of cell envelope structures, a highly altered nutrient uptake balance and the reorientation of the aggregating cells to a heterotrophic carbon utilization, e.g. via glycolysis. These transcriptional changes are discussed as mechanisms of niche adaptation and acclimation in order to prevent competition for resources. N2 - Die Gattung Microcystis stellt unter den blüten-bildenden Cyanobakterien ein Taxon besonderer Diversität dar. Dies gilt sowohl für die Genomstruktur als auch für morphologische Charakteristika und Sekundärmetabolite. Microcystis-Communities weisen eine Zusammensetzung aus einer Vielzahl von diversifizierten Stämmen auf. Das Hauptaugenmerk dieser Arbeit lag darauf, potentielle Wechselwirkungen zwischen Microcystis-Vertretern zu charakterisieren und die Rolle von Sekundärmetaboliten in Interaktions-Prozessen zu untersuchen. Die Rolle von Sekundärmetaboliten als Signalstoffe in Microcystis-Interaktionen wurde exemplarisch für das Hepatotoxin Microcystin demonstriert. Sowohl die extrazelluläre als auch die intrazellulare Funktion von Microcystin wurde anhand von Microarray-basierten Transkriptomstudien getestet. Dabei konnte eine extrazelluläre Wirkung von Microcystin bestätigt werden und mit der Transkription eines spezifischen anderen Sekundärmetaboliten in Verbindung gebracht werden. Intrazellulär vorkommendes Microcystin wurde hingegen mit verschiedenen Stoffwechselwegen des Primärstoffwechsels verknüpft. Es konnte ein deutlicher Zusammenhang zwischen einem Microcystin-Knockout und der SigE-vermittelten Regulation des Kohlenstoffmetabolismus festgestellt werden. Anhand der erworbenen Transkriptionsdaten wurde ein Modell vorgeschlagen, das eine regulierende Wirkung von Microcystin auf Transkriptionsfaktoren wie den alternativen Sigmafaktor SigE postuliert, welcher seinerseits eine zentrale Rolle in Zuckerabbauprozessen und zellulärer Redoxregulation einnimmt. Mit dem Ziel, Community-ähnliche Bedingungen zu simulieren, wurden Microcystis-Freiland-Kolonien aus eutrophen Gewässern in der Umgebung von Potsdam isoliert und ein stabiles Wachstum unter Laborbedingungen etabliert. Es konnte gezeigt werden, dass der frisch isolierte Freilandstamm FS2 spezifisch eine starke Zellaggregation in Microcystis aeruginosa PCC 7806 (einem axenischen Labortstamm) auslösen konnte. In Transkriptionsstudien mit Hilfe von Microarrays wurden Expressionsprogramme gefunden, die sowohl einen Umbau von Zellhüllstrukturen, als auch einen stark veränderten transmembranen Nährstofftransport beinhalteten. Darüber hinaus konnte in den aggregierenden PCC 7806-Zellen eine Verlagerung zu heterotrophen Kohlenstoffabbauprozessen wie der Glykolyse gefunden werden. Die transkriptionellen Veränderungen wurden als Akklimationsmechanismen zur Positionierung in ökologische Nischen diskutiert, um Konkurrenzen um Ressourcen zu vermeiden. KW - microcystis KW - microcystin KW - secondary metabolites KW - transcriptomics KW - interactions KW - Sekundärmetabolite KW - Transkriptomik KW - Wechselwirkungen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93916 ER - TY - THES A1 - Schmidt, Peter T1 - Contributions to EU regional policy T1 - Beiträge zur EU-Regionalpolitik BT - reconsidering theoretical and empirical perspectives on the Structural Funds BT - neue theoretische und empirische Perspektiven auf die Strukturfonds N2 - This cumulative dissertation contains four self-contained articles which are related to EU regional policy and its structural funds as the overall research topic. In particular, the thesis addresses the question if EU regional policy interventions can at all be scientifically justified and legitimated on theoretical and empirical grounds from an economics point of view. The first two articles of the thesis (“The EU structural funds as a means to hamper migration” and “Internal migration and EU regional policy transfer payments: a panel data analysis for 28 EU member countries”) enter into one particular aspect of the debate regarding the justification and legitimisation of EU regional policy. They theoretically and empirically analyse as to whether regional policy or the market force of the free flow of labour (migration) in the internal European market is the better instrument to improve and harmonise the living and working conditions of EU citizens. Based on neoclassical market failure theory, the first paper argues that the structural funds of the EU are inhibiting internal migration, which is one of the key measures in achieving convergence among the nations in the single European market. It becomes clear that European regional policy aiming at economic growth and cohesion among the member states cannot be justified and legitimated if the structural funds hamper instead of promote migration. The second paper, however, shows that the empirical evidence on the migration and regional policy nexus is not unambiguous, i.e. different empirical investigations show that EU structural funds hamper and promote EU internal migration. Hence, the question of the scientific justification and legitimisation of EU regional policy cannot be readily and unambiguously answered on empirical grounds. This finding is unsatisfying but is in line with previous theoretical and empirical literature. That is why, I take a step back and reconsider the theoretical beginnings of the thesis, which took for granted neoclassical market failure theory as the starting point for the positive explanation as well as the normative justification and legitimisation of EU regional policy. The third article of the thesis (“EU regional policy: theoretical foundations and policy conclusions revisited”) deals with the theoretical explanation and legitimisation of EU regional policy as well as the policy recommendations given to EU regional policymakers deduced from neoclassical market failure theory. The article elucidates that neoclassical market failure is a normative concept, which justifies and legitimates EU regional policy based on a political and thus subjective goal or value-judgement. It can neither be used, therefore, to give a scientifically positive explanation of the structural funds nor to obtain objective and practically applicable policy instruments. Given this critique of neoclassical market failure theory, the third paper consequently calls into question the widely prevalent explanation and justification of EU regional policy given in static neoclassical equilibrium economics. It argues that an evolutionary non-equilibrium economics perspective on EU regional policy is much more appropriate to provide a realistic understanding of one of the largest policies conducted by the EU. However, this does neither mean that evolutionary economic theory can be unreservedly seen as the panacea to positively explain EU regional policy nor to derive objective policy instruments for EU regional policymakers. This issue is discussed in the fourth article of the thesis (“Market failure vs. system failure as a rationale for economic policy? A critique from an evolutionary perspective”). This article reconsiders the explanation of economic policy from an evolutionary economics perspective. It contrasts the neoclassical equilibrium notions of market and government failure with the dominant evolutionary neo-Schumpeterian and Austrian-Hayekian perceptions. Based on this comparison, the paper criticises the fact that neoclassical failure reasoning still prevails in non-equilibrium evolutionary economics when economic policy issues are examined. This is surprising, since proponents of evolutionary economics usually view their approach as incompatible with its neoclassical counterpart. The paper therefore argues that in order to prevent the otherwise fruitful and more realistic evolutionary approach from undermining its own criticism of neoclassical economics and to create a consistent as well as objective evolutionary policy framework, it is necessary to eliminate the equilibrium spirit. Taken together, the main finding of this thesis is that European regional policy and its structural funds can neither theoretically nor empirically be justified and legitimated from an economics point of view. Moreover, the thesis finds that the prevalent positive and instrumental explanation of EU regional policy given in the literature needs to be reconsidered, because these theories can neither scientifically explain the emergence and development of this policy nor are they appropriate to derive objective and scientific policy instruments for EU regional policymakers. N2 - Diese kumulative Dissertation umfasst vier eigenständige Artikel zur EU-Regionalpolitik und ihren Strukturfonds als dem übergreifenden Forschungsthema der Dissertation. Die Arbeit beschäftigt sich mit der Fragestellung, ob sich aus ökonomischer Sicht die EU-Regionalpolitik überhaupt wissenschaftlich, sowohl empirisch als auch theoretisch, begründen lässt. Die ersten beiden Artikel der Dissertation (“The EU structural funds as a means to hamper migration” und “Internal migration and EU regional policy transfer payments: a panel data analysis for 28 EU member countries”) greifen einen bestimmten Aspekt der Debatte um die Rechtfertigung von Eingriffen der EU-Regionalpolitik in den EU-Binnenmarkt auf. Die beiden Artikel analysieren theoretisch und empirisch, ob die Regionalpolitik oder die freien Marktkräfte in Form von freier Migration im europäischen Binnenmarkt besser geeignet sind, um die Lebens- und Beschäftigungsbedingungen der EU-Bürger zu verbessern und anzugleichen. Basierend auf der neoklassischen Theorie des Marktversagens, argumentiert das erste Papier, dass die Strukturfonds der EU Migration, die einen wesentlichen Mechanismus zur Erreichung von Konvergenz der europäischen Mitgliedsstaaten darstellt, verhindern. Es wird deutlich, dass die EU-Regionalpolitik, welche auf Wachstum und Konvergenz der EU-Mitgliedsstaaten abzielt, nicht gerechtfertigt werden kann, wenn die Strukturfonds Migration in der EU behindern, anstatt sie zu fördern. Der zweite Artikel zeigt jedoch, dass die empirische Evidenz bezüglich des Zusammenhangs von EU-Regionalpolitik und Migration nicht eindeutig ist, d.h. verschiedene empirische Untersuchungen zeigen, dass die Strukturfonds Migration behindern aber auch fördern. Daher ist die Frage der wissenschaftlichen Rechtfertigung der EU-Regionalpolitik auf empirischer Grundlage nicht einfach und eindeutig. Dieses Ergebnis ist unbefriedigend, steht aber im Einklang mit der bisherigen theoretischen und empirischen Literatur. Daher geht die Arbeit an dieser Stelle einen Schritt zurück und überprüft die zu Beginn unterstellte theoretische Grundlage ihrer Analyse der Erklärung und Rechtfertigung der EU-Regionalpolitik, die in der vorherrschenden neoklassischen Marktversagenstheorie zu sehen und zu finden ist. Der dritte Artikel („EU regional policy: theoretical foundations and policy conclusions revisited“) behandelt die theoretische Erklärung und Rechtfertigung, als auch die Politikempfehlungen an EU-Regionalpolitiker, welche aus der neoklassischen Marktversagenstheorie abgleitet werden. Der Artikel führt aus, dass das neoklassische Marktversagenskonzept normativ ist und die EU-Regionalpolitik dadurch mit Hilfe eines politischen und damit subjektiven Werturteils rechtfertigt und legitimiert. Dieses Konzept kann jedoch keine wissenschaftlich positive Erklärung der EU-Strukturfonds liefern, noch können daraus objektive und praktisch anwendbare Politikinstrumente abgeleitet werden. Diese Kritik an der neoklassischen Marktversagenstheorie gegeben, stellt das dritte Papier konsequenterweise die vorherrschende Erklärung und Rechtfertigung der EU-Regionalpolitik, welche in der statisch-neoklassischen Gleichgewichtsökonomik geliefert wird, in Frage. Es wird argumentiert, dass eine evolutorische Nicht-Gleichgewichtsperspektive auf die EU-Regionalpolitik wesentlich geeigneter erscheint eine realistische Erklärung für eine der größten Politiken der EU zu geben. Allerdings heißt dies nicht, dass die evolutorische Ökonomik unvoreingenommen als Allheilmittel für eine positive Erklärung und die Ableitung objektiver Politikinstrumente herangezogen werden kann. Warum dies so ist, wird im vierten Artikel der Dissertation („Market failure vs. system failure as a rationale for economic policy? A critique from an evolutionary perspective“) diskutiert. Dieser Artikel greift die Erklärung von Wirtschaftspolitik, die aus evolutorischer Perspektive gegeben wird, neu auf. Die neoklassischen Gleichgewichtsvorstellungen des Markt- und Staatsversagens werden mit den vorherrschenden evolutorischen neo-Schumpeterschen und Österreichisch-Hayekiansichen Vorstellungen die Wirtschaftspolitik betreffend verglichen. Auf diesem Vergleich aufbauend kritisiert das Papier, dass neoklassisches Versagensdenken in der evolutorischen Nicht-Gleichgewichtsökonomik weiterhin zu finden ist, wenn wirtschaftspolitische Fragestellungen erörtert werden. Dies ist sehr überraschend, da die Vertreter der evolutorischen Ökonomik ihren Ansatz normalerweise als inkompatibel zu ihrem neoklassischen Pendant ansehen. Der letzte Artikel argumentiert deshalb, dass der Gleichgewichtsgedanke eliminiert werden muss, um die ansonsten sehr fruchtbare und wesentlich realistischere evolutorische Ökonomik vor der Unterminierung ihrer eigenen Kritik an der Neoklassik zu schützen und einen konsistenten als auch objektiven evolutorischen Analyserahmen für wirtschaftspolitische Fragestellungen zu schaffen. Fasst man das Resultat der Dissertation zusammen, bleibt festzuhalten, dass die EU-Regionalpolitik und ihre Strukturfonds aus ökonomischer Sicht weder theoretisch noch empirisch rechtfertigt und legitimiert werden können. Darüber hinaus kommt die Arbeit zu dem Schluss, dass die vorherrschende positive und instrumentelle Erklärung der EU-Regionalpolitik, die in der Literatur gegeben wird, neu gedacht werden muss, da mit Hilfe dieser Theorien weder das Aufkommen und die Entwicklung dieser Politik erklärbar sind, noch geeignete objektive und wissenschaftliche Politikinstrumente für EU-Regionalpolitiker abgeleitet werden können. KW - EU regional policy KW - structural funds KW - internal migration KW - market failures KW - non-equilibrium economics KW - evolutionary economics KW - system failure KW - economic policy KW - European integration KW - EU-Regionalpolitik KW - Strukturfonds KW - interne Migration KW - Marktversagen KW - Nicht-Gleichgewichtsökonomik KW - Evolutorische Ökonomik KW - Systemversagen KW - Wirtschaftspolitik KW - Europäische Integration Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90837 ER - TY - THES A1 - Ledendecker, Marc T1 - En route towards advanced catalyst materials for the electrocatalytic water splitting reaction T1 - Innovative Katalysatormaterialien für die elektrokatalytische Wasserspaltung BT - mechanistic insights into the formation of metal carbides, phosphides, sulfides and nitrides BT - mechanistische Einblicke in die Bildung von Metallcarbiden, -phosphiden, -sulfiden und –nitriden N2 - The thesis on hand deals with the development of new types of catalysts based on pristine metals and ceramic materials and their application as catalysts for the electrocatalytic water splitting reaction. In order to breathe life into this technology, cost-efficient, stable and efficient catalysts are imploringly desired. In this manner, the preparation of Mn-, N-, S-, P-, and C-containing nickel materials has been investigated together with the theoretical and electrochemical elucidation of their activity towards the hydrogen (and oxygen) evolution reaction. The Sabatier principle has been used as the principal guideline towards successful tuning of catalytic sites. Furthermore, two pathways have been chosen to ameliorate the electrocatalytic performance, namely, the direct improvement of intrinsic properties through appropriate material selection and secondly the increase of surface area of the catalytic material with an increased amount of active sites. In this manner, bringing materials with optimized hydrogen adsorption free energy onto high surface area support, catalytic performances approaching the golden standards of noble metals were feasible. Despite varying applied synthesis strategies (wet chemistry in organic solvents, ionothermal reaction, gas phase reaction), one goal has been systematically pursued: to understand the driving mechanism of the growth. Moreover, deeper understanding of inherent properties and kinetic parameters of the catalytic materials has been gained. N2 - Wasserstoff ist einer der vielversprechendsten Energieträger aufgrund seiner hohen massenbezogenen Energiedichte. In diesem Zusammenhang erlaubt die elektrokatalytische Wasserspaltung die einfache und saubere Herstellung von Wasserstoff. Allerdings erfordert die Trennung der relativ starken Wasserstoff-Sauerstoff Bindungen beträchtliche Energie und teure Edelmetalle wie Platin oder Iridium zeigen die höchste katalytische Aktivität mit geringer Überspannung und hohen Stromdichten was zu einem guten Wirkungsgrad führt. Aus dieser Motivation heraus befasst sich die vorliegende Arbeit mit der Entwicklung neuer Katalysatoren, die auf Metalllegierungen und Keramiken basieren, sowie ihrer Anwendung für die elektrokatalytische Wasserspaltung. Besonderes Augenmerk wurde auf die Herstellung von kostengünstigen mangan-, stickstoff-, schwefel-, phosphor- und kohlenstoffhaltigen Nickelwerkstoffen gelegt und deren Aktivität experimentell und theoretisch erforscht. Nickel wurde aufgrund seines relativ günstigen Preises und hohen Vorkommens gewählt. Das Prinzip von Sabatier – die Wechselwirkung zwischen Adsorbat und Substrat sollte weder zu stark noch zu schwach sein – wurde als Leitfaden für die Entwicklung effizienter Katalysatoren benutzt. Trotz unterschiedlich angewendeter Synthesestrategien (Synthese in organischen Lösungsmitteln, ionothermale Reaktion oder Gasphasenreaktion), wurde zusätzlich systematisch ein weiteres Ziel verfolgt: Die Wachstums- und Entstehungsmechanismen dieser Materialen zu ergründen. Darüber hinaus wurde ein tieferes Verständnis der inhärenten Eigenschaften und kinetischen Parameter der katalytischen Materialien gewonnen. KW - Wasserspaltung KW - Katalysatoren KW - Keramik KW - Legierungen KW - Materialwissenschaft KW - HER KW - OER KW - water splitting reaction KW - ceramics KW - metal alloys KW - material science KW - HER KW - OER Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93296 ER - TY - THES A1 - Emantoko Dwi Putra, Sulistyo T1 - Placental DNA Methylation in Association with Maternal Heath and Birth Outcomes Y1 - 2016 ER - TY - THES A1 - Lämke, Jörn T1 - Determining the future in the past BT - analysis of the role of chromation in heat stress memory in Arabidopsis thaliana Y1 - 2015 ER - TY - THES A1 - Rezanezhad, Vahid T1 - Inversion of the 2004 M6.0 Parkfield Earthquake Coseismic Offsets by Partition Model Y1 - 2016 ER - TY - THES A1 - Austin, Gina T1 - The mediating role of theory of mind in the relationship between executive function and conduct problems in elementary school-age children Y1 - 2015 ER - TY - THES A1 - Soulié, Virginie T1 - Sessile droplets of salt solutions on inert and metallic surfaces T1 - Gouttes sessiles de solutions salines sur des surfaces inertes et métalliques BT - influence of salt concentration gradients on evaporation and corrosion behaviour BT - influence des gradients de concentration en sel sur la dynamique d’Evaporation et le processus de corrosion N2 - In this thesis we investigate the evaporation behaviour of sessile droplets of aqueous saline solutions on planar inert and metallic surfaces and characterise the corrosion phenomenon for iron surfaces. First we study the evaporation behaviour of sessile salty droplets on inert surfaces for a wide range of salt concentrations, relative humidities, droplet sizes and contact angles. Our study reveals the range of validity of the well-accepted diffusion-controlled evaporation model and highlights the impact of salt concentration (surface tension) gradients driven Marangoni flows on the evaporation behaviour and the subsequent salty deposit patterns. Furthermore we study the spatial-temporal evolution of sessile droplets from saline solutions on metallic surfaces. In contrast to the simple, generally accepted Evans droplet model, we show that the corrosion spreads ahead of the macroscopic contact line with a peripheral film. The three-phase contact line is destabilized by surface tension gradients induced by ionic composition changes during the course of the corrosion process and migration of cations towards the droplet perimeter. Finally we investigate the corrosion behaviour under drying salty sessile droplets on metallic surfaces. The corrosion process, in particular the location of anodic and cathodic activities over the footprint droplet area is correlated to the spatial distribution of the salt inside the drying droplet. N2 - Dans cette thèse, la dynamique d’évaporation de gouttes sessiles de solutions salines sur des surfaces planes inertes et métalliques a été étudiée et le phénomène de corrosion pour les surfaces ferriques caractérisé. En premier lieu, nous nous sommes intéressés à la dynamique d’évaporation de gouttes sessiles salées sur des surfaces inertes pour une large gamme de concentrations en sel, d’humidité relatives, de tailles de goutte et d’angles de contact. Notre étude révèle les domaines de validité du modèle classique d’évaporation, processus contrôlé par la diffusion de la vapeur dans l’air et met en évidence l’impact de flux (de Marangoni) induits par des gradients de concentration (tension de surface) en sel sur la dynamique d’évaporation et les dépôts salins obtenus après évaporation de la goutte. De plus, nous nous sommes consacrés à l’évolution spatio-temporelle de gouttes sessiles de solutions salines sur des surfaces métalliques. Contrairement au modèle simplifié de la goutte d’Evans, nous avons montré que le processus de corrosion s’étend aux abords de la ligne de contact, avec la formation d’un film périphérique. La ligne triple est déstabilisée par des gradients de tension de surface induits par des variations de composition ionique au cours du processus de corrosion et la migration des cations vers la périphérie de la goutte. Enfin nous avons étudié le phénomène de corrosion du métal induit par l’évaporation de gouttes sessiles salées. Le processus de corrosion, en particulier la localisation des réactions anodiques et cathodiques sur la surface métallique en contact avec la goutte est corrélée à la distribution spatiale du sel au sein de la goutte s’évaporant. KW - sessile droplet KW - salt KW - evaporation KW - corrosion KW - liegende Tropfen KW - Salz KW - Verdunstung KW - Korrosion KW - gouttes sessiles KW - sel KW - evaporation KW - corrosion Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90329 ER - TY - THES A1 - Chen, Kejie T1 - Real-time GNSS for fast seismic source inversion and tsunami early warning T1 - Echtzeit-GNSS für schnelle seismischen Quelle Inversion und Tsunami-Frühwarnsystem N2 - Over the past decades, rapid and constant advances have motivated GNSS technology to approach the ability to monitor transient ground motions with mm to cm accuracy in real-time. As a result, the potential of using real-time GNSS for natural hazards prediction and early warning has been exploited intensively in recent years, e.g., landslides and volcanic eruptions monitoring. Of particular note, compared with traditional seismic instruments, GNSS does not saturate or tilt in terms of co-seismic displacement retrieving, which makes it especially valuable for earthquake and earthquake induced tsunami early warning. In this thesis, we focus on the application of real-time GNSS to fast seismic source inversion and tsunami early warning. Firstly, we present a new approach to get precise co-seismic displacements using cost effective single-frequency receivers. As is well known, with regard to high precision positioning, the main obstacle for single-frequency GPS receiver is ionospheric delay. Considering that over a few minutes, the change of ionospheric delay is almost linear, we constructed a linear model for each satellite to predict ionospheric delay. The effectiveness of this method has been validated by an out-door experiment and 2011 Tohoku event, which confirms feasibility of using dense GPS networks for geo-hazard early warning at an affordable cost. Secondly, we extended temporal point positioning from GPS-only to GPS/GLONASS and assessed the potential benefits of multi-GNSS for co-seismic displacement determination. Out-door experiments reveal that when observations are conducted in an adversary environment, adding a couple of GLONASS satellites could provide more reliable results. The case study of 2015 Illapel Mw 8.3 earthquake shows that the biases between co-seismic displacements derived from GPS-only and GPS/GLONASS vary from station to station, and could be up to 2 cm in horizontal direction and almost 3 cm in vertical direction. Furthermore, slips inverted from GPS/GLONASS co-seismic displacements using a layered crust structure on a curved plane are shallower and larger for the Illapel event. Thirdly, we tested different inversion tools and discussed the uncertainties of using real-time GNSS for tsunami early warning. To be exact, centroid moment tensor inversion, uniform slip inversion using a single Okada fault and distributed slip inversion in layered crust on a curved plane were conducted using co-seismic displacements recorded during 2014 Pisagua earthquake. While the inversion results give similar magnitude and the rupture center, there are significant differences in depth, strike, dip and rake angles, which lead to different tsunami propagation scenarios. Even though, resulting tsunami forecasting along the Chilean coast is close to each other for all three models. Finally, based on the fact that the positioning performance of BDS is now equivalent to GPS in Asia-Pacific area and Manila subduction zone has been identified as a zone of potential tsunami hazard, we suggested a conceptual BDS/GPS network for tsunami early warning in South China Sea. Numerical simulations with two earthquakes (Mw 8.0 and Mw 7.5) and induced tsunamis demonstrate the viability of this network. In addition, the advantage of BDS/GPS over a single GNSS system by source inversion grows with decreasing earthquake magnitudes. N2 - In den letzten Jahrzehnten haben schnelle und ständige Fortschritte die GNSS Technologie motiviert, die Fähigkeit zu erreichen, vorübergehende Bodenbewegungen mit einer Genauigkeit von mm bis cm in Echtzeit zu überwachen. Als Ergebnis wurde das Potential der Benutzung von Echtzeit GNSS zur Vorhersage von Naturgefährdungen und Frühwarnungen in den letzten Jahren intensiv ausgenutzt, zum Beispiel beim Beobachten von Hangrutschungen und vulkanischen Eruptionen. Besonders im Vergleich mit traditionellen seismischen Instrumenten tritt bei GNSS bei seismischen Verschiebungen keine Sättigung oder Neigung auf, was es für Erdbeben und durch Erdbeben induzierte Tsunamis besonders wertvoll macht. In dieser Arbeit richtet sich der Fokus auf die Anwendung von Echtzeit GNSS auf schnelle seismische Quelleninversion und Tsunami Frühwarnung. Zuerst präsentieren wir einen neuen Ansatz, um präzise seismische Verschiebungen durch kosteneffiziente Einzelfrequenz-Empfänger zu erhalten. Wie in Bezug auf Hochpräzisions-Positionierung bekannt ist, ist das hauptsächliche Hindernis für Einzelfrequenz-GPS die Verzögerung durch die Ionosphäre. Unter Berücksichtigung der Tatsache, dass die Änderung in der ionosphärischen Verzögerung über mehrere Minuten hinweg linear ist, haben wir ein lineares Modell für jeden Satelliten konstruiert, um die ionosphärische Verzögerung vorherzusagen. Die Effizienz dieser Methode wurde bei einem Freiluft-Experiment und bei dem Tohoku Ereignis 2011 validiert, was die Verwendbarkeit eines dichten GPS Netzwerks für Frühwarnung vor Geo-Gefahren bei vertretbaren Kosten bestätigt. Als Zweites haben wir die zeitliche Punkt-Positionierung von GPS-only zu GPS/GLONASS erweitert und den potentiellen Nutzen von Multi-GPNSS für die Bestimmung seismischer Verschiebungen bewertet. Freiluft-Experimente zeigen, dass zusätzliche GLONASS Satelliten in feindlicher Umgebung verlässlichere Ergebnisse liefern könnten. Die Fallstudie vom 2015 Illapel Erdbeben mit 8,3 Mw zeigt, dass die mit GPS-only und GPS/GLONASS abgeleiteten seismischen Verschiebungen von Station zu Station variieren und bis zu 2 cm in horizontaler Richtung und beinahe 3 cm in vertikaler Richtung betragen könnten. Zudem sind Verwerfungen, die durch GPS/GLONASS seismische Verschiebungen umgekehrt sind und eine geschichtete Krustenstruktur benutzen, auf einer gekrümmten Ebene flacher und größer für das Illapel Ereignis. Als Drittes haben wir verschiedene Inversionstools getestet und die Unsicherheiten der Benutzung von Echtzeit GNSS zur Tsunami Frühwarnung diskutiert. Um genau zu sein, wurden eine Schwerpunkts Momenten-Tensoren-Inversion, eine gleichmäßige Verwerfungsinversion bei Benutzung einer einzelnen Okada Verwerfung und eine verteilte Verwerfungs-Inversion in geschichteter Kruste auf einer gekrümmten Ebene durchgeführt. Dafür wurden seismische Verschiebungen genutzt, die beim Pisagua Erdbeben 2014 aufgezeichnet wurden. Während die Inversionsergebnisse ähnliche Magnituden und Bruchstellen liefern, gibt es signifikante Unterschiede bei Tiefe, Streichen, Einfalls- und Spanwinkel, was zu verschiedenen Tsunami Ausbreitungs-Szenarien führt. Trotzdem ist die resultierende Tsunami Vorhersage entlang der chilenischen Küste allen drei Modellen ähnlich. Schlussendlich und basierend auf der Tatsache, dass die Positionierungsleistung von BDS nun äquivalent zu GPS im Asia-Pazifischen Raum ist und die Manila Subduktionszone als potentielle Tsunami Gefährdungszone identifiziert wurde, schlagen wir ein Konzept für ein BDS/GPS Netzwerk für die Tsunami Frühwarnung im Südchinesischen Meer vor. Numerische Simulationen mit zwei Erdbeben (Mw 8.0 und Mw 7.5) und induzierten Tsunamis demonstrieren die Realisierbarkeit dieses Netzwerks. Zusätzlich wächst der Vorteil von BDS/GPS gegenüber einem einzelnen GNSS Sytem bei steigender Quelleninversion mit abnehmender Erdbebenmagnitude. KW - global navigation satellite systems KW - seismic source inversion KW - tsunami early warning KW - GNSS KW - Quelle Inversion KW - Tsunami-Frühwarnsystem Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93174 ER -