TY - THES A1 - Ramos, Catalina T1 - Structure and petrophysical properties of the Southern Chile subduction zone along 38.25°S from seismic data T1 - Struktur und petrophysikalische Eigenschaften der südlichen Chile-Subduktionszone bei 38.25°S anhand seismischer Daten N2 - Active and passive source data from two seismic experiments within the interdisciplinary project TIPTEQ (from The Incoming Plate to mega Thrust EarthQuake processes) were used to image and identify the structural and petrophysical properties (such as P- and S-velocities, Poisson's ratios, pore pressure, density and amount of fluids) within the Chilean seismogenic coupling zone at 38.25°S, where in 1960 the largest earthquake ever recorded (Mw 9.5) occurred. Two S-wave velocity models calculated using traveltime and noise tomography techniques were merged with an existing velocity model to obtain a 2D S-wave velocity model, which gathered the advantages of each individual model. In a following step, P- and S-reflectivity images of the subduction zone were obtained using different pre stack and post-stack depth migration techniques. Among them, the recent prestack line-drawing depth migration scheme yielded revealing results. Next, synthetic seismograms modelled using the reflectivity method allowed, through their input 1D synthetic P- and S-velocities, to infer the composition and rocks within the subduction zone. Finally, an image of the subduction zone is given, jointly interpreting the results from this work with results from other studies. The Chilean seismogenic coupling zone at 38.25°S shows a continental crust with highly reflective horizontal, as well as (steep) dipping events. Among them, the Lanalhue Fault Zone (LFZ), which is interpreted to be east-dipping, is imaged to very shallow depths. Some steep reflectors are observed for the first time, for example one near the coast, related to high seismicity and another one near the LFZ. Steep shallow reflectivity towards the volcanic arc could be related to a steep west-dipping reflector interpreted as fluids and/or melts, migrating upwards due to material recycling in the continental mantle wedge. The high resolution of the S-velocity model in the first kilometres allowed to identify several sedimentary basins, characterized by very low P- and S-velocities, high Poisson's ratios and possible steep reflectivity. Such high Poisson's ratios are also observed within the oceanic crust, which reaches the seismogenic zone hydrated due to bending-related faulting. It is interpreted to release water until reaching the coast and under the continental mantle wedge. In terms of seismic velocities, the inferred composition and rocks in the continental crust is in agreement with field geology observations at the surface along the proflle. Furthermore, there is no requirement to call on the existence of measurable amounts of present-day fluids above the plate interface in the continental crust of the Coastal Cordillera and the Central Valley in this part of the Chilean convergent margin. A large-scale anisotropy in the continental crust and upper mantle, previously proposed from magnetotelluric studies, is proposed from seismic velocities. However, quantitative studies on this topic in the continental crust of the Chilean seismogenic zone at 38.25°S do not exist to date. N2 - Innerhalb des interdisziplinären Projektes TIPTEQ (from The Incoming Plate to mega Thrust EarthQuake processes) wurden aktive und passive Quelldaten zweier seismischer Experimente verwendet, um die strukturellen und petrophysikalischen Eigenschaften (wie zum Beispiel P- und S-Geschwindigkeiten, Poissonsverh ältnisse, Porendruck, Dichte und Flüssigkeitsmenge) in der chilenischen seismogenen Kopplungszone bei 38.25°S darzustellen und zu identifizieren, wo im Jahr 1960 das stärkste je gemessene Erdbeben (Mw 9.5) stattgefunden hat. Zwei Modelle für S-Wellengeschwindigkeiten, basierend auf Techniken für Laufzeiten und Rausch-Tomographie, wurden mit einem existierenden Geschwindigkeitsmodell zu einem 2D-Modell für S-Wellengeschwindigkeiten verbunden, welches der Vorteile der einzelnen Modellkomponenten vereint. Im nächsten Schritt wurden verschiedene pre-stack und post-stack Techniken der Tiefenmigration verwendet, um Bilder der P- und S-Reflektivität zu erhalten. Von diesen Techniken hat das jüngste Schema der pre-stack Linienzug-Tiefenmigration die erkenntnisreichtsen Ergebnisse geliefert. Darauf aufbauend erlauben synthetische Seismogramme, welche die Reflektivitätsmethode verwenden, durch Eingabe der synthetischen 1-D P- und S-Geschwindigkeiten, auf die Komposition und auf Gesteine in der Subduktionszone rückzuschlie ÿen. Schlieÿlich wird ein Bild der Subduktionszone gezeigt, welche die Ergebnisse dieser Arbeit im Zusammenhang mit weiteren Studien interpretiert. Die chilenische seismogene Kopplungszone bei 38.25°S zeigt eine kontinentale Kruste mit sowohl hochgradig reflektierenden horizontalen als auch (steil) geneigten Strukturen. Unter diesen ist die Lanalhue-Bruchzone (LFZ), welche östlich abtaucht, auf sehr flache Tiefen abgebildet. Einige steile Reflektoren wurden zum ersten Mal beobachtet, zum Beispiel nahe der Küste verbunden mit hoher Seismizität, und nahe der LFZ. Steile oberflächliche Reflektivität hin zum vulkanischen Bogen konnten mit einem steilen westlich abtauchenden Reflektor verbunden werden. Dieser besteht wahrscheinlich aus Flüssigkeit oder geschmolzenem Material, welches sich durch Materialrecycling im kontinentalen Mantelkeil aufwärts bewegt. Die hohe Auflösung des S-Geschwindigkeitsmodells in den ersten Kilometern erlaubte es, mehrere sedimentäre Becken zu identifizieren, die sich durch sehr niedrige P- und S-Geschwindigkeiten, hohe Poissonsverhältinesse und mögliche steile reflektivität auszeichnen. Solch hohen Poissonverhältinesse wurden auch in der ozeanischen Kruste beobachtet, welche die seismogene Zone durch krümmungsverursachte Abbrüche hydriert erreicht. Das Wasser wird dabei an der Küste und unter dem kontinentalen Mantelkeil freigesetzt. Mit Hinsicht auf seismische Geschwindigkeiten stimmen die hergeleitete Komposition und Gesteinsverteilung in der kontinentalen Kruste mit geologischen Feldbeobachtungen an der Oberfläche des Profils überein. Des Weiteren zeigt sich keine Notwendigkeit für die Existenz von messbaren Mengen an gegenwärtigen Flüssigkeiten über der Plattengrenze in der kontinentalen Kruste der küstennahen Kordilleren und dem Zentraltal in diesem Teil der chilenischen Konvergenzspanne. Anhand der seismischen Geschwindigkeiten wird eine groÿskalige Anisotropie in der kontinentalen Kruste und im oberen Mantel vorgeschlagen, wie schon zuvor durch magnetotellurische Studien. Jedoch existieren bis heute keine Studien zu diesem Thema für die kontinentale Kruste der chilenische seismogenen Zone bei 38.25°S. KW - active source data KW - seismogenic coupling zone KW - South America KW - reflection seismics KW - seismic tomography KW - synthetic seismograms KW - aktive Quelldaten KW - seismogene Kopplungszone KW - Südamerika KW - Reflexionsseismik KW - seismische Tomographie KW - synthetische Seismogramme Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409183 ER - TY - THES A1 - Jensen, Anders Christian Solberg T1 - Structure and dynamics of amorphous carbonates related to biomineralization T1 - Struktur und Dynamik amorpher Carbonate im Zusammenhang mit der Biomineralisation BT - a neutron diffraction study N2 - Amorphous calcium carbonate(ACC) is a wide spread biological material found in many organisms, such as sea Urchins and mollusks, where it serves as either a precursor phase for the crystalline biominerals or is stabilized and used in the amorphous state. As ACC readily crystallizes, stabilizers such as anions, cations or macromolecules are often present to avoid or delay unwanted crystallization. Furthermore, additives often control the properties of the materials to suit the specific function needed for the organism. E.g. cystoliths in leaves that scatter light to optimize energy uptake from the sun or calcite/aragonite crystals used in protective shells in mussels and gastropods. Lifetime of the amorphous phase is controlled by the kinetic stability against crystallization. This has often been linked to water which plays a role in the mobility of ions and hence the probability of forming crystalline nuclei to initiate crystallization. However, it is unclear how the water molecules are incorporated within the amorphous phase, either as liquid confined in pores, as structural water binding to the ions or as a mixture of both. It is also unclear how this is perturbed when additives are added, especially Mg2+, one the most common additives found in biogenic samples. Mg2+ are expected to have a strong influence on the water incorporated into ACC, given the high energy barrier to dehydration of magnesium ions compared to calcium ions in solution. During the last 10-15 years, there has been a large effort to understand the local environment of the ions/molecules and how this affects the properties of the amorphous phase. But only a few aspects of the structure have so far been well-described in literature. The reason for this is partly caused by the low stability of ACC if exposed to air, where it tends to crystallize within minutes and by the limited quantities of ACC produced in traditional synthesis routes. A further obstacle has been the difficulty in modeling the local structure based on experimental data. To solve the problem of stability and sample size, a few studies have used stabilizers such as Mg2+ or OH- and severely dehydrated samples so as to stabilize the amorphous state, allowing for combined neutron and x-ray analysis to be performed. However, so far, a clear description of the local environments of water present in the structure has not been reported. In this study we show that ACC can be synthesized without any stabilizing additives in quantities necessary for neutron measurements and that accurate models can be derived with the help of empirical-potential structural refinement. These analyses have shown that there is a wide range of local environments for all of the components in the system suggesting that the amorphous phase is highly inhomogeneous, without any phase separation between ions and water. We also showed that the water in ACC is mainly structural and that there is no confined or liquid-like water present in the system. Analysis of amorphous magnesium carbonate also showed that there is a large difference in the local structure of the two cations and that Mg2+ surprisingly interacts with significantly less water molecules then Ca2+ despite the higher dehydration energy. All in all, this shows that the role of water molecules as a structural component of ACC, with a strong binding to cat- and anions probably retard or prevents the crystallization of the amorphous phase. N2 - Amorphes Calciumcarbonat (ACC) ist ein weit verbreitetes biologisches Material, das in vielen Organismen zu finden ist, beispielsweise in Seeigeln und Mollusken, wo es als Präkursorphase für kristalline Biomaterialien dient oder stabilisiert wird und im amorphen Zustand genutzt wird. Da ACC leicht kristallisiert, sind oft Stabilisatoren wie Anionen, Kationen und Makromoleküle zugegen, die eine ungewollte Kristallisation verzögern oder verhindern können. Zusätzlich kontrollieren Additive oftmals die Materialeigenschaften, um spezielle Funktionen erfüllen zu können, die der Organismus benötigt. Z.B. Zystolithen in Blättern, die das Licht streuen, um die Energieaufnahme durch das Sonnenlicht zu optimieren oder den Calcit-/Aragonitkristallen, die in den schützenden Schalen von Muscheln und Schnecken verwendet werden. Die Lebensdauer der amorphen Phase ist kontrolliert von der kinetischen Stabilität gegenüber der Kristallisation. Dies wurde oft mit Wasser verbunden, welches eine Rolle spielt für die Mobilität der Ionen und demzufolge für die Wahrscheinlichkeit der Bildung von Kristallisationskernen, die eine Kristallisation einleiten. Es ist jedoch unklar, wie die Wassermoleküle in die amorphe Phase integriert sind, ob als Flüssigkeit eingeschlossen in Poren, als strukturiertes Wasser gebunden an Ionen oder als Mischung aus beidem. Es ist ebenfalls unklar, wie dies gestört wird durch die Zugabe von Additiven, insbesondere Mg2+, eines der häufigsten Additive in biogenen Proben. Von Mg2+ wird ein starker Einfluss auf das in ACC integrierte Wasser vermutet, vergleicht man die hohe Energiebarriere gegen Dehydration von Magnesiumionen gegenüber Calciumionen in Lösung. Im Verlauf der letzten 10-15 Jahre wurden große Anstrengungen unternommen, um die lokale Umgebung der Ionen/Moleküle zu verstehen und wie diese die Eigenschaften der amorphen Phase beeinflusst. Jedoch wurden bisher nur wenige Aspekte der Struktur gut in der Literatur beschrieben. Dies wird zum Teil von der geringen Stabilität von ACC verursacht, wenn es der Luft ausgesetzt wird, wo es nach wenigen Minuten zur Kristallisation neigt und zum Teil von den begrenzten Mengen an ACC, welches auf traditionellen Synthesewegen produziert wird. Ein weiteres Hindernis stellte die Schwierigkeit dar, die lokale Struktur anhand von experimentellen Daten zu modellieren. Um das Problem der Stabilität und der Probenmenge zu beheben, haben einige Studien Stabilisatoren wie Mg2+ oder OH- und hochgradig dehydrierte Proben verwendet und dadurch den amorphen Zustand stabilisiert, welches eine kombinierte Neutronen- und Röntgenanalyse ermöglichte. Dennoch liegt bis jetzt keine klare Beschreibung der lokalen Umgebung von Wasser in der Struktur vor. In dieser Arbeit zeigen wir, dass ACC ohne stabilisierende Additive in Mengen hergestellt werden kann, wie sie für Neutronenmessungen benötigt werden und dass akkurate Modelle durch empirical-potential structural refinement abgeleitet werden können. Diese Analysen haben gezeigt, dass es eine große Bandbreite lokaler Umgebungen für alle Systemkomponenten gibt, was zu der Vermutung führt, dass die amorphe Phase hochgradig imhomogen ist ohne Phasentrennung zwischen Wasser und Ionen. Wir konnten ebenfalls zeigen, dass das Wasser in ACC hauptsächlich strukturiert ist und dass kein eingeschlossenes oder flüssigkeitsähnliches Wasser im System vorliegt. Die Analyse von amorphem Magnesiumcarbonat zeigte ebenfalls, dass es große Unterschiede in den lokalen Strukturen der beiden Kationen gibt und dass Mg2+ überraschenderweise mit signifikant weniger Wassermolekülen als Ca2+ interagiert, trotz der höheren Dehydrationsenergie. Zusammenfassend zeigt dies, dass die Wassermoleküle in der Rolle als strukturelle Komponenten von ACC, mit einer starken Bindung zu Kat- und Anionen wahrscheinlich die Kristallisation der amorphen Phase verzögern oder verhindern. KW - ACC KW - amorphes Calciumcarbonat KW - emperical potential structure refinement KW - Biomineralisierung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421691 ER - TY - THES A1 - Rodriguez Loureiro, Ignacio T1 - Structural characterization of single and interacting soft interfaces displaying brushes of synthetic or biomolecular polymers T1 - Strukturelle Charakterisierung von einzelnen und interagierenden weichen Grenzflächen mit Bürsten aus synthetischen oder biomolekularen Polymeren N2 - The interaction between surfaces displaying end-grafted hydrophilic polymer brushes plays important roles in biology and in many wet-technological applications. The outer surfaces of Gram-negative bacteria, for example, are composed of lipopolysaccharide (LPS) molecules exposing oligo- and polysaccharides to the aqueous environment. This unique, structurally complex biological interface is of great scientific interest as it mediates the interaction of bacteria with neighboring bacteria in colonies and biofilms. The interaction between polymer-decorated surfaces is generally coupled to the distance-dependent conformation of the polymer chains. Therefore, structural insight into the interacting surfaces is a prerequisite to understand the interaction characteristics as well as the underlying physical mechanisms. This problem has been addressed by theory, but accurate experimental data on polymer conformations under confinement are rare, because obtaining perturbation-free structural insight into buried soft interfaces is inherently difficult. In this thesis, lipid membrane surfaces decorated with hydrophilic polymers of technological and biological relevance are investigated under controlled interaction conditions, i.e., at defined surface separations. For this purpose, dedicated sample architectures and experimental tools are developed. Via ellipsometry and neutron reflectometry pressure-distance curves and distance-dependent polymer conformations in terms of brush compression and reciprocative interpenetration are determined. Additional element-specific structural insight into the end-point distribution of interacting brushes is obtained by standing-wave x-ray fluorescence (SWXF). The methodology is first established for poly[ethylene glycol] (PEG) brushes of defined length and grafting density. For this system, neutron reflectometry revealed pronounced brush interpenetration, which is not captured in common brush theories and therefore motivates rigorous simulation-based treatments. In the second step the same approach is applied to realistic mimics of the outer surfaces of Gram-negative bacteria: monolayers of wild type LPSs extracted from E. Coli O55:B5 displaying strain-specific O-side chains. The neutron reflectometry experiments yield unprecedented structural insight into bacterial interactions, which are of great relevance for the properties of biofilms. N2 - Die Wechselwirkung zwischen Oberflächen mit end-gebundenen hydrophilen Polymerbürsten, spielt eine wichtige Rolle in der Biologie und in vielen nass-technologischen Anwendungen. Die äußeren Oberflächen Gram-negativer Bakterien bestehen beispielsweise aus Lipopolysaccharid (LPS) -Molekülen, welche ihrer wässrigen Umgebung Oligo- und Polysaccharide präsentieren. Diese einzigartige, strukturell komplexe biologische Grenzfläche ist von großem wissenschaftlichen Interesse, da sie die Wechselwirkung zwischen benachbarten Bakterien in Kolonien und Biofilmen vermittelt. Die Wechselwirkung zwischen Polymer-dekorierten Oberflächen ist im Allgemeinen mit der abstandsabhängigen Konformation der Polymerketten gekoppelt. Strukturelle Einblicke in die interagierenden Oberflächen sind daher eine Voraussetzung, um sowohl die Wechselwirkungseigenschaften als auch die zugrundeliegenden physikalischen Mechanismen zu verstehen. Dieses Problem wurde bereits theoretisch angegangen, aber genaue experimentelle Daten über Polymerkonformationen unter räumlicher Einschränkung liegen kaum vor, da es schwierig ist, störungsfrei strukturelle Einblicke in weiche Grenzflächen innerhalb kondensierter Materie zu erhalten. In dieser Arbeit wurden Lipidmonoschichten, die mit hydrophilen Polymeren von technologischer und biologischer Relevanz versehen sind, unter kontrollierten Wechselwirkungsbedingungen, d. h. bei definierten Oberflächenabständen, untersucht. Zu diesem Zweck wurden spezielle Probenarchitekturen und experimentelle Methoden entwickelt. Mittels Ellipsometrie und Neutronenreflektometrie wurden Druck-Abstand-Kurven und abstandsabhängige Polymerkonformationen im Hinblick auf Bürstenkompression und gegenseitige Durchdringung bestimmt. Zusätzliche, elementspezifische strukturelle Einblicke in die Endpunktverteilung interagierender Polymerbürsten wurden durch Röntgenfluoreszenz unter stehenden Wellen (SWXF) gewonnen. Die entwickelte Methodik wurde zunächst für Poly(ethylenglycol) (PEG) -Bürsten definierter Länge und Bindungsdichte etabliert. Für dieses System zeigte die Neutronenreflektometrie eine ausgeprägte Durchdringung der Bürsten, die in gängigen Bürstentheorien nicht erfasst wird und daher rigorose simulationsbasierte Studien motiviert. Im zweiten Schritt wurde der gleiche Ansatz auf realistische Modelle der äußeren Oberflächen Gram-negativer Bakterien angewandt: Monoschichten von aus E. coli O55 B5 extrahierten Wildtyp-Lipopolysacchariden, welche stammspezifische O-Seitenketten tragen. Die Neutronenreflektometrie-Experimente lieferten nie dagewesene strukturelle Einblicke in die Wechselwirkung von Bakterienoberflächen, Welche für die Eigenschaften von Biofilme von großer Bedeutung sind. KW - polymer physics KW - neutron reflectometry KW - soft matter physics KW - biophysics KW - Polymerphysik KW - Neutronreflektometrie KW - Physik der weichen Materie KW - Biophysik Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423675 ER - TY - THES A1 - Hill, Lukasz T1 - Soziale Integration und politische Partizipation in Demokratien T1 - Social integration and political participation BT - Weshalb sind einige Gesellschaften politisch aktiver als andere BT - Why some societies are more politically active that others N2 - Die Frage nach dem Zusammenhalt einer ganzen Gesellschaft ist eine der zentralen Fragen der Sozialwissenschaften und Soziologie. Seit dem Übergang in die Moderne bildet das Problem des Zusammenhalts von sich differenzierenden Gesellschaften den Gegenstand des wissenschaftlichen und gesellschaftlichen Diskurses. In der vorliegenden Studie stellt soziale Integration eine Form der gelungenen Vergesellschaftung dar, die sich in der Reproduktion von symbolischen und nicht-symbolischen Ressourcen artikuliert. Das Resultat dieser Reproduktion sind pluralistische Vergesellschaftungen, die, bezogen auf politische Präferenzen, konfligierende Interessen verursachen. Diese Präferenzen kommen in unterschiedlichen Formen, in ihrer Intensität und Wahrnehmung der politischen Partizipation zum Ausdruck. Da moderne politische Herrschaft aufgrund der rechtlichen und institutionellen Ausstattung einen bedeutsamen Einfluss auf soziale Reproduktion ausüben kann (z.B. durch Sozialpolitik), stellt direkte Beeinflussung politischer Entscheidungen, als Artikulation von sich aus den Konfliktlinien etablierenden, unterschiedlichen Präferenzen, das einzige legitime Mittel zwecks Umverteilung von Ressourcen auf der Ebene des Politischen dar. Somit wird die Konnotation zwischen Integration und politischer Partizipation sichtbar. In die Gesellschaft gut integrierte Mitglieder sind aufgrund einer breiten Teilnahme an Reproduktionsprozessen in der Lage, eigene Interessen zu erkennen und durch politische Aktivitäten zum Ausdruck zu bringen. Die empirischen Befunde scheinen den Eindruck zu vermitteln, dass der demokratische Konflikt in der modernen Gesellschaft nicht mehr direkt von Klassenzugehörigkeit und Klasseninteressen geprägt wird, sondern durch den Zugang zu und die Verfügbarkeit von symbolischen und nicht-symbolischen Ressourcen geformt wird. In der Konsequenz lautet die Fragestellung der vorliegenden Arbeit, ob integrierte Gesellschaften politisch aktiver sind. Die Fragestellung der Arbeit wird mithilfe von Aggregatdaten demokratisch-verfasster politischer Systemen untersucht, die als etablierte Demokratien gelten und unterschiedlich Breite wohlfahrtstaatlichen Maßnahmen aufweisen. Die empirische Überprüfung der Hypothesen erfolgte mithilfe von bivariaten und multivariaten Regressionsanalysen. Die überprüften Hypothesen lassen sich folgend in einer Hypothese zusammenfassen: Je stärker die soziale Integration einer Gesellschaft, desto größer ist die konventionelle bzw. unkonventionelle politische Partizipation. Verallgemeinert ist die Aussage zulässig, dass soziale Integration einer Gesellschaft positive Effekte auf die Häufigkeit politischer Partizipation innerhalb dieser Gesellschaft hat. Stärker integrierte Gesellschaften sind politisch aktiver und dies unabhängig von der Form (konventionelle oder unkonventionelle) politischer Beteiligung. Dabei ist der direkte Effekt der gesamtgesellschaftlichen Integration auf die konventionellen Formen stärker als auf unkonventionellen. Diese Aussage ist nur zulässig, wenn die Elemente des Wahlsystems, wie z.B. Verhältniswahlrecht, und das BIP nicht berücksichtigt werden. Auf der Grundlage der Ergebnisse mit Kontrollvariablen erlauben die Daten die auf die Makroebene bezogene Aussage, dass neben einem hohen Niveau sozialer Integration auch ein durch (Mit-)Beteiligung bestimmtes Wahlsystem und ein hoher wirtschaftlicher Entwicklungsgrad begünstigend für ein hohes Niveau politischer Partizipation sind. N2 - One of the core issues of social sciences and sociology is the social cohesion of society as a whole. Since the transition to modernity, the problem of cohesion in differentiated societies forms the subject of scientific and social discourse. In the present study, social integration is defined as a form of the successful socialisation (Vergesellschaftung) that is articulated in the reproduction of symbolic and non-symbolic resources. The result of this replication is pluralistic socialisations, which, based on political preferences (opinions), create conflicting interests and preferences. These preferences come to expression in different forms, regarding their intensity and perception of political participation. Modern political rule can exert a significant influence on social reproduction, due to legal and institutional facilities (E.g. through social policy). Can hold a direct influence on political decisions, as articulation of the established lines of conflict and different preferences, represents the only legitimate action for the purpose of redistribution of resources at the level of the political system. As a result, the link between integration and political participation is made visible. Well integrated members of society, based on broad participation of reproduction processes, recognise their interests and apply them to political activities. The empirical findings seem to convey that the democratic conflict in modern society is no longer characterised directly by class and class interests, but is formed by access and availability of the symbolic and non-symbolic resources. In consequence, is the question of the present thesis, are integrated societies politically active? The goal of this study is to analyse aggregated data from established democracies with different levels of state welfare. The empirical validation of the hypotheses followed by using bivariate and multivariate regression analyses. The validated hypotheses are summarised below in a hypothesis: the stronger the social integration of society, the greater the conventional or unconventional political participation. To generalize, social integration of society has positive effects on the frequency of political behaviour. More integrated societies are politically active regardless of the form (conventional or unconventional) political involvement. This statement is only permissible, if the elements of the electoral system, such as proportional voting system, and economic performance are not included. On the basis of the results with control variables, the data permits the following macro-level statement, that in addition to a high level of social integration, an electoral system and high economic performance, determine high level political participation. KW - soziale Integration KW - politische Partizipation KW - Ressourcenmodell KW - Demokratietheorie KW - Theorie der Integration moderner Gesellschaften KW - social integration KW - political participation KW - democratic theory KW - theory of social integration Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-420077 ER - TY - THES A1 - Valliappan, Senthamizh Pavai T1 - Solar Activity Reconstruction from Historical Observations of Sunspots T1 - Rekonstruktion der Sonnenaktivität aus historischen Beobachtungen von Sonnenflecken N2 - The solar activity and its consequences affect space weather and Earth’s climate. The solar activity exhibits a cyclic behaviour with a period of about 11 years. The solar cycle properties are governed by the dynamo taking place in the interior of the Sun, and they are distinctive. Extending the knowledge about solar cycle properties into the past is essential for understanding the solar dynamo and forecasting space weather. It can be acquired through the analysis of historical sunspot drawings. Sunspots are the dark areas, which are associated with strong magnetic fields, on the solar surface. Sunspots are the oldest and longest available observed features of solar activity. One of the longest available records of sunspot drawings is the collection by Samuel Heinrich Schwabe during 1825–1867. The sunspot sizes measured from digitized Schwabe drawings are not to scale and need to be converted into physical sunspot areas. We employed a statistical approach assuming that the area distribution of sunspots was the same in the 19th century as it was in the 20th century. Umbral areas for about 130 000 sunspots observed by Schwabe were obtained. The annually averaged sunspot areas correlate reasonably well with the sunspot number. Tilt angles and polarity separations of sunspot groups were calculated assuming them to be bipolar. There is, of course, no polarity information in the observations. We derived an average tilt angle by attempting to exclude unipolar groups with a minimum separation of the two surmised polarities and an outlier rejection method, which follows the evolution of each group and detects the moment, when it turns unipolar as it decays. As a result, the tilt angles, although displaying considerable natural scatter, are on average 5.85° ± 0.25°, with the leading polarity located closer to the equator, in good agreement with tilt angles obtained from 20th century data sets. Sources of uncertainties in the tilt angle determination are discussed and need to be addressed whenever different data sets are combined. Digital images of observations printed in the books Rosa Ursina and Prodromus pro sole mobili by Christoph Scheiner, as well as the drawings from Scheiner’s letters to Marcus Welser, are analyzed to obtain information on the positions and sizes of sunspots that appeared before the Maunder minimum. In most cases, the given orientation of the ecliptic is used to set up the heliographic coordinate system for the drawings. Positions and sizes are measured manually displaying the drawings on a computer screen. Very early drawings have no indication of the solar orientation. A rotational matching using common spots of adjacent days is used in some cases, while in other cases, the assumption that images were aligned with a zenith–horizon coordinate system appeared to be the most likely. In total, 8167 sunspots were measured. A distribution of sunspot latitudes versus time (butterfly diagram) is obtained for Scheiner’s observations. The observations of 1611 are very inaccurate, but the drawings of 1612 have at least an indication of the solar orientation, while the remaining part of the spot positions from 1618–1631 have good to very good accuracy. We also computed 697 tilt angles of apparent bipolar sunspot groups, which were observed in the period 1618–1631. We find that the average tilt angle of nearly 4° does not significantly differ from the 20th century values. The solar cycle properties seem to be related to the tilt angles of sunspot groups, and it is an important parameter in the surface flux transport models. The tilt angles of bipolar sunspot groups from various historical sets of solar drawings including from Schwabe and Scheiner are analyzed. Data by Scheiner, Hevelius, Staudacher, Zucconi, Schwabe, and Spörer deliver a series of average tilt angles spanning a period of 270 years, in addition to previously found values for 20th-century data obtained by other authors. We find that the average tilt angles before the Maunder minimum were not significantly different from modern values. However, the average tilt angles of a period 50 years after the Maunder minimum, namely for cycles 0 and 1, were much lower and near zero. The typical tilt angles before the Maunder minimum suggest that abnormally low tilt angles were not responsible for driving the solar cycle into a grand minimum. With the Schwabe (1826–1867) and Spörer (1866–1880) sunspot data, the butterfly diagram of sunspot groups extends back till 1826. A recently developed method, which separates the wings of the butterfly diagram based on the long gaps present in sunspot group occurrences at different latitudinal bands, is used to separate the wings of the butterfly diagram. The cycle-to-cycle variation in the start (F), end (L), and highest (H) latitudes of the wings with respect to the strength of the wings are analyzed. On the whole, the wings of the stronger cycles tend to start at higher latitudes and have a greater extent. The time spans of the wings and the time difference between the wings in the northern hemisphere display a quasi-periodicity of 5–6 cycles. The average wing overlap is zero in the southern hemisphere, whereas it is 2–3 months in the north. A marginally significant oscillation of about 10 solar cycles is found in the asymmetry of the L latitudes. This latest, extended database of butterfly wings provides new observational constraints, regarding the spatio-temporal distribution of sunspot occurrences over the solar cycle, to solar dynamo models. N2 - Die Sonnenaktivität und ihre Folgen beeinflussen das Weltraumwetter und das Klima. Sie zeigt ein zyklisches Verhalten mit einer Periode von etwa 11 Jahren. Die Eigenschaften des Sonnenzyklus werden durch den magnetischen Dynamo bestimmt, der im Innern der Sonne Wärmeenergie über Bewegungsenergie in magnetische Energie umwandelt. Unser Wissen über den Sonnenzyklus in der Vergangenheit zu verbessern ist wichtig für das Verständnis des Sonnendynamos und die Vorhersage des Weltraumwetters. Durch die Auswertung historischer Sonnenfleckenzeichnungen können wir diese Kenntnisse erweitern. Sonnenflecken sind die dunklen Bereiche auf der Sonnenoberfläche, die mit starken Magnetfeldern verbunden sind. Sonnenflecken sind das am längsten beobachtete Phänomen der Sonnenaktivität. Eine der umfangreichsten Beobachtungsreihen von Sonnenflecken ist die Sammlung von Samuel Heinrich Schwabe aus den Jahren 1825–1867. Die in den Zeichnungen eingetragenen Sonnenflecken sind jedoch nicht maßstäblich. In der vorliegenden Arbeit wurde ein Verfahren entwickelt, mit dem die Fleckendaten des 19. Jahrhunderts unter der Annahme rekonstruiert werden können, dass deren Größnverteilung identisch zu der heutigen ist. Insgesamt konnten wir Positionen und Flächen von etwa 130 000 Sonnenflecken aus Schwabes Archiv bestimmen. Die Jahresmittel der Flächen korrelieren gut mit der so genannten Sonnenfleckenrelativzahl, einer Größe, die aus der Anzahl der Fleckengruppen und der Gesamtzahl der Flecken konstruiert wird und üblicherweise als Standardmaß für die Sonnenaktivität verwendet wird. Fleckengruppen sind zumeist bipolar mit einer magnetisch positiven und einer magnetisch negativen Teilgruppe. Der Neigungswinkel dieser Gruppen gegen den Sonnenäquator wurde ebenfalls bestimmt. Ihr Mittelwert von 5.85° ± 0.25° stimmt gut mit Werten aus dem 20. Jahrhundert überein. Zusätzlich wurden Digitalsierte Beobachtungen von Christoph Scheiner aus dem 17. Jahrhundert analysiert, um Informationen über die Zeit vor dem Maunder-Minimum, einer Periode äußerst geringer Sonnenaktivität, zu erlangen. Bei den frühesten Beobachtungen gibt es keinen Hinweis auf die Ausrichtung des Sonnenbildes. Durch die Nutzung der Sonnenrotation über zwei oder mehr Tage können wir jedoch die Ausrichtungen fixieren. Insgesamt wurden 8167 Sonnenflecken vermessen. Darüberhinaus wurden auch 697 Neigungswinkel von bipolaren Gruppen aus den Jahren 1618–1631 berechnet. Der durchschnittliche Neigungswinkel von fast 4° unterscheidet sich nicht signifikant von den Werten im 20. Jahrhundert. Die Neigungswinkel der Sonnenfleckengruppen scheinen Einfluss auf den Dynamo zu haben. Es wurden in der vorliegenden Arbeit noch weitere Neigungen bipolarer Sonnenfleckengruppen aus verschiedenen historischen Beobachtungsreihen aus 270 Jahren bestimmt, insgesamt von den Beobachtern Scheiner, Hevelius, Staudacher, Zucconi, Schwabe und Spörer. Die durchschnittlichen Neigungswinkel vor dem Maunder-Minimum unterschieden sich nicht wesentlich von modernen Werten, außer etwa 50 Jahren nach dem Maunder-Minimum, als die mittlere Neigung nahe Null war. Da die typischen Neigungswinkel vor dem Maunder-Minimum sich jedoch nicht wesentlich von modernen Werten unterscheiden, legt dies nahe, dass die ungewöhnlich niedrige Werte nicht für das Eintreten der Sonne in eine solche Minimums-Periode verantwortlich waren. Mit den Sonnenfleckendaten von Schwabe (1826–1867) und Spörer (1866–1880) reicht das so genannte Schmetterlingsdiagramm von Sonnenfleckengruppen bis 1826 zurück. Eine kürzlich entwickelte Methode, die Nord- und Südhälften des Schmetterlingsdiagramms zu trennen, zeigte Zyklus-zu-Zyklus-Variationen in der Start-, End-, und höchsten Breite der Teilflächen. Die “Schmetterlingsflächen” der stärkeren Zyklen tendieren dazu, in höheren Breiten zu starten und eine größere Ausdehnung zu haben. Nord- und Südhemisphäre der Sonne zeigen einen neu beginnenden Zyklus zu leicht unterschiedlichen Zeiten. Der Phasenunterschied schwankt langsam mit einer Quasiperiode von 5–6 Zyklen. Die oben erwähnten Resultate zeigen, wie hilfreich historische langzeit Analysen sind, um die Parameter des Sonnendynamos zu bestimmen und so Rückschlüsse auf die ihm zugrunde liegenden Prozesse ziehen zu können. KW - solar activity KW - sunspot group tilt angle KW - cycle-averaged tilt angle KW - history and philosophy of astronomy KW - Sonnenaktivität KW - Neigungswinkel Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413600 ER - TY - THES A1 - Tofelde, Stefanie T1 - Signals stored in sediment T1 - Signale in Sedimenten BT - fluvial sediments as records of landscape evolution BT - wie Flusssedimente Landschaftsentwicklung aufzeichnen N2 - Tectonic and climatic boundary conditions determine the amount and the characteristics (size distribution and composition) of sediment that is generated and exported from mountain regions. On millennial timescales, rivers adjust their morphology such that the incoming sediment (Qs,in) can be transported downstream by the available water discharge (Qw). Changes in climatic and tectonic boundary conditions thus trigger an adjustment of the downstream river morphology. Understanding the sensitivity of river morphology to perturbations in boundary conditions is therefore of major importance, for example, for flood assessments, infrastructure and habitats. Although we have a general understanding of how rivers evolve over longer timescales, the prediction of channel response to changes in boundary conditions on a more local scale and over shorter timescales remains a major challenge. To better predict morphological channel evolution, we need to test (i) how channels respond to perturbations in boundary conditions and (ii) how signals reflecting the persisting conditions are preserved in sediment characteristics. This information can then be applied to reconstruct how local river systems have evolved over time. In this thesis, I address those questions by combining targeted field data collection in the Quebrada del Toro (Southern Central Andes of NW Argentina) with cosmogenic nuclide analysis and remote sensing data. In particular, I (1) investigate how information on hillslope processes is preserved in the 10Be concentration (geochemical composition) of fluvial sediments and how those signals are altered during downstream transport. I complement the field-based approach with physical experiments in the laboratory, in which I (2) explore how changes in sediment supply (Qs,in) or water discharge (Qw) generate distinct signals in the amount of sediment discharge at the basin outlet (Qs,out). With the same set of experiments, I (3) study the adjustments of alluvial channel morphology to changes in Qw and Qs,in, with a particular focus in fill-terrace formation. I transfer the findings from the experiments to the field to (4) reconstruct the evolution of a several-hundred meter thick fluvial fill-terrace sequence in the Quebrada del Toro. I create a detailed terrace chronology and perform reconstructions of paleo-Qs and Qw from the terrace deposits. In the following paragraphs, I summarize my findings on each of these four topics. First, I sampled detrital sediment at the outlet of tributaries and along the main stem in the Quebrada del Toro, analyzed their 10Be concentration ([10Be]) and compared the data to a detailed hillslope-process inventory. The often observed non-linear increase in catchment-mean denudation rate (inferred from [10Be] in fluvial sediment) with catchment-median slope, which has commonly been explained by an adjustment in landslide-frequency, coincided with a shift in the main type of hillslope processes. In addition, the [10Be] in fluvial sediments varied with grain-size. I defined the normalized sand-gravel-index (NSGI) as the 10Be-concentration difference between sand and gravel fractions divided by their summed concentrations. The NSGI increased with median catchment slope and coincided with a shift in the prevailing hillslope processes active in the catchments, thus making the NSGI a potential proxy for the evolution of hillslope processes over time from sedimentary deposits. However, the NSGI recorded hillslope-processes less well in regions of reduced hillslope-channel connectivity and, in addition, has the potential to be altered during downstream transport due to lateral sediment input, size-selective sediment transport and abrasion. Second, my physical experiments revealed that sediment discharge at the basin outlet (Qs,out) varied in response to changes in Qs,in or Qw. While changes in Qw caused a distinct signal in Qs,out during the transient adjustment phase of the channel to new boundary conditions, signals related to changes in Qs,in were buffered during the transient phase and likely only become apparent once the channel is adjusted to the new conditions. The temporal buffering is related to the negative feedback between Qs,in and channel-slope adjustments. In addition, I inferred from this result that signals extracted from the geochemical composition of sediments (e.g., [10Be]) are more likely to represent modern-day conditions during times of aggradation, whereas the signal will be temporally buffered due to mixing with older, remobilized sediment during times of channel incision. Third, the same set of experiments revealed that river incision, channel-width narrowing and terrace cutting were initiated by either an increase in Qw, a decrease in Qs,in or a drop in base level. The lag-time between the external perturbation and the terrace cutting determined (1) how well terrace surfaces preserved the channel profile prior to perturbation and (2) the degree of reworking of terrace-surface material. Short lag-times and well preserved profiles occurred in cases with a rapid onset of incision. Also, lag-times were synchronous along the entire channel after upstream perturbations (Qw, Qs,in), whereas base-level fall triggered an upstream migrating knickzone, such that lag-times increased with distance upstream. Terraces formed after upstream perturbations (Qw, Qs,in) were always steeper when compared to the active channel in new equilibrium conditions. In the base-level fall experiment, the slope of the terrace-surfaces and the modern channel were similar. Hence, slope comparisons between the terrace surface and the modern channel can give insights into the mechanism of terrace formation. Fourth, my detailed terrace-formation chronology indicated that cut-and-fill episodes in the Quebrada del Toro followed a ~100-kyr cyclicity, with the oldest terraces ~ 500 kyr old. The terraces were formed due to variability in upstream Qw and Qs. Reconstructions of paleo-Qs over the last 500 kyr, which were restricted to times of sediment deposition, indicated only minor (up to four-fold) variations in paleo-denudation rates. Reconstructions of paleo-Qw were limited to the times around the onset of river incision and revealed enhanced discharge from 10 to 85% compared to today. Such increases in Qw are in agreement with other quantitative paleo-hydrological reconstructions from the Eastern Andes, but have the advantage of dating further back in time. N2 - Tektonische und klimatische Bedingungen bestimmen die Menge, Größenverteilung und Zusammensetzung von Sedimenten, welche in Gebirgsregionen produziert und von dort exportiert werden. Über Jahrtausende hinweg passen Flüsse ihre Morphologie an, um den Sedimenteintrag (Qs,in) mit dem verfügbaren Wasserabfluss (Qw) flussabwärts zu transportieren. Änderungen in den klimatischen oder tektonischen Randbedingungen lösen flussabwärts eine Anpassung der Flussmorphologie aus. Ein besseres Verständnis darüber, wie sensitiv Flüsse auf Perturbationen in den Randbedingungen reagieren, ist entscheidend, um beispielsweise Überflutungspotential besser abschätzen zu können. Obwohl wir generell ein gutes Verständnis für die Entwicklung von Flüssen auf langen Zeitskalen haben, können wir durch veränderte Randbedingungen ausgelöste Flussdynamiken lokal und auf kurzen Zeitskalen nur schwer vorhersagen. Um die Entwicklung der Flussmorphologie besser zu verstehen, beziehungsweise vorhersagen zu können, müssen wir testen, (1) wie Flüsse auf veränderte Randbedingungen reagieren und (2) wie Signale, welche die vorherschenden Bedingungen reflektieren, in Sedimenten konserviert werden. Diese Informationen können wir nutzen, um die Entwicklung von lokalen Flusssystemen zu rekonstruieren. In der vorliegenden Arbeit adressiere ich diese Fragen durch die Analyse von kosmogenen Nukleiden und Fernerkundungsdaten in der Quebrada del Toro (südliche Zentralanden in NW Argentinien). Insbesondere untersuche ich, wie (1) Informationen über Hangprozesse in der 10Be Konzentration (geochemische Zusammensetzung) von Flusssedimenten gespeichert werden und wie diese Signale durch den Transport flussabwärts überprägt werden. Ich ergänze diesen geländebasierten Ansatz mit physikalischen Experimenten im Labor, mit welchen ich untersuche, wie (2) Veränderungen in der Sedimentzufuhr (Qs,in) oder der Abflussmenge (Qw) eindeutige Signale in der Menge an Sedimentaustrag (Qs,out) am Beckenauslass generieren. Mit denselben Experimenten untersuche ich (3) die Anpassung der Flussmorphologie auf Veränderungen in Qw und Qs,in mit einem speziellen Fokus auf der Entstehung von Flussterrassen. Ich übertrage die Erkenntnisse von den Experimenten ins Gelände und (4) rekonstruiere die Entstehung von einer mehreren hundert Meter mächtigen Terrassensequenz in der Quebrada del Toro. Ich erstelle eine detaillierte Terrassenchronologie und führe mit Hilfe der Terrassenablagerungen Rekonstruktion von Qs und Qw für die Vergangenheit durch. In den folgenden Paragraphen fasse ich meine Ergebnisse zu den vier Forschungsschwerpunkten dieser Arbeit zusammen. Erstens habe ich Flusssedimente an den Mündungen von Nebenflüssen, sowie entlang des Hauptflusses in der Quebrada del Toro beprobt, die jeweilige 10Be Konzentration ([10Be]) bestimmt und die Daten mit einem detaillierten Hangprozess-Inventar verglichen. Der häufig beobachtete, nicht-lineare Anstieg der durchschnittlichen Denudationsrate des Einzugsgebietes (abgeleitet aus der [10Be] der Flusssedimente) mit der Hangneigung eines Einzugsgebietes fiel mit einer Verschiebung der wesentlichen, aktiven Hangprozesse zusammen. Zusätzlich variierte die [10Be] der Flusssedimente mit den Korngrößen. Ich habe den normalisierten Sand-Schotter-Index (NSGI) definiert, welcher sich aus der Differenz der [10Be] zwischen der Sand- und der Kiesfraktion, geteilt durch ihre summierte Konzentration, berechnet. Der NSGI stieg mit dem Median der Hangneigung eines Einzugsgebietes und fiel wiederum mit einer Verschiebung der vorherrschenden Hangprozesse im jeweiligen Einzugsgebiet zusammen. Diese Beobachtung qualifiziert den NSGI als einen potentiellen Proxy, um die Entwicklung von Hangprozessen über die Zeit aus Sedimentablagerungen zu rekonstruieren. Es ist jedoch einzuschränken, dass der NSGI durch den Transport flussabwärts auf Grund von temporärer Sedimentablagerung, lateraler Sedimentzufuhr, größenselektivem Sedimenttransport und Abrasion überprägt werden kann. Zweitens haben die Laborexperimente gezeigt, dass der Sedimentaustrag am Beckenauslass (Qs,out) auf Grund von Veränderungen in Qs,in oder Qw variiert. Während Veränderungen in Qw ein eindeutiges Signal in Qs,out während der transienten Anpassungsphase des Flusses an die neuen Randbedingungen hervorriefen, wurden durch Qs,in ausgelöste Signale während der transienten Anpassungsphase gepuffert. Sie werden vermutlich erst sichtbar, nachdem der Fluss sich an die neuen Randbedingungen angepasst hat. Das zeitliche Puffern ist mit der negativen Rückkopplung zwischen Qs,in und dem Flussgradienten zu erklären. Zusätzlich deuten die Ergebnisse darauf hin, dass sich Signale, welche in der geochemischen Zusammenstzung von Sediment gespeichert sind (z.B. [10Be]), in Phasen der Flussaufschotterung mit einer höheren Wahrscheinlichkeit die heutigen Bedingungen repräsentieren. Dagegen sind Signale in Zeiten der Flusseinschneidung aufgrund von Mischung mit älteren, remobilisierten Sedimenten gepuffert. Drittens haben dieselben Experimente gezeigt, dass Flusseinschneidung, Flussbettverengung sowie Terrassenbildung entweder durch eine Zunahme an Qw, eine Abnahme in Qs,in oder durch ein Absinken der Flussbasis initiiert werden konnte. Die Zeitverzögerung zwischen der Perturbation der Randbedingungen und der Terrassenformation bestimmt (1) wie gut Terrassenoberflächen das Flussprofil vom Zeitpunkt unmittelbar vor der Störung representieren und (2) den Grad an Umschichtung des Terrassenoberflächenmaterials. Kurze Verzögerungszeiten und gut erhaltende Profile konnten in Fällen eines schnellen Einsetzens der Flusseinschneidung beobachtet werden. Außerdem waren die Verzögerungszeiten entlang des Flusslaufes synchron im Falle einer Perturbation im Flussoberlauf (Qw, Qs,in), während ein Abfallen der Flussbasis einen flussaufwärts migrierenden Knickpunkt ausgelöst hat, sodass die Verzögerungszeiten in flussaufwärts Richtung zunahmen. Terrassen, welche durch Perturbationen im Flussoberlauf (Qw, Qs,in) gebildet wurden, waren steiler im Vergleich zum aktiven Fluss, nachdem dieser sich an die neuen Randbedingungen angepasst hat. In dem Experiment, bei welchem die Flussbasis abgesenkt wurde, waren die Neigung der Terrassenoberflächen und des aktiven Flussesbettes ähnlich. Daher können Vergleiche zwischen der Neigung der Terrassenoberflächen mit dem aktiven Flussbett auf den Mechanismus der Terrassenformation hinweisen. Viertens hat die detaillierte Terrassenchronologie gezeigt, dass die Einschneide-und-Ablagerungsepisoden in der Quebrada del Toro einem ~100 ka Zyklus folgen, beginnend mit der ersten Terrasse vor ca. 500 ka. Die Terrassen wurden durch Variabilität in Qw und Qs,in gebildet. Rekonstruktionen von Qs über die letzten 500 ka, beschränkt auf die Zeiten von Sedimentablagerung, zeigten eine eher geringe Variabilität (maximal vierfach) in Denudationsraten an. Rekonstruktionen des Abflusses waren beschränkt auf die Zeitpunkte um das Einsetzen der Flusseinschneidung herum und deuteten auf vermehrten Abfluss zwischen 10 und 85% im Vergleich zu heutigen Bedingungen hin. Vermehrter Abfluss in dieser Größenordnung stimmt mit anderen quantitativen Rekonstruktionen zur Hydrologie der Ost-Anden überein, diese Methode hat jedoch den Vorteil, dass sie zeitlich weiter zurück reicht. KW - sediment-routing system KW - signal propagation KW - alluvial channel morphology KW - fluvial fill terraces KW - Cenral Andes KW - Sedimenttransportsystem KW - Signalweiterleitung KW - Gerinnemorphologie KW - Flussterrassen KW - Zentralanden Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427168 ER - TY - THES A1 - Vogel, Stefanie T1 - Sequence dependency of photon and electron induced DNA strand breaks T1 - Sequenzabhängigkeit von photonen-und elektroneninduzierten DNA Strangbrüchen N2 - Deoxyribonucleic acid (DNA) is the carrier of human genetic information and is exposed to environmental influences such as the ultraviolet (UV) fraction of sunlight every day. The photostability of the DNA against UV light is astonishing. Even if the DNA bases have a strong absorption maximum at around 260 nm/4.77 eV, their quantum yield of photoproducts remains very low 1. If the photon energies exceed the ionization energy (IE) of the nucleobases ( ̴ 8-9 eV) 2, the DNA can be severely damaged. Photoexcitation and -ionization reactions occur, which can induce strand breaks in the DNA. The efficiency of the excitation and ionization induced strand breaks in the target DNA sequences are represented by cross sections. If Si as a substrate material is used in the VUV irradiation experiments, secondary electrons with an energy below 3.6 eV are generated from the substrate. This low energy electrons (LEE) are known to induce dissociative electron attachment (DEA) in DNA and with it DNA strand breakage very efficiently. LEEs play an important role in cancer radiation therapy, since they are generated secondarily along the radiation track of ionizing radiation. In the framework of this thesis, different single stranded DNA sequences were irradiated with 8.44 eV vacuum UV (VUV) light and cross sections for single strand breaks (SSB) were determined. Several sequences were also exposed to secondary LEEs, which additionally contributed to the SSBs. First, the cross sections for SSBs depending on the type of nucleobases were determined. Both types of DNA sequences, mono-nucleobase and mixed sequences showed very similar results upon VUV radiation. The additional influence of secondarily generated LEEs resulted in contrast in a clear trend for the SSB cross sections. In this, the polythymine sequence had the highest cross section for SSBs, which can be explained by strong anionic resonances in this energy range. Furthermore, SSB cross sections were determined as a function of sequence length. This resulted in an increase in the strand breaks to the same extent as the increase in the geometrical cross section. The longest DNA sequence (20 nucleotides) investigated in this series, however, showed smaller cross section values for SSBs, which can be explained by conformational changes in the DNA. Moreover, several DNA sequences that included the radiosensitizers 5-Bromouracil (5BrU) and 8-Bromoadenine (8BrA) were investigated and the corresponding SSB cross sections were determined. It was shown that 5BrU reacts very strongly to VUV radiation leading to high strand break yields, which showed in turn a strong sequence-dependency. 8BrA, on the other hand, showed no sensitization to the applied VUV radiation, since almost no increase in strand breakage yield was observed in comparison to non-modified DNA sequences. In order to be able to identify the mechanisms of radiation damage by photons, the IEs of certain DNA sequences were further explored using photoionization tandem mass spectrometry. By varying the DNA sequence, both the IEs depending on the type of nucleobase as well as on the DNA strand length could be identified and correlated to the SSB cross sections. The influence of the IE on the photoinduced reaction in the brominated DNA sequences could be excluded. N2 - Desoxyribonukleinsäure (DNA) ist als Träger der menschlichen Erbinformation täglich vielen Einflüssen ausgesetzt. Diese Einflüsse können Teil unserer Umwelt sein, wie der ultraviolette (UV) Anteil des Sonnenlichts. Die Photostabilität der DNA gegen UV-Licht ist erstaunlich, denn trotz eines starkes Absorptionsmaximum der DNA-Basen bei etwa 260 nm/4,77 eV, bleibt ihre Quantenausbeute an Photoprodukten sehr gering 1. Überschreiten die Photonenenergien die Ionisationsenergie (IE) der Nukleinbasen ( ̴ 8-9 eV) 2, kann die DNA schwer geschädigt werden. Es treten Anregungs- und Ionisierungsreaktionen auf, die zu Strangbrüchen in der DNA führen. Die Effizienz der induzierten Strangbrüche in den untersuchten DNA-Sequenzen wird durch Wirkungsquerschnitte dargestellt. Wird in den Bestrahlungsexperimenten Silizium als Substratmaterial verwendet, werden aus dem Substrat zusätzliche Sekundärelektronen mit einer Energie unter 3,6 eV erzeugt, die weiteren Schaden an der DNA verursachen. Diese niederenergetischen Elektronen (LEE) sind dafür bekannt, dissoziative Elektronenanlagerung (DEA) und damit Strangbrüche in der DNA zu erzeugen. LEEs entstehen sekundär entlang des Strahlungsweges von ionisierender Strahlung im biologischen Gewebe, wenn in der Behandlung der Krankheit Krebs Strahlentherapie eingesetzt wird. Im Rahmen dieser Arbeit wurden verschiedene Einzelstrang-DNA-Sequenzen mit 8.44 eV Vakuum-UV (VUV) Licht bestrahlt und Wirkungsquerschnitte für Einzel-strangbrüche (SSB) bestimmt. Ein Teil der Sequenzen wurde außerdem sekundär erzeugten LEEs ausgesetzt, die einen zusätzlichen Beitrag zu den SSBs liefern. Als erstes wurde der Wirkungsquerschnitt für SSBs in Abhängigkeit der Nukleinbasen bestimmt. Hierbei weisen sowohl die DNA Sequenzen, die nur ein Sorte an Nukleinbasen besitzen als auch die gemischte Sequenzen sehr ähnliche Werte auf. Durch den zusätzlichen Einfluss der LEEs hat sich wiederum für die DNA Sequenzen mit nur einer Sorte an Nukleinbasen ein stark ausgeprägter Trend gezeigt. Die Polythymin-Sequenz weist den höchsten Wirkungsquerschnitt für SSBs auf, was durch ausgeprägte anionische Resonanzen in diesem Energiebereich begründet werden kann. Des Weiteren wurden Wirkungsquerschnitte für SSBs in Abhängigkeit Sequenzlänge ermittelt. Dabei ergab sich eine Erhöhung der SSBs im gleichen Maße wie die Vergrößerung des geometrischen Wirkungsquerschnitts. Die längste DNA Sequenz (20 Nukleotide), die in dieser Reihe untersucht wurde, zeigte hingegen kleinere Werte für den SSB Wirkungsquerschnitt, was durch Konformationsänderungen in der DNA erklärt werden kann. Einige der untersuchten DNA Sequenzen wurden zusätzlich mit den Radiosensibilisatoren 5-Bromouracil (5BrU) und 8-Bromoadenine (8BrA) modifiziert und entsprechende SSB Wirkungsquerschnitte bestimmt. Hierbei hat sich gezeigt, dass 5BrU mittels einer hohen Strangbruchausbeute sehr stark auf VUV Strahlung reagiert, wobei das Ausmaß der Reaktion stark sequenzabhängig ist. 8BrA hingegen, weist keine Sensibilisierung gegenüber der verwendeten VUV Strahlung auf, da keine Erhöhung der Strangbruchausbeute gegenüber unmodifizierten DNA Sequenzen ersichtlich ist. Um die Mechanismen der Strahlenschädigung durch Photonen besser einschätzen zu können, wurden zusätzlich die IEs bestimmter DNA Sequenzen mit Hilfe der Photoionisations-Tandem-Massenspektrometrie untersucht. Durch Variation der DNA-Sequenzen konnte sowohl ein Trend der IEs in Abhängigkeit der Nukleinbasen und der DNA-Stranglänge identifiziert und als auch eine Abhängigkeit der Reaktivität von 5BrU von seinem IE in der entsprechenden DNA Sequenz ausgeschlossen werden. Die IE Trends und die Wirkungsquerschnitte für SSBs wurden abschließend in Korrelation gebracht. KW - DNA KW - photo ionization KW - dissociative electron attachment KW - DNA origami KW - radiosensitizer KW - ionization energy KW - tandem mass spectrometry KW - DNS KW - Photoionisation KW - Dissoziative Elektronenanlagerung KW - DNA Origami KW - Radiosensibilisator KW - Ionisierungsenergie KW - Tandemmassenspektrometrie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-419669 ER - TY - THES A1 - Kruse, Sebastian T1 - Scalable data profiling T1 - Skalierbares Data Profiling BT - distributed discovery and analysis of structural metadata BT - Entdecken und Analysieren struktureller Metadaten N2 - Data profiling is the act of extracting structural metadata from datasets. Structural metadata, such as data dependencies and statistics, can support data management operations, such as data integration and data cleaning. Data management often is the most time-consuming activity in any data-related project. Its support is extremely valuable in our data-driven world, so that more time can be spent on the actual utilization of the data, e. g., building analytical models. In most scenarios, however, structural metadata is not given and must be extracted first. Therefore, efficient data profiling methods are highly desirable. Data profiling is a computationally expensive problem; in fact, most dependency discovery problems entail search spaces that grow exponentially in the number of attributes. To this end, this thesis introduces novel discovery algorithms for various types of data dependencies – namely inclusion dependencies, conditional inclusion dependencies, partial functional dependencies, and partial unique column combinations – that considerably improve over state-of-the-art algorithms in terms of efficiency and that scale to datasets that cannot be processed by existing algorithms. The key to those improvements are not only algorithmic innovations, such as novel pruning rules or traversal strategies, but also algorithm designs tailored for distributed execution. While distributed data profiling has been mostly neglected by previous works, it is a logical consequence on the face of recent hardware trends and the computational hardness of dependency discovery. To demonstrate the utility of data profiling for data management, this thesis furthermore presents Metacrate, a database for structural metadata. Its salient features are its flexible data model, the capability to integrate various kinds of structural metadata, and its rich metadata analytics library. We show how to perform a data anamnesis of unknown, complex datasets based on this technology. In particular, we describe in detail how to reconstruct the schemata and assess their quality as part of the data anamnesis. The data profiling algorithms and Metacrate have been carefully implemented, integrated with the Metanome data profiling tool, and are available as free software. In that way, we intend to allow for easy repeatability of our research results and also provide them for actual usage in real-world data-related projects. N2 - Data Profiling bezeichnet das Extrahieren struktureller Metadaten aus Datensätzen. Stukturelle Metadaten, z.B. Datenabhängigkeiten und Statistiken, können bei der Datenverwaltung unterstützen. Tatsächlich beansprucht das Verwalten von Daten, z.B. Datenreinigung und -integration, in vielen datenbezogenen Projekten einen Großteil der Zeit. Die Unterstützung solcher verwaltenden Aktivitäten ist in unserer datengetriebenen Welt insbesondere deswegen sehr wertvoll, weil so mehr Zeit auf die eigentlich wertschöpfende Arbeit mit den Daten verwendet werden kann, z.B. auf das Erstellen analytischer Modelle. Allerdings sind strukturelle Metadaten in den meisten Fällen nicht oder nur unvollständig vorhanden und müssen zunächst extahiert werden. Somit sind effiziente Data-Profiling-Methoden erstrebenswert. Probleme des Data Profiling sind in der Regel sehr berechnungsintensiv: Viele Datenabhängigkeitstypen spannen einen exponentiell in der Anzahl der Attribute wachsenden Suchraum auf. Aus diesem Grund beschreibt die vorliegende Arbeit neue Algorithmen zum Auffinden verschiedener Arten von Datenabhängigkeiten – nämlich Inklusionsabhängigkeiten, bedingter Inklusionsabhängigkeiten, partieller funktionaler Abhängigkeiten sowie partieller eindeutiger Spaltenkombinationen – die bekannte Algorithmen in Effizienz und Skalierbarkeit deutlich übertreffen und somit Datensätze verarbeiten können, an denen bisherige Algorithmen gescheitert sind. Um die Nützlichkeit struktureller Metadaten für die Datenverwaltung zu demonstrieren, stellt diese Arbeit des Weiteren das System Metacrate vor, eine Datenbank für strukturelle Metadaten. Deren besondere Merkmale sind ein flexibles Datenmodell; die Fähigkeit, verschiedene Arten struktureller Metadaten zu integrieren; und eine umfangreiche Bibliothek an Metadatenanalysen. Mithilfe dieser Technologien führen wir eine Datenanamnese unbekannter, komplexer Datensätze durch. Insbesondere beschreiben wir dabei ausführlicher, wie Schemata rekonstruiert und deren Qualität abgeschätzt werden können. Wir haben oben erwähnte Data-Profiling-Algorithmen sowie Metacrate sorgfältig implementiert, mit dem Data-Profiling-Programm Metanome integriert und stellen beide als freie Software zur Verfügung. Dadurch wollen wir nicht nur die Nachvollziehbarkeit unserer Forschungsergebnisse möglichst einfach gestalten, sondern auch deren Einsatz in der Praxis ermöglichen. KW - data profiling KW - metadata KW - inclusion dependencies KW - functional dependencies KW - distributed computation KW - metacrate KW - Data Profiling KW - Metadaten KW - Inklusionsabhängigkeiten KW - funktionale Abhängigkeiten KW - verteilte Berechnung KW - Metacrate Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412521 ER - TY - THES A1 - Rosenwinkel, Swenja T1 - Rock glaciers and natural dams in Central Asia T1 - Blockgletscher und natürliche Staudämme in Zentralasien N2 - The formation and breaching of natural dammed lakes have formed the landscapes, especially in seismically active high-mountain regions. Dammed lakes pose both, potential water resources, and hazard in case of dam breaching. Central Asia has mostly arid and semi-arid climates. Rock glaciers already store more water than ice-glaciers in some semi-arid regions of the world, but their distribution and advance mechanisms are still under debate in recent research. Their impact on the water availability in Central Asia will likely increase as temperatures rise and glaciers diminish. This thesis provides insight to the relative age distribution of selected Kyrgyz and Kazakh rock glaciers and their single lobes derived from lichenometric dating. The size of roughly 8000 different lichen specimens was used to approximate an exposure age of the underlying debris surface. We showed that rock-glacier movement differs signifcantly on small scales. This has several implications for climatic inferences from rock glaciers. First, reactivation of their lobes does not necessarily point to climatic changes, or at least at out-of-equilibrium conditions. Second, the elevations of rock-glacier toes can no longer be considered as general indicators of the limit of sporadic mountain permafrost as they have been used traditionally. In the mountainous and seismically active region of Central Asia, natural dams, besides rock glaciers, also play a key role in controlling water and sediment infux into river valleys. However, rock glaciers advancing into valleys seem to be capable of infuencing the stream network, to dam rivers, or to impound lakes. This influence has not previously been addressed. We quantitatively explored these controls using a new inventory of 1300 Central Asian rock glaciers. Elevation, potential incoming solar radiation, and the size of rock glaciers and their feeder basins played key roles in predicting dam appearance. Bayesian techniques were used to credibly distinguish between lichen sizes on rock glaciers and their lobes, and to find those parameters of a rock-glacier system that are most credibly expressing the potential to build natural dams. To place these studies in the region's history of natural dams, a combination of dating of former lake levels and outburst flood modelling addresses the history and possible outburst flood hypotheses of the second largest mountain lake of the world, Issyk Kul in Kyrgyzstan. Megafoods from breached earthen or glacial dams were found to be a likely explanation for some of the lake's highly fluctuating water levels. However, our detailed analysis of candidate lake sediments and outburst-flood deposits also showed that more localised dam breaks to the west of Issyk Kul could have left similar geomorphic and sedimentary evidence in this Central Asian mountain landscape. We thus caution against readily invoking megafloods as the main cause of lake-level drops of Issyk Kul. In summary, this thesis addresses some new pathways for studying rock glaciers and natural dams with several practical implications for studies on mountain permafrost and natural hazards. N2 - Die Entstehung und das Ausbrechen natürlicher Stauseen prägen die Landschaft, insbesondere in seinsmisch aktiven Hochgebirgsregionen. Stauseen bergen zugleich Potential für Wasserressourcen, aber Gefahr durch Überflutungen. Mit steigenden Temperaturen und voranschreitender Gletscherschmelze wird der Bedarf an alternativen Wasserressourcen steigen. Zentralasien unterliegt größtenteils ariden und semiariden Klimabedingungen. In manchen semiariden Gebieten der Welt speichern Blockgletscher heute schon mehr Wasser als Eisgletscher. Ihr Anteil an der Wasserverfügbarkeit in Zentralasien wird in Zukunft vermutlich steigen. Die Verteilung und die Mechanismen, die das Auftreten und das Vorrücken der Blockgletscher beeinflussen, sind allerdings noch nicht gut erforscht. In der vorliegenden Arbeit wurden Blockgletscher in Kirgistan und Kasachstan ausgewählt, um die Altersverteilung ihrer Loben relativ mit Lichenometrie zu bestimmen. Dafür wurden etwa 8000 Flechtendurchmesser gemessen, die, bei bekannter Wachstumsrate, Aussagen über das Expositionsalter des unterliegenden Gesteins zulassen und somit über die Zeit, seitdem keine Bewegungen mehr stattgefunden haben, die eine andere Seite des Gesteins exponiert hätten. Es zeigte sich, dass die Blockgletscherbewegungen auf kleinräumiger Skala sehr unterschiedlich sind und nicht allein von großräumigen topoklimatischen Gegebenheiten abhängen. Diese Erkenntnis bedeutet eine Einschränkung des in der Literatur häufig gezogenen Rückschlusses von Blockgletscherbewegungen auf klimatische Veränderungen oder der Nutzung von Blockgletscherhöhen als Indikator für die untere Grenze des Permafrostbereiches. Natürliche Staudämme spielen eine Schlüsselrolle dabei den Wasser- und Sedimenteintrag in die Flüsse zu kontrollieren. Blockgletscher können ebenfalls so weit in das Tal vorrücken, dass sie Flussläufe beeinflussen und Seen aufstauen. Diesem Phenomen wurde in dieser Arbeit erstmals nachgegangen und mit einem neu erstellten Inventar von 1300 Blockgletschern die möglichen Kontrollfaktoren, die zu der Bildung eines Blockglestcherdamms führen, ausgewertet. Die Blockgletscherhöhe, die potentielle Sonneneinstrahlung, sowie die Größe der Blockgletscher und ihrer Einzugsgebiete spielen dabei eine große Rolle für die Vorhersage des Auftretens von Blockgletscherdämmen. Für die beiden eben genannten Studien wurde ein Bayesisches Verfahren gewählt, um die mit Hilfe der Größenunterschiede der Flechtendurchmesser auf den einzelnen Blockgletschern und ihren Loben gewonnenen relativen Gesteinsexpositonsaltersunterschiede zu identifizieren. Desweiteren wurde die Methode genutzt, um die Parameter ausfindig zu machen, die am wahrscheinlichsten dazu führen, dass Blockgletscher Dämme bilden. Mit einer Kombination aus Datierungen vergangener Seespiegelstände und Flutmodellierungen möglicher Seeausbrüche des Issyk Kul in Kirgistan, des zweitgrößten Bergsees der Welt, geht diese Arbeit der Plausibilit ät der Zusammenhänge zwischen Seespiegelschwankungen und -ausbrüchen nach, die sich im Quartär zugetragen haben. Dabei wurde ein zeitlicher Zusammenhang zwischen Seespiegelsenkung und Flutablagerungen bestätigt. Die Modellierungen deuten auf groÿe Seeausbrüche hin, zeigen allerdings auch die Möglichkeit auf, dass ein kleinerer aufgestauter See westlich des Issyk Kul auch ähnliche Spuren im Sedimentarchiv hinterlassen haben könnte. Somit sind die Seespiegelabfälle nicht eindeutig katastrophalen Seeausbrüchen zuzuordnen. Zusammenfassend zeigt diese Arbeit neueWege Blockgletscher und natürliche Staudämme zu analysieren und die Ergebnisse liefern praktische Hinweise für die Permafrost- und Naturgefahrenforschung. KW - rock glaciers KW - natural dams KW - natural hazard KW - lichenometry KW - lake-level change KW - cosmogenic nuclide dating KW - Bayes KW - Bayesische Statistik KW - Altersdatierung mit kosmogenen Nukliden KW - Seespiegelschwankungen KW - Lichenometrie KW - Natürliche Staudämme KW - Naturgefahren KW - Blockgletscher Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410386 ER - TY - THES A1 - Sieg, Tobias T1 - Reliability of flood damage estimations across spatial scales T1 - Verlässlichkeit von Hochwasserschadensschätzungen über räumliche Skalen N2 - Extreme Naturereignisse sind ein integraler Bestandteil der Natur der Erde. Sie werden erst dann zu Gefahren für die Gesellschaft, wenn sie diesen Ereignissen ausgesetzt ist. Dann allerdings können Naturgefahren verheerende Folgen für die Gesellschaft haben. Besonders hydro-meteorologische Gefahren wie zum Beispiel Flusshochwasser, Starkregenereignisse, Winterstürme, Orkane oder Tornados haben ein hohes Schadenspotential und treten rund um den Globus auf. Einhergehend mit einer immer wärmer werdenden Welt, werden auch Extremwetterereignisse, welche potentiell Naturgefahren auslösen können, immer wahrscheinlicher. Allerdings trägt nicht nur eine sich verändernde Umwelt zur Erhöhung des Risikos von Naturgefahren bei, sondern auch eine sich verändernde Gesellschaft. Daher ist ein angemessenes Risikomanagement erforderlich um die Gesellschaft auf jeder räumlichen Ebene an diese Veränderungen anzupassen. Ein essentieller Bestandteil dieses Managements ist die Abschätzung der ökonomischen Auswirkungen der Naturgefahren. Bisher allerdings fehlen verlässliche Methoden um die Auswirkungen von hydro-meteorologischen Gefahren abzuschätzen. Ein Hauptbestandteil dieser Arbeit ist daher die Entwicklung und Anwendung einer neuen Methode, welche die Verlässlichkeit der Schadensschätzung verbessert. Die Methode wurde beispielhaft zur Schätzung der ökonomischen Auswirkungen eines Flusshochwassers auf einzelne Unternehmen bis hin zu den Auswirkungen auf das gesamte Wirtschaftssystem Deutschlands erfolgreich angewendet. Bestehende Methoden geben meist wenig Information über die Verlässlichkeit ihrer Schätzungen. Da diese Informationen Entscheidungen zur Anpassung an das Risiko erleichtern, wird die Verlässlichkeit der Schadensschätzungen mit der neuen Methode dargestellt. Die Verlässlichkeit bezieht sich dabei nicht nur auf die Schadensschätzung selber, sondern auch auf die Annahmen, die über betroffene Gebäude gemacht werden. Nach diesem Prinzip kann auch die Verlässlichkeit von Annahmen über die Zukunft dargestellt werden, dies ist ein wesentlicher Aspekt für Prognosen. Die Darstellung der Verlässlichkeit und die erfolgreiche Anwendung zeigt das Potential der Methode zur Verwendung von Analysen für gegenwärtige und zukünftige hydro-meteorologische Gefahren. N2 - Natural extreme events are an integral part of nature on planet earth. Usually these events are only considered hazardous to humans, in case they are exposed. In this case, however, natural hazards can have devastating impacts on human societies. Especially hydro-meteorological hazards have a high damage potential in form of e.g. riverine and pluvial floods, winter storms, hurricanes and tornadoes, which can occur all over the globe. Along with an increasingly warm climate also an increase in extreme weather which potentially triggers natural hazards can be expected. Yet, not only changing natural systems, but also changing societal systems contribute to an increasing risk associated with these hazards. These can comprise increasing exposure and possibly also increasing vulnerability to the impacts of natural events. Thus, appropriate risk management is required to adapt all parts of society to existing and upcoming risks at various spatial scales. One essential part of risk management is the risk assessment including the estimation of the economic impacts. However, reliable methods for the estimation of economic impacts due to hydro-meteorological hazards are still missing. Therefore, this thesis deals with the question of how the reliability of hazard damage estimates can be improved, represented and propagated across all spatial scales. This question is investigated using the specific example of economic impacts to companies as a result of riverine floods in Germany. Flood damage models aim to describe the damage processes during a given flood event. In other words they describe the vulnerability of a specific object to a flood. The models can be based on empirical data sets collected after flood events. In this thesis tree-based models trained with survey data are used for the estimation of direct economic flood impacts on the objects. It is found that these machine learning models, in conjunction with increasing sizes of data sets used to derive the models, outperform state-of-the-art damage models. However, despite the performance improvements induced by using multiple variables and more data points, large prediction errors remain at the object level. The occurrence of the high errors was explained by a further investigation using distributions derived from tree-based models. The investigation showed that direct economic impacts to individual objects cannot be modeled by a normal distribution. Yet, most state-of-the-art approaches assume a normal distribution and take mean values as point estimators. Subsequently, the predictions are unlikely values within the distributions resulting in high errors. At larger spatial scales more objects are considered for the damage estimation. This leads to a better fit of the damage estimates to a normal distribution. Consequently, also the performance of the point estimators get better, although large errors can still occur due to the variance of the normal distribution. It is recommended to use distributions instead of point estimates in order to represent the reliability of damage estimates. In addition current approaches also mostly ignore the uncertainty associated with the characteristics of the hazard and the exposed objects. For a given flood event e.g. the estimation of the water level at a certain building is prone to uncertainties. Current approaches define exposed objects mostly by the use of land use data sets. These data sets often show inconsistencies, which introduce additional uncertainties. Furthermore, state-of-the-art approaches also imply problems of missing consistency when predicting the damage at different spatial scales. This is due to the use of different types of exposure data sets for model derivation and application. In order to face these issues a novel object-based method was developed in this thesis. The method enables a seamless estimation of hydro-meteorological hazard damage across spatial scales including uncertainty quantification. The application and validation of the method resulted in plausible estimations at all spatial scales without overestimating the uncertainty. Mainly newly available data sets containing individual buildings make the application of the method possible as they allow for the identification of flood affected objects by overlaying the data sets with water masks. However, the identification of affected objects with two different water masks revealed huge differences in the number of identified objects. Thus, more effort is needed for their identification, since the number of objects affected determines the order of magnitude of the economic flood impacts to a large extent. In general the method represents the uncertainties associated with the three components of risk namely hazard, exposure and vulnerability, in form of probability distributions. The object-based approach enables a consistent propagation of these uncertainties in space. Aside from the propagation of damage estimates and their uncertainties across spatial scales, a propagation between models estimating direct and indirect economic impacts was demonstrated. This enables the inclusion of uncertainties associated with the direct economic impacts within the estimation of the indirect economic impacts. Consequently, the modeling procedure facilitates the representation of the reliability of estimated total economic impacts. The representation of the estimates' reliability prevents reasoning based on a false certainty, which might be attributed to point estimates. Therefore, the developed approach facilitates a meaningful flood risk management and adaptation planning. The successful post-event application and the representation of the uncertainties qualifies the method also for the use for future risk assessments. Thus, the developed method enables the representation of the assumptions made for the future risk assessments, which is crucial information for future risk management. This is an important step forward, since the representation of reliability associated with all components of risk is currently lacking in all state-of-the-art methods assessing future risk. In conclusion, the use of object-based methods giving results in the form of distributions instead of point estimations is recommended. The improvement of the model performance by the means of multi-variable models and additional data points is possible, but small. Uncertainties associated with all components of damage estimation should be included and represented within the results. Furthermore, the findings of the thesis suggest that, at larger scales, the influence of the uncertainty associated with the vulnerability is smaller than those associated with the hazard and exposure. This leads to the conclusion that for an increased reliability of flood damage estimations and risk assessments, the improvement and active inclusion of hazard and exposure, including their uncertainties, is needed in addition to the improvements of the models describing the vulnerability of the objects. KW - hydro-meteorological risk KW - damage modeling KW - uncertainty KW - probabilistic approach KW - economic impacts KW - OpenStreetMap KW - hydro-meteorologische Risiken KW - Schadensmodellierung KW - Unsicherheiten KW - probabilistischer Ansatz KW - ökonomische Auswirkungen KW - OpenStreetMap Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426161 ER -