TY - THES A1 - Gómez Zapata, Juan Camilo T1 - Towards unifying approaches in exposure modelling for scenario-based multi-hazard risk assessments N2 - This cumulative thesis presents a stepwise investigation of the exposure modelling process for risk assessment due to natural hazards while highlighting its, to date, not much-discussed importance and associated uncertainties. Although “exposure” refers to a very broad concept of everything (and everyone) that is susceptible to damage, in this thesis it is narrowed down to the modelling of large-area residential building stocks. Classical building exposure models for risk applications have been constructed fully relying on unverified expert elicitation over data sources (e.g., outdated census datasets), and hence have been implicitly assumed to be static in time and in space. Moreover, their spatial representation has also typically been simplified by geographically aggregating the inferred composition onto coarse administrative units whose boundaries do not always capture the spatial variability of the hazard intensities required for accurate risk assessments. These two shortcomings and the related epistemic uncertainties embedded within exposure models are tackled in the first three chapters of the thesis. The exposure composition of large-area residential building stocks is studied on the scope of scenario-based earthquake loss models. Then, the proposal of optimal spatial aggregation areas of exposure models for various hazard-related vulnerabilities is presented, focusing on ground-shaking and tsunami risks. Subsequently, once the experience is gained in the study of the composition and spatial aggregation of exposure for various hazards, this thesis moves towards a multi-hazard context while addressing cumulative damage and losses due to consecutive hazard scenarios. This is achieved by proposing a novel method to account for the pre-existing damage descriptions on building portfolios as a key input to account for scenario-based multi-risk assessment. Finally, this thesis shows how the integration of the aforementioned elements can be used in risk communication practices. This is done through a modular architecture based on the exploration of quantitative risk scenarios that are contrasted with social risk perceptions of the directly exposed communities to natural hazards. In Chapter 1, a Bayesian approach is proposed to update the prior assumptions on such composition (i.e., proportions per building typology). This is achieved by integrating high-quality real observations and then capturing the intrinsic probabilistic nature of the exposure model. Such observations are accounted as real evidence from both: field inspections (Chapter 2) and freely available data sources to update existing (but outdated) exposure models (Chapter 3). In these two chapters, earthquake scenarios with parametrised ground motion fields were transversally used to investigate the role of such epistemic uncertainties related to the exposure composition through sensitivity analyses. Parametrised scenarios of seismic ground shaking were the hazard input utilised to study the physical vulnerability of building portfolios. The second issue that was investigated, which refers to the spatial aggregation of building exposure models, was investigated within two decoupled vulnerability contexts: due to seismic ground shaking through the integration of remote sensing techniques (Chapter 3); and within a multi-hazard context by integrating the occurrence of associated tsunamis (Chapter 4). Therein, a careful selection of the spatial aggregation entities while pursuing computational efficiency and accuracy in the risk estimates due to such independent hazard scenarios (i.e., earthquake and tsunami) are discussed. Therefore, in this thesis, the physical vulnerability of large-area building portfolios due to tsunamis is considered through two main frames: considering and disregarding the interaction at the vulnerability level, through consecutive and decoupled hazard scenarios respectively, which were then contrasted. Contrary to Chapter 4, where no cumulative damages are addressed, in Chapter 5, data and approaches, which were already generated in former sections, are integrated with a novel modular method to ultimately study the likely interactions at the vulnerability level on building portfolios. This is tested by evaluating cumulative damages and losses after earthquakes with increasing magnitude followed by their respective tsunamis. Such a novel method is grounded on the possibility of re-using existing fragility models within a probabilistic framework. The same approach is followed in Chapter 6 to forecast the likely cumulative damages to be experienced by a building stock located in a volcanic multi-hazard setting (ash-fall and lahars). In that section, special focus was made on the manner the forecasted loss metrics are communicated to locally exposed communities. Co-existing quantitative scientific approaches (i.e., comprehensive exposure models; explorative risk scenarios involving single and multiple hazards) and semi-qualitative social risk perception (i.e., level of understanding that the exposed communities have about their own risk) were jointly considered. Such an integration ultimately allowed this thesis to also contribute to enhancing preparedness, science divulgation at the local level as well as technology transfer initiatives. Finally, a synthesis of this thesis along with some perspectives for improvement and future work are presented. N2 - Diese kumulative Diplomarbeit stellt eine schrittweise Untersuchung des Expositionsmodellierungsprozesses für die Risikobewertung durch Naturgefahren dar und weist auf seine bisher wenig diskutierte Bedeutung und die damit verbundenen Unsicherheiten hin. Obwohl sich „Exposition“ auf einen sehr weiten Begriff von allem (und jedem) bezieht, der für Schäden anfällig ist, wird er in dieser Arbeit auf die Modellierung von großräumigen Wohngebäudebeständen eingeengt. Klassische Gebäudeexpositionsmodelle für Risikoanwendungen wurden vollständig auf der Grundlage unbestätigter Expertenerhebungen über Datenquellen (z. B. veraltete Volkszählungsdatensätze) erstellt und wurden daher implizit als zeitlich und räumlich statisch angenommen. Darüber hinaus wurde ihre räumliche Darstellung typischerweise auch vereinfacht, indem die abgeleitete Zusammensetzung geografisch auf grobe Verwaltungseinheiten aggregiert wurde, deren Grenzen nicht immer die räumliche Variabilität der Gefahrenintensitäten erfassen, die für genaue Risikobewertungen erforderlich sind. Diese beiden Mängel und die damit verbundenen epistemischen Unsicherheiten, die in Expositionsmodellen eingebettet sind, werden in den ersten drei Kapiteln der Dissertation verfolgt. Die Exposure-Zusammensetzung von großflächigen Wohngebäudebeständen wird im Rahmen szenariobasierter Erdbebenschadenmodelle untersucht. Anschließend wird der Vorschlag optimaler räumlicher Aggregationsbereiche von Expositionsmodellen für verschiedene gefahrenbezogene Anfälligkeiten präsentiert, wobei der Schwerpunkt auf Bodenerschütterungs- und Tsunami-Risiken liegt. Anschließend, sobald die Erfahrung in der Untersuchung der Zusammensetzung und räumlichen Aggregation der Exposition für verschiedene Gefahren gesammelt wurde, bewegt sich diese Arbeit in Richtung eines Kontextes mit mehreren Gefahren, während sie sich mit kumulativen Schäden und Verlusten aufgrund aufeinanderfolgender Gefahrenszenarien befasst. Dies wird erreicht, indem eine neuartige Methode vorgeschlagen wird, um die bereits bestehenden Schadensbeschreibungen an Gebäudeportfolios als Schlüsseleingabe für die Berücksichtigung einer szenariobasierten Multi-Risiko-Bewertung zu berücksichtigen. Abschließend zeigt diese Arbeit, wie die Integration der oben genannten Elemente in der Risikokommunikation genutzt werden kann. Dies erfolgt durch eine modulare Architektur, die auf der Untersuchung quantitativer Risikoszenarien basiert, die mit der sozialen Risikowahrnehmung der direkt von Naturgefahren betroffenen Gemeinschaften kontrastiert werden. In Kapitel 1 wird ein bayesianischer Ansatz vorgeschlagen, um die früheren Annahmen zu einer solchen Zusammensetzung (d. h. Anteile pro Gebäudetypologie) zu aktualisieren. Dies wird erreicht, indem hochwertige reale Beobachtungen integriert und dann die intrinsische Wahrscheinlichkeitsnatur des Expositionsmodells erfasst wird. Solche Beobachtungen werden sowohl aus Feldbegehungen (Kapitel 2) als auch aus frei verfügbaren Datenquellen zur Aktualisierung bestehender (aber veralteter) Expositionsmodelle (Kapitel 3) als echte Beweise gewertet. In diesen beiden Kapiteln wurden Erdbebenszenarien mit parametrisierten Bodenbewegungsfeldern transversal verwendet, um die Rolle solcher epistemischen Unsicherheiten in Bezug auf die Expositionszusammensetzung durch Sensitivitätsanalysen zu untersuchen. Parametrisierte Szenarien seismischer Bodenerschütterungen waren der Gefahreneingang, der verwendet wurde, um die physische Anfälligkeit von Gebäudeportfolios zu untersuchen. Das zweite untersuchte Problem, das sich auf die räumliche Aggregation von Gebäudeexpositionsmodellen bezieht, wurde in zwei entkoppelten Vulnerabilitätskontexten untersucht: durch seismische Bodenerschütterungen durch die Integration von Fernerkundungstechniken (Kapitel 3); und innerhalb eines Multi-Hazard-Kontextes durch Einbeziehung des Auftretens assoziierter Tsunamis (Kapitel 4). Darin wird eine sorgfältige Auswahl der räumlichen Aggregationseinheiten bei gleichzeitigem Streben nach Recheneffizienz und Genauigkeit bei den Risikoschätzungen aufgrund solcher unabhängiger Gefahrenszenarien (d. h. Erdbeben und Tsunami) diskutiert. Daher wird in dieser Arbeit die physische Vulnerabilität von großen Gebäudeportfolios durch Tsunamis durch zwei Hauptrahmen betrachtet: Berücksichtigung und Nichtberücksichtigung der Wechselwirkung auf der Vulnerabilitätsebene, durch aufeinanderfolgende bzw. entkoppelte Gefahrenszenarien, die dann gegenübergestellt wurden. Im Gegensatz zu Kapitel 4, wo keine kumulativen Schäden angesprochen werden, werden in Kapitel 5 Daten und Ansätze, die bereits in früheren Abschnitten generiert wurden, mit einer neuartigen modularen Methode integriert, um letztendlich die wahrscheinlichen Wechselwirkungen auf der Schwachstellenebene beim Aufbau von Portfolios zu untersuchen. Dies wird getestet, indem kumulative Schäden und Verluste nach Erdbeben mit zunehmender Magnitude gefolgt von den jeweiligen Tsunamis bewertet werden. Eine solche neuartige Methode basiert auf der Möglichkeit, bestehende Fragilitätsmodelle innerhalb eines probabilistischen Rahmens wiederzuverwenden. Derselbe Ansatz wird in Kapitel 6 verfolgt, um die wahrscheinlichen kumulativen Schäden zu prognostizieren, denen ein Gebäudebestand ausgesetzt sein wird, der sich in einer vulkanischen Umgebung mit mehreren Gefahren (Aschefall und Lahare) befindet. In diesem Abschnitt wurde besonderes Augenmerk auf die Art und Weise gelegt, wie die prognostizierten Verlustmetriken an lokal exponierte Gemeinden kommuniziert werden. Koexistierende quantitative wissenschaftliche Ansätze (d. h. umfassende Expositionsmodelle; explorative Risikoszenarien mit Einzel- und Mehrfachgefahren) und semiqualitative soziale Risikowahrnehmung (d. h. Grad des Verständnisses, das die exponierten Gemeinschaften über ihr eigenes Risiko haben) wurden gemeinsam berücksichtigt. Eine solche Integration ermöglichte es dieser Arbeit schließlich auch, zur Verbesserung der Bereitschaft, der wissenschaftlichen Verbreitung auf lokaler Ebene sowie zu Technologietransferinitiativen beizutragen. Abschließend wird eine Zusammenfassung dieser These zusammen mit einigen Perspektiven für Verbesserungen und zukünftige Arbeiten präsentiert. KW - exposure KW - multi-hazard KW - risk analysis KW - risk communication KW - uncertainty analysis KW - tsunami risk KW - spatial aggregation KW - seismic risk KW - Expositionsmodellen KW - Multi-Hazard KW - Risikoanalyse KW - Risikokommunikation KW - seismisches Risiko KW - räumliche Aggregation KW - Tsunami-Risiko KW - Unsicherheitsanalyse Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-586140 ER - TY - GEN A1 - Heße, Falk A1 - Comunian, Alessandro A1 - Attinger, Sabine T1 - What We Talk About When We Talk About Uncertainty BT - Toward a Unified, Data-Driven Framework for Uncertainty Characterization in Hydrogeology T2 - Postprints der Universität Potsdam Mathematisch-Naturwissenschaftliche Reihe T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 754 KW - Bayesianism KW - uncertainty analysis KW - hydrogeology KW - data science KW - opinion KW - prior derivation Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436582 SN - 1866-8372 IS - 754 ER - TY - JOUR A1 - Heße, Falk A1 - Comunian, Alessandro A1 - Attinger, Sabine T1 - What We Talk About When We Talk About Uncertainty BT - Toward a Unified, Data-Driven Framework for Uncertainty Characterization in Hydrogeology JF - Frontiers in Earth Science KW - Bayesianism KW - uncertainty analysis KW - hydrogeology KW - data science KW - opinion KW - prior derivation Y1 - 2019 U6 - https://doi.org/10.3389/feart.2019.00118 SN - 2296-6463 VL - 7 PB - Frontiers Media CY - Lausanne ER - TY - THES A1 - Vorogushyn, Sergiy T1 - Analysis of flood hazard under consideration of dike breaches T1 - Analyse der Hochwassergefährdung unter Berücksichtigung von Deichbrüchen N2 - River reaches protected by dikes exhibit high damage potential due to strong value accumulation in the hinterland areas. While providing an efficient protection against low magnitude flood events, dikes may fail under the load of extreme water levels and long flood durations. Hazard and risk assessments for river reaches protected by dikes have not adequately considered the fluvial inundation processes up to now. Particularly, the processes of dike failures and their influence on the hinterland inundation and flood wave propagation lack comprehensive consideration. This study focuses on the development and application of a new modelling system which allows a comprehensive flood hazard assessment along diked river reaches under consideration of dike failures. The proposed Inundation Hazard Assessment Model (IHAM) represents a hybrid probabilistic-deterministic model. It comprises three models interactively coupled at runtime. These are: (1) 1D unsteady hydrodynamic model of river channel and floodplain flow between dikes, (2) probabilistic dike breach model which determines possible dike breach locations, breach widths and breach outflow discharges, and (3) 2D raster-based diffusion wave storage cell model of the hinterland areas behind the dikes. Due to the unsteady nature of the 1D and 2D coupled models, the dependence between hydraulic load at various locations along the reach is explicitly considered. The probabilistic dike breach model describes dike failures due to three failure mechanisms: overtopping, piping and slope instability caused by the seepage flow through the dike core (micro-instability). The 2D storage cell model driven by the breach outflow boundary conditions computes an extended spectrum of flood intensity indicators such as water depth, flow velocity, impulse, inundation duration and rate of water rise. IHAM is embedded in a Monte Carlo simulation in order to account for the natural variability of the flood generation processes reflected in the form of input hydrographs and for the randomness of dike failures given by breach locations, times and widths. The model was developed and tested on a ca. 91 km heavily diked river reach on the German part of the Elbe River between gauges Torgau and Vockerode. The reach is characterised by low slope and fairly flat extended hinterland areas. The scenario calculations for the developed synthetic input hydrographs for the main river and tributary were carried out for floods with return periods of T = 100, 200, 500, 1000 a. Based on the modelling results, probabilistic dike hazard maps could be generated that indicate the failure probability of each discretised dike section for every scenario magnitude. In the disaggregated display mode, the dike hazard maps indicate the failure probabilities for each considered breach mechanism. Besides the binary inundation patterns that indicate the probability of raster cells being inundated, IHAM generates probabilistic flood hazard maps. These maps display spatial patterns of the considered flood intensity indicators and their associated return periods. Finally, scenarios of polder deployment for the extreme floods with T = 200, 500, 1000 were simulated with IHAM. The developed IHAM simulation system represents a new scientific tool for studying fluvial inundation dynamics under extreme conditions incorporating effects of technical flood protection measures. With its major outputs in form of novel probabilistic inundation and dike hazard maps, the IHAM system has a high practical value for decision support in flood management. N2 - Entlang eingedeichter Flussabschnitte kann das Hinterland ein hohes Schadenspotential, aufgrund der starken Akkumulation der Werte, aufweisen. Obwohl Deiche einen effizienten Schutz gegen kleinere häufiger auftretende Hochwässer bieten, können sie unter der Last hoher Wasserstände sowie langer Anstaudauer versagen. Gefährdungs- und Risikoabschätzungsmethoden für die eingedeichten Flussstrecken haben bisher die fluvialen Überflutungsprozesse nicht hinreichend berücksichtigt. Besonders, die Prozesse der Deichbrüche und deren Einfluss auf Überflutung im Hinterland und Fortschreiten der Hochwasserwelle verlangen eine umfassende Betrachtung. Die vorliegende Studie setzt ihren Fokus auf die Entwicklung und Anwendung eines neuen Modellierungssystems, das eine umfassende Hochwassergefährdungsanalyse entlang eingedeichter Flussstrecken unter Berücksichtigung von Deichbrüchen ermöglicht. Das vorgeschlagene Inundation Hazard Assessment Model (IHAM) stellt ein hybrides probabilistisch-deterministisches Modell dar. Es besteht aus drei laufzeitgekoppelten Modellen: (1) einem 1D instationären hydrodynamisch-numerischen Modell für den Flussschlauch und die Vorländer zwischen den Deichen, (2) einem probabilistischen Deichbruchmodell, welches die möglichen Bruchstellen, Breschenbreiten und Breschenausflüsse berechnet, und (3) einem 2D raster-basierten Überflutungsmodell für das Hinterland, das auf dem Speiherzellenansatz und der Diffusionswellengleichung basiert ist. Das probabilistische Deichbruchmodell beschreibt Deichbrüche, die infolge von drei Bruchmechanismen auftreten: dem Überströmen, dem Piping im Deichuntergrund und dem Versagen der landseitigen Böschung als Folge des Sickerflusses und der Erosion im Deichkörper (Mikro-Instabilität). Das 2D Speicherzellenmodell, angetrieben durch den Breschenausfluss als Randbedingung, berechnet ein erweitertes Spektrum der Hochwasserintensitätsindikatoren wie: Überflutungstiefe, Fliessgeschwindigkeit, Impuls, Überflutungsdauer und Wasseranstiegsrate. IHAM wird im Rahmen einer Monte Carlo Simulation ausgeführt und berücksichtigt die natürliche Variabilität der Hochwasserentstehungsprozesse, die in der Form der Hydrographen und deren Häufigkeit abgebildet wird, und die Zufälligkeit des Deichversagens, gegeben durch die Lokationen der Bruchstellen, der Zeitpunkte der Brüche und der Breschenbreiten. Das Modell wurde entwickelt und getestet an einem ca. 91 km langen Flussabschnitt. Dieser Flussabschnitt ist durchgängig eingedeicht und befindet sich an der deutschen Elbe zwischen den Pegeln Torgau und Vockerode. Die Szenarioberechnungen wurden von synthetischen Hydrographen für den Hauptstrom und Nebenfluss angetrieben, die für Hochwässer mit Wiederkehrintervallen von 100, 200, 500, und 1000 Jahren entwickelt wurden. Basierend auf den Modellierungsergebnissen wurden probabilistische Deichgefährdungskarten generiert. Sie zeigen die Versagenswahrscheinlichkeiten der diskretisierten Deichabschnitte für jede modellierte Hochwassermagnitude. Die Deichgefährdungskarten im disaggregierten Darstellungsmodus zeigen die Bruchwahrscheinlichkeiten für jeden betrachteten Bruchmechanismus. Neben den binären Überflutungsmustern, die die Wahrscheinlichkeit der Überflutung jeder Rasterzelle im Hinterland zeigen, generiert IHAM probabilistische Hochwassergefährdungskarten. Diese Karten stellen räumliche Muster der in Betracht gezogenen Hochwasserintensitätsindikatoren und entsprechende Jährlichkeiten dar. Schließlich, wurden mit IHAM Szenarien mit Aktivierung vom Polder bei extremen Hochwässern mit Jährlichkeiten von 200, 500, 1000 Jahren simuliert. Das entwickelte IHAM Modellierungssystem stellt ein neues wissenschaftliches Werkzeug für die Untersuchung fluvialer Überflutungsdynamik in extremen Hochwassersituationen unter Berücksichtigung des Einflusses technischer Hochwasserschutzmaßnahmen dar. Das IHAM System hat eine hohe praktische Bedeutung für die Entscheidungsunterstützung im Hochwassermanagement aufgrund der neuartigen Deichbruch- und Hochwassergefährdungskarten, die das Hauptprodukt der Simulationen darstellen. KW - Hochwasser KW - Deichbruch KW - Unsicherheitsanalyse KW - Gefährdungskarten KW - Polder KW - Flood KW - dike breach KW - uncertainty analysis KW - hazard maps KW - polder Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-27646 ER - TY - THES A1 - Rust, Henning T1 - Detection of long-range dependence : applications in climatology and hydrology T1 - Detektion langreichweitiger Korrelationen : Anwendungen in Klimatologie und Hydrologie N2 - It is desirable to reduce the potential threats that result from the variability of nature, such as droughts or heat waves that lead to food shortage, or the other extreme, floods that lead to severe damage. To prevent such catastrophic events, it is necessary to understand, and to be capable of characterising, nature's variability. Typically one aims to describe the underlying dynamics of geophysical records with differential equations. There are, however, situations where this does not support the objectives, or is not feasible, e.g., when little is known about the system, or it is too complex for the model parameters to be identified. In such situations it is beneficial to regard certain influences as random, and describe them with stochastic processes. In this thesis I focus on such a description with linear stochastic processes of the FARIMA type and concentrate on the detection of long-range dependence. Long-range dependent processes show an algebraic (i.e. slow) decay of the autocorrelation function. Detection of the latter is important with respect to, e.g. trend tests and uncertainty analysis. Aiming to provide a reliable and powerful strategy for the detection of long-range dependence, I suggest a way of addressing the problem which is somewhat different from standard approaches. Commonly used methods are based either on investigating the asymptotic behaviour (e.g., log-periodogram regression), or on finding a suitable potentially long-range dependent model (e.g., FARIMA[p,d,q]) and test the fractional difference parameter d for compatibility with zero. Here, I suggest to rephrase the problem as a model selection task, i.e.comparing the most suitable long-range dependent and the most suitable short-range dependent model. Approaching the task this way requires a) a suitable class of long-range and short-range dependent models along with suitable means for parameter estimation and b) a reliable model selection strategy, capable of discriminating also non-nested models. With the flexible FARIMA model class together with the Whittle estimator the first requirement is fulfilled. Standard model selection strategies, e.g., the likelihood-ratio test, is for a comparison of non-nested models frequently not powerful enough. Thus, I suggest to extend this strategy with a simulation based model selection approach suitable for such a direct comparison. The approach follows the procedure of a statistical test, with the likelihood-ratio as the test statistic. Its distribution is obtained via simulations using the two models under consideration. For two simple models and different parameter values, I investigate the reliability of p-value and power estimates obtained from the simulated distributions. The result turned out to be dependent on the model parameters. However, in many cases the estimates allow an adequate model selection to be established. An important feature of this approach is that it immediately reveals the ability or inability to discriminate between the two models under consideration. Two applications, a trend detection problem in temperature records and an uncertainty analysis for flood return level estimation, accentuate the importance of having reliable methods at hand for the detection of long-range dependence. In the case of trend detection, falsely concluding long-range dependence implies an underestimation of a trend and possibly leads to a delay of measures needed to take in order to counteract the trend. Ignoring long-range dependence, although present, leads to an underestimation of confidence intervals and thus to an unjustified belief in safety, as it is the case for the return level uncertainty analysis. A reliable detection of long-range dependence is thus highly relevant in practical applications. Examples related to extreme value analysis are not limited to hydrological applications. The increased uncertainty of return level estimates is a potentially problem for all records from autocorrelated processes, an interesting examples in this respect is the assessment of the maximum strength of wind gusts, which is important for designing wind turbines. The detection of long-range dependence is also a relevant problem in the exploration of financial market volatility. With rephrasing the detection problem as a model selection task and suggesting refined methods for model comparison, this thesis contributes to the discussion on and development of methods for the detection of long-range dependence. N2 - Die potentiellen Gefahren und Auswirkungen der natürlicher Klimavariabilitäten zu reduzieren ist ein wünschenswertes Ziel. Solche Gefahren sind etwa Dürren und Hitzewellen, die zu Wasserknappheit führen oder, das andere Extrem, Überflutungen, die einen erheblichen Schaden an der Infrastruktur nach sich ziehen können. Um solche katastrophalen Ereignisse zu vermeiden, ist es notwendig die Dynamik der Natur zu verstehen und beschreiben zu können. Typischerweise wird versucht die Dynamik geophysikalischer Datenreihen mit Differentialgleichungssystemen zu beschreiben. Es gibt allerdings Situationen in denen dieses Vorgehen nicht zielführend oder technisch nicht möglich ist. Dieses sind Situationen in denen wenig Wissen über das System vorliegt oder es zu komplex ist um die Modellparameter zu identifizieren. Hier ist es sinnvoll einige Einflüsse als zufällig zu betrachten und mit Hilfe stochastischer Prozesse zu modellieren. In dieser Arbeit wird eine solche Beschreibung mit linearen stochastischen Prozessen der FARIMA-Klasse angestrebt. Besonderer Fokus liegt auf der Detektion von langreichweitigen Korrelationen. Langreichweitig korrelierte Prozesse sind solche mit einer algebraisch, d.h. langsam, abfallenden Autokorrelationsfunktion. Eine verläßliche Erkennung dieser Prozesse ist relevant für Trenddetektion und Unsicherheitsanalysen. Um eine verläßliche Strategie für die Detektion langreichweitig korrelierter Prozesse zur Verfügung zu stellen, wird in der Arbeit ein anderer als der Standardweg vorgeschlagen. Gewöhnlich werden Methoden eingesetzt, die das asymptotische Verhalten untersuchen, z.B. Regression im Periodogramm. Oder aber es wird versucht ein passendes potentiell langreichweitig korreliertes Modell zu finden, z.B. aus der FARIMA Klasse, und den geschätzten fraktionalen Differenzierungsparameter d auf Verträglichkeit mit dem trivialen Wert Null zu testen. In der Arbeit wird vorgeschlagen das Problem der Detektion langreichweitiger Korrelationen als Modellselektionsproblem umzuformulieren, d.h. das beste kurzreichweitig und das beste langreichweitig korrelierte Modell zu vergleichen. Diese Herangehensweise erfordert a) eine geeignete Klasse von lang- und kurzreichweitig korrelierten Prozessen und b) eine verläßliche Modellselektionsstrategie, auch für nichtgenestete Modelle. Mit der flexiblen FARIMA-Klasse und dem Whittleschen Ansatz zur Parameterschätzung ist die erste Voraussetzung erfüllt. Hingegen sind standard Ansätze zur Modellselektion, wie z.B. der Likelihood-Ratio-Test, für nichtgenestete Modelle oft nicht trennscharf genug. Es wird daher vorgeschlagen diese Strategie mit einem simulationsbasierten Ansatz zu ergänzen, der insbesondere für die direkte Diskriminierung nichtgenesteter Modelle geeignet ist. Der Ansatz folgt einem statistischen Test mit dem Quotienten der Likelihood als Teststatistik. Ihre Verteilung wird über Simulationen mit den beiden zu unterscheidenden Modellen ermittelt. Für zwei einfache Modelle und verschiedene Parameterwerte wird die Verläßlichkeit der Schätzungen für p-Wert und Power untersucht. Das Ergebnis hängt von den Modellparametern ab. Es konnte jedoch in vielen Fällen eine adäquate Modellselektion etabliert werden. Ein wichtige Eigenschaft dieser Strategie ist, dass unmittelbar offengelegt wird, wie gut sich die betrachteten Modelle unterscheiden lassen. Zwei Anwendungen, die Trenddetektion in Temperaturzeitreihen und die Unsicherheitsanalyse für Bemessungshochwasser, betonen den Bedarf an verläßlichen Methoden für die Detektion langreichweitiger Korrelationen. Im Falle der Trenddetektion führt ein fälschlicherweise gezogener Schluß auf langreichweitige Korrelationen zu einer Unterschätzung eines Trends, was wiederum zu einer möglicherweise verzögerten Einleitung von Maßnahmen führt, die diesem entgegenwirken sollen. Im Fall von Abflußzeitreihen führt die Nichtbeachtung von vorliegenden langreichweitigen Korrelationen zu einer Unterschätzung der Unsicherheit von Bemessungsgrößen. Eine verläßliche Detektion von langreichweitig Korrelierten Prozesse ist somit von hoher Bedeutung in der praktischen Zeitreihenanalyse. Beispiele mit Bezug zu extremem Ereignissen beschränken sich nicht nur auf die Hochwasseranalyse. Eine erhöhte Unsicherheit in der Bestimmung von extremen Ereignissen ist ein potentielles Problem von allen autokorrelierten Prozessen. Ein weiteres interessantes Beispiel ist hier die Abschätzung von maximalen Windstärken in Böen, welche bei der Konstruktion von Windrädern eine Rolle spielt. Mit der Umformulierung des Detektionsproblems als Modellselektionsfrage und mit der Bereitstellung geeigneter Modellselektionsstrategie trägt diese Arbeit zur Diskussion und Entwicklung von Methoden im Bereich der Detektion von langreichweitigen Korrelationen bei. KW - langreichweitige Korrelationen KW - nichtgenestete Modellselektion KW - FARIMA KW - Unsicherheitsanalyse KW - Bemessungshochwasser KW - long-range dependence KW - long-memory KW - non-nested model selection KW - FARIMA KW - uncertainty analysis KW - return level estimation Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-13347 ER - TY - THES A1 - Knopf, Brigitte T1 - On intrinsic uncertainties in earth system modelling T1 - Intrinsische Unsicherheiten in der Erdsystem Modellierung N2 - Uncertainties are pervasive in the Earth System modelling. This is not just due to a lack of knowledge about physical processes but has its seeds in intrinsic, i.e. inevitable and irreducible, uncertainties concerning the process of modelling as well. Therefore, it is indispensable to quantify uncertainty in order to determine, which are robust results under this inherent uncertainty. The central goal of this thesis is to explore how uncertainties map on the properties of interest such as phase space topology and qualitative dynamics of the system. We will address several types of uncertainty and apply methods of dynamical systems theory on a trendsetting field of climate research, i.e. the Indian monsoon. For the systematic analysis concerning the different facets of uncertainty, a box model of the Indian monsoon is investigated, which shows a saddle node bifurcation against those parameters that influence the heat budget of the system and that goes along with a regime shift from a wet to a dry summer monsoon. As some of these parameters are crucially influenced by anthropogenic perturbations, the question is whether the occurrence of this bifurcation is robust against uncertainties in parameters and in the number of considered processes and secondly, whether the bifurcation can be reached under climate change. Results indicate, for example, the robustness of the bifurcation point against all considered parameter uncertainties. The possibility of reaching the critical point under climate change seems rather improbable. A novel method is applied for the analysis of the occurrence and the position of the bifurcation point in the monsoon model against parameter uncertainties. This method combines two standard approaches: a bifurcation analysis with multi-parameter ensemble simulations. As a model-independent and therefore universal procedure, this method allows investigating the uncertainty referring to a bifurcation in a high dimensional parameter space in many other models. With the monsoon model the uncertainty about the external influence of El Niño / Southern Oscillation (ENSO) is determined. There is evidence that ENSO influences the variability of the Indian monsoon, but the underlying physical mechanism is discussed controversially. As a contribution to the debate three different hypotheses are tested of how ENSO and the Indian summer monsoon are linked. In this thesis the coupling through the trade winds is identified as key in linking these two key climate constituents. On the basis of this physical mechanism the observed monsoon rainfall data can be reproduced to a great extent. Moreover, this mechanism can be identified in two general circulation models (GCMs) for the present day situation and for future projections under climate change. Furthermore, uncertainties in the process of coupling models are investigated, where the focus is on a comparison of forced dynamics as opposed to fully coupled dynamics. The former describes a particular type of coupling, where the dynamics from one sub-module is substituted by data. Intrinsic uncertainties and constraints are identified that prevent the consistency of a forced model with its fully coupled counterpart. Qualitative discrepancies between the two modelling approaches are highlighted, which lead to an overestimation of predictability and produce artificial predictability in the forced system. The results suggest that bistability and intermittent predictability, when found in a forced model set-up, should always be cross-validated with alternative coupling designs before being taken for granted. All in this, this thesis contributes to the fundamental issue of dealing with uncertainties the climate modelling community is confronted with. Although some uncertainties allow for including them in the interpretation of the model results, intrinsic uncertainties could be identified, which are inevitable within a certain modelling paradigm and are provoked by the specific modelling approach. N2 - Die vorliegende Arbeit untersucht, auf welche Weise Unsicherheiten, wie sie in der integrierten Klima(folgen)forschung allgegenwärtig sind, die Stabilität und die Struktur dynamischer Systeme beeinflussen. Im Rahmen der Erdsystemmodellierung wird der Unsicherheitsanalyse zunehmend eine zentrale Bedeutung beigemessen. Einerseits können mit ihrer Hilfe disziplinäre Qualitäts-standards verbessert werden, andererseits ergibt sich die Chance, im Zuge von "Integrated Assessment" robuste entscheidungsrelevante Aussagen abzuleiten. Zur systematischen Untersuchung verschiedener Arten von Unsicherheit wird ein konzeptionelles Modell des Indischen Monsuns eingesetzt, das einen übergang von einem feuchten in ein trockenes Regime aufgrund einer Sattel-Knoten-Bifurkation in Abhängigkeit derjenigen Parameter zeigt, die die Wärmebilanz des Systems beeinflussen. Da einige dieser Parameter anthropogenen Einflüssen und Veränderungen unterworfen sind, werden zwei zentrale Punkte untersucht: zum einen, ob der Bifurkationspunkt robust gegenüber Unsicherheiten in Parametern und in Bezug auf die Anzahl und die Art der im Modell implementierten Prozesse ist und zum anderen, ob durch anthropogenen Einfluss der Bifurkationspunkt erreicht werden kann. Es zeigt sich unter anderem, dass das Auftreten der Bifurkation überaus robust, die Lage des Bifurkationspunktes im Phasenraum ist hingegen sehr sensitiv gegenüber Parameterunsicherheiten ist. Für diese Untersuchung wird eine neuartige Methode zur Untersuchung des Auftretens und der Lage einer Bifurkation gegenüber Unsicherheiten im hochdimensionalen Parameterraum entwickelt, die auf der Kombination einer Bifurkationsanalyse mit einer multi parametrischen Ensemble Simulation basiert. Mit dem Monsunmodell wird des weiteren die Unsicherheit bezüglich des externen Einflusses von El Niño / Southern Oscillation (ENSO) untersucht. Es ist bekannt, dass durch ENSO die Variabilität des Indischen Monsun beeinflußt wird, wohingegen der zu Grunde liegende Mechanismus kontrovers diskutiert wird. In dieser Arbeit werden drei verschiedene Hypothesen zur Kopplung zwischen diesen beiden Phänomenen untersucht. Es kann gezeigt werden, dass die Passat Winde einen Schlüsselmechanismus für den Einfluß von ENSO auf den Indischen Monsun darstellen. Mit Hilfe dieses Mechanismus können die beobachteten Niederschlagsdaten des Monsuns zu einem großen Anteil reproduziert werden. Zudem kann dieser Mechanismus kann auch in zwei globalen Zirkulationsmodellen (GCMs) für den heutigen Zustand und für ein Emissionsszenario unter Klimawandel identifiziert werden. Im weiteren Teil der Arbeit werden intrinsische Unsicherheiten identifiziert, die den Unterschied zwischen der Kopplung von Teilmodulen und dem Vorschreiben von einzelnen dieser Module durch Daten betreffen. Untersucht werden dazu ein getriebenes GCM-Ensemble und ein konzeptionelles Ozean-Atmosphären-Modell, das eine strukturierte Analyse anhand von Methoden der Theorie dynamischer Systeme ermöglicht. In den meisten Fällen kann die getriebene Version, in der ein Teil der Dynamik als externer Antrieb vorschrieben wird, das voll gekoppelte Pendant nachbilden. Es wird gezeigt, dass es jedoch auch Regionen im Phasen- und Parameterraum gibt, in dem sich die zwei Modellierungsansätze signifikant unterscheiden und unter anderem zu einer überschätzung der Vorhersagbarkeit und zu künstlichen Zuständen im getriebenen System führen. Die Ergebnisse legen den Schluss nahe, dass immer auch alternative Kopplungsmechanismen getestet werden müssen bevor das getriebene System als adäquate Beschreibung des gekoppelten Gesamtsystems betrachtet werden kann. Anhand der verschiedenen Anwendungen der Unsicherheitsanalyse macht die Arbeit deutlich, dass zum einen Unsicherheiten intrinsisch durch bestimmte Arten der Modellierung entstehen und somit unvermeidbar innerhalb eines Modellierungsansatzes sind, dass es zum anderen aber auch geeignete Methoden gibt, Unsicherheiten in die Modellierung und in die Bewertung von Modellergebnissen einzubeziehen. KW - Unsicherheit KW - Monsun KW - Klimatologie KW - Nichtlineare Dynamik KW - Unsicherheitsanalyse KW - Bifurkationsanalyse KW - Indischer Monsun KW - Modellkopplung KW - nonlinear dynamics KW - uncertainty analysis KW - bifurcation analysis KW - Indian Monsoon KW - model coupling Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10949 ER - TY - THES A1 - Schneider von Deimling, Thomas T1 - Constraining uncertainty in climate sensitivity : an ensemble simulation approach based on glacial climate T1 - Einschränkung der Unsicherheit in der Klimasensitivität : ein Ensemble Simulationsansatz basierend auf dem glazialen Klima N2 - Uncertainty about the sensitivity of the climate system to changes in the Earth’s radiative balance constitutes a primary source of uncertainty for climate projections. Given the continuous increase in atmospheric greenhouse gas concentrations, constraining the uncertainty range in such type of sensitivity is of vital importance. A common measure for expressing this key characteristic for climate models is the climate sensitivity, defined as the simulated change in global-mean equilibrium temperature resulting from a doubling of atmospheric CO2 concentration. The broad range of climate sensitivity estimates (1.5-4.5°C as given in the last Assessment Report of the Intergovernmental Panel on Climate Change, 2001), inferred from comprehensive climate models, illustrates that the strength of simulated feedback mechanisms varies strongly among different models. The central goal of this thesis is to constrain uncertainty in climate sensitivity. For this objective we first generate a large ensemble of model simulations, covering different feedback strengths, and then request their consistency with present-day observational data and proxy-data from the Last Glacial Maximum (LGM). Our analyses are based on an ensemble of fully-coupled simulations, that were realized with a climate model of intermediate complexity (CLIMBER-2). These model versions cover a broad range of different climate sensitivities, ranging from 1.3 to 5.5°C, and have been generated by simultaneously perturbing a set of 11 model parameters. The analysis of the simulated model feedbacks reveals that the spread in climate sensitivity results from different realizations of the feedback strengths in water vapour, clouds, lapse rate and albedo. The calculated spread in the sum of all feedbacks spans almost the entire plausible range inferred from a sampling of more complex models. We show that the requirement for consistency between simulated pre-industrial climate and a set of seven global-mean data constraints represents a comparatively weak test for model sensitivity (the data constrain climate sensitivity to 1.3-4.9°C). Analyses of the simulated latitudinal profile and of the seasonal cycle suggest that additional present-day data constraints, based on these characteristics, do not further constrain uncertainty in climate sensitivity. The novel approach presented in this thesis consists in systematically combining a large set of LGM simulations with data information from reconstructed regional glacial cooling. Irrespective of uncertainties in model parameters and feedback strengths, the set of our model versions reveals a close link between the simulated warming due to a doubling of CO2, and the cooling obtained for the LGM. Based on this close relationship between past and future temperature evolution, we define a method (based on linear regression) that allows us to estimate robust 5-95% quantiles for climate sensitivity. We thus constrain the range of climate sensitivity to 1.3-3.5°C using proxy-data from the LGM at low and high latitudes. Uncertainties in glacial radiative forcing enlarge this estimate to 1.2-4.3°C, whereas the assumption of large structural uncertainties may increase the upper limit by an additional degree. Using proxy-based data constraints for tropical and Antarctic cooling we show that very different absolute temperature changes in high and low latitudes all yield very similar estimates of climate sensitivity. On the whole, this thesis highlights that LGM proxy-data information can offer an effective means of constraining the uncertainty range in climate sensitivity and thus underlines the potential of paleo-climatic data to reduce uncertainty in future climate projections. N2 - Eine der entscheidenden Hauptquellen für Unsicherheiten von Klimaprojektionen ist, wie sensitiv das Klimasystem auf Änderungen der Strahlungsbilanz der Erde reagiert. Angesichts des kontinuierlichen Anstiegs der atmosphärischen Treibhausgaskonzentrationen ist die Einschränkung des Unsicherheitsbereichs dieser Sensitivität von entscheidender Bedeutung. Ein häufig verwendetes Maß zur Beschreibung dieser charakteristischen Kenngröße von Klimamodellen ist die sogenannte Klimasensitivität, definiert als die Gleichgewichtsänderung der simulierten globalen Mitteltemperatur, welche sich aus einer Verdoppelung des atmosphärischen CO2-Gehalts ergibt. Die breite Spanne der geschätzten Klimasensitivität (1.5-4.5°C), welche ein Vergleich verschiedener komplexer Klimamodelle nahe legt (IPCC, 2001), verdeutlicht, wie groß die Unsicherheit in der Klimasensitivität ist. Diese Unsicherheit resultiert in erster Linie aus Unterschieden in der Simulation der entscheidenden Rückkopplungs-mechanismen in den verschiedenen Modellen. Das zentrale Ziel dieser Dissertation ist die Einschränkung des breiten Unsicherheitsbereichs der Klimasensitivität. Zunächst wird hierzu ein großes Ensemble an Modellsimulationen erzeugt, in welchem gezielt spezifische Modellparameter variiert, und somit unterschiedliche Rückkopplungsstärken der einzelnen Modellversionen realisiert werden. Diese Simulationen werden dann auf ihre Konsistenz mit sowohl heutigen Beobachtungsdaten, als auch Proxy-Daten des Letzten Glazialen Maximums (LGM) überprüft. Unsere Analysen basieren dabei auf einem Ensemble voll gekoppelter Modellläufe, welche mit einem Klimamodell intermediärer Komplexität (CLIMBER-2) realisiert wurden. Die betrachteten Modellversionen decken eine breite Spanne verschiedener Klimasensitivitäten (1.3-5.5°C) ab und wurden durch gleichzeitiges Variieren von 11 Modellparametern erzeugt. Die Analyse der simulierten Rückkopplungs-mechanismen offenbart, dass unterschiedliche Werte der Klimasensitivität in unserem Modellensemble durch verschiedene Realisierungen der Rückkopplungsstärken von Wasserdampf, Wolken, Temperatur-Vertikalprofil und Albedo zu erklären sind. Die berechneten Gesamt-Rückkopplungsstärken unser Modellversionen decken hierbei fast den gesamten möglichen Bereich von komplexeren Modellen ab. Wir zeigen, dass sich die Forderung nach Konsistenz zwischen simuliertem vorindustriellem Klima und Messdaten, die auf einer Wahl von sieben global gemittelten Datensätzen basieren, als vergleichsweise schwacher Test der Modellsensitivität erweist: Die Daten schränken den plausiblen Bereich der Klimasensitivität lediglich auf 1.3-4.9°C ein. Zieht man neben den genannten global gemittelten Messdaten außerdem klimatische Informationen aus Jahreszeit und geografischer Breite hinzu, lässt sich die Unsicherheit in der Klimasensitivität nicht weiter einschränken. Der neue Ansatz dieser Dissertation besteht darin, in systematischer Weise einen großen Satz an LGM-Simulationen mit Dateninformationen über die rekonstruierte glaziale Abkühlung bestimmter Regionen zu kombinieren. Unabhängig von den Unsicherheiten in Modellparametern und Rückkopplungsstärken offenbaren unsere Modellversionen eine ausgeprägte Beziehung zwischen der simulierten Erwärmung aufgrund der CO2-Verdoppelung und der Abkühlung im LGM. Basierend auf dieser engen Beziehung zwischen vergangener und zukünftiger Temperaturentwicklung definieren wir eine Methode (basierend auf linearer Regression), welche es uns erlaubt, robuste 5-95%-Quantile der Klimasensitivität abzuschätzen. Indem wir Proxy-Daten des LGM von niederen und hohen Breiten heranziehen, können wir die Unsicherheitsspanne der Klimasensitivität auf 1.3-3.5°C beschränken. Unsicherheiten im glazialen Strahlungsantrieb vergrößern diese Abschätzung auf 1.2-4.3°C, wobei die Annahme von großen strukturellen Unsicherheiten die obere Grenze um ein weiteres Grad erhöhen kann. Indem wir Proxy-Daten über tropische und antarktische Abkühlung betrachten, können wir zeigen, dass sehr unterschiedliche absolute Temperatur-Änderungen in hohen und niederen Breiten zu sehr ähnlichen Abschätzungen der Klimasensitivität führen. Vor dem Hintergrund unserer Ergebnisse zeigt diese Dissertation, dass LGM-Proxy-Daten ein effektives Mittel zur Einschränkung des Unsicherheitsbereichs der Klimasensitivität sein können und betont somit das Potenzial von Paläoklimadaten, den großen Unsicherheitsbereich von Klimaprojektionen zu reduzieren. KW - Dynamische Modellierung KW - Potsdam / Potsdam-Institut für Klimafolgenforschung KW - Entscheidung bei Unsicherheit KW - Klimasensitivität KW - Klimaprognose KW - Unsicherheitsanalyse KW - Ensemble-Simulation KW - Letztes Glaziales Maximum KW - climate sensitivity KW - climate projection KW - uncertainty analysis KW - ensemble simulation KW - Last Glacial Maximum Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7778 ER -