@phdthesis{Moreira2001, author = {Moreira, Andr{\´e} Gu{\´e}rin}, title = {Charged systems in bulk and at interfaces}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-0000677}, school = {Universit{\"a}t Potsdam}, year = {2001}, abstract = {Eine der Faustregeln der Kolloid- und Oberfl{\"a}chenphysik ist, dass die meisten Oberfl{\"a}chen geladen sind, wenn sie mit einem L{\"o}sungsmittel, normalerweise Wasser, in Kontakt treten. Dies ist zum Beispiel bei ladungsstabilisierten Kolloidalen Suspensionen der Fall, bei denen die Oberfl{\"a}che der Kolloidteilchen geladen ist (gew{\"o}hnlich mit einer Ladung von mehreren Hunderttausend Elementarladungen), oder bei Monoschichten ionischer Tenside, die auf einer Luft-Wasser Grenzfl{\"a}che sitzen (wobei die wasserliebenden Kopfgruppen durch die Freisetzung von Gegenionen geladen werden), sowie bei Doppelschichten, die geladene phospholipide enthalten (wie Zellmembranen). In dieser Arbeit betrachten wir einige Modellsysteme, die zwar eine vereinfachte Fassung der Realit{\"a}t darstellen, von denen wir aber dennoch erwarten koennen, dass wir mit ihrer Hilfe einige physikalische Eigenschaften realer geladener Systeme (Kolloide und Elektrolyte) einfangen k{\"o}nnen.}, language = {en} } @phdthesis{Wagner2004, author = {Wagner, Anja}, title = {Konzeption und Aufbau eines Geoinformationssystems zur Modellierung und Simulation von Offenlandschaften}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-0001411}, school = {Universit{\"a}t Potsdam}, year = {2004}, abstract = {Zwischen 1990 und 1994 wurden rund 1000 Liegenschaften, die in der ehemaligen DDR von der Sowjetarmee und der NVA f{\"u}r milit{\"a}rische {\"U}bungen genutzt wurden, an Bund und L{\"a}nder {\"u}bergeben. Die gr{\"o}ßten Truppen{\"u}bungspl{\"a}tze liegen in Brandenburg und sind heute teilweise in Großschutzgebiete integriert, andere Pl{\"a}tze werden von der Bundeswehr weiterhin aktiv genutzt. Aufgrund des milit{\"a}rischen Betriebs sind die B{\"o}den dieser Truppen{\"u}bungspl{\"a}tze oft durch Blindg{\"a}nger, Munitionsreste, Treibstoff- und Schmier{\"o}lreste bis hin zu chemischen Kampfstoffen belastet. Allerdings existieren auf fast allen Liegenschaften neben diesen durch Munition und milit{\"a}rische {\"U}bungen belasteten Bereichen auch naturschutzfachlich wertvolle Fl{\"a}chen; gerade in den Offenlandbereichen kann dies durchaus mit einer Belastung durch Kampfmittel einhergehen. Charakteristisch f{\"u}r diese offenen Fl{\"a}chen, zu denen u.a. Zwergstrauchheiden, Trockenrasen, w{\"u}sten{\"a}hnliche Sandfl{\"a}chen und andere n{\"a}hrstoffarme baumlose Lebensr{\"a}ume geh{\"o}ren, sind Großfl{\"a}chigkeit, Abgeschiedenheit sowie ihre besondere Nutzung und Bewirtschaftung, d.h. die Abwesenheit von land- und forstwirtschaftlichem Betrieb sowie von Siedlungsfl{\"a}chen. Diese Charakteristik war die Grundlage f{\"u}r die Entwicklung einer speziell angepassten Flora und Fauna. Nach Beendigung des Milit{\"a}rbetriebs setzte dann in weiten Teilen eine großfl{\"a}chige Sukzession \– die allm{\"a}hliche Ver{\"a}nderung der Zusammensetzung von Pflanzen- und Tiergesellschaften \– ein, die diese offenen Bereiche teilweise bereits in Wald verwandelte und somit verschwinden ließ. Dies wiederum f{\"u}hrte zum Verlust der an diese Offenlandfl{\"a}chen gebundenen Tier- und Pflanzenarten. Zur Erhaltung, Gestaltung und Entwicklung dieser offenen Fl{\"a}chen wurden daher von einer interdisziplin{\"a}ren Gruppe von Naturwissenschaftlern verschiedene Methoden und Konzepte auf ihre jeweilige Wirksamkeit untersucht. So konnten schließlich die f{\"u}r die jeweiligen Standortbedingungen geeigneten Maßnahmen eingeleitet werden. Voraussetzung f{\"u}r die Einleitung der Maßnahmen sind zum einen Kenntnisse zu diesen jeweiligen Standortbedingungen, d.h. zum Ist-Zustand, sowie zur Entwicklung der Fl{\"a}chen, d.h. zur Dynamik. So kann eine Absch{\"a}tzung {\"u}ber die zuk{\"u}nftige Fl{\"a}chenentwicklung getroffen werden, damit ein effizienter Maßnahmeneinsatz stattfinden kann. Geoinformationssysteme (GIS) spielen dabei eine entscheidende Rolle zur digitalen Dokumentation der Biotop- und Nutzungstypen, da sie die M{\"o}glichkeit bieten, raum- und zeitbezogene Geometrie- und Sachdaten in großen Mengen zu verarbeiten. Daher wurde ein fachspezifisches GIS f{\"u}r Truppen{\"u}bungspl{\"a}tze entwickelt und implementiert. Die Aufgaben umfassten die Konzeption der Datenbank und des Objektmodells sowie fachspezifischer Modellierungs-, Analyse- und Pr{\"a}sentationsfunktionen. F{\"u}r die Integration von Fachdaten in die GIS-Datenbank wurde zudem ein Metadatenkatalog entwickelt, der in Form eines zus{\"a}tzlichen GIS-Tools verf{\"u}gbar ist. Die Basisdaten f{\"u}r das GIS wurden aus Fernerkundungsdaten, topographischen Karten sowie Gel{\"a}ndekartierungen gewonnen. Als Instrument f{\"u}r die Absch{\"a}tzung der zuk{\"u}nftigen Entwicklung wurde das Simulationstool AST4D entwickelt, in dem sowohl die Nutzung der (Raster-)Daten des GIS als Ausgangsdaten f{\"u}r die Simulationen als auch die Nutzung der Simulationsergebnisse im GIS m{\"o}glich ist. Zudem k{\"o}nnen die Daten in AST4D raumbezogen visualisiert werden. Das mathematische Konstrukt f{\"u}r das Tool war ein so genannter Zellul{\"a}rer Automat, mit dem die Fl{\"a}chenentwicklung unter verschiedenen Voraussetzungen simuliert werden kann. So war die Bildung verschiedener Szenarien m{\"o}glich, d.h. die Simulation der Fl{\"a}chenentwicklung mit verschiedenen (bekannten) Eingangsparametern und den daraus resultierenden unterschiedlichen (unbekannten) Endzust{\"a}nden. Vor der Durchf{\"u}hrung einer der drei in AST4D m{\"o}glichen Simulationsstufen k{\"o}nnen angepasst an das jeweilige Untersuchungsgebiet benutzerspezifische Festlegungen getroffen werden.}, language = {de} } @phdthesis{Uyaver2004, author = {Uyaver, Sahin}, title = {Simulation of annealed polyelectrolytes in poor solvents}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-0001488}, school = {Universit{\"a}t Potsdam}, year = {2004}, abstract = {Polymere sind lange kettenartige Molek{\"u}le. Sie bestehen aus vielen elementaren chemischen Einheiten, den Monomeren, die durch kovalente Bindungen aneinander gekettet sind. Polyelektrolyte sind Polymere, die ionisierbare Monomeren enthalten. Aufgrund ihrer speziellen Eigenschaften sind Polyelektrolyte sowohl in der Molekular- und Zellbiologie von großen Bedeutung als auch in der Chemie großtechnisch relevant. Verglichen mit ungeladenen Polymeren sind Polyelektrolyte theoretisch noch wenig verstanden. Insbesondere gilt dies f{\"u}r Polyelektrolyte in sogenanntem schlechten L{\"o}sungsmittel. Ein schlechtes L{\"o}sungsmittel bewirkt eine effektive Anziehung zwischen den Monomeren. F{\"u}r Polyelektrolyte in schlechtem L{\"o}sungsmittel kommt es daher zu einer Konkurrenz zwischen dieser Anziehung und der elektrostatischen Abstoßung. Geladene Polymere werden im Rahmen der chemischen Klassifikation in starke und schwache Polyelektrolyte unterschieden. Erstere zeigen vollst{\"a}ndige Dissoziation unabh{\"a}ngig vom pH-Wert der L{\"o}sung. Die Position der Ladungen auf der Kette wird ausschließlich w{\"a}hrend der Polymersynthese festgelegt. In der Physik spricht man deshalb von Polyelektrolyten mit eingefrorener Ladungsverteilung (quenched polyelectrolytes). Im Falle von schwachen Polyelektrolyten ist die Ladungsdichte auf der Kette nicht konstant, sondern wird durch der pH-Wert der L{\"o}sung kontrolliert. Durch Rekombinations- und Dissoziationsprozesse sind die Ladungen auf der Kette beweglich. Im allgemeinen stellt sich eine inhomogene Gleichgewichtsverteilung ein, die mit der Struktur der Kette gekoppelt ist. Diese Polymere werden deshalb auch Polyelektrolyte mit Gleichgewichtsladungsverteilung (annealed polyelectrolytes) genannt. Wegen des zus{\"a}tzlichen Freiheitsgrades in der Ladungsverteilung werden eine Reihe ungew{\"o}hnlicher Eigenschaften theoretisch vorhergesagt. Mit Hilfe von Simulationen ist es zum ersten Mal gelungen, zu zeigen daß 'annealed' Polyelektrolyte in relativ schlechtem L{\"o}sungsmittel einen diskontinuierlichen Phasen{\"u}bergang durchlaufen, wenn ein kritischer pH-Werts der L{\"o}sung {\"u}berschritten wird. Bei diesem Phasen{\"u}bergang, gehen die Polyelektolyte von einer schwach geladenen kompakten globul{\"a}ren Struktur zu einer stark geladenen gestreckten Konfiguration {\"u}ber. Aufgrund theoretischer Vorhersagen wird erwartet, daß die globul{\"a}re Struktur in weniger schlechtem L{\"o}sungsmittel instabil wird und sich eine Perlenkettenkonfiguration ausbildet. Diese Vorhersage konnte f{\"u}r 'annealed' Polyelektrolyte mit den durchgef{\"u}hrten Simulationen zum ersten Mal best{\"a}tigt werden - inzwischen auch durch erste experimentelle Ergebnisse. Schließlich zeigen die Simulationen auch, daß annealed Polyelektrolyte bei einer kritischen Salzkonzentration in der L{\"o}sung einen scharfen {\"U}bergang zwischen einem stark geladenen gestreckten Zustand und einem schwach geladenen globul{\"a}ren Zustand aufweisen, wiederum in {\"U}bereinstimmung mit theoretischen Erwartungen.}, language = {en} } @article{SchroederSeppelt2006, author = {Schr{\"o}der, Boris and Seppelt, Ralf}, title = {Analysis of pattern-process interactions based on landscape models - Overview, general concepts, and methodological issues}, series = {Ecological modelling : international journal on ecological modelling and engineering and systems ecolog}, volume = {199}, journal = {Ecological modelling : international journal on ecological modelling and engineering and systems ecolog}, number = {4}, publisher = {Elsevier}, address = {Amsterdam}, issn = {0304-3800}, doi = {10.1016/j.ecolmodel.2006.05.036}, pages = {505 -- 516}, year = {2006}, abstract = {Pattern-process analysis is one of the main threads in landscape ecological research. It aims at understanding the complex relationships between ecological processes and landscape patterns, identifying the underlying mechanisms and deriving valid predictions for scenarios of landscape change and its consequences. Today, various studies cope with these tasks through so called "landscape modelling" approaches. They integrate different aspects of heterogeneous and dynamic landscapes and model different driving forces, often using both statistical and process-oriented techniques. We identify two main approaches to deal with the analysis of pattern-process interactions: the first starts with pattern detection, pattern description and pattern analysis, the second with process description, simulation and pattern generation. Focussing on the interplay between these two approaches, landscape analysis and landscape modelling will improve our understanding of pattern-process interactions. The comparison of simulated and observed pattern is a prerequisite for both approaches. Therefore, we identify a set of quantitative, robust, and reproducible methods for the analysis of spatiotemporal patterns that is a starting point for a standard toolbox for ecologists as major future challenge and suggest necessary further methodological developments. (c) 2006 Elsevier B.V. All rights reserved.}, language = {en} } @phdthesis{Pilz2010, author = {Pilz, Marco}, title = {A comparison of proxies for seismic site conditions and amplification for the large urban area of Santiago de Chile}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52961}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Situated in an active tectonic region, Santiago de Chile, the country´s capital with more than six million inhabitants, faces tremendous earthquake hazard. Macroseismic data for the 1985 Valparaiso and the 2010 Maule events show large variations in the distribution of damage to buildings within short distances indicating strong influence of local sediments and the shape of the sediment-bedrock interface on ground motion. Therefore, a temporary seismic network was installed in the urban area for recording earthquake activity, and a study was carried out aiming to estimate site amplification derived from earthquake data and ambient noise. The analysis of earthquake data shows significant dependence on the local geological structure with regards to amplitude and duration. Moreover, the analysis of noise spectral ratios shows that they can provide a lower bound in amplitude for site amplification and, since no variability in terms of time and amplitude is observed, that it is possible to map the fundamental resonance frequency of the soil for a 26 km x 12 km area in the northern part of the Santiago de Chile basin. By inverting the noise spectral rations, local shear wave velocity profiles could be derived under the constraint of the thickness of the sedimentary cover which had previously been determined by gravimetric measurements. The resulting 3D model was derived by interpolation between the single shear wave velocity profiles and shows locally good agreement with the few existing velocity profile data, but allows the entire area, as well as deeper parts of the basin, to be represented in greater detail. The wealth of available data allowed further to check if any correlation between the shear wave velocity in the uppermost 30 m (vs30) and the slope of topography, a new technique recently proposed by Wald and Allen (2007), exists on a local scale. While one lithology might provide a greater scatter in the velocity values for the investigated area, almost no correlation between topographic gradient and calculated vs30 exists, whereas a better link is found between vs30 and the local geology. When comparing the vs30 distribution with the MSK intensities for the 1985 Valparaiso event it becomes clear that high intensities are found where the expected vs30 values are low and over a thick sedimentary cover. Although this evidence cannot be generalized for all possible earthquakes, it indicates the influence of site effects modifying the ground motion when earthquakes occur well outside of the Santiago basin. Using the attained knowledge on the basin characteristics, simulations of strong ground motion within the Santiago Metropolitan area were carried out by means of the spectral element technique. The simulation of a regional event, which has also been recorded by a dense network installed in the city of Santiago for recording aftershock activity following the 27 February 2010 Maule earthquake, shows that the model is capable to realistically calculate ground motion in terms of amplitude, duration, and frequency and, moreover, that the surface topography and the shape of the sediment bedrock interface strongly modify ground motion in the Santiago basin. An examination on the dependency of ground motion on the hypocenter location for a hypothetical event occurring along the active San Ram{\´o}n fault, which is crossing the eastern outskirts of the city, shows that the unfavorable interaction between fault rupture, radiation mechanism, and complex geological conditions in the near-field may give rise to large values of peak ground velocity and therefore considerably increase the level of seismic risk for Santiago de Chile.}, language = {en} } @article{GieseHenklerHirsch2011, author = {Giese, Holger and Henkler, Stefan and Hirsch, Martin}, title = {A multi-paradigm approach supporting the modular execution of reconfigurable hybrid systems}, series = {Simulation : transactions of the Society for Modeling and Simulation International}, volume = {87}, journal = {Simulation : transactions of the Society for Modeling and Simulation International}, number = {9}, publisher = {Sage Publ.}, address = {London}, issn = {0037-5497}, doi = {10.1177/0037549710366824}, pages = {775 -- 808}, year = {2011}, abstract = {Advanced mechatronic systems have to integrate existing technologies from mechanical, electrical and software engineering. They must be able to adapt their structure and behavior at runtime by reconfiguration to react flexibly to changes in the environment. Therefore, a tight integration of structural and behavioral models of the different domains is required. This integration results in complex reconfigurable hybrid systems, the execution logic of which cannot be addressed directly with existing standard modeling, simulation, and code-generation techniques. We present in this paper how our component-based approach for reconfigurable mechatronic systems, MECHATRONIC UML, efficiently handles the complex interplay of discrete behavior and continuous behavior in a modular manner. In addition, its extension to even more flexible reconfiguration cases is presented.}, language = {en} } @phdthesis{Fischer2014, author = {Fischer, Jost Leonhardt}, title = {Nichtlineare Kopplungsmechanismen akustischer Oszillatoren am Beispiel der Synchronisation von Orgelpfeifen}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-71975}, school = {Universit{\"a}t Potsdam}, year = {2014}, abstract = {In dieser Arbeit werden nichtlineare Kopplungsmechanismen von akustischen Oszillatoren untersucht, die zu Synchronisation f{\"u}hren k{\"o}nnen. Aufbauend auf die Fragestellungen vorangegangener Arbeiten werden mit Hilfe theoretischer und experimenteller Studien sowie mit Hilfe numerischer Simulationen die Elemente der Tonentstehung in der Orgelpfeife und die Mechanismen der gegenseitigen Wechselwirkung von Orgelpfeifen identifiziert. Daraus wird erstmalig ein vollst{\"a}ndig auf den aeroakustischen und fluiddynamischen Grundprinzipien basierendes nichtlinear gekoppeltes Modell selbst-erregter Oszillatoren f{\"u}r die Beschreibung des Verhaltens zweier wechselwirkender Orgelpfeifen entwickelt. Die durchgef{\"u}hrten Modellrechnungen werden mit den experimentellen Befunden verglichen. Es zeigt sich, dass die Tonentstehung und die Kopplungsmechanismen von Orgelpfeifen durch das entwickelte Oszillatormodell in weiten Teilen richtig beschrieben werden. Insbesondere kann damit die Ursache f{\"u}r den nichtlinearen Zusammenhang von Kopplungsst{\"a}rke und Synchronisation des gekoppelten Zwei-Pfeifen Systems, welcher sich in einem nichtlinearen Verlauf der Arnoldzunge darstellt, gekl{\"a}rt werden. Mit den gewonnenen Erkenntnissen wird der Einfluss des Raumes auf die Tonentstehung bei Orgelpfeifen betrachtet. Daf{\"u}r werden numerische Simulationen der Wechselwirkung einer Orgelpfeife mit verschiedenen Raumgeometrien, wie z. B. ebene, konvexe, konkave, und gezahnte Geometrien, exemplarisch untersucht. Auch der Einfluss von Schwellk{\"a}sten auf die Tonentstehung und die Klangbildung der Orgelpfeife wird studiert. In weiteren, neuartigen Synchronisationsexperimenten mit identisch gestimmten Orgelpfeifen, sowie mit Mixturen wird die Synchronisation f{\"u}r verschiedene, horizontale und vertikale Pfeifenabst{\"a}nde in der Ebene der Schallabstrahlung, untersucht. Die dabei erstmalig beobachteten r{\"a}umlich isotropen Unstetigkeiten im Schwingungsverhalten der gekoppelten Pfeifensysteme, deuten auf abstandsabh{\"a}ngige Wechsel zwischen gegen- und gleichphasigen Sychronisationsregimen hin. Abschließend wird die M{\"o}glichkeit dokumentiert, das Ph{\"a}nomen der Synchronisation zweier Orgelpfeifen durch numerische Simulationen, also der Behandlung der kompressiblen Navier-Stokes Gleichungen mit entsprechenden Rand- und Anfangsbedingungen, realit{\"a}tsnah abzubilden. Auch dies stellt ein Novum dar.}, language = {de} } @phdthesis{Hutter2014, author = {Hutter, Anne}, title = {Unveiling the epoch of reionization by simulations and high-redshift galaxies}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus4-76998}, school = {Universit{\"a}t Potsdam}, pages = {vi, 155}, year = {2014}, abstract = {The Epoch of Reionization marks after recombination the second major change in the ionization state of the universe, going from a neutral to an ionized state. It starts with the appearance of the first stars and galaxies; a fraction of high-energy photons emitted from galaxies permeate into the intergalactic medium (IGM) and gradually ionize the hydrogen, until the IGM is completely ionized at z~6 (Fan et al., 2006). While the progress of reionization is driven by galaxy evolution, it changes the ionization and thermal state of the IGM substantially and affects subsequent structure and galaxy formation by various feedback mechanisms. Understanding this interaction between reionization and galaxy formation is further impeded by a lack of understanding of the high-redshift galactic properties such as the dust distribution and the escape fraction of ionizing photons. Lyman Alpha Emitters (LAEs) represent a sample of high-redshift galaxies that are sensitive to all these galactic properties and the effects of reionization. In this thesis we aim to understand the progress of reionization by performing cosmological simulations, which allows us to investigate the limits of constraining reionization by high-redshift galaxies as LAEs, and examine how galactic properties and the ionization state of the IGM affect the visibility and observed quantities of LAEs and Lyman Break galaxies (LBGs). In the first part of this thesis we focus on performing radiative transfer calculations to simulate reionization. We have developed a mapping-sphere-scheme, which, starting from spherically averaged temperature and density fields, uses our 1D radiative transfer code and computes the effect of each source on the IGM temperature and ionization (HII, HeII, HeIII) profiles, which are subsequently mapped onto a grid. Furthermore we have updated the 3D Monte-Carlo radiative transfer pCRASH, enabling detailed reionization simulations which take individual source characteristics into account. In the second part of this thesis we perform a reionization simulation by post-processing a smoothed-particle hydrodynamical (SPH) simulation (GADGET-2) with 3D radiative transfer (pCRASH), where the ionizing sources are modelled according to the characteristics of the stellar populations in the hydrodynamical simulation. Following the ionization fractions of hydrogen (HI) and helium (HeII, HeIII), and temperature in our simulation, we find that reionization starts at z~11 and ends at z~6, and high density regions near sources are ionized earlier than low density regions far from sources. In the third part of this thesis we couple the cosmological SPH simulation and the radiative transfer simulations with a physically motivated, self-consistent model for LAEs, in order to understand the importance of the ionization state of the IGM, the escape fraction of ionizing photons from galaxies and dust in the interstellar medium (ISM) on the visibility of LAEs. Comparison of our models results with the LAE Lyman Alpha (Lya) and UV luminosity functions at z~6.6 reveals a three-dimensional degeneracy between the ionization state of the IGM, the ionizing photons escape fraction and the ISM dust distribution, which implies that LAEs act not only as tracers of reionization but also of the ionizing photon escape fraction and of the ISM dust distribution. This degeneracy does not even break down when we compare simulated with observed clustering of LAEs at z~6.6. However, our results show that reionization has the largest impact on the amplitude of the LAE angular correlation functions, and its imprints are clearly distinguishable from those of properties on galactic scales. These results show that reionization cannot be constrained tightly by exclusively using LAE observations. Further observational constraints, e.g. tomographies of the redshifted hydrogen 21cm line, are required. In addition we also use our LAE model to probe the question when a galaxy is visible as a LAE or a LBG. Within our model galaxies above a critical stellar mass can produce enough luminosity to be visible as a LBG and/or a LAE. By finding an increasing duty cycle of LBGs with Lya emission as the UV magnitude or stellar mass of the galaxy rises, our model reveals that the brightest (and most massive) LBGs most often show Lya emission. Predicting the Lya equivalent width (Lya EW) distribution and the fraction of LBGs showing Lya emission at z~6.6, we reproduce the observational trend of the Lya EWs with UV magnitude. However, the Lya EWs of the UV brightest LBGs exceed observations and can only be reconciled by accounting for an increased Lya attenuation of massive galaxies, which implies that the observed Lya brightest LAEs do not necessarily coincide with the UV brightest galaxies. We have analysed the dependencies of LAE observables on the properties of the galactic and intergalactic medium and the LAE-LBG connection, and this enhances our understanding of the nature of LAEs.}, language = {en} } @phdthesis{Schroeder2015, author = {Schr{\"o}der, Sarah}, title = {Modelling surface evolution coupled with tectonics}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus4-90385}, school = {Universit{\"a}t Potsdam}, pages = {viii, 129}, year = {2015}, abstract = {This study presents the development of 1D and 2D Surface Evolution Codes (SECs) and their coupling to any lithospheric-scale (thermo-)mechanical code with a quadrilateral structured surface mesh. Both SECs involve diffusion as approach for hillslope processes and the stream power law to reflect riverbed incision. The 1D SEC settles sediment that was produced by fluvial incision in the appropriate minimum, while the supply-limited 2D SEC DANSER uses a fast filling algorithm to model sedimantation. It is based on a cellular automaton. A slope-dependent factor in the sediment flux extends the diffusion equation to nonlinear diffusion. The discharge accumulation is achieved with the D8-algorithm and an improved drainage accumulation routine. Lateral incision enhances the incision's modelling. Following empirical laws, it incises channels of several cells width. The coupling method enables different temporal and spatial resolutions of the SEC and the thermo-mechanical code. It transfers vertical as well as horizontal displacements to the surface model. A weighted smoothing of the 3D surface displacements is implemented. The smoothed displacement vectors transmit the deformation by bilinear interpolation to the surface model. These interpolation methods ensure mass conservation in both directions and prevent the two surfaces from drifting apart. The presented applications refer to the evolution of the Pamir orogen. A calibration of DANSER's parameters with geomorphological data and a DEM as initial topography highlights the advantage of lateral incision. Preserving the channel width and reflecting incision peaks in narrow channels, this closes the huge gap between current orogen-scale incision models and observed topographies. River capturing models in a system of fault-bounded block rotations reaffirm the importance of the lateral incision routine for capturing events with channel initiation. The models show a low probability of river capturings with large deflection angles. While the probability of river capturing is directly depending on the uplift rate, the erodibility inside of a dip-slip fault speeds up headward erosion along the fault: The model's capturing speed increases within a fault. Coupling DANSER with the thermo-mechanical code SLIM 3D emphasizes the versatility of the SEC. While DANSER has minor influence on the lithospheric evolution of an indenter model, the brittle surface deformation is strongly affected by its sedimentation, widening a basin in between two forming orogens and also the southern part of the southern orogen to south, east and west.}, language = {en} } @phdthesis{Kieling2015, author = {Kieling, Katrin}, title = {Quantification of ground motions by broadband simulations}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus4-85989}, school = {Universit{\"a}t Potsdam}, pages = {XIV, 118}, year = {2015}, abstract = {In many procedures of seismic risk mitigation, ground motion simulations are needed to test systems or improve their effectiveness. For example they may be used to estimate the level of ground shaking caused by future earthquakes. Good physical models for ground motion simulation are also thought to be important for hazard assessment, as they could close gaps in the existing datasets. Since the observed ground motion in nature shows a certain variability, part of which cannot be explained by macroscopic parameters such as magnitude or position of an earthquake, it would be desirable that a good physical model is not only able to produce one single seismogram, but also to reveal this natural variability. In this thesis, I develop a method to model realistic ground motions in a way that is computationally simple to handle, permitting multiple scenario simulations. I focus on two aspects of ground motion modelling. First, I use deterministic wave propagation for the whole frequency range - from static deformation to approximately 10 Hz - but account for source variability by implementing self-similar slip distributions and rough fault interfaces. Second, I scale the source spectrum so that the modelled waveforms represent the correct radiated seismic energy. With this scaling I verify whether the energy magnitude is suitable as an explanatory variable, which characterises the amount of energy radiated at high frequencies - the advantage of the energy magnitude being that it can be deduced from observations, even in real-time. Applications of the developed method for the 2008 Wenchuan (China) earthquake, the 2003 Tokachi-Oki (Japan) earthquake and the 1994 Northridge (California, USA) earthquake show that the fine source discretisations combined with the small scale source variability ensure that high frequencies are satisfactorily introduced, justifying the deterministic wave propagation approach even at high frequencies. I demonstrate that the energy magnitude can be used to calibrate the high-frequency content in ground motion simulations. Because deterministic wave propagation is applied to the whole frequency range, the simulation method permits the quantification of the variability in ground motion due to parametric uncertainties in the source description. A large number of scenario simulations for an M=6 earthquake show that the roughness of the source as well as the distribution of fault dislocations have a minor effect on the simulated variability by diminishing directivity effects, while hypocenter location and rupture velocity more strongly influence the variability. The uncertainty in energy magnitude, however, leads to the largest differences of ground motion amplitude between different events, resulting in a variability which is larger than the one observed. For the presented approach, this dissertation shows (i) the verification of the computational correctness of the code, (ii) the ability to reproduce observed ground motions and (iii) the validation of the simulated ground motion variability. Those three steps are essential to evaluate the suitability of the method for means of seismic risk mitigation.}, language = {en} }