TY - THES A1 - Falter, Daniela T1 - A novel approach for large-scale flood risk assessments T1 - Ein neuartiger Ansatz für großskalige Hochwasserrisikoanalysen BT - continuous and long-term simulation of the full flood risk chain BT - kontinuierliche Langzeitsimulation der gesamten Hochwasserrisikokette N2 - In the past, floods were basically managed by flood control mechanisms. The focus was set on the reduction of flood hazard. The potential consequences were of minor interest. Nowadays river flooding is increasingly seen from the risk perspective, including possible consequences. Moreover, the large-scale picture of flood risk became increasingly important for disaster management planning, national risk developments and the (re-) insurance industry. Therefore, it is widely accepted that risk-orientated flood management ap-proaches at the basin-scale are needed. However, large-scale flood risk assessment methods for areas of several 10,000 km² are still in early stages. Traditional flood risk assessments are performed reach wise, assuming constant probabilities for the entire reach or basin. This might be helpful on a local basis, but where large-scale patterns are important this approach is of limited use. Assuming a T-year flood (e.g. 100 years) for the entire river network is unrealistic and would lead to an overestimation of flood risk at the large scale. Due to the lack of damage data, additionally, the probability of peak discharge or rainfall is usually used as proxy for damage probability to derive flood risk. With a continuous and long term simulation of the entire flood risk chain, the spatial variability of probabilities could be consider and flood risk could be directly derived from damage data in a consistent way. The objective of this study is the development and application of a full flood risk chain, appropriate for the large scale and based on long term and continuous simulation. The novel approach of ‘derived flood risk based on continuous simulations’ is introduced, where the synthetic discharge time series is used as input into flood impact models and flood risk is directly derived from the resulting synthetic damage time series. The bottleneck at this scale is the hydrodynamic simu-lation. To find suitable hydrodynamic approaches for the large-scale a benchmark study with simplified 2D hydrodynamic models was performed. A raster-based approach with inertia formulation and a relatively high resolution of 100 m in combination with a fast 1D channel routing model was chosen. To investigate the suitability of the continuous simulation of a full flood risk chain for the large scale, all model parts were integrated into a new framework, the Regional Flood Model (RFM). RFM consists of the hydrological model SWIM, a 1D hydrodynamic river network model, a 2D raster based inundation model and the flood loss model FELMOps+r. Subsequently, the model chain was applied to the Elbe catchment, one of the largest catchments in Germany. For the proof-of-concept, a continuous simulation was per-formed for the period of 1990-2003. Results were evaluated / validated as far as possible with available observed data in this period. Although each model part introduced its own uncertainties, results and runtime were generally found to be adequate for the purpose of continuous simulation at the large catchment scale. Finally, RFM was applied to a meso-scale catchment in the east of Germany to firstly perform a flood risk assessment with the novel approach of ‘derived flood risk assessment based on continuous simulations’. Therefore, RFM was driven by long term synthetic meteorological input data generated by a weather generator. Thereby, a virtual time series of climate data of 100 x 100 years was generated and served as input to RFM providing subsequent 100 x 100 years of spatially consistent river discharge series, inundation patterns and damage values. On this basis, flood risk curves and expected annual damage could be derived directly from damage data, providing a large-scale picture of flood risk. In contrast to traditional flood risk analysis, where homogenous return periods are assumed for the entire basin, the presented approach provides a coherent large-scale picture of flood risk. The spatial variability of occurrence probability is respected. Additionally, data and methods are consistent. Catchment and floodplain processes are repre-sented in a holistic way. Antecedent catchment conditions are implicitly taken into account, as well as physical processes like storage effects, flood attenuation or channel–floodplain interactions and related damage influencing effects. Finally, the simulation of a virtual period of 100 x 100 years and consequently large data set on flood loss events enabled the calculation of flood risk directly from damage distributions. Problems associated with the transfer of probabilities in rainfall or peak runoff to probabilities in damage, as often used in traditional approaches, are bypassed. RFM and the ‘derived flood risk approach based on continuous simulations’ has the potential to provide flood risk statements for national planning, re-insurance aspects or other questions where spatially consistent, large-scale assessments are required. N2 - In der Vergangenheit standen bei der Betrachtung von Hochwasser insbesondere technische Schutzmaßnahmen und die Reduzierung der Hochwassergefahr im Mittelpunkt. Inzwischen wird Hochwasser zunehmend aus der Risikoperspektive betrachtet, d.h. neben der Gefährdung werden auch die Auswirkungen berücksichtigt. In diesem Zuge wurde auch die Notwendigkeit von großräumigen Hochwasserrisikoanalysen für das Management von Naturgefahren und als Planungsgrundlage auf nationaler Ebene sowie für die Rückversicherungsindustrie erkannt. Insbesondere durch die Einführung der Europäischen Hochwasserrisikomanagement Richtlinie sind risikoorientierte Managementpläne auf Einzugsgebietsebene obligatorisch. Allerdings befinden sich großräumige Hochwasserrisikoanalysen von mehreren 10.000 km², noch in den Anfängen. Traditionell werden Hochwasserrisikoanalysen für Gewässerabschnitte durchgeführt, wobei homogene Wiederkehrintervalle für das ganze Untersuchungsgebiet angenommen werden. Für lokale Fragestellungen ist diese Vorgehensweise sinnvoll, dies gilt allerdings nicht für die großräumige Analyse des Hochwasserrisikos. Die Annahme eines beispielsweise 100-jährigen Hochwassers im gesamten Gebiet ist unrealistisch und das Hochwasserrisiko würde dabei stark überschätzt werden. Aufgrund unzureichender Schadensdaten werden bei der Berechnung des Risikos oftmals die Wahrscheinlichkeiten des Niederschlags oder der Hochwasserscheitelabflüsse als Annäherung für die Wahrscheinlichkeit des Schadens angenommen. Durch eine kontinuierliche Langzeit-Simulation der gesamten Hochwasserrisikokette könnte sowohl die räumliche Verteilung der Wiederkehrintervalle berücksichtig werden, als auch das Hochwasserrisiko direkt aus Schadenszeitreihen abgeleitet werden. Die Zielsetzung dieser Arbeit ist die Entwicklung und Anwendung einer, für großräumige Gebiete geeigneten, kontinuierlichen Hochwasserrisikomodellkette. Damit wird ein neuartiger Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ eingeführt, der das Hochwasserrisiko direkt aus den simulierten Abflusszeitreichen und den daraus resultierenden Schadenzeitreihen ableitet. Die größte Herausforderung der Hochwasserrisikokette liegt bei den sehr rechenintensiven, detaillierten hydraulischen Simulationen. Um geeignete hydraulische Modelle für die großräumige Anwendung zu identifizieren, wurde eine Benchmark-Studie mit 2D Modellen unterschiedlicher Komplexität durchgeführt. Auf dieser Grundlage wurde für die Hochwasserrisikomodellkette ein rasterbasierter Ansatz mit einer relativ hohen Auflösung von 100 m in Kombination mit einem schnellen 1D Fließgewässermodell ausgewählt. Um die Eignung einer kontinuierlichen Simulation der gesamten Hochwasserrisikokette für großräumige Anwendungen zu prüfen, wurden zunächst alle Komponenten der Modellkette im ‚Regional Flood Model‘ (RFM) zusammengeführt. RFM besteht aus dem hydrologischen Modell SWIM, 1D und 2D hydraulischen Modellen, sowie dem Schadensmodell FELMOps+r. Nachfolgend wurde die Modellkette für das Elbe-Einzugsgebiet (>60.000 km²) angewendet. Es wurde eine kontinuierliche Simulation für den Zeitraum 1990-2003 durchgeführt. Die Ergebnisse wurden nach Möglichkeit mit vorhandenen Messdaten validiert/evaluiert. Auch wenn jede Komponente zu Unsicherheiten in den Ergebnissen der Modellkette beiträgt, sind die Ergebnisse und Rechenzeiten für die Anwendung auf großskaliger Einzugsgebietsebene als adäquat anzusehen. Schließlich wurde RFM in einem mesoskaligen Einzugsgebiet (6.000 km²) im Osten von Deutschland angewendet, um erstmals eine Hochwasserrisikoanalyse mit dem neuartigen Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ durchzuführen. Als Input wurde eine 100 x 100-jährige Zeitreihe meteorologischer Daten von einem Wettergenerator erzeugt. Die somit erzeugte 100 x 100-jährige konsistente Abflusszeitreihe, Überschwemmungsmuster und Schadenswerte dienten als Basis für die nachfolgende Erstellung von Hochwasserrisikokurven und Schadenserwartungswerten für das Untersuchungsgebiet. Diese ermöglichen eine großräumige Analyse des Hochwasserrisikos. Dabei wurde die räumliche Variation der Wahrscheinlichkeiten berücksichtigt. Die verwendeten Daten und Methoden waren außerdem im gesamten Untersuchungsgebiet einheitlich. Einzugsgebietsprozesse und Prozesse der Überschwemmungsflächen werden holistisch dargestellt. Die Vorbedingungen im Einzugsgebiet sowie physikalische Prozesse, wie Rückhalteeffekte, Überlagerungseffekte im Gewässernetz oder Interaktionen zwischen Fluss und Überschwemmungsflächen, werden implizit berücksichtigt. Die Simulation von 100 x 100 Jahren und die daraus resultierende große Anzahl an Schadensdaten ermöglichen die direkte Berechnung des Hochwasserrisikos aus Schadenswahrscheinlichkeiten. Die Probleme, die durch die Übertragung von Wahrscheinlichkeiten von Niederschlag oder Scheitelabfluss auf die Wahrscheinlichkeiten im Schaden resultieren, werden umgangen. RFM und der Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ haben das Potential Hochwasserrisikoaussagen für nationale Planungen, Rückversicherungsaspekte oder andere Fragestellungen, bei denen räumlich konsistente und großräumige Analysen nötig sind, zu treffen. KW - flood risk KW - hydraulic simulation KW - flood risk analysis KW - risk model chain KW - floodplain inundation KW - Hochwasserrisikoanalysen KW - Hochwasserrisikokette KW - Überschwemmungsflächen KW - kontinuierlicher Simulationsansatz Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90239 ER - TY - THES A1 - Oskinova, Lidia M. T1 - A new understanding of the structured winds from massive stars : the implications for their X-ray emission, mass-loss diagnostics, and feedback Y1 - 2012 CY - Potsdam ER - TY - THES A1 - Eisinger, Dirk T1 - A new management model for developing small scale contingency plans of rabies Y1 - 2007 CY - Potsdam ER - TY - THES A1 - Derese, Solomon A1 - Yenesew, Abiy A1 - Midiwo, Jacob O. A1 - Heydenreich, Matthias A1 - Peter, Martin G. T1 - A new isoflavone from stem bark of Millettia dura Y1 - 2003 SN - 1011-3924 ER - TY - THES A1 - Ghasemzadeh, Mohammad T1 - A new algorithm for the quantified satisfiability problem, based on zero-suppressed binary decision diagrams and memoization T1 - Ein neuer Algorithmus für die quantifizierte Aussagenlogik, basierend auf Zero-suppressed BDDs und Memoization N2 - Quantified Boolean formulas (QBFs) play an important role in theoretical computer science. QBF extends propositional logic in such a way that many advanced forms of reasoning can be easily formulated and evaluated. In this dissertation we present our ZQSAT, which is an algorithm for evaluating quantified Boolean formulas. ZQSAT is based on ZBDD: Zero-Suppressed Binary Decision Diagram , which is a variant of BDD, and an adopted version of the DPLL algorithm. It has been implemented in C using the CUDD: Colorado University Decision Diagram package. The capability of ZBDDs in storing sets of subsets efficiently enabled us to store the clauses of a QBF very compactly and let us to embed the notion of memoization to the DPLL algorithm. These points led us to implement the search algorithm in such a way that we could store and reuse the results of all previously solved subformulas with a little overheads. ZQSAT can solve some sets of standard QBF benchmark problems (known to be hard for DPLL based algorithms) faster than the best existing solvers. In addition to prenex-CNF, ZQSAT accepts prenex-NNF formulas. We show and prove how this capability can be exponentially beneficial. N2 - In der Dissertation stellen wir einen neuen Algorithmus vor, welcher Formeln der quantifizierten Aussagenlogik (engl. Quantified Boolean formula, kurz QBF) löst. QBFs sind eine Erweiterung der klassischen Aussagenlogik um die Quantifizierung über aussagenlogische Variablen. Die quantifizierte Aussagenlogik ist dabei eine konservative Erweiterung der Aussagenlogik, d.h. es können nicht mehr Theoreme nachgewiesen werden als in der gewöhnlichen Aussagenlogik. Der Vorteil der Verwendung von QBFs ergibt sich durch die Möglichkeit, Sachverhalte kompakter zu repräsentieren. SAT (die Frage nach der Erfüllbarkeit einer Formel der Aussagenlogik) und QSAT (die Frage nach der Erfüllbarkeit einer QBF) sind zentrale Probleme in der Informatik mit einer Fülle von Anwendungen, wie zum Beispiel in der Graphentheorie, bei Planungsproblemen, nichtmonotonen Logiken oder bei der Verifikation. Insbesondere die Verifikation von Hard- und Software ist ein sehr aktuelles und wichtiges Forschungsgebiet in der Informatik. Unser Algorithmus zur Lösung von QBFs basiert auf sogenannten ZBDDs (engl. Zero-suppressed Binary decision Diagrams), welche eine Variante der BDDs (engl. Binary decision Diagrams) sind. BDDs sind eine kompakte Repräsentation von Formeln der Aussagenlogik. Der Algorithmus kombiniert nun bekannte Techniken zum Lösen von QBFs mit der ZBDD-Darstellung unter Verwendung geeigneter Heuristiken und Memoization. Memoization ermöglicht dabei das einfache Wiederverwenden bereits gelöster Teilprobleme. Der Algorithmus wurde unter Verwendung des CUDD-Paketes (Colorado University Decision Diagram) implementiert und unter dem Namen ZQSAT veröffentlicht. In Tests konnten wir nachweisen, dass ZQSAT konkurrenzfähig zu existierenden QBF-Beweisern ist, in einigen Fällen sogar bessere Resultate liefern kann. KW - Binäres Entscheidungsdiagramm KW - Erfüllbarkeitsproblem KW - DPLL KW - Zero-Suppressed Binary Decision Diagram (ZDD) KW - Formeln der quantifizierten Aussagenlogik KW - Erfüllbarkeit einer Formel der Aussagenlogik KW - ZQSA KW - DPLL KW - Zero-Suppressed Binary Decision Diagram (ZDD) KW - Quantified Boolean Formula (QBF) KW - Satisfiability KW - ZQSAT Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-6378 ER - TY - THES A1 - Thiede, Tobias T1 - A multiscale analysis of additively manufactured lattice structures T1 - Multiskalige Analyse von Additiv Gefertigten Gitterstrukturen N2 - Additive Manufacturing (AM) in terms of laser powder-bed fusion (L-PBF) offers new prospects regarding the design of parts and enables therefore the production of lattice structures. These lattice structures shall be implemented in various industrial applications (e.g. gas turbines) for reasons of material savings or cooling channels. However, internal defects, residual stress, and structural deviations from the nominal geometry are unavoidable. In this work, the structural integrity of lattice structures manufactured by means of L-PBF was non-destructively investigated on a multiscale approach. A workflow for quantitative 3D powder analysis in terms of particle size, particle shape, particle porosity, inter-particle distance and packing density was established. Synchrotron computed tomography (CT) was used to correlate the packing density with the particle size and particle shape. It was also observed that at least about 50% of the powder porosity was released during production of the struts. Struts are the component of lattice structures and were investigated by means of laboratory CT. The focus was on the influence of the build angle on part porosity and surface quality. The surface topography analysis was advanced by the quantitative characterisation of re-entrant surface features. This characterisation was compared with conventional surface parameters showing their complementary information, but also the need for AM specific surface parameters. The mechanical behaviour of the lattice structure was investigated with in-situ CT under compression and successive digital volume correlation (DVC). The deformation was found to be knot-dominated, and therefore the lattice folds unit cell layer wise. The residual stress was determined experimentally for the first time in such lattice structures. Neutron diffraction was used for the non-destructive 3D stress investigation. The principal stress directions and values were determined in dependence of the number of measured directions. While a significant uni-axial stress state was found in the strut, a more hydrostatic stress state was found in the knot. In both cases, strut and knot, seven directions were at least needed to find reliable principal stress directions. N2 - Das Laserstrahlschmelzen (L-PBF) als Prozess im Bereich der Additiven Fertigung (AM) ermöglicht ein neuartiges Bauteildesign und somit auch die Produktion von komplexen Gitterstrukturen, welche Materialeinsparungen und effizientere Kühlsysteme erlauben und daher für verschiedene industrielle Anwendungen (z.B. Gasturbinen) geeignet sind. Interne Defekte, Eigenspannungen und geometrische Abweichungen von der Soll-Geometrie sind jedoch unvermeidbar. Im Rahmen dieser Arbeit wird die strukturelle Integrität von L-PBF gefertigten Gitterstrukturen zerstörungsfrei auf verschiedenen Größenskalen untersucht. Eine Auswerteroutine für dreidimensionale quantitative Pulvercharakterisierung hinsichtlich der Partikelgröße, der -form, der -porosität, des Interpartikelabstands und der Packungsdichte wurde entwickelt. Synchrotron Computertomographie (CT) wurde für die Korrelation der Packungsdichte mit der Partikelgröße und -form genutzt. Darüber hinaus konnte festgestellt werden, dass mindestens 50% der Porosität aus den Pulverpartikel während der Herstellung der Streben mittels L-PBF gelöst wurde. Streben sind die Grundbausteine der Gitterstrukturen und wurden mit industrieller CT untersucht. Dabei lag der Fokus auf dem Einfluss des Bauwinkels auf die Strebenporosität und -oberflächenqualität. Die Analyse der Oberflächentopographie wurde hinsichtlich einer quantitativen Analyse von sogenannten re-entrant features erweitert. Der Vergleich dieser Auswertung mit konventionellen Oberflächenparametern offenbarte sowohl deren Komplementarität also auch den Bedarf an neuen AM-spezifischen Oberflächenparametern. In-situ CT Versuche mit anschließender digitaler Volumenkorrelation (DVC) erlaubte die Gitterstruktur bezüglich des mechanischen Verhaltens unter Druckspannung zu bewerten. Aufgrund einer schichtweisen Faltung der Einheitszellen konnte dabei das Versagensverhalten als knoten-dominiert identifiziert werden. Mittels Neutronenbeugung konnten Eigenspannungen in solchen Gitterstrukturen erstmalig experimentell bestimmt werden. Dabei wurden sowohl die Hauptspannungsrichtungen als auch die -beträge in Abhängigkeit von der Anzahl der gemessenen Spannungsrichtungen bestimmt. Während in der Strebe ein signifikanter uni-axialer Spannungszustand nachgewiesen wurde, zeigte der Knotenpunkt einen hydrostatischeren Spannungszustand. Sowohl im Falle der Strebe als auch des Knotenpunkts waren mindestens sieben gemessene Spannungsrichtungen nötig, um die Hauptspannungsrichtungen verlässlich zu ermitteln. KW - additive manufacturing KW - laser powder bed fusion KW - computed tomography KW - neutron diffraction KW - in-situ testing KW - residual stress KW - roughness KW - powder particle analysis KW - additive Fertigung KW - Laserstrahlschmelzen KW - Computertomographie KW - Neutronendiffraktion KW - In-situ Experimente KW - Eigenspannung KW - Rauheit KW - Pulverpartikelanalyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-470418 ER - TY - THES A1 - Zass, Alexander T1 - A multifaceted study of marked Gibbs point processes T1 - Facetten von markierten Gibbsschen Punktprozessen N2 - This thesis focuses on the study of marked Gibbs point processes, in particular presenting some results on their existence and uniqueness, with ideas and techniques drawn from different areas of statistical mechanics: the entropy method from large deviations theory, cluster expansion and the Kirkwood--Salsburg equations, the Dobrushin contraction principle and disagreement percolation. We first present an existence result for infinite-volume marked Gibbs point processes. More precisely, we use the so-called entropy method (and large-deviation tools) to construct marked Gibbs point processes in R^d under quite general assumptions. In particular, the random marks belong to a general normed space S and are not bounded. Moreover, we allow for interaction functionals that may be unbounded and whose range is finite but random. The entropy method relies on showing that a family of finite-volume Gibbs point processes belongs to sequentially compact entropy level sets, and is therefore tight. We then present infinite-dimensional Langevin diffusions, that we put in interaction via a Gibbsian description. In this setting, we are able to adapt the general result above to show the existence of the associated infinite-volume measure. We also study its correlation functions via cluster expansion techniques, and obtain the uniqueness of the Gibbs process for all inverse temperatures β and activities z below a certain threshold. This method relies in first showing that the correlation functions of the process satisfy a so-called Ruelle bound, and then using it to solve a fixed point problem in an appropriate Banach space. The uniqueness domain we obtain consists then of the model parameters z and β for which such a problem has exactly one solution. Finally, we explore further the question of uniqueness of infinite-volume Gibbs point processes on R^d, in the unmarked setting. We present, in the context of repulsive interactions with a hard-core component, a novel approach to uniqueness by applying the discrete Dobrushin criterion to the continuum framework. We first fix a discretisation parameter a>0 and then study the behaviour of the uniqueness domain as a goes to 0. With this technique we are able to obtain explicit thresholds for the parameters z and β, which we then compare to existing results coming from the different methods of cluster expansion and disagreement percolation. Throughout this thesis, we illustrate our theoretical results with various examples both from classical statistical mechanics and stochastic geometry. N2 - Diese Arbeit konzentriert sich auf die Untersuchung von markierten Gibbs-Punkt-Prozessen und stellt insbesondere einige Ergebnisse zu deren Existenz und Eindeutigkeit vor. Dabei werden Ideen und Techniken aus verschiedenen Bereichen der statistischen Mechanik verwendet: die Entropie-Methode aus der Theorie der großen Abweichungen, die Cluster-Expansion und die Kirkwood-Salsburg-Gleichungen, das Dobrushin-Kontraktionsprinzip und die Disagreement-Perkolation. Wir präsentieren zunächst ein Existenzergebnis für unendlich-volumige markierte Gibbs-Punkt-Prozesse. Genauer gesagt verwenden wir die sogenannte Entropie-Methode (und Werkzeuge der großen Abweichung), um markierte Gibbs-Punkt-Prozesse in R^d unter möglichst allgemeinen Annahmen zu konstruieren. Insbesondere gehören die zufälligen Markierungen zu einem allgemeinen normierten Raum und sind nicht beschränkt. Außerdem lassen wir Interaktionsfunktionale zu, die unbeschränkt sein können und deren Reichweite endlich, aber zufällig ist. Die Entropie-Methode beruht darauf, zu zeigen, dass eine Familie von endlich-volumigen Gibbs-Punkt-Prozessen zu sequentiell kompakten Entropie-Niveau-Mengen gehört, und daher dicht ist. Wir stellen dann unendlich-dimensionale Langevin-Diffusionen vor, die wir über eine Gibbssche Beschreibung in Wechselwirkung setzen. In dieser Umgebung sind wir in der Lage, das vorangehend vorgestellte allgemeine Ergebnis anzupassen, um die Existenz des zugehörigen unendlich-dimensionalen Maßes zu zeigen. Wir untersuchen auch seine Korrelationsfunktionen über Cluster-Expansions Techniken und erhalten die Eindeutigkeit des Gibbs-Prozesses für alle inversen Temperaturen β und Aktivitäten z unterhalb einer bestimmten Schwelle. Diese Methode beruht darauf, zunächst zu zeigen, dass die Korrelationsfunktionen des Prozesses eine so genannte Ruelle-Schranke erfüllen, um diese dann zur Lösung eines Fixpunktproblems in einem geeigneten Banach-Raum zu verwenden. Der Eindeutigkeitsbereich, den wir erhalten, wird dann aus den Modellparametern z und β definiert, für die ein solches Problem genau eine Lösung hat. Schließlich untersuchen wir die Frage nach der Eindeutigkeit von unendlich-volumigen Gibbs-Punkt-Prozessen auf R^d im unmarkierten Fall weiter. Im Zusammenhang mit repulsiven Wechselwirkungen basierend auf einer Hartkernkomponente stellen wir einen neuen Ansatz zur Eindeutigkeit vor, indem wir das diskrete Dobrushin-Kriterium im kontinuierlichen Rahmen anwenden. Wir legen zunächst einen Diskretisierungsparameter a>0 fest und untersuchen dann das Verhalten des Bereichs der Eindeutigkeit, wenn a gegen 0 geht. Mit dieser Technik sind wir in der Lage, explizite Schwellenwerte für die Parameter z und β zu erhalten, die wir dann mit bestehenden Ergebnissen aus den verschiedenen Methoden der Cluster-Expansion und der Disagreement-Perkolation vergleichen. In dieser Arbeit illustrieren wir unsere theoretischen Ergebnisse mit verschiedenen Beispielen sowohl aus der klassischen statistischen Mechanik als auch aus der stochastischen Geometrie. KW - marked Gibbs point processes KW - Langevin diffusions KW - Dobrushin criterion KW - Entropy method KW - Cluster expansion KW - Kirkwood--Salsburg equations KW - DLR equations KW - Markierte Gibbs-Punkt-Prozesse KW - Entropiemethode KW - Cluster-Expansion KW - DLR-Gleichungen KW - Dobrushin-Kriterium KW - Kirkwood-Salsburg-Gleichungen KW - Langevin-Diffusions Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512775 ER - TY - THES A1 - Horn, Juliane T1 - A modelling framework for exploration of a multidimensional factor causing decline in honeybee health BT - towards a better understanding how forage availability in agricultural landscapes affects honeybee colony persistence Y1 - 2017 ER - TY - THES A1 - Merlo, Claudia T1 - A model of protein folding kinetics Y1 - 2007 CY - Potsdam ER - TY - THES A1 - Mauri, Marco T1 - A model for sigma factor competition in bacterial cells N2 - Bacteria respond to changing environmental conditions by switching the global pattern of expressed genes. In response to specific environmental stresses the cell activates several stress-specific molecules such as sigma factors. They reversibly bind the RNA polymerase to form the so-called holoenzyme and direct it towards the appropriate stress response genes. In exponentially growing E. coli cells, the majority of the transcriptional activity is carried out by the housekeeping sigma factor, while stress responses are often under the control of alternative sigma factors. Different sigma factors compete for binding to a limited pool of RNA polymerase (RNAP) core enzymes, providing a mechanism for cross talk between genes or gene classes via the sharing of expression machinery. To quantitatively analyze the contribution of sigma factor competition to global changes in gene expression, we develop a thermodynamic model that describes binding between sigma factors and core RNAP at equilibrium, transcription, non-specific binding to DNA and the modulation of the availability of the molecular components. Association of housekeeping sigma factor to RNAP is generally favored by its abundance and higher binding affinity to the core. In order to promote transcription by alternative sigma subunits, the bacterial cell modulates the transcriptional efficiency in a reversible manner through several strategies such as anti-sigma factors, 6S RNA and generally any kind of transcriptional regulators (e.g. activators or inhibitors). By shifting the outcome of sigma factor competition for the core, these modulators bias the transcriptional program of the cell. The model is validated by comparison with in vitro competition experiments, with which excellent agreement is found. We observe that transcription is affected via the modulation of the concentrations of the different types of holoenzymes, so saturated promoters are only weakly affected by sigma factor competition. However, in case of overlapping promoters or promoters recognized by two types of sigma factors, we find that even saturated promoters are strongly affected. Active transcription effectively lowers the affinity between the sigma factor driving it and the core RNAP, resulting in complex cross talk effects and raising the question of how their in vitro measure is relevant in the cell. We also estimate that sigma factor competition is not strongly affected by non-specific binding of core RNAPs, sigma factors, and holoenzymes to DNA. Finally, we analyze the role of increased core RNAP availability upon the shut-down of ribosomal RNA transcription during stringent response. We find that passive up-regulation of alternative sigma-dependent transcription is not only possible, but also displays hypersensitivity based on the sigma factor competition. Our theoretical analysis thus provides support for a significant role of passive control during that global switch of the gene expression program and gives new insights into RNAP partitioning in the cell. N2 - Bakterien reagieren auf Aenderungen in ihren Umgebungsbedingungen indem sie global das Genexpressionsprogramm umschalten. Die Zelle aktiviert, als spezifische Reaktion auf Stressbedingungen, mehrere charakteristische Molekuele wie zum Beispiel die Sigmafaktoren. Diese binden reversibel an die RNA Polymerase (RNAP), mit der sie einen Komplex bilden das sogenannte Holoenzym und steuern sie als Reaktion auf den Stress zu den entsprechenden Genen. In exponentiell wachsenden E. Coli Zellen wird das Meiste der Transkription von einem sogenannten Haushaltssigmafaktor organisiert. Wohingegen Stressreaktionen haeufig von alternativen Sigmafaktoren kontrolliert werden. Die verschiedenen Sigmafaktoren konkurrieren um einen begrenzten Pool von RNAP Coreenzymen, womit die Expression einzelner Gene oder Genklassen beeinflusst wird, da sie sich die Maschienerie teilen. Um den Beitrag der Sigmafaktorkonkurrenz an der gesamten Veraenderung der Genexpression quantitativ zu analysieren, haben wir ein theoretisches Modell entwickelt, welches das Binden von Sigmafaktoren mit RNAP Coreenzymen im gleichgewicht, die Transkription, das nichtspezifische Binden an die DNA sowie die Modulation verfuegbarer molekularer Komponenten beschreibt. Normalerweise wird die Assoziation des Haushaltssigmafaktors mit dem RNAP Coreenzym beguenstigt durch dessen grosse Anzahl und die hohe Bindungsaffinitaet. Daher nutzen bakterielle Zellen verschiedene, reversibele Strategien um die Transkription durch alternative Holoenzyme zu foerdern. Dazu gehoeren Anti-Sigmafaktoren, 6S RNA und generell beliebige Transkriptionsregulatoren (z.B.: Aktivatoren oder Repressoren). Sie beeinflussen das Transkriptionsprogramm der Zelle indem sie das Resultat der Sigmafaktorkonkurrenz um die RNAP Coreenzyme zugunsten eines der Sigmafaktoren verschieben. Das Modell kann validiert werden durch Vergleiche mit in vitro Konkurrenzexperimenten, die exzellente uebereinstimmung zeigen. Wir koennen feststellen, dass die Transkription durch Konzentrationsaenderungen der verschiedenen Holoenzyme beeinflusst wird, daher ist der Effekt der Sigmafaktorkonkurrenz klein bei saturierten Promotoren. Was sich jedoch aendert bei sich ueberlappenden Promotoren oder Promotoren, die von zwei verschiedenen Sigmafaktoren erkannt werden. In diesen Faellen sehen wir einen grossen Effekt. Transkription fuehrt zu effektiv abgesekten Affinitaet zwischen den zugehoerigen Sigmafaktoren und den RNAP Coreenzymen, was zu komplizierten Verhalten fuehrt und die Frage aufwirft, inwieweit in vitro gemessenen Effekte in der Zelle wiederzufinden sind. Wir koennen den Einfluss nichtspezifischen Bindens der RNAPs, der Sigmafaktoren und der Holoenzyme an die DNA abschaetzen. Als letztes analysieren wir die Konkurrenz waehrend der "Stringent Response". Hierbei wird die Transkription der ribosomalen RNA unterbrochen was die Anzahl der freien RNAP Coreenzyme stark erhoeht. Wir sehen, dass das passive Hochregeln des alternativen sigmafaktorabhaengigen Transkriptionsprogramms durch Sigmafaktorkokurrenz moeglich und sogar hypersensitiv ist. Unsere theoretische Analyse zeigt, dass die passive Kontrolle in diesem Fall eine signifikante Rolle im globalen umschalten des Transkriptionsprogramms spielt und liefert neue Erkenntnisse zur RNAP Partitionierung in der Zelle. T2 - Ein Modell für die Konkurrenz zwischen Sigmafaktoren in Bakterienzellen KW - biophysics KW - systems biology KW - gene regulation KW - stress response KW - Biophysik KW - Systembiologie KW - Genregulation KW - Stressantwort Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72098 ER -