TY - THES A1 - Cunha Costa, Alexandre T1 - Analyzing and modelling of flow transmission processes in river-systems with a focus on semi-arid conditions T1 - Wassertransferprozesse in Flusssystemen mit einem Schwerpunkt auf semi-ariden Bedingungen N2 - One of the major problems for the implementation of water resources planning and management in arid and semi-arid environments is the scarcity of hydrological data and, consequently, research studies. In this thesis, the hydrology of dryland river systems was analyzed and a semi-distributed hydrological model and a forecasting approach were developed for flow transmission processes in river-systems with a focus on semi-arid conditions. Three different sources of hydrological data (streamflow series, groundwater level series and multi-temporal satellite data) were combined in order to analyze the channel transmission losses of a large reach of the Jaguaribe River in NE Brazil. A perceptual model of this reach was derived suggesting that the application of models, which were developed for sub-humid and temperate regions, may be more suitable for this reach than classical models, which were developed for arid and semi-arid regions. Summarily, it was shown that this river reach is hydraulically connected with groundwater and shifts from being a losing river at the dry and beginning of rainy seasons to become a losing/gaining (mostly losing) river at the middle and end of rainy seasons. A new semi-distributed channel transmission losses model was developed, which was based primarily on the capability of simulation in very different dryland environments and flexible model structures for testing hypotheses on the dominant hydrological processes of rivers. This model was successfully tested in a large reach of the Jaguaribe River in NE Brazil and a small stream in the Walnut Gulch Experimental Watershed in the SW USA. Hypotheses on the dominant processes of the channel transmission losses (different model structures) in the Jaguaribe river were evaluated, showing that both lateral (stream-)aquifer water fluxes and ground-water flow in the underlying alluvium parallel to the river course are necessary to predict streamflow and channel transmission losses, the former process being more relevant than the latter. This procedure not only reduced model structure uncertainties, but also reported modelling failures rejecting model structure hypotheses, namely streamflow without river-aquifer interaction and stream-aquifer flow without groundwater flow parallel to the river course. The application of the model to different dryland environments enabled learning about the model itself from differences in channel reach responses. For example, the parameters related to the unsaturated part of the model, which were active for the small reach in the USA, presented a much greater variation in the sensitivity coefficients than those which drove the saturated part of the model, which were active for the large reach in Brazil. Moreover, a nonparametric approach, which dealt with both deterministic evolution and inherent fluctuations in river discharge data, was developed based on a qualitative dynamical system-based criterion, which involved a learning process about the structure of the time series, instead of a fitting procedure only. This approach, which was based only on the discharge time series itself, was applied to a headwater catchment in Germany, in which runoff are induced by either convective rainfall during the summer or snow melt in the spring. The application showed the following important features: • the differences between runoff measurements were more suitable than the actual runoff measurements when using regression models; • the catchment runoff system shifted from being a possible dynamical system contaminated with noise to a linear random process when the interval time of the discharge time series increased; • and runoff underestimation can be expected for rising limbs and overestimation for falling limbs. This nonparametric approach was compared with a distributed hydrological model designed for real-time flood forecasting, with both presenting similar results on average. Finally, a benchmark for hydrological research using semi-distributed modelling was proposed, based on the aforementioned analysis, modelling and forecasting of flow transmission processes. The aim of this benchmark was not to describe a blue-print for hydrological modelling design, but rather to propose a scientific method to improve hydrological knowledge using semi-distributed hydrological modelling. Following the application of the proposed benchmark to a case study, the actual state of its hydrological knowledge and its predictive uncertainty can be determined, primarily through rejected hypotheses on the dominant hydrological processes and differences in catchment/variables responses. N2 - Die Bewirtschaftung von Wasserressourcen in ariden und semiariden Landschaften ist mit einer Reihe besonderer Probleme konfrontiert. Eines der größten Probleme für die Maßnahmenplanung und für das operationelle Management ist der Mangel an hydrologischen Daten und damit zusammenhängend auch die relativ kleine Zahl wissenschaftlicher Arbeiten zu dieser Thematik. In dieser Arbeit wurden 1) die grundlegenden hydrologischen Bedingungen von Trockenflusssystemen analysiert, 2) ein Modellsystem für Flüsse unter semiariden Bedingungen, und 3) ein nichtparametrisches Vorhersage-verfahren für Abflussvorgänge in Flüssen entwickelt. Der Wasserverlust in einem großen Abschnitt des Jaguaribe Flusses im nordöstlichen Brasilien wurde auf Basis von Daten zu Abflussraten, Grundwasserflurabstände und mit Hilfe multitemporaler Satellitendaten analysiert. Dafür wurde zuerst ein konzeptionelles hydrologisches Modell über die Mechanismen der Transferverluste in diesem Abschnitt des Trockenflusses erstellt. Dabei ergab sich, dass der Flussabschnitt mit dem Grundwasser hydraulisch verbunden ist. Der Flussabschnitt weist in der Trockenenzeit und am Anfang der Regenzeit nur Wasserverlust (Sickerung) zum Grundwasser auf. Im Laufe der Regenzeit findet auch ein gegenseitiger Austausch vom Grundwasser mit dem Flusswasser statt. Aufgrund dieser hydraulischen Kopplung zwischen Flusswasser und Grundwasser sind für diesen Flussabschnitt hydrologische Modellansätze anzuwenden, die generell für gekoppelte Fluss-Grundwassersysteme, v.a. in feuchtgemäßigten Klimaten, entwickelt wurden. Es wurde ein neuartiges hydrologisches Simulationsmodell für Transferverluste in Trockenflüssen entwickelt. Dieses Modell ist für unterschiedliche aride und semiaride Landschaften anwendbar und hat eine flexible Modellstruktur, wodurch unterschiedliche Hypothesen zur Relevanz einzelner hydrologische Prozesse getestet werden können. Es wurde für den zuvor genannten großen Abschnitt des Jaguaribe Flusses im nordöstlichen Brasilien und für einen kleinen Flussabschnitt im „Walnut Gulch Experimental Watershed“ (WGEW) in Arizona, Südwest-USA, angewendet. Für die eine prozess-orientierte Simulation von Abflussbedingungen und Transferverlusten im Einzugsgebiet des Jaguaribe hat sich gezeigt, dass die am besten geeignete Modellstruktur sowohl den Austausch zwischen Flusswasser und Grundwasser (senkrecht zur Fließrichtung des Flusses) als auch die parallel zum Fluss verlaufende Grundwasserströmung enthält. Die Simulationsexperimente mit unterschiedlichen Modellstrukturen („Hypothesentest“) reduzierte nicht nur die Modellstrukturunsicherheit, sondern quantifizierte auch die Qualität der Modellergebnisse bei folgenden Varianten der Modellstruktur: a) Abflluss im Fluss ohne Interaktion mit dem Grundwasser (keine Transferverluste) und b) Interaktion zwischen Fluss und Grundwasser ohne parallelen Grundwasserstrom zum Flussstrom. Durch die Anwendung auf die beiden unterschiedlichen Trockenflusssysteme wurden neue Erkenntnisse über die Sensitivität des Modells unter verschiedenen Bedingungen erworben. Beispielsweise waren die Parameter der ungesättigten Zone, die von hoher Relevanz für den kleinen Flussabschnitt im WGEW waren, viel sensitiver als die Parameter der gesättigten Zone, die besonders relevant für den Jaguaribe Flussabschnitt in Brasilien waren. Die Ursache für diese sehr unterschiedliche Sensitivität liegt darin, dass beim WGEW das Flusswasser nur mit der ungesättigten Zone in Kontakt steht, da sich in diesem Gebiet, welche im Vergleich zur Jaguaribe-Region noch deutlich trockener ist, kein Grund-wasserleiter bildet. Letztlich wurde ein nicht-parametrisches Verfahren, zur Simulation der deterministischen Evolution und stochastischen Fluktuation der Abflussdynamik entwickelt. Im Unterschied zu prozessbasiertem Modellsystemen basiert dieses Verfahren nicht auf Modellkalibrierung sondern auf einem Lernprozess, basierend auf Zeitreihendaten. Als Anwendungsbeispiel wurde ein mesoskaliges Einzugsgebiet im Erzgebirge, NO-Deutschland gewählt, in dem starke Abflussereignisse entweder durch konvektive Niederschlagsereignisse oder durch Schneeschmelze generiert werden. Die folgenden wichtigsten Ergebnisse wurden erzielt: • Regressionsmodellansätze basierend auf den zeitlichen Änderungen der Abflüsse liefern bessere Ergebnisse gegenüber Ansätzen basierend auf direkten Abflussdaten; • mit zunehmendem Vorhersagehorizont wandelt sich das hydrologische System von einem mit Zufallsanteilen verrauschten dynamischen System zu einem linearen probabilistischen Zufallsprozess; • Bei zunehmendem Abfluss (ansteigenden Ganglinie) erfolgt meist eine Abflussunterschätzung, bei abnehmendem Abfluss (fallende Ganglinie) erfolgt meist eine Abflussüberschätzung. Dieses nichtparametrische Verfahren ergibt im Vergleich mit einem prozess-orientierten und flächenverteilten hydrologischen Hochwasservorhersagemodell bis zu einem Vorhersagezeitraum von 3 Stunden Ergebnisse von vergleichbar guter Qualität. Letztendlich wurde ein Vorgehen bzgl. künftiger Forschungen zu hydrologischer Modellierung vorgeschlagen. Das Ziel dabei war ein wissenschaftliches Verfahren zur Verbesserung des hydrologischen Wissens über ein Einzugsgebiet. Diese Verfahren basiert auf einem Hypothesentest zu den relevanten hydrologischen Prozessen und der Untersuchung der Sensitivitäten der hydrologischen Variablen bei unterschiedlichen Einzugsgebieten. KW - Trockenflüsse KW - Transferverluste in Flüssen KW - Hochwasservorhersage KW - Unsicherheitsanalyse KW - hydrologische Modellierung KW - Dryland Rivers KW - Channel Transmission Losses KW - Flood Forecasting KW - Uncertainty Analysis KW - Hydrological Modelling Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59694 ER - TY - THES A1 - Malinova, Irina T1 - Analysis of starch metabolism in connection with altered enzyme activities related to central carbon turn-over in Arabidopsis thaliana Y1 - 2012 CY - Potsdam ER - TY - THES A1 - Patil, Umesh T1 - An evaluation of a cognitive architecture of sentence processing : computational and empirical assessment Y1 - 2012 CY - Potsdam ER - TY - THES A1 - Schwartze, Michael T1 - Adaption to temporal structure T2 - MPI series in human cognitive and brain sciences Y1 - 2012 SN - 978-3-941504-22-6 VL - 138 PB - Max-Planck-Institut für Kognitions- und Neurowissenschaften CY - Leipzig ER - TY - THES A1 - Sawade, Christoph T1 - Active evaluation of predictive models T1 - Aktive Evaluierung von Vorhersagemodellen N2 - The field of machine learning studies algorithms that infer predictive models from data. Predictive models are applicable for many practical tasks such as spam filtering, face and handwritten digit recognition, and personalized product recommendation. In general, they are used to predict a target label for a given data instance. In order to make an informed decision about the deployment of a predictive model, it is crucial to know the model’s approximate performance. To evaluate performance, a set of labeled test instances is required that is drawn from the distribution the model will be exposed to at application time. In many practical scenarios, unlabeled test instances are readily available, but the process of labeling them can be a time- and cost-intensive task and may involve a human expert. This thesis addresses the problem of evaluating a given predictive model accurately with minimal labeling effort. We study an active model evaluation process that selects certain instances of the data according to an instrumental sampling distribution and queries their labels. We derive sampling distributions that minimize estimation error with respect to different performance measures such as error rate, mean squared error, and F-measures. An analysis of the distribution that governs the estimator leads to confidence intervals, which indicate how precise the error estimation is. Labeling costs may vary across different instances depending on certain characteristics of the data. For instance, documents differ in their length, comprehensibility, and technical requirements; these attributes affect the time a human labeler needs to judge relevance or to assign topics. To address this, the sampling distribution is extended to incorporate instance-specific costs. We empirically study conditions under which the active evaluation processes are more accurate than a standard estimate that draws equally many instances from the test distribution. We also address the problem of comparing the risks of two predictive models. The standard approach would be to draw instances according to the test distribution, label the selected instances, and apply statistical tests to identify significant differences. Drawing instances according to an instrumental distribution affects the power of a statistical test. We derive a sampling procedure that maximizes test power when used to select instances, and thereby minimizes the likelihood of choosing the inferior model. Furthermore, we investigate the task of comparing several alternative models; the objective of an evaluation could be to rank the models according to the risk that they incur or to identify the model with lowest risk. An experimental study shows that the active procedure leads to higher test power than the standard test in many application domains. Finally, we study the problem of evaluating the performance of ranking functions, which are used for example for web search. In practice, ranking performance is estimated by applying a given ranking model to a representative set of test queries and manually assessing the relevance of all retrieved items for each query. We apply the concepts of active evaluation and active comparison to ranking functions and derive optimal sampling distributions for the commonly used performance measures Discounted Cumulative Gain and Expected Reciprocal Rank. Experiments on web search engine data illustrate significant reductions in labeling costs. N2 - Maschinelles Lernen befasst sich mit Algorithmen zur Inferenz von Vorhersagemodelle aus komplexen Daten. Vorhersagemodelle sind Funktionen, die einer Eingabe – wie zum Beispiel dem Text einer E-Mail – ein anwendungsspezifisches Zielattribut – wie „Spam“ oder „Nicht-Spam“ – zuweisen. Sie finden Anwendung beim Filtern von Spam-Nachrichten, bei der Text- und Gesichtserkennung oder auch bei der personalisierten Empfehlung von Produkten. Um ein Modell in der Praxis einzusetzen, ist es notwendig, die Vorhersagequalität bezüglich der zukünftigen Anwendung zu schätzen. Für diese Evaluierung werden Instanzen des Eingaberaums benötigt, für die das zugehörige Zielattribut bekannt ist. Instanzen, wie E-Mails, Bilder oder das protokollierte Nutzerverhalten von Kunden, stehen häufig in großem Umfang zur Verfügung. Die Bestimmung der zugehörigen Zielattribute ist jedoch ein manueller Prozess, der kosten- und zeitaufwendig sein kann und mitunter spezielles Fachwissen erfordert. Ziel dieser Arbeit ist die genaue Schätzung der Vorhersagequalität eines gegebenen Modells mit einer minimalen Anzahl von Testinstanzen. Wir untersuchen aktive Evaluierungsprozesse, die mit Hilfe einer Wahrscheinlichkeitsverteilung Instanzen auswählen, für die das Zielattribut bestimmt wird. Die Vorhersagequalität kann anhand verschiedener Kriterien, wie der Fehlerrate, des mittleren quadratischen Verlusts oder des F-measures, bemessen werden. Wir leiten die Wahrscheinlichkeitsverteilungen her, die den Schätzfehler bezüglich eines gegebenen Maßes minimieren. Der verbleibende Schätzfehler lässt sich anhand von Konfidenzintervallen quantifizieren, die sich aus der Verteilung des Schätzers ergeben. In vielen Anwendungen bestimmen individuelle Eigenschaften der Instanzen die Kosten, die für die Bestimmung des Zielattributs anfallen. So unterscheiden sich Dokumente beispielsweise in der Textlänge und dem technischen Anspruch. Diese Eigenschaften beeinflussen die Zeit, die benötigt wird, mögliche Zielattribute wie das Thema oder die Relevanz zuzuweisen. Wir leiten unter Beachtung dieser instanzspezifischen Unterschiede die optimale Verteilung her. Die entwickelten Evaluierungsmethoden werden auf verschiedenen Datensätzen untersucht. Wir analysieren in diesem Zusammenhang Bedingungen, unter denen die aktive Evaluierung genauere Schätzungen liefert als der Standardansatz, bei dem Instanzen zufällig aus der Testverteilung gezogen werden. Eine verwandte Problemstellung ist der Vergleich von zwei Modellen. Um festzustellen, welches Modell in der Praxis eine höhere Vorhersagequalität aufweist, wird eine Menge von Testinstanzen ausgewählt und das zugehörige Zielattribut bestimmt. Ein anschließender statistischer Test erlaubt Aussagen über die Signifikanz der beobachteten Unterschiede. Die Teststärke hängt von der Verteilung ab, nach der die Instanzen ausgewählt wurden. Wir bestimmen die Verteilung, die die Teststärke maximiert und damit die Wahrscheinlichkeit minimiert, sich für das schlechtere Modell zu entscheiden. Des Weiteren geben wir eine Möglichkeit an, den entwickelten Ansatz für den Vergleich von mehreren Modellen zu verwenden. Wir zeigen empirisch, dass die aktive Evaluierungsmethode im Vergleich zur zufälligen Auswahl von Testinstanzen in vielen Anwendungen eine höhere Teststärke aufweist. Im letzten Teil der Arbeit werden das Konzept der aktiven Evaluierung und das des aktiven Modellvergleichs auf Rankingprobleme angewendet. Wir leiten die optimalen Verteilungen für das Schätzen der Qualitätsmaße Discounted Cumulative Gain und Expected Reciprocal Rank her. Eine empirische Studie zur Evaluierung von Suchmaschinen zeigt, dass die neu entwickelten Verfahren signifikant genauere Schätzungen der Rankingqualität liefern als die untersuchten Referenzverfahren. KW - Aktive Evaluierung KW - Vorhersagemodelle KW - Maschinelles Lernen KW - Fehlerschätzung KW - Statistische Tests KW - Active Evaluation KW - Predictive Models KW - Machine Learning KW - Error Estimation KW - Statistical Tests Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65583 SN - 978-3-86956-255-1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Müller, Jürgen J. T1 - A real-time in-memory discovery service Y1 - 2012 CY - Potsdam ER - TY - THES A1 - Oskinova, Lida T1 - A new understanding of the structured winds from massive stars : the implications for their X-ray emission, mass-loss diagnostics, and feedback Y1 - 2012 CY - Potsdam ER - TY - THES A1 - Scherfenberg, Ivonne T1 - A logic-based Framwork to enable Attribute Assurance for Digital Identities in Service-oriented Architectures and the Web Y1 - 2012 CY - Potsdam ER - TY - THES A1 - Paschke, Marco T1 - A highly resolved P-velocity image of the Messum igneous complex in Namibia obtained by waveform tomography Y1 - 2012 CY - Potsdam ER - TY - THES A1 - Klar, Jochen T1 - A detailed view of filaments and sheets of the warm-hot intergalactic medium T1 - Eine detaillierte Ansicht der Filamente und Ebenen des warm-heißen intergalaktischen Mediums N2 - In the context of cosmological structure formation sheets, filaments and eventually halos form due to gravitational instabilities. It is noteworthy, that at all times, the majority of the baryons in the universe does not reside in the dense halos but in the filaments and the sheets of the intergalactic medium. While at higher redshifts of z > 2, these baryons can be detected via the absorption of light (originating from more distant sources) by neutral hydrogen at temperatures of T ~ 10^4 K (the Lyman-alpha forest), at lower redshifts only about 20 % can be found in this state. The remain (about 50 to 70 % of the total baryons mass) is unaccounted for by observational means. Numerical simulations predict that these missing baryons could reside in the filaments and sheets of the cosmic web at high temperatures of T = 10^4.5 - 10^7 K, but only at low to intermediate densities, and constitutes the warm-hot intergalactic medium (WHIM). The high temperatures of the WHIM are caused by the formation of shocks and the subsequent shock-heating of the gas. This results in a high degree of ionization and renders the reliable detection of the WHIM a challenging task. Recent high-resolution hydrodynamical simulations indicate that, at redshifts of z ~ 2, filaments are able to provide very massive galaxies with a significant amount of cool gas at temperatures of T ~ 10^4 K. This could have an important impact on the star-formation in those galaxies. It is therefore of principle importance to investigate the particular hydro- and thermodynamical conditions of these large filament structures. Density and temperature profiles, and velocity fields, are expected to leave their special imprint on spectroscopic observations. A potential multiphase structure may act as tracer in observational studies of the WHIM. In the context of cold streams, it is important to explore the processes, which regulate the amount of gas transported by the streams. This includes the time evolution of filaments, as well as possible quenching mechanisms. In this context, the halo mass range in which cold stream accretion occurs is of particular interest. In order to address these questions, we perform particular hydrodynamical simulations of very high resolution, and investigate the formation and evolution of prototype structures representing the typical filaments and sheets of the WHIM. We start with a comprehensive study of the one-dimensional collapse of a sinusoidal density perturbation (pancake formation) and examine the influence of radiative cooling, heating due to an UV background, thermal conduction, and the effect of small-scale perturbations given by the cosmological power spectrum. We use a set of simulations, parametrized by the wave length of the initial perturbation L. For L ~ 2 Mpc/h the collapse leads to shock-confined structures. As a result of radiative cooling and of heating due to an UV background, a relatively cold and dense core forms. With increasing L the core becomes denser and more concentrated. Thermal conduction enhances this trend and may lead to an evaporation of the core at very large L ~ 30 Mpc/h. When extending our simulations into three dimensions, instead of a pancake structure, we obtain a configuration consisting of well-defined sheets, filaments, and a gaseous halo. For L > 4 Mpc/h filaments form, which are fully confined by an accretion shock. As with the one-dimensional pancakes, they exhibit an isothermal core. Thus, our results confirm a multiphase structure, which may generate particular spectral tracers. We find that, after its formation, the core becomes shielded against further infall of gas onto the filament, and its mass content decreases with time. In the vicinity of the halo, the filament's core can be attributed to the cold streams found in other studies. We show, that the basic structure of these cold streams exists from the very beginning of the collapse process. Further on, the cross section of the streams is constricted by the outwards moving accretion shock of the halo. Thermal conduction leads to a complete evaporation of the cold stream for L > 6 Mpc/h. This corresponds to halos with a total mass higher than M_halo = 10^13 M_sun, and predicts that in more massive halos star-formation can not be sustained by cold streams. Far away from the gaseous halo, the temperature gradients in the filament are not sufficiently strong for thermal conduction to be effective. N2 - Im Rahmen der kosmologischen Strukturbildung entstehen durch Gravitationsinstabilitäten Flächen, Filamente und schließlich Halos. Interessanterweise befinden sich zu jedem Zeitpunkt der kosmologischen Entwicklung der Großteil der Baryonen nicht in den Halos, sondern in den Filamenten und Ebenen des intergalaktischen Mediums. Während diese Baryonen bei höheren Rotverschiebungen (z ~ 2) noch in Form durch die Absorbtion von Licht (von weit entfernteren Quellen) durch neutralen Wasserstoff bei einer Temperatur von T ~ 10^4 K beobachtbar sind (Lyman-Alpha Wald), gilt dies bei niedrigeren Rotverschiebungen für nur noch ca. 20 % der Baryonen. Der überwiegende Teil (ca. 50-70 % der gesamten baryonischen Masse) sind bisher noch nicht direkt beobachtbar. Numerische Simulationen sagen jedoch voraus, das sich diese Baryonen in den Filamenten und Flächen des kosmischen Netzes befinden. Die entsprechende Gasverteilung zeichnet sich durch hohe Temperaturen T = 10^5 - 10^7 K und geringe bis mittlere Dichten aus und wird als warm-heißes intergalaktisches Medium (WHIM) bezeichnet. Die hohen Temperaturen entstehen in Folge der Bildung von Stoßwellen und der darauf folgenden Erhitzung des Gases (shock-heating). Das WHIM ist daher hochgradig ionisiert und sein verlässlicher Nachweis stellt eine große Herausforderung für die beobachtende Kosmologie dar. Neuere hydrodynamische Simulationen zeigen, dass sich bei höheren Rotverschiebungen von z ~ 2 Gasströmungen entlang der Filamente bilden, die massive Galaxien mit erheblichen Mengen an relativ kaltem Gas (T ~ 10^4 K) versorgen können. Dies hätte einen erheblichen Einfluss auf die Sternentstehung in diesen Galaxien. Es ist daher von grundsätzlichem Interesse, die spezifischen hydro- und thermodynamischen Bedingungen in den Strukturen des WHIM zu untersuchen. Sowohl Dichte- und Temperaturprofile als auch Geschwindigkeitsfelder prägen spektroskopische Beobachtungen. Eine mögliche Mehrphasenstruktur des WHIM könnte daher als Indikator in beobachtenden Studien dienen. Im Zusammenhang mit den kalten Strömen ist es besonders interessant, Prozesse zu untersuchen die den Zufluss von kaltem Gas zu den Galaxien regulieren. Dies umfasst die Zeitentwicklung des Anteils an kaltem Gas in den Filamenten, sowie mögliche Mechanismen, die zum Versiegen des Zuflusses von kaltem Gas auf die Galaxienscheibe führen. Um diese Zusammenhänge zu erforschen, führen wir spezielle hydrodynamische Simulationen mit sehr hoher Auflösung durch, die zu ausgewählten, wohldefinierten Strukturen führen, die das WHIM charakterisieren. Wir beginnen mit einer ausführlichen Untersuchung des eindimensionalen Kollaps einer sinusförmigen Störung (pancake formation). Hierbei untersuchen wir den Einfluss von Strahlungkühlung, Heizung durch den intergalaktischen UV Hintergrund, Wärmeleitung, sowie von kleinskaligen Störungen, welche dem kosmologischen Störungsspektrum folgen. Wir benutzen hierbei eine Reihe von Simulationen, welche die Längenskala der anfänglichen Störung L als Parameter verwenden. Für L ~ 2 Mpc/h führt der Kollaps zur Ausbildung einer Stoßwelle. Zusätzlich entsteht als Folge der Strahlungskühlung und der Heizung durch den UV Hintergrund ein relativ dichter und kalter isothermer Kern. Mit ansteigendem L wird dieser Kern dichter und kompakter. Durch Wärmeleitung reduziert sich die räumliche Ausdehnung des Kerns. Für L ~ 30 Mpc/h führt dies zu einem Verschwinden des Kerns. Mit der Erweiterung unserer Methodik auf dreidimensionale Simulationen, entsteht nun eine Konfiguration, welche aus wohldefinierten Flächen, Filamenten und einem gasförmigen Halo besteht. Für L > 4 Mpc/h, erhalten wir Filamente, die vollständig durch Akkretionsschocks begrenzt sind. Wie in unseren eindimensionalen Simulationen weisen auch sie einen isothermen Kern auf. Dies legt nahe, dass das WHIM eine Mehrphasenstruktur besitzt und mögliche Spektralsignaturen erzeugen kann. Nach seiner Entstehung ist der Kern gegen weiteren Zufluss von Gas abgeschirmt und seine Masse reduziert sich mit der Zeit. In der direkten Umgebung des Halos entspricht der Kern des Filamentes den oben angesprochenen kalten Strömen. Unsere Untersuchung zeigt, dass diese während der gesamten Entwicklung des Halos existent sind. In der weiteren Entwicklung werden sie durch den expandierenden Akkretionsschock des Halos verengt. Ab einer Skala von L > 6 Mpc/h kann Wärmeleitung zu einem Verschwinden des Zustroms von kaltem Gas führen. Diese Skala entspricht Halos mit einer Gesamtmasse von M_halo = 10^13 M_sun. Galaxien, die sich in noch massiveren Halos bilden, können daher nicht durch kalte Ströme mit Gas für die Sternentstehung versorgt werden. Im Filament, weit außerhalb des gasförmigen Halos, sind die Temperaturgradienten zu klein, um effiziente Wärmeleitung zu ermöglichen. KW - Kosmologie KW - Hydrodynamik KW - Intergalaktisches Medium KW - cosmology KW - hydrodynamics KW - intergalactic medium Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58038 ER - TY - THES A1 - Hennemann, Anja T1 - A context-sensitive and funktional approach to evidentiality in Spanish or why evidentiality needs a superordinate category T2 - Potsdam Linguistic Investigations Y1 - 2012 SN - 978-3-631-62636-8 VL - 10 PB - Peter Lang CY - Frankfurt am Main, New York ER - TY - THES A1 - Swierczynski, Tina T1 - A 7000 yr runoff chronology from varved sediments of Lake Mondsee (Upper Austria) T1 - Eine 7000-jährige Abflusschronologie anhand von warvierten Sedimenten des Mondsees (Oberösterreich) N2 - The potential increase in frequency and magnitude of extreme floods is currently discussed in terms of global warming and the intensification of the hydrological cycle. The profound knowledge of past natural variability of floods is of utmost importance in order to assess flood risk for the future. Since instrumental flood series cover only the last ~150 years, other approaches to reconstruct historical and pre-historical flood events are needed. Annually laminated (varved) lake sediments are meaningful natural geoarchives because they provide continuous records of environmental changes > 10000 years down to a seasonal resolution. Since lake basins additionally act as natural sediment traps, the riverine sediment supply, which is preserved as detrital event layers in the lake sediments, can be used as a proxy for extreme discharge events. Within my thesis I examined a ~ 8.50 m long sedimentary record from the pre-Alpine Lake Mondsee (Northeast European Alps), which covered the last 7000 years. This sediment record consists of calcite varves and intercalated detrital layers, which range in thickness from 0.05 to 32 mm. Detrital layer deposition was analysed by a combined method of microfacies analysis via thin sections, Scanning Electron Microscopy (SEM), μX-ray fluorescence (μXRF) scanning and magnetic susceptibility. This approach allows characterizing individual detrital event layers and assigning a corresponding input mechanism and catchment. Based on varve counting and controlled by 14C age dates, the main goals of this thesis are (i) to identify seasonal runoff processes, which lead to significant sediment supply from the catchment into the lake basin and (ii) to investigate flood frequency under changing climate boundary conditions. This thesis follows a line of different time slices, presenting an integrative approach linking instrumental and historical flood data from Lake Mondsee in order to evaluate the flood record inferred from Lake Mondsee sediments. The investigation of eleven short cores covering the last 100 years reveals the abundance of 12 detrital layers. Therein, two types of detrital layers are distinguished by grain size, geochemical composition and distribution pattern within the lake basin. Detrital layers, which are enriched in siliciclastic and dolomitic material, reveal sediment supply from the Flysch sediments and Northern Calcareous Alps into the lake basin. These layers are thicker in the northern lake basin (0.1-3.9 mm) and thinner in the southern lake basin (0.05-1.6 mm). Detrital layers, which are enriched in dolomitic components forming graded detrital layers (turbidites), indicate the provenance from the Northern Calcareous Alps. These layers are generally thicker (0.65-32 mm) and are solely recorded within the southern lake basin. In comparison with instrumental data, thicker graded layers result from local debris flow events in summer, whereas thin layers are deposited during regional flood events in spring/summer. Extreme summer floods as reported from flood layer deposition are principally caused by cyclonic activity from the Mediterranean Sea, e.g. July 1954, July 1997 and August 2002. During the last two millennia, Lake Mondsee sediments reveal two significant flood intervals with decadal-scale flood episodes, during the Dark Ages Cold Period (DACP) and the transition from the Medieval Climate Anomaly (MCA) into the Little Ice Age (LIA) suggesting a linkage of transition to climate cooling and summer flood recurrences in the Northeastern Alps. In contrast, intermediate or decreased flood episodes appeared during the MWP and the LIA. This indicates a non-straightforward relationship between temperature and flood recurrence, suggesting higher cyclonic activity during climate transition in the Northeast Alps. The 7000-year flood chronology reveals 47 debris flows and 269 floods, with increased flood activity shifting around 3500 and 1500 varve yr BP (varve yr BP = varve years before present, before present = AD 1950). This significant increase in flood activity shows a coincidence with millennial-scale climate cooling that is reported from main Alpine glacier advances and lower tree lines in the European Alps since about 3300 cal. yr BP (calibrated years before present). Despite relatively low flood occurrence prior to 1500 varve yr BP, floods at Lake Mondsee could have also influenced human life in early Neolithic lake dwellings (5750-4750 cal. yr BP). While the first lake dwellings were constructed on wetlands, the later lake dwellings were built on piles in the water suggesting an early flood risk adaptation of humans and/or a general change of the Late Neolithic Culture of lake-dwellers because of socio-economic reasons. However, a direct relationship between the final abandonment of the lake dwellings and higher flood frequencies is not evidenced. N2 - Ein verstärktes Auftreten von Hochwassern, sowohl in ihrer Häufigkeit als auch in ihrer Frequenz, wird im Zuge der Klimaerwärmung und einer möglichen Intensivierung des hydrologischen Kreislaufs diskutiert. Die Kenntnis über die natürliche Variabilität von Hochwasserereignissen ist dabei eine grundlegende Voraussetzung, um die Hochwassergefahr für die Zukunft abschätzen zu können. Da instrumentelle Hochwasserzeitreihen meist nur die letzten 150 Jahre abbilden sind andere Methoden erforderlich, um das Auftreten von historischen und prä-historischen Hochwassern festzustellen. Jährlich laminierte (warvierte) Seesedimente sind bedeutende natürliche Archive, denn sie liefern kontinuierliche Zeitreihen > 10000 Jahre mit einer bis zur saisonalen Auflösung. Seebecken stellen natürliche Sedimentfallen dar, wobei eingetragenes Flusssediment in den Seesedimenten als eine distinkte detritische Lage aufgezeichnet wird, und daher zur Rekonstruktion von extremen Abflussereignissen genutzt werden. Im Rahmen meiner Doktorarbeit habe ich einen 8.50 m langen Sedimentkern aus dem Mondsee (Nordostalpen) untersucht, welcher die letzten 7000 Jahre abdeckt. Dieser Sedimentkern besteht aus Kalzitwarven und eingeschalteten detritischen Lagen mit einer Mächtigkeit von 0.05-32 mm. Detritische Lagen wurden mit Hilfe einer kombinierten Methode untersucht: Mikrofaziesanalyse, Rasterelektronenmikroskopie, Röntgenfluoreszenzanalyse (µXRF) und magnetische Suszeptibilität. Dieser Ansatz ermöglicht die Charakterisierung der einzelnen detritischen Lagen bezüglich der Eintragsprozesse und die Lokalisierung des Einzugsgebietes. Auf Grundlage der Warvenzählung und 14C Datierungen sind die wichtigsten Ziele dieser Arbeit: (i) die Identifizierung der Eintragsprozesse, welche zu einem Sedimenteintrag vom Einzugsgebiet bis in den See führen und (ii) die Rekonstruktion der Hochwasserfrequenz unter veränderten Klimabedingungen. Diese Arbeit zeigt eine Untersuchung auf verschiedenen Zeitscheiben, wobei instrumentelle und historische Daten genutzt werden, um die Aufzeichnung von pre-historischen Hochwasser in den Mondseesedimenten besser zu verstehen. Innerhalb der letzten 100 Jahre wurden zwölf Abflussereignisse aufgezeichnet. Zwei Typen von detritschen Lagen können anhand von Korngröße, geochemischer Zusammensetzung und des Verteilungsmusters unterschieden werden. Detritische Lagen, welche aus siliziklastischen und dolomitischen Material bestehen, zeigen eine Sedimentherkunft vom Teileinzugsgebiet des Flysch (nördliches Einzugsgebiet) und der Nördlichen Kalkalpen (südliches Teileinzugsgebiet) auf. Diese Lagen sind im Nördlichen Becken mächtiger (0.1-3.9 mm) als im südlichen Seebecken (0.05-1.6 mm). Detritische Lagen, welche nur aus dolomitischem Material bestehen und Turbititlagen aufzeigen (0.65-32 mm), weisen auf eine Herkunft aus den Nördlichen Kalkalpen hin. Im Vergleich mit instrumentellen Zeitreihen, stammen die mächtigeren Lagen von lokalen Murereignissen im Sommer und feinere Eintragslagen von regionalen Frühjahrs- und Sommerhochwassern. Extreme Sommerhochwasser am Mondsee werden hauptsächlich durch Zyklonen vom Mittelmeer ausgelöst, z.B. Juli 1954, Juli 1997 und August 2002. Die Untersuchung des langen Sedimentkerns vom Mondsee zeigt während der letzten 2000 Jahre signifikante Hochwasserintervalle mit dekadischen Hochwasserepisoden während der Völkerwanderungszeit und im Übergang vom Mittelalter in die Kleine Eiszeit. Dies weist auf eine Verknüpfung von Abkühlungsphasen und Sommerhochwassern im Nordostalpenraum hin. Während der Mittelalterlichen Wärmephase und in der Kleinen Eiszeit kam es jedoch zu einer geringeren Hochwasseraktivität. Dies zeigt einen komplexen Zusammenhang von Temperaturentwicklung und Hochwasseraktivität in den Nordostalpen, mit einer erhöhten Zyklonenaktivät in den Übergängen von wärmeren zu kälteren Phasen. Während der letzten 7000 Jahre wurden 47 Muren und 269 Hochwasser aufgezeichnet, wobei es eine signifikante Änderung mit erhöhter Häufigkeit um 3500 und 1500 Warvenjahre v. h. gab (v.h. = vor heute = AD 1950). Diese signifikante Änderung stimmt mit einem langfristigem Abkühlungstrend überein, welcher durch alpine Gletschervorstöße und das Absinken von Baumgrenzen seit etwa 3300 Warvenjahre v.h. berichtet wird. Trotz relativ geringer Hochwasseraktivität um 1500 Warvenjahre v.h., könnte das Auftreten von Hochwasser auch das Leben Menschen in Neolithischen Pfahlbausiedlungen (5750-4750 cal. yr BP) beeinflusst haben. Während die ersten Pfahlbauten noch als Feuchtbodensiedlungen am Land entstanden, wurden spätere Siedlungen eventuell als Anpassung an stark schwankenden Seewasserspiegeln auf Pfählen im Wasser gebaut und/oder zeigen eine allgemeine Veränderung der Siedlungsaktivitäten der Neolithischen Pfahlbaukultur an, aufgrund sozio-ökonomischer Veränderungen. Ein direkter Zusammenhang zwischen dem Verlassen der Pfahlbausiedlungen und einer erhöhten Hochwasseraktivität konnte jedoch nicht festgestellt werden. KW - Mondsee KW - Paläohochwasser KW - Seesedimente KW - Warven KW - Klimarekonstruktion KW - Mondsee KW - Paleofloods KW - Lake sediments KW - Warves KW - Climate reconstruction Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66702 ER -