TY - THES A1 - Koç, Gamze T1 - A comprehensive analysis of severe flood events in Turkey T1 - Eine ausführliche Analyse schwerer Flutereignisse in der Türkei BT - event documentation, triggering mechanisms and impact modelling BT - Ereignisdokumentation, Auslösemechanismen und Auswirkungsmodellierung N2 - Over the past decades, natural hazards, many of which are aggravated by climate change and reveal an increasing trend in frequency and intensity, have caused significant human and economic losses and pose a considerable obstacle to sustainable development. Hence, dedicated action toward disaster risk reduction is needed to understand the underlying drivers and create efficient risk mitigation plans. Such action is requested by the Sendai Framework for Disaster Risk Reduction 2015-2030 (SFDRR), a global agreement launched in 2015 that establishes stating priorities for action, e.g. an improved understanding of disaster risk. Turkey is one of the SFDRR contracting countries and has been severely affected by many natural hazards, in particular earthquakes and floods. However, disproportionately little is known about flood hazards and risks in Turkey. Therefore, this thesis aims to carry out a comprehensive analysis of flood hazards for the first time in Turkey from triggering drivers to impacts. It is intended to contribute to a better understanding of flood risks, improvements of flood risk mitigation and the facilitated monitoring of progress and achievements while implementing the SFDRR. In order to investigate the occurrence and severity of flooding in comparison to other natural hazards in Turkey and provide an overview of the temporal and spatial distribution of flood losses, the Turkey Disaster Database (TABB) was examined for the years 1960-2014. The TABB database was reviewed through comparison with the Emergency Events Database (EM-DAT), the Dartmouth Flood Observatory database, the scientific literature and news archives. In addition, data on the most severe flood events between 1960 and 2014 were retrieved. These served as a basis for analyzing triggering mechanisms (i.e. atmospheric circulation and precipitation amounts) and aggravating pathways (i.e. topographic features, catchment size, land use types and soil properties). For this, a new approach was developed and the events were classified using hierarchical cluster analyses to identify the main influencing factor per event and provide additional information about the dominant flood pathways for severe floods. The main idea of the study was to start with the event impacts based on a bottom-up approach and identify the causes that created damaging events, instead of applying a model chain with long-term series as input and searching for potentially impacting events as model outcomes. However, within the frequency analysis of the flood-triggering circulation pattern types, it was discovered that events in terms of heavy precipitation were not included in the list of most severe floods, i.e. their impacts were not recorded in national and international loss databases but were mentioned in news archives and reported by the Turkish State Meteorological Service. This finding challenges bottom-up modelling approaches and underlines the urgent need for consistent event and loss documentation. Therefore, as a next step, the aim was to enhance the flood loss documentation by calibrating, validating and applying the United Nations Office for Disaster Risk Reduction (UNDRR) loss estimation method for the recent severe flood events (2015-2020). This provided, a consistent flood loss estimation model for Turkey, allowing governments to estimate losses as quickly as possible after events, e.g. to better coordinate financial aid. This thesis reveals that, after earthquakes, floods have the second most destructive effects in Turkey in terms of human and economic impacts, with over 800 fatalities and US$ 885.7 million in economic losses between 1960 and 2020, and that more attention should be paid on the national scale. The clustering results of the dominant flood-producing mechanisms (e.g. circulation pattern types, extreme rainfall, sudden snowmelt) present crucial information regarding the source and pathway identification, which can be used as base information for hazard identification in the preliminary risk assessment process. The implementation of the UNDRR loss estimation model shows that the model with country-specific parameters, calibrated damage ratios and sufficient event documentation (i.e. physically damaged units) can be recommended in order to provide first estimates of the magnitude of direct economic losses, even shortly after events have occurred, since it performed well when estimates were compared to documented losses. The presented results can contribute to improving the national disaster loss database in Turkey and thus enable a better monitoring of the national progress and achievements with regard to the targets stated by the SFDRR. In addition, the outcomes can be used to better characterize and classify flood events. Information on the main underlying factors and aggravating flood pathways further supports the selection of suitable risk reduction policies. All input variables used in this thesis were obtained from publicly available data. The results are openly accessible and can be used for further research. As an overall conclusion, it can be stated that consistent loss data collection and better event documentation should gain more attention for a reliable monitoring of the implementation of the SFDRR. Better event documentation should be established according to a globally accepted standard for disaster classification and loss estimation in Turkey. Ultimately, this enables stakeholders to create better risk mitigation actions based on clear hazard definitions, flood event classification and consistent loss estimations. N2 - In den letzten Jahrzehnten verursachten Naturgefahren hohe humanitäre und wirtschaftliche Verluste, wobei viele dieser Ereignisse durch den Klimawandel verstärkt werden und einen zunehmenden Trend in Häufigkeit und Schwere aufweisen. Daher sind gezielte Verfahren zur Reduzierung von Katastrophenrisiken erforderlich, um zugrundeliegende Treiber zu verstehen und effektive Risikominderungspläne zu erstellen. Solche Verfahren werden durch das Sendai-Rahmenwerk für Katastrophenvorsorge 2015-2030 (SFDRR) eingefordert. Das SFDRR ist, ein internationales Rahmenwerk, das 2015 verabschiedet wurde und prioritäre Maßnahmen festlegt, z.B. eine Verbesserung der Wissensgrundlagen zum Katastrophenrisiko. Die Türkei ist eines der SFDRR-Vertragsländer und wurde in der Vergangenheit von vielen Naturgefahren, insbesondere Erdbeben und Überschwemmungen schwer getroffen. Über die Hochwassergefahren und -risiken in der Türkei ist jedoch vergleichsweise wenig bekannt. In dieser Arbeit wird daher zum ersten Mal eine umfassende Analyse der Hochwassergefahren in der Türkei durchgeführt, von den auslösenden Ursachen bis hin zu den Auswirkungen. Ziel ist es, das Verständnis über Hochwasserrisiken zu verbessern, Studien zur Minderung des Hochwasserrisikos anzuregen und das Monitoring der Fortschritte und Zielerreichung bei der Umsetzung des SFDRR zu erleichtern. Um das Auftreten und die Stärke von Überschwemmungen im Vergleich zu anderen Naturgefahren in der Türkei zu untersuchen und einen Überblick über die raumzeitliche Verteilung von Hochwasserschäden, wurde die Turkey Disaster Database (TABB) für den Zeitraum 1960 bis 2014 ausgewertet. Die TABB Datenbank wurde durch Vergleiche mit der Emergency Events Datenbank (EM-DAT), der Dartmouth Flood Observatory Datenbank, wissenschaftlicher Literatur und Nachrichtenarchive überprüft. Zudem wurden die stärksten Überschwemmungen zwischen 1960 und 2014 identifiziert. Diese bildeten die Basis für eine Analyse der Auslösemechanismen (bspw. atmosphärische Zirkulationsmuster und Niederschlagsmengen) und verstärkende Wirkungspfade (z.B. topographische Eigenschaften, Größe der Einzugsgebiete, Landnutzung und Bodeneigenschaften). Dafür wurde ein neues Verfahren entwickelt, und die Ereignisse wurden mithilfe von hierarchischen Clusteranalysen klassifiziert, um die Haupteinflussfaktoren pro Ereignis zu identifizieren und zusätzliche Informationen über die dominanten Wirkungspfade bei schweren Überschwemmungen bereitzustellen. Die grundlegende Idee dieser Arbeit bestand darin, bei den Ereignisauswirkungen als Bottom-up-Ansatz zu beginnen und die Ursachen für Schadensereignisse zu identifizieren, anstatt eine Modellkette mit Langzeitreihen als Eingabe anzuwenden und darin nach potenziellen Schadensereignissen zu suchen. Bei der Häufigkeitsanalyse von hochwasserauslösenden Zirkulationsmustern wurde jedoch festgestellt, dass einige schwer Niederschlagsereignisse nicht in der Liste der schwersten Hochwasserereignisse waren, d.h., ihre Auswirkungen waren nicht in nationalen und internationalen Schadensdatenbanken dokumentiert, wurden jedoch in Nachrichtenarchiven erwähnt und vom türkischen staatlichen Wetterdienst gemeldet. Dieses Erkenntnis stellt den Bottom-up-Modelansatz in Frage und unterstreicht die Dringlichkeit einer konsistenten Ereignis- und Schadensdokumentation. Daher wurde im nächsten Schritt gezielt das Schadenmodell der Vereinten Nationen für Katastrophenvorsorge (UNDRR) für kürzlich aufgetretene starke Flutereignisse (2015-2020) angepasst, validiert und angewendet. Damit wurde ein konsistentes Hochwasserschadenmodell für die Türkei bereitgestellt, das es den Behörden ermöglicht, Verluste so schnell wie möglich nach Ereignissen abzuschätzen, zum Beispiel um eine bessere Koordination von finanziellen Hilfen zu gewährleisten. Diese Arbeit zeigt, dass Überschwemmungen mit mehr als 800 Todesfällen und 885,7 Millionen US Dollar wirtschaftlichen Schaden zwischen 1960 und 2020 nach Erdbeben den zweit höchsten zerstörerischen Effekt in der Türkei in Bezug auf humanitäre und wirtschaftliche Auswirkungen haben. Daher sollte dieses Thema mehr Aufmerksamkeit auf nationaler Ebene erhalten. Die Cluster-Ergebnisse der dominanten hochwasser-auslösenden Mechanismen (z.B. Zirkulationsmuster, Starkniederschlag, plötzliche Schneeschmelze) erhalten wichtige Informationen zur Quell- und Pfad-Identifikation, welche als Basisinformation für Gefahren-identifikation in der vorläufigen Risikoeinschätzung dienen kann. Die Implementierung des UNDRR-Schadenmodells zeigt, dass das Modell mit länderspezifischen Parametern, kalibrierten Schadensgraden und ausreichender Ereignisdokumentation (d.h. physischer geschädigte Einheiten) empfohlen werden kann, um erste Schätzungen zur Höhe der direkten wirtschaftlichen Schäden bereitzustellen -- auch unmittelbar nach Eintreten von Ereignissen, da die Modellschätzungen im Vergleich mit dokumentierten Verlusten gut übereinstimmten. Die präsentierten Ergebnisse können dazu beitragen, die nationale Schadensdatenbank der Türkei zu verbessern, und somit ein besseres Monitoring der nationalen Fortschritte und Erfolge im Hinblick auf die Ziele des SFDRR ermöglichen. Zusätzlich können die Ergebnisse für eine bessere Charakterisierung und Klassifizierung von Hochwasserereignissen verwendet werden. Informationen zu den zugrundeliegenden Einflussfaktoren und verstärkenden Wirkungspfaden unterstützen die Auswahl geeigneter Risikomanagementstrategien. Alle Eingabevariablen dieser Arbeit wurden aus öffentlich verfügbaren Daten bezogen. Die Ergebnisse sind zugänglich und können für die weitere Forschung verwendet werden. Insgesamt konnte festgestellt werden, dass die konsistente Erfassung von Schadensdaten und eine bessere Ereignisdokumentation mehr Beachtung finden muss, um die Implementierung des SFDRR verlässlich zu überwachen. Bessere Ereignisdokumentationen sollten nach einem weltweit anerkannten Standard für Gefahrenklassifizierung und Schadensabschätzung in der Türkei etabliert werden. Letztendlich ermöglicht dies den Verantwortlichen auf Basis von eindeutigen Gefahrendefinitionen, Hochwasser-Ereignisklassifizierungen und konsistenten Schadenschätzungen bessere Maßnahmen zur Risikominderung zu erarbeiten. KW - Flood hazards KW - Turkey KW - Triggering mechanisms KW - Cluster analysis KW - Hochwassergefahren KW - Türkei KW - Auslösemechanismen KW - Clusteranalyse KW - Impact modelling KW - Schadenmodell Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-517853 ER - TY - THES A1 - Awad, Ahmed Mahmoud Hany Aly T1 - A compliance management framework for business process models T1 - Ein Compliance-Management-Framework für Geschäftsprozessmodelle N2 - Companies develop process models to explicitly describe their business operations. In the same time, business operations, business processes, must adhere to various types of compliance requirements. Regulations, e.g., Sarbanes Oxley Act of 2002, internal policies, best practices are just a few sources of compliance requirements. In some cases, non-adherence to compliance requirements makes the organization subject to legal punishment. In other cases, non-adherence to compliance leads to loss of competitive advantage and thus loss of market share. Unlike the classical domain-independent behavioral correctness of business processes, compliance requirements are domain-specific. Moreover, compliance requirements change over time. New requirements might appear due to change in laws and adoption of new policies. Compliance requirements are offered or enforced by different entities that have different objectives behind these requirements. Finally, compliance requirements might affect different aspects of business processes, e.g., control flow and data flow. As a result, it is infeasible to hard-code compliance checks in tools. Rather, a repeatable process of modeling compliance rules and checking them against business processes automatically is needed. This thesis provides a formal approach to support process design-time compliance checking. Using visual patterns, it is possible to model compliance requirements concerning control flow, data flow and conditional flow rules. Each pattern is mapped into a temporal logic formula. The thesis addresses the problem of consistency checking among various compliance requirements, as they might stem from divergent sources. Also, the thesis contributes to automatically check compliance requirements against process models using model checking. We show that extra domain knowledge, other than expressed in compliance rules, is needed to reach correct decisions. In case of violations, we are able to provide a useful feedback to the user. The feedback is in the form of parts of the process model whose execution causes the violation. In some cases, our approach is capable of providing automated remedy of the violation. N2 - Firmen entwickeln Prozessmodelle um ihre Geschäftstätigkeit explizit zu beschreiben. Geschäftsprozesse müssen verschiedene Arten von Compliance-Anforderungen einhalten. Solche Compliance-Anforderungen entstammen einer Vielzahl von Quellen, z.B. Verordnung wie dem Sarbanes Oxley Act von 2002, interne Richtlinien und Best Practices. Die Nichteinhaltung von Compliance-Anforderungen kann zu gesetzlichen Strafen oder dem Verlust von Wettbewerbsvorteilen und somit dem Verlust von Marktanteilen führen. Im Gegensatz zum klassischen, domänen-unabhängigen Begriff der Korrektheit von Geschäftsprozessen, sind Compliance-Anforderungen domain-spezifisch und ändern sich im Laufe der Zeit. Neue Anforderungen resultieren aus neuen Gesetzen und der Einführung neuer Unternehmensrichtlinien. Aufgrund der Vielzahl der Quellen für Compliance-Anforderungen, können sie unterschiedliche Ziele verfolgen und somit widersprüchliche Aussagen treffen. Schließlich betreffen Compliance-Anforderungen verschiedene Aspekte von Geschäftsprozessen, wie Kontrollfluss- und Datenabhängigkeiten. Auf Grund dessen können Compliance-Prüfungen nicht direkt Hard-coded werden. Vielmehr ist ein Prozess der wiederholten Modellierung von Compliance-Regeln und ihrer anschließenden automatischen Prüfung gegen die Geschäftsprozesse nötig. Diese Dissertation stellt einen formalen Ansatz zur Überprüfung der Einhaltung von Compliance-Regeln während der Spezifikation von Geschäftsprozessen vor. Mit visuellen Mustern ist es möglich, Compliance-Regeln hinsichtlich Kontrollfluss- und Datenabhängigkeiten sowie bedingte Regeln zu spezifizieren. Jedes Muster wird in eine Formel der temporalen Logik abgebildet. Die Dissertation behandelt das Problem der Konsistenzprüfung zwischen verschiedenen Compliance-Anforderungen, wie sie sich aus unterschiedlichen Quellen ergeben können. Ebenfalls zeigt diese Dissertation, wie Compliance-Regeln gegen die Geschäftsprozesse automatisch mittels Model Checking geprüft werden. Es wird aufgezeigt, dass zusätzliche Domänen-Kenntnisse notwendig sind, um richtige Entscheidungen zu treffen. Der vorgestelle Ansatz ermöglicht nützliches Feedback für Modellierer im Fall eines Compliance-Verstoßes. Das Feedback wird in Form von Teilen des Prozessmodells gegeben, deren Ausführung die Verletzung verursacht. In einigen Fällen ist der vorgestellte Ansatz in der Lage, den Compliance-Verstoß automatisch zu beheben. KW - Geschäftsprozessmodelle KW - Compliance KW - Temporallogik KW - Verletzung Erklärung KW - Verletzung Auflösung KW - Business Process Models KW - Compliance KW - Temporal Logic KW - Violation Explanation KW - Violation Resolution Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49222 ER - TY - THES A1 - Pilz, Marco T1 - A comparison of proxies for seismic site conditions and amplification for the large urban area of Santiago de Chile T1 - Ein Vergleich seismischer Parameter für die Standort- und Verstärkungsabschätzung im Stadtgebiet von Santiago de Chile N2 - Situated in an active tectonic region, Santiago de Chile, the country´s capital with more than six million inhabitants, faces tremendous earthquake hazard. Macroseismic data for the 1985 Valparaiso and the 2010 Maule events show large variations in the distribution of damage to buildings within short distances indicating strong influence of local sediments and the shape of the sediment-bedrock interface on ground motion. Therefore, a temporary seismic network was installed in the urban area for recording earthquake activity, and a study was carried out aiming to estimate site amplification derived from earthquake data and ambient noise. The analysis of earthquake data shows significant dependence on the local geological structure with regards to amplitude and duration. Moreover, the analysis of noise spectral ratios shows that they can provide a lower bound in amplitude for site amplification and, since no variability in terms of time and amplitude is observed, that it is possible to map the fundamental resonance frequency of the soil for a 26 km x 12 km area in the northern part of the Santiago de Chile basin. By inverting the noise spectral rations, local shear wave velocity profiles could be derived under the constraint of the thickness of the sedimentary cover which had previously been determined by gravimetric measurements. The resulting 3D model was derived by interpolation between the single shear wave velocity profiles and shows locally good agreement with the few existing velocity profile data, but allows the entire area, as well as deeper parts of the basin, to be represented in greater detail. The wealth of available data allowed further to check if any correlation between the shear wave velocity in the uppermost 30 m (vs30) and the slope of topography, a new technique recently proposed by Wald and Allen (2007), exists on a local scale. While one lithology might provide a greater scatter in the velocity values for the investigated area, almost no correlation between topographic gradient and calculated vs30 exists, whereas a better link is found between vs30 and the local geology. When comparing the vs30 distribution with the MSK intensities for the 1985 Valparaiso event it becomes clear that high intensities are found where the expected vs30 values are low and over a thick sedimentary cover. Although this evidence cannot be generalized for all possible earthquakes, it indicates the influence of site effects modifying the ground motion when earthquakes occur well outside of the Santiago basin. Using the attained knowledge on the basin characteristics, simulations of strong ground motion within the Santiago Metropolitan area were carried out by means of the spectral element technique. The simulation of a regional event, which has also been recorded by a dense network installed in the city of Santiago for recording aftershock activity following the 27 February 2010 Maule earthquake, shows that the model is capable to realistically calculate ground motion in terms of amplitude, duration, and frequency and, moreover, that the surface topography and the shape of the sediment bedrock interface strongly modify ground motion in the Santiago basin. An examination on the dependency of ground motion on the hypocenter location for a hypothetical event occurring along the active San Ramón fault, which is crossing the eastern outskirts of the city, shows that the unfavorable interaction between fault rupture, radiation mechanism, and complex geological conditions in the near-field may give rise to large values of peak ground velocity and therefore considerably increase the level of seismic risk for Santiago de Chile. N2 - Aufgrund ihrer Lage in einem tektonisch aktiven Gebiet ist Santiago de Chile, die Hauptstadt des Landes mit mehr als sechs Millionen Einwohnern, einer großen Erdbebengefährdung ausgesetzt. Darüberhinaus zeigen makroseismische Daten für das 1985 Valparaiso- und das 2010 Maule-Erdbeben eine räumlich unterschiedliche Verteilung der an den Gebäuden festgestellten Schäden; dies weist auf einen starken Einfluss der unterliegenden Sedimentschichten und der Gestalt der Grenzfläche zwischen den Sedimenten und dem Festgestein auf die Bodenbewegung hin. Zu diesem Zweck wurde in der Stadt ein seismisches Netzwerk für die Aufzeichnung der Bodenbewegung installiert, um die auftretende Untergrundverstärkung mittels Erdbebendaten und seismischem Rauschen abzuschätzen. Dabei zeigt sich für die Erdbebendaten eine deutliche Abhängigkeit von der Struktur des Untergrunds hinsichtlich der Amplitude der Erschütterung und ihrer Dauer. Die Untersuchung der aus seismischem Rauschen gewonnenen horizontal-zu-vertikal-(H/V) Spektral-verhältnisse zeigt, dass diese Ergebnisse nur einen unteren Grenzwert für die Bodenverstärkung liefern können. Weil jedoch andererseits keine zeitliche Veränderung bei der Gestalt dieser Spektralverhältnisse festgestellt werden konnte, erlauben die Ergebnisse ferner, die Resonanzfrequenz des Untergrundes für ein 26 km x 12 km großes Gebiet im Nordteil der Stadt zu bestimmen. Unter Zuhilfenahme von Informationen über die Dicke der Sedimentschichten, welche im vorhinein schon durch gravimetrische Messungen bestimmt worden war, konnten nach Inversion der H/V-Spektralverhältnisse lokale Scherwellengeschwindigkeitsprofile und nach Interpolation zwischen den einzelnen Profilen ein dreidimensionales Modell berechnet werden. Darüberhinaus wurde mit den verfügbaren Daten untersucht, ob auf lokaler Ebene ein Zusammenhang zwischen der mittleren Scherwellengeschwindigkeit in den obersten 30 m (vs30) und dem Gefälle existiert, ein Verfahren, welches kürzlich von Wald und Allen (2007) vorgestellt wurde. Da für jede lithologische Einheit eine starke Streuung für die seismischen Geschwindigkeiten gefunden wurde, konnte kein Zusammenhang zwischen dem Gefälle und vs30 hergestellt werden; demgegenüber besteht zumindest ein tendenzieller Zusammenhang zwischen vs30 und der unterliegenden Geologie. Ein Vergleich der Verteilung von vs30 mit den MKS-Intensitäten für das 1985 Valparaiso-Erdbeben in Santiago zeigt, dass hohe Intensitätswerte vor allem in Bereichen geringer vs30-Werte und dicker Sedimentschichten auftraten. Weiterhin ermöglichte die Kenntnis über das Sedimentbeckens Simulationen der Bodenbewegung mittels eines spektralen-Elemente-Verfahrens. Die Simulation eines regionalen Erdbebens, welches auch von einem dichten seismischen Netzwerk aufgezeichnet wurde, das im Stadtgebiet von Santiago infolge des Maule-Erdbebens am 27. Februar 2010 installiert wurde, zeigt, dass das Modell des Sedimentbeckens realistische Berechnungen hinsichtlich Amplitude, Dauer und Frequenz erlaubt und die ausgeprägte Topographie in Verbindung mit der Form der Grenzfläche zwischen den Sedimenten und dem Festgestein starken Einfluss auf die Bodenbewegung haben. Weitere Untersuchungen zur Abhängigkeit der Bodenerschütterung von der Position des Hypozentrums für ein hypothetisches Erdbeben an der San Ramón-Verwerfung, welche die östlichen Vororte der Stadt kreuzt, zeigen, dass die ungünstige Wechselwirkung zwischen dem Verlauf des Bruchs, der Abstrahlung der Energie und der komplexen geologischen Gegebenheiten hohe Werte bei der maximalen Bodengeschwindigkeit erzeugen kann. Dies führt zu einer signifikanten Zunahme des seismischen Risikos für Santiago de Chile. KW - Standorteffekte KW - seismisches Rauschen KW - Sedimentbecken KW - Simulation KW - site effects KW - seismic noise KW - sedimentary basin KW - simulation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52961 ER - TY - THES A1 - Villatoro Leal, José Andrés T1 - A combined approach for the analysis of biomolecules using IR-MALDI ion mobility spectrometry and molecular dynamics simulations of peptide ions in the gas phase T1 - Kombinierter Einsatz von IR-MALDI Ionenmobilitätsspektrometrie und Simulationen der Molekulardynamik von Peptidionen in der Gasphase zur Analyse von Biomolekülen N2 - The aim of this doctoral thesis was to establish a technique for the analysis of biomolecules with infrared matrix-assisted laser dispersion (IR-MALDI) ion mobility (IM) spectrometry. The main components of the work were the characterization of the IR-MALDI process, the development and characterization of different ion mobility spectrometers, the use of IR-MALDI-IM spectrometry as a robust, standalone spectrometer and the development of a collision cross-section estimation approach for peptides based on molecular dynamics and thermodynamic reweighting. First, the IR-MALDI source was studied with atmospheric pressure ion mobility spectrometry and shadowgraphy. It consisted of a metal capillary, at the tip of which a self-renewing droplet of analyte solution was met by an IR laser beam. A relationship between peak shape, ion desolvation, diffusion and extraction pulse delay time (pulse delay) was established. First order desolvation kinetics were observed and related to peak broadening by diffusion, both influenced by the pulse delay. The transport mechanisms in IR-MALDI were then studied by relating different laser impact positions on the droplet surface to the corresponding ion mobility spectra. Two different transport mechanisms were determined: phase explosion due to the laser pulse and electrical transport due to delayed ion extraction. The velocity of the ions stemming from the phase explosion was then measured by ion mobility and shadowgraphy at different time scales and distances from the source capillary, showing an initially very high but rapidly decaying velocity. Finally, the anatomy of the dispersion plume was observed in detail with shadowgraphy and general conclusions over the process were drawn. Understanding the IR-MALDI process enabled the optimization of the different IM spectrometers at atmospheric and reduced pressure (AP and RP, respectively). At reduced pressure, both an AP and an RP IR-MALDI source were used. The influence of the pulsed ion extraction parameters (pulse delay, width and amplitude) on peak shape, resolution and area was systematically studied in both AP and RP IM spectrometers and discussed in the context of the IR-MALDI process. Under RP conditions, the influence of the closing field and of the pressure was also examined for both AP and RP sources. For the AP ionization RP IM spectrometer, the influence of the inlet field (IF) in the source region was also examined. All of these studies led to the determination of the optimal analytical parameters as well as to a better understanding of the initial ion cloud anatomy. The analytical performance of the spectrometer was then studied. Limits of detection (LOD) and linear ranges were determined under static and pulsed ion injection conditions and interpreted in the context of the IR-MALDI mechanism. Applications in the separation of simple mixtures were also illustrated, demonstrating good isomer separation capabilities and the advantages of singly charged peaks. The possibility to couple high performance liquid chromatography (HPLC) to IR-MALDI-IM spectrometry was also demonstrated. Finally, the reduced pressure spectrometer was used to study the effect of high reduced field strength on the mobility of polyatomic ions in polyatomic gases. The last focus point was on the study of peptide ions. A dataset obtained with electrospray IM spectrometry was characterized and used for the calibration of a collision cross-section (CCS) determination method based on molecular dynamics (MD) simulations at high temperature. Instead of producing candidate structures which are evaluated one by one, this semi-automated method uses the simulation as a whole to determine a single average collision cross-section value by reweighting the CCS of a few representative structures. The method was compared to the intrinsic size parameter (ISP) method and to experimental results. Additional MD data obtained from the simulations was also used to further analyze the peptides and understand the experimental results, an advantage with regard to the ISP method. Finally, the CCS of peptide ions analyzed by IR-MALDI were also evaluated with both ISP and MD methods and the results compared to experiment, resulting in a first validation of the MD method. Thus, this thesis brings together the soft ionization technique that is IR-MALDI, which produces mostly singly charged peaks, with ion mobility spectrometry, which can distinguish between isomers, and a collision cross-section determination method which also provides structural information on the analyte at hand. N2 - Das Ziel dieser Arbeit war die Zusammenführung der schonende Ionisationsquelle Infrared Matrix-Assisted Laser Dispersion Ionization (IR-MALDI), der Isomer-diskriminierende Ionenmobilitätsspektrometrie und einer neuartigen, auf Molecular Dynamics (MD) Simulationen basierte Berechnungsmethode für Stoßquerschnitte. Der erste Schritt war die Charakterisierung des Flüssigkeitsdispersionsphänomens in IR-MALDI: Zwei verschiedenen Ionentransportmechanismen wurden nachgewiesen und weiter studiert. Die Beziehung zwischen Peakform, Diffusion, Desolvatation und Ionen Extraktionspuls wurde beschrieben. Die Geschwindigkeit der Ionen, die aus dem Dispersionsphänomen stammen, wurde durch Ionenmobilitätsspektrometrie und Shadowgraphie untersucht. Shadowgraphie hat ebenfalls das Verhalten des Dispersionsphänomens erläutert. Eine hohe, schnell abklingende initielle Geschwindigkeit wurde beobachtet. Das Verständnis des IR-MALDI Verfahrens ermöglichte die Optimierung der verschiedenen Ionenmobilität (IM) Spektrometer zum analytischen Zweck. Eine Atmosphärendruck- und zwei Niederdruckvariante von IM Spektrometern wurden mit gepulster Ionenextraktion genutzt. Die Pulsparameter (Pulsverzögerung, ‑breite, -höhe) und verschiedene elektrische Felder an unterschiedlichen Stellen der Spektrometer wurden systematisch variiert. Deren Einfluss auf die Peakauflösung und -fläche wurde untersucht und im Rahmen des IR-MALDI Verfahrens erklärt. Das Verständnis der Anatomie der Anfangsionenwolke wurde ebenfalls durch diese Experimente vertieft. Die analytische Leistungsfähigkeit eines IM-Spektrometers wurde dann untersucht. Nachweisgrenzen und lineare Bereiche wurden bestimmt und in Zusammenhang mit dem IR-MALDI Verfahren interpretiert. Anhand der Trennung von Isomeren und einfachen Mischungen wurde die Anwendung dieser Technik demonstriert und ihre Vorteile, die Detektion einfachgeladener Ionen und die Möglichkeit der HPLC-Kopplung (High Performance Liquid Chromatography), aufgezeigt. Mit dem Niederdruckspektrometer wurde der Einfluss hoher reduzierter Feldstärken auf die Ionenmobilität von polyatomische Ionen in polyatomische Gasen untersucht. Der letzte Schwerpunkt war die Charakterisierung von Peptidionen. Die Peptiden wurden mit Elektrospray (ESI) IM-Spektrometrie vermessen. Der hieraus erhaltene Datensatz diente zur Etablierung einer Stoßquerschnitt Berechnungsmethode mittels MD. Anstatt verschiedener Kandidat-Strukturen und deren Stoßquerschnitte, ergibt diese neuartige semi-automatisierte Methode einen einzigen, gemittelten Stoßquerschnitt. Die MD Methode wurde dann mit einer anderen, einfacheren Methode und mit den experimentellen Ergebnissen von ESI und IR-MALDI-IM Spektrometrie verglichen. Zudem wurde der Zusammenhang zwischen Ladungszustands- und Stoßquerschnittsdifferenzen zwischen den Peptiden untersucht. Weitere Strukturelle Informationen konnten aus den Simulationen extrahiert, und zur Charakterisierung der Peptiden verwendet werden. KW - Ion mobility spectrometry KW - Molecular dynamics KW - IR-MALDI KW - Peptides KW - Shadowgraphy KW - Liquid dispersion KW - Ionenmobilitätsspektrometrie KW - Molekulardynamik KW - Collision cross-section KW - IR-MALDI KW - Peptiden KW - Shadowgraphie KW - Stoßquerschnitt KW - Flüssigkeitszerstäubung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-419723 ER - TY - THES A1 - Hesse, Günter T1 - A benchmark for enterprise stream processing architectures T1 - Ein Benchmark für Architekturen zur Datenstromverarbeitung im Unternehmenskontext N2 - Data stream processing systems (DSPSs) are a key enabler to integrate continuously generated data, such as sensor measurements, into enterprise applications. DSPSs allow to steadily analyze information from data streams, e.g., to monitor manufacturing processes and enable fast reactions to anomalous behavior. Moreover, DSPSs continuously filter, sample, and aggregate incoming streams of data, which reduces the data size, and thus data storage costs. The growing volumes of generated data have increased the demand for high-performance DSPSs, leading to a higher interest in these systems and to the development of new DSPSs. While having more DSPSs is favorable for users as it allows choosing the system that satisfies their requirements the most, it also introduces the challenge of identifying the most suitable DSPS regarding current needs as well as future demands. Having a solution to this challenge is important because replacements of DSPSs require the costly re-writing of applications if no abstraction layer is used for application development. However, quantifying performance differences between DSPSs is a difficult task. Existing benchmarks fail to integrate all core functionalities of DSPSs and lack tool support, which hinders objective result comparisons. Moreover, no current benchmark covers the combination of streaming data with existing structured business data, which is particularly relevant for companies. This thesis proposes a performance benchmark for enterprise stream processing called ESPBench. With enterprise stream processing, we refer to the combination of streaming and structured business data. Our benchmark design represents real-world scenarios and allows for an objective result comparison as well as scaling of data. The defined benchmark query set covers all core functionalities of DSPSs. The benchmark toolkit automates the entire benchmark process and provides important features, such as query result validation and a configurable data ingestion rate. To validate ESPBench and to ease the use of the benchmark, we propose an example implementation of the ESPBench queries leveraging the Apache Beam software development kit (SDK). The Apache Beam SDK is an abstraction layer designed for developing stream processing applications that is applied in academia as well as enterprise contexts. It allows to run the defined applications on any of the supported DSPSs. The performance impact of Apache Beam is studied in this dissertation as well. The results show that there is a significant influence that differs among DSPSs and stream processing applications. For validating ESPBench, we use the example implementation of the ESPBench queries developed using the Apache Beam SDK. We benchmark the implemented queries executed on three modern DSPSs: Apache Flink, Apache Spark Streaming, and Hazelcast Jet. The results of the study prove the functioning of ESPBench and its toolkit. ESPBench is capable of quantifying performance characteristics of DSPSs and of unveiling differences among systems. The benchmark proposed in this thesis covers all requirements to be applied in enterprise stream processing settings, and thus represents an improvement over the current state-of-the-art. N2 - Data Stream Processing Systems (DSPSs) sind eine Schlüsseltechnologie, um kontinuierlich generierte Daten, wie beispielsweise Sensormessungen, in Unternehmensanwendungen zu integrieren. Die durch DSPSs ermöglichte permanente Analyse von Datenströmen kann dabei zur Überwachung von Produktionsprozessen genutzt werden, um möglichst zeitnah auf ungewollte Veränderungen zu reagieren. Darüber hinaus filtern, sampeln und aggregieren DSPSs einkommende Daten, was die Datengröße reduziert und so auch etwaige Kosten für die Datenspeicherung. Steigende Datenvolumen haben in den letzten Jahren den Bedarf für performante DSPSs steigen lassen, was zur Entwicklung neuer DSPSs führte. Während eine große Auswahl an verfügbaren Systemen generell gut für Nutzer ist, stellt es potentielle Anwender auch vor die Herausforderung, das für aktuelle und zukünftige Anforderungen passendste DSPS zu identifizieren. Es ist wichtig, eine Lösung für diese Herausforderung zu haben, da das Austauschen von einem DSPS zu teuren Anpassungen oder Neuentwicklungen der darauf laufenden Anwendungen erfordert, falls für deren Entwicklung keine Abstraktionsschicht verwendet wurde. Das quantitative Vergleichen von DSPSs ist allerdings eine schwierige Aufgabe. Existierende Benchmarks decken nicht alle Kernfunktionalitäten von DSPSs ab und haben keinen oder unzureichenden Tool-Support, was eine objektive Ergebnisberechnung hinsichtlich der Performanz erschwert. Zudem beinhaltet kein Benchmark die Integration von Streamingdaten und strukturierten Geschäftsdaten, was ein besonders für Unternehmen relevantes Szenario ist. Diese Dissertation stellt ESPBench vor, einen neuen Benchmark für Stream Processing-Szenarien im Unternehmenskontext. Der geschäftliche Kontext wird dabei durch die Verbindung von Streamingdaten und Geschäftsdaten dargestellt. Das Design von ESPBench repräsentiert Szenarien der realen Welt, stellt die objektive Berechnung von Benchmarkergebnissen sicher und erlaubt das Skalieren über Datencharakteristiken. Das entwickelte Toolkit des Benchmarks stellt wichtige Funktionalitäten bereit, wie beispielsweise die Automatisierung den kompletten Benchmarkprozesses sowie die Überprüfung der Abfrageergebnisse hinsichtlich ihrer Korrektheit. Um ESPBench zu validieren und die Anwendung weiter zu vereinfachen, haben wir eine Beispielimplementierung der Queries veröffentlicht. Die Implementierung haben wir mithilfe des in Industrie und Wissenschaft eingesetzten Softwareentwicklungsbaukastens Apache Beam durchgeführt, der es ermöglicht, entwickelte Anwendungen auf allen unterstützten DSPSs auszuführen. Den Einfluss auf die Performanz des Verwendens von Apache Beam wird dabei ebenfalls in dieser Arbeit untersucht. Weiterhin nutzen wir die veröffentlichte Beispielimplementierung der Queries um drei moderne DSPSs mit ESPBench zu untersuchen: Apache Flink, Apache Spark Streaming und Hazelcast Jet. Der Ergebnisse der Studie verdeutlichen die Funktionsfähigkeit von ESPBench und dessen Toolkit. ESPBench befähigt Performanzcharakteristiken von DSPSs zu quantifizieren und Unterschiede zwischen Systemen aufzuzeigen. Der in dieser Dissertation vorgestellte Benchmark erfüllt alle Anforderungen, um in Stream Processing-Szenarien im Unternehmenskontext eingesetzt zu werden und stellt somit eine Verbesserung der aktuellen Situation dar. KW - stream processing KW - performance KW - benchmarking KW - dsps KW - espbench KW - benchmark KW - Performanz KW - Datenstromverarbeitung KW - Benchmark Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-566000 ER - TY - THES A1 - Stephan, Mareike Sophia T1 - A bacterial mimetic system to study bacterial inactivation and infection N2 - The emerging threat of antibiotic-resistant bacteria has become a global challenge in the last decades, leading to a rising demand for alternative treatments for bacterial infections. One approach is to target the bacterial cell envelope, making understanding its biophysical properties crucial. Specifically, bacteriophages use the bacterial envelope as an entry point to initiate infection, and they are considered important building blocks of new antibiotic strategies against drug-resistant bacteria.. Depending on the structure of the cell wall, bacteria are classified as Gram-negative and Gram-positive. Gram-negative bacteria are equipped with a complex cell envelope composed of two lipid membranes enclosing a rigid peptidoglycan layer. The synthesis machinery of the Gram-negative cell envelope is the target of antimicrobial agents, including new physical sanitizing procedures addressing the outer membrane (OM). It is therefore very important to study the biophysical properties of the Gram-negative bacterial cell envelope. The high complexity of the Gram-negative OM sets the demand for a model system in which the contribution of individual components can be evaluated separately. In this respect, giant unilamellar vesicles (GUVs) are promising membrane systems to study membrane properties while controlling parameters such as membrane composition and surrounding medium conditions. The aim of this work was to develop methods and approaches for the preparation and characterization of a GUV-based membrane model that mimics the OM of the Gram-negative cell envelope. A major component of the OM is the lipopolysaccharide (LPS) on the outside of the OM heterobilayer. The vesicle model was designed to contain LPS in the outer leaflet and lipids in the inner leaflet. Furthermore, the interaction of the prepared LPS-GUVs with bacteriophages was tested. LPS containing GUVs were prepared by adapting the inverted emulsion technique to meet the challenging properties of LPS, namely their high self-aggregation rate in aqueous solutions. Notably, an additional emulsification step together with the adaption of solution conditions was employed to asymmetrically incorporate LPS containing long polysaccharide chains into the artificial membranes. GUV membrane asymmetry was verified with a fluorescence quenching assay. Since the necessary precautions for handling the quenching agent sodium dithionite are often underestimated and poorly described, important parameters were tested and identified to obtain a stable and reproducible assay. In the context of varied LPS incorporation, a microscopy-based technique was introduced to determine the LPS content on individual GUVs and to directly compare vesicle properties and LPS coverage. Diffusion coefficient measurements in the obtained GUVs showed that increasing LPS concentrations in the membranes resulted in decreased diffusivity. Employing LPS-GUVs we could demonstrate that a Salmonella bacteriophage bound with high specificity to its LPS receptor when presented at the GUV surface, and that the number of bound bacteriophages scaled with the amount of presented LPS receptor. In addition to binding, the bacteriophages were able to eject their DNA into the vesicle lumen. LPS-GUVs thus provide a starting platform for bottom-up approaches for the generation of more complex membranes, in which the effects of individual components on the membrane properties and the interaction with antimicrobial agents such as bacteriophages could be explored. N2 - Die wachsende Bedrohung durch antibiotikaresistente Bakterien ist in den letzten Jahrzehnten zu einer globalen Herausforderung geworden, was zu einer steigenden Nachfrage nach alternativen Behandlungsmethoden für bakterielle Infektionen geführt hat. Ein Ansatz besteht darin, die bakterielle Zellhülle anzugreifen, weshalb das Verständnis ihrer biophysikalischen Eigenschaften entscheidend ist. Insbesondere Bakteriophagen, Viren, die Bakterien infizieren, nutzen die Bakterienhülle als ersten Angriffspunkt für die Infektion und gelten als wichtige Bausteine für neue Antibiotikastrategien gegen arzneimittelresistente Bakterien. Je nach Struktur der Zellwand werden Bakterien in gramnegative und grampositive Bakterien eingeteilt. Gramnegative Bakterien sind mit einer komplexen Zellhülle ausgestattet. Daher ist es sehr wichtig, ihre biophysikalischen Eigenschaften zu untersuchen. Die hohe Komplexität der äußeren Zellhülle, auch äußere Membran genannt, erfordert ein Modellsystem, in dem der Beitrag jeder einzelnen Komponente separat bewertet werden kann. In dieser Hinsicht sind Vesikel-basierte Modellsysteme sehr vielversprechend, da sie wichtige Eigenschaften der äußeren Membran simulieren können, aber in ihrer Komplexität stark reduziert und kontrollierbar sind. Ziel dieser Arbeit war es, Methoden und Ansätze für die Herstellung und Charakterisierung eines Vesikel-basierten Modells zu entwickeln, das die äußere Membran der gramnegativen bakteriellen Zellhülle nachahmt. Ein Hauptbestandteil der äußeren Membran ist Lipopolysaccharid (LPS), das asymmetrisch auf der Außenseite der äußeren Membran vorhanden ist. Das Vesikelmodell wurde so konzipiert, dass es außen LPS und innen Phospholipide enthält. Die Herstellung des beschriebenen Modellsystems erforderte einige Anpassungen, da die Hüllkomponente LPS eine hohe Tendenz zur Bildung von Selbstaggregaten aufweist. Durch die Einführung eines zusätzlichen Schrittes in das Standardprotokoll konnten Vesikel mit LPS-Inkorporation erzeugt werden. Es wurde sowohl die Menge als auch die asymmetrische Verteilung des LPS-Einbaus bestimmt. Mit Hilfe von Bakteriophagen sollte die biologische Wirkung des Modellsystems getestet werden. Es wurde gezeigt, dass Bakteriophagen, die spezifisch LPS erkennen und binden, nach Zugabe zum Modellsystem die Vesikel binden und ihr genetisches Material in das Vesikel-Innere injizieren. Die hier beschriebenen LPS-haltigen Vesikel können als Ausgangsplattform für Bottom-up-Ansätze zur Herstellung komplexerer Membranen verwendet werden. Mit diesen komplexeren, aber kontrollierbaren Systemen lassen sich die Auswirkungen einzelner Komponenten der bakteriellen Zellhülle auf die Eigenschaften der Zellhülle sowie ihre Wechselwirkung mit antimikrobiellen Wirkstoffen wie Bakteriophagen untersuchen. KW - Bakterien KW - Bakteriophagen KW - Zellmembran KW - Vesikel KW - Konfokale Mikroskopie KW - Lipopolysaccharid KW - gramnegativ KW - bacteria KW - bacteriophage KW - cell membrane KW - vesicle KW - confocal microscopy KW - lipopolysaccharide KW - gram-negative Y1 - 2023 ER - TY - THES A1 - Swierczynski, Tina T1 - A 7000 yr runoff chronology from varved sediments of Lake Mondsee (Upper Austria) T1 - Eine 7000-jährige Abflusschronologie anhand von warvierten Sedimenten des Mondsees (Oberösterreich) N2 - The potential increase in frequency and magnitude of extreme floods is currently discussed in terms of global warming and the intensification of the hydrological cycle. The profound knowledge of past natural variability of floods is of utmost importance in order to assess flood risk for the future. Since instrumental flood series cover only the last ~150 years, other approaches to reconstruct historical and pre-historical flood events are needed. Annually laminated (varved) lake sediments are meaningful natural geoarchives because they provide continuous records of environmental changes > 10000 years down to a seasonal resolution. Since lake basins additionally act as natural sediment traps, the riverine sediment supply, which is preserved as detrital event layers in the lake sediments, can be used as a proxy for extreme discharge events. Within my thesis I examined a ~ 8.50 m long sedimentary record from the pre-Alpine Lake Mondsee (Northeast European Alps), which covered the last 7000 years. This sediment record consists of calcite varves and intercalated detrital layers, which range in thickness from 0.05 to 32 mm. Detrital layer deposition was analysed by a combined method of microfacies analysis via thin sections, Scanning Electron Microscopy (SEM), μX-ray fluorescence (μXRF) scanning and magnetic susceptibility. This approach allows characterizing individual detrital event layers and assigning a corresponding input mechanism and catchment. Based on varve counting and controlled by 14C age dates, the main goals of this thesis are (i) to identify seasonal runoff processes, which lead to significant sediment supply from the catchment into the lake basin and (ii) to investigate flood frequency under changing climate boundary conditions. This thesis follows a line of different time slices, presenting an integrative approach linking instrumental and historical flood data from Lake Mondsee in order to evaluate the flood record inferred from Lake Mondsee sediments. The investigation of eleven short cores covering the last 100 years reveals the abundance of 12 detrital layers. Therein, two types of detrital layers are distinguished by grain size, geochemical composition and distribution pattern within the lake basin. Detrital layers, which are enriched in siliciclastic and dolomitic material, reveal sediment supply from the Flysch sediments and Northern Calcareous Alps into the lake basin. These layers are thicker in the northern lake basin (0.1-3.9 mm) and thinner in the southern lake basin (0.05-1.6 mm). Detrital layers, which are enriched in dolomitic components forming graded detrital layers (turbidites), indicate the provenance from the Northern Calcareous Alps. These layers are generally thicker (0.65-32 mm) and are solely recorded within the southern lake basin. In comparison with instrumental data, thicker graded layers result from local debris flow events in summer, whereas thin layers are deposited during regional flood events in spring/summer. Extreme summer floods as reported from flood layer deposition are principally caused by cyclonic activity from the Mediterranean Sea, e.g. July 1954, July 1997 and August 2002. During the last two millennia, Lake Mondsee sediments reveal two significant flood intervals with decadal-scale flood episodes, during the Dark Ages Cold Period (DACP) and the transition from the Medieval Climate Anomaly (MCA) into the Little Ice Age (LIA) suggesting a linkage of transition to climate cooling and summer flood recurrences in the Northeastern Alps. In contrast, intermediate or decreased flood episodes appeared during the MWP and the LIA. This indicates a non-straightforward relationship between temperature and flood recurrence, suggesting higher cyclonic activity during climate transition in the Northeast Alps. The 7000-year flood chronology reveals 47 debris flows and 269 floods, with increased flood activity shifting around 3500 and 1500 varve yr BP (varve yr BP = varve years before present, before present = AD 1950). This significant increase in flood activity shows a coincidence with millennial-scale climate cooling that is reported from main Alpine glacier advances and lower tree lines in the European Alps since about 3300 cal. yr BP (calibrated years before present). Despite relatively low flood occurrence prior to 1500 varve yr BP, floods at Lake Mondsee could have also influenced human life in early Neolithic lake dwellings (5750-4750 cal. yr BP). While the first lake dwellings were constructed on wetlands, the later lake dwellings were built on piles in the water suggesting an early flood risk adaptation of humans and/or a general change of the Late Neolithic Culture of lake-dwellers because of socio-economic reasons. However, a direct relationship between the final abandonment of the lake dwellings and higher flood frequencies is not evidenced. N2 - Ein verstärktes Auftreten von Hochwassern, sowohl in ihrer Häufigkeit als auch in ihrer Frequenz, wird im Zuge der Klimaerwärmung und einer möglichen Intensivierung des hydrologischen Kreislaufs diskutiert. Die Kenntnis über die natürliche Variabilität von Hochwasserereignissen ist dabei eine grundlegende Voraussetzung, um die Hochwassergefahr für die Zukunft abschätzen zu können. Da instrumentelle Hochwasserzeitreihen meist nur die letzten 150 Jahre abbilden sind andere Methoden erforderlich, um das Auftreten von historischen und prä-historischen Hochwassern festzustellen. Jährlich laminierte (warvierte) Seesedimente sind bedeutende natürliche Archive, denn sie liefern kontinuierliche Zeitreihen > 10000 Jahre mit einer bis zur saisonalen Auflösung. Seebecken stellen natürliche Sedimentfallen dar, wobei eingetragenes Flusssediment in den Seesedimenten als eine distinkte detritische Lage aufgezeichnet wird, und daher zur Rekonstruktion von extremen Abflussereignissen genutzt werden. Im Rahmen meiner Doktorarbeit habe ich einen 8.50 m langen Sedimentkern aus dem Mondsee (Nordostalpen) untersucht, welcher die letzten 7000 Jahre abdeckt. Dieser Sedimentkern besteht aus Kalzitwarven und eingeschalteten detritischen Lagen mit einer Mächtigkeit von 0.05-32 mm. Detritische Lagen wurden mit Hilfe einer kombinierten Methode untersucht: Mikrofaziesanalyse, Rasterelektronenmikroskopie, Röntgenfluoreszenzanalyse (µXRF) und magnetische Suszeptibilität. Dieser Ansatz ermöglicht die Charakterisierung der einzelnen detritischen Lagen bezüglich der Eintragsprozesse und die Lokalisierung des Einzugsgebietes. Auf Grundlage der Warvenzählung und 14C Datierungen sind die wichtigsten Ziele dieser Arbeit: (i) die Identifizierung der Eintragsprozesse, welche zu einem Sedimenteintrag vom Einzugsgebiet bis in den See führen und (ii) die Rekonstruktion der Hochwasserfrequenz unter veränderten Klimabedingungen. Diese Arbeit zeigt eine Untersuchung auf verschiedenen Zeitscheiben, wobei instrumentelle und historische Daten genutzt werden, um die Aufzeichnung von pre-historischen Hochwasser in den Mondseesedimenten besser zu verstehen. Innerhalb der letzten 100 Jahre wurden zwölf Abflussereignisse aufgezeichnet. Zwei Typen von detritschen Lagen können anhand von Korngröße, geochemischer Zusammensetzung und des Verteilungsmusters unterschieden werden. Detritische Lagen, welche aus siliziklastischen und dolomitischen Material bestehen, zeigen eine Sedimentherkunft vom Teileinzugsgebiet des Flysch (nördliches Einzugsgebiet) und der Nördlichen Kalkalpen (südliches Teileinzugsgebiet) auf. Diese Lagen sind im Nördlichen Becken mächtiger (0.1-3.9 mm) als im südlichen Seebecken (0.05-1.6 mm). Detritische Lagen, welche nur aus dolomitischem Material bestehen und Turbititlagen aufzeigen (0.65-32 mm), weisen auf eine Herkunft aus den Nördlichen Kalkalpen hin. Im Vergleich mit instrumentellen Zeitreihen, stammen die mächtigeren Lagen von lokalen Murereignissen im Sommer und feinere Eintragslagen von regionalen Frühjahrs- und Sommerhochwassern. Extreme Sommerhochwasser am Mondsee werden hauptsächlich durch Zyklonen vom Mittelmeer ausgelöst, z.B. Juli 1954, Juli 1997 und August 2002. Die Untersuchung des langen Sedimentkerns vom Mondsee zeigt während der letzten 2000 Jahre signifikante Hochwasserintervalle mit dekadischen Hochwasserepisoden während der Völkerwanderungszeit und im Übergang vom Mittelalter in die Kleine Eiszeit. Dies weist auf eine Verknüpfung von Abkühlungsphasen und Sommerhochwassern im Nordostalpenraum hin. Während der Mittelalterlichen Wärmephase und in der Kleinen Eiszeit kam es jedoch zu einer geringeren Hochwasseraktivität. Dies zeigt einen komplexen Zusammenhang von Temperaturentwicklung und Hochwasseraktivität in den Nordostalpen, mit einer erhöhten Zyklonenaktivät in den Übergängen von wärmeren zu kälteren Phasen. Während der letzten 7000 Jahre wurden 47 Muren und 269 Hochwasser aufgezeichnet, wobei es eine signifikante Änderung mit erhöhter Häufigkeit um 3500 und 1500 Warvenjahre v. h. gab (v.h. = vor heute = AD 1950). Diese signifikante Änderung stimmt mit einem langfristigem Abkühlungstrend überein, welcher durch alpine Gletschervorstöße und das Absinken von Baumgrenzen seit etwa 3300 Warvenjahre v.h. berichtet wird. Trotz relativ geringer Hochwasseraktivität um 1500 Warvenjahre v.h., könnte das Auftreten von Hochwasser auch das Leben Menschen in Neolithischen Pfahlbausiedlungen (5750-4750 cal. yr BP) beeinflusst haben. Während die ersten Pfahlbauten noch als Feuchtbodensiedlungen am Land entstanden, wurden spätere Siedlungen eventuell als Anpassung an stark schwankenden Seewasserspiegeln auf Pfählen im Wasser gebaut und/oder zeigen eine allgemeine Veränderung der Siedlungsaktivitäten der Neolithischen Pfahlbaukultur an, aufgrund sozio-ökonomischer Veränderungen. Ein direkter Zusammenhang zwischen dem Verlassen der Pfahlbausiedlungen und einer erhöhten Hochwasseraktivität konnte jedoch nicht festgestellt werden. KW - Mondsee KW - Paläohochwasser KW - Seesedimente KW - Warven KW - Klimarekonstruktion KW - Mondsee KW - Paleofloods KW - Lake sediments KW - Warves KW - Climate reconstruction Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66702 ER - TY - THES A1 - Sommer, Yasmin T1 - 5-(Hydroxymethyl)-2-furfural: Sulfokonjugation und ihre Bedeutung für die Genotoxizität Y1 - 2006 ER - TY - THES A1 - Engelhardt, Jonathan T1 - 40Ar/39Ar geochronology of ICDP PALEOVAN drilling cores T1 - 40Ar/39Ar Geochronologie der ICDP PALEOVAN Bohrkerne N2 - The scientific drilling campaign PALEOVAN was conducted in the summer of 2010 and was part of the international continental drilling programme (ICDP). The main goal of the campaign was the recovery of a sensitive climate archive in the East of Anatolia. Lacustrine deposits underneath the lake floor of ‘Lake Van’ constitute this archive. The drilled core material was recovered from two locations: the Ahlat Ridge and the Northern Basin. A composite core was constructed from cored material of seven parallel boreholes at the Ahlat Ridge and covers an almost complete lacustrine history of Lake Van. The composite record offered sensitive climate proxies such as variations of total organic carbon, K/Ca ratios, or a relative abundance of arboreal pollen. These proxies revealed patterns that are similar to climate proxy variations from Greenland ice cores. Climate variations in Greenland ice cores have been dated by modelling the timing of orbital forces to affect the climate. Volatiles from melted ice aliquots are often taken as high-resolution proxies and provide a base for fitting the according temporal models. The ICDP PALEOVAN scientific team fitted proxy data from the lacustrine drilling record to ice core data and constructed an age model. Embedded volcaniclastic layers had to be dated radiometrically in order to provide independent age constraints to the climate-stratigraphic age model. Solving this task by an application of the 40Ar/39Ar method was the main objective of this thesis. Earlier efforts to apply the 40Ar/39Ar dating resulted in inaccuracies that could not be explained satisfactorily. The absence of K-rich feldspars in suitable tephra layers implied that feldspar crystals needed to be 500 μm in size minimum, in order to apply single-crystal 40Ar/39Ar dating. Some of the samples did not contain any of these grain sizes or only very few crystals of that size. In order to overcome this problem this study applied a combined single-crystal and multi-crystal approach with different crystal fractions from the same sample. The preferred method of a stepwise heating analysis of an aliquot of feldspar crystals has been applied to three samples. The Na-rich crystals and their young geological age required 20 mg of inclusion-free, non-corroded feldspars. Small sample volumes (usually 25 % aliquots of 5 cm3 of sample material – a spoon full of tephra) and the widespread presence of melt-inclusion led to the application of combined single- and multigrain total fusion analyses. 40Ar/39Ar analyses on single crystals have the advantage of being able to monitor the presence of excess 40Ar and detrital or xenocrystic contamination in the samples. Multigrain analyses may hide the effects from these obstacles. The results from the multigrain analyses are therefore discussed with respect to the findings from the respective cogenetic single crystal ages. Some of the samples in this study were dated by 40Ar/39Ar on feldspars on multigrain separates and (if available) in combination with only a few single crystals. 40Ar/39Ar ages from two of the samples deviated statistically from the age model. All other samples resulted in identical ages. The deviations displayed older ages than those obtained from the age model. t-Tests compared radiometric ages with available age control points from various proxies and from the relative paleointensity of the earth magnetic field within a stratigraphic range of ± 10 m. Concordant age control points from different relative chronometers indicated that deviations are a result of erroneous 40Ar/39Ar ages. The thesis argues two potential reasons for these ages: (1) the irregular appearance of 40Ar from rare melt- and fluid- inclusions and (2) the contamination of the samples with older crystals due to a rapid combination of assimilation and ejection. Another aliquot of feldspar crystals that underwent separation for the application of 40Ar/39Ar dating was investigated for geochemical inhomogeneities. Magmatic zoning is ubiquitous in the volcaniclastic feldspar crystals. Four different types of magmatic zoning were detected. The zoning types are compositional zoning (C-type zoning), pseudo-oscillatory zoning of trace ele- ment concentrations (PO-type zoning), chaotic and patchy zoning of major and trace element concentrations (R-type zoning) and concentric zoning of trace elements (CC-type zoning). Sam- ples that deviated in 40Ar/39Ar ages showed C-type zoning, R-type zoning or a mix of different types of zoning (C-type and PO-type). Feldspars showing PO-type zoning typically represent the smallest grain size fractions in the samples. The constant major element compositions of these crystals are interpreted to represent the latest stages in the compositional evolution of feldspars in a peralkaline melt. PO-type crystals contain less melt- inclusions than other zoning types and are rarely corroded. This thesis concludes that feldspars that show PO-type zoning are most promising chronometers for the 40Ar/39Ar method, if samples provide mixed zoning types of Quaternary anorthoclase feldspars. Five samples were dated by applying the 40Ar/39Ar method to volcanic glass. High fractions of atmospheric Ar (typically > 98%) significantly hampered the precision of the 40Ar/39Ar ages and resulted in rough age estimates that widely overlap the age model. Ar isotopes indicated that the glasses bore a chorine-rich Ar-end member. The chlorine-derived 38Ar indicated chlorine-rich fluid-inclusions or the hydration of the volcanic glass shards. This indication strengthened the evidence that irregularly distributed melt-inclusions and thus irregular distributed excess 40Ar influenced the problematic feldspar 40Ar/39Ar ages. Whether a connection between a corrected initial 40Ar/36Ar ratio from glasses to the 40Ar/36Ar ratios from pore waters exists remains unclear. This thesis offers another age model, which is similarly based on the interpolation of the temporal tie points from geophysical and climate-stratigraphic data. The model used a PCHIP- interpolation (piecewise cubic hermite interpolating polynomial) whereas the older age model used a spline-interpolation. Samples that match in ages from 40Ar/39Ar dating of feldspars with the earlier published age model were additionally assigned with an age from the PCHIP- interpolation. These modelled ages allowed a recalculation of the Alder Creek sanidine mineral standard. The climate-stratigraphic calibration of an 40Ar/39Ar mineral standard proved that the age versus depth interpolations from PAELOVAN drilling cores were accurate, and that the applied chronometers recorded the temporal evolution of Lake Van synchronously. Petrochemical discrimination of the sampled volcaniclastic material is also given in this thesis. 41 from 57 sampled volcaniclastic layers indicate Nemrut as their provenance. Criteria that served for the provenance assignment are provided and reviewed critically. Detailed correlations of selected PALEOVAN volcaniclastics to onshore samples that were described in detail by earlier studies are also discussed. The sampled volcaniclastics dominantly have a thickness of < 40 cm and have been ejected by small to medium sized eruptions. Onshore deposits from these types of eruptions are potentially eroded due to predominant strong winds on Nemrut and Süphan slopes. An exact correlation with the data presented here is therefore equivocal or not possible at all. Deviating feldspar 40Ar/39Ar ages can possibly be explained by inherited 40Ar from feldspar xenocrysts contaminating the samples. In order to test this hypothesis diffusion couples of Ba were investigated in compositionally zoned feldspar crystals. The diffusive behaviour of Ba in feldspar is known, and gradients in the changing concentrations allowed for the calculation of the duration of the crystal’s magmatic development since the formation of the zoning interface. Durations were compared with degassing scenarios that model the Ar-loss during assimilation and subsequent ejection of the xenocrystals. Diffusive equilibration of the contrasting Ba concentrations is assumed to generate maximum durations as the gradient could have been developed in several growth and heating stages. The modelling does not show any indication of an involvement of inherited 40Ar in any of the deviating samples. However, the analytical set-up represents the lower limit of the required spatial resolution. Therefore, it cannot be excluded that the degassing modelling relies on a significant overestimation of the maximum duration of the magmatic history. Nevertheless, the modelling of xenocrystal degassing evidences that the irregular incorporation of excess 40Ar by melt- and fluid inclusions represents the most critical problem that needs to be overcome in dating volcaniclastic feldspars from the PALEOVAN drill cores. This thesis provides the complete background in generating and presenting 40Ar/39Ar ages that are compared to age data from a climate-stratigraphic model. Deviations are identified statistically and then discussed in order to find explanations from the age model and/or from 40Ar/39Ar geochronology. Most of the PALEOVAN stratigraphy provides several chronometers that have been proven for their synchronicity. Lacustrine deposits from Lake Van represent a key archive for reconstructing climate evolution in the eastern Mediterranean and in the Near East. The PALEOVAN record offers a climate-stratigraphic age model with a remarkable accuracy and resolution. N2 - Die PALEOVAN−Bohrkampagne des internationalen kontinentalen Bohrprogramms ICDP wurde im Sommer 2010 realisiert. Das übergeordnete Ziel dieser Kampagne war die Entnahme eines Klimaarchivs im Osten Anatoliens. Als Archiv dienen Süßwasserablagerungen am Grund des Vansees. PALEOVAN Bohrkerne bieten lakustrine Ablagerungen von zwei Lokalitäten des Sees, und zwar der Ahlat Ridge und des Northern Basins. Durch das Zusammenstellen bestmöglicher Bohrkernbestände aus sieben parallelen Bohrungen auf der Ahlat Ridge, konnte die nahezu vollständige Aufzeichnung der Geschichte des Sees gewonnen werden. Dieses detaillierte Archiv zeichnete sensible Klimafaktoren auf. Als Beispiele sind zu nennen: die Variationen organischen Kohlenstoffs, das Verhältnis von Kalium zu Kalzium und die Anteile arborealer Pollen gegenüber dem Gesamtpollenbestand. Stellvertreterdaten für Klimavariationen (sogenannte Proxies) ähneln in ihrem Muster sehr stark den bekannten Klimavariationen aus Eisbohrkernen des Grönlandeises. Da das Timing der Klimavariationen in den Grönlandeiskernen durch Datierungen mithilfe im Eis gespeicherter Gasphasen und orbitaler Modellberechnungen sehr genau bekannt ist, konnten Sedimentolog*innen des PALEOVAN−Teams ein klimastratigraphisches Altersmodell aus den Proxies berechnen. Die Kernaufgabe der hier vorgelegten Dissertation ist es, eingelagerte pyroklastische Ablagerungen mithilfe der 40Ar/39Ar−Methode zu datieren und das Altersmodell zu diskutieren. Die Notwendigkeit der 40Ar/39Ar−Datierungen war besonders gegeben, da vorab publizierte radiometrische Datierungen von ICDP−PALEOVAN Bohrkernen statistisch nicht ausreichend beschrieben wurden und vorhandene Abweichungen gegenüber dem Altersmodell undiskutiert blieben. An der westlichen und nördlichen Küste des Sees befinden sich zwei Stratovulkane: Nemrut und Süphan. Beide Vulkane haben über die Dauer der kompletten Seegeschichte pyroklastisches Material im See abgelagert. Feldspäte und vulkanische Gläser aus rhyolitischen und trachytischen Auswurfprodukten wurden auf ihre Zusammensetzung untersucht und es wurde ihre Eignung für eine Anwendung der 40Ar/39Ar−Geochronologie festgestellt. Die Abwesenheit hoher Kaliumkonzentrationen in Feldspäten aus geeigneten pyroklastischen Lagen bedeutet, dass Kristalle eine Mindestgröße von ca. 500 Mikrometer benötigen, um Analysen an einzelnen Kristallen durchführen zu können. Nicht alle Proben liefern ausreichend Kristalle dieser groben Korngröße. Somit wurde eine Methode gewählt, die Mehrkorn und Einzelkornanalysen miteinander kombiniert. Die bevorzugte Methode des schrittweisen Ausheizens war nur mit drei Proben möglich. Grund dafür ist, dass der geringe Kaliumgehalt und das junge geologische Alter große Mengen (ca. 20 mg) einschluss− und korrosionsfreier Feldspäte benötigten. Die geringen Probenmengen (25% Aliquot von üblicherweise 5 cm3 Probenmaterial) und die Omnipräsenz von Schmelzeinschlüssen in den Feldspäten legten nahe, auf die Methodik des schlagartigen Ausheizens von Einzel− und Mehrkornproben zu setzen. 40Ar/39Ar−Datierungen an einzelnen Feldspäten haben den Vorteil, dass sich ein vorhandener Überschuss von 40Ar oder Kontaminationen detritischer Körner leicht feststellen lassen und in der Altersberechnung berücksichtigt werden können. Mehrkornanalysen zeigen diese Hürden nur bei intensiver Kontamination und bergen die Gefahr, radiometrische Alter zu bestimmen, die von dem tatsächlichen geologischen Alter abweichen, weil sie zu alt sind. 40Ar/39Ar−Datierungen in dieser Dissertation wurden deshalb für die meisten Proben mithilfe von Mehrkornanalysen und (wenn vorhanden) in Kombination mit wenigen Einzelkornanalysen durchgeführt. Bis auf die Resultate zweier Proben sind die radiometrischen Alter der Feldspäte statistisch gesehen identisch zu den Altersabschätzungen des klimastratigraphischen Altersmodells. Abweichungen zeigen ausschließlich ältere radiometrische Alter einzelner Kornfraktionen. Die beiden abweichenden Proben sind ebenfalls älter als das Altersmodell. Eine statistische Auswertung mittels t−Tests beweist die Abweichungen der radiometrischen von den klimastratigraphischen Altersdaten. Das Altersmodell wurde mit jedem der radiometrischen Alter innerhalb eines stratigraphischen Einzugsbereichs von ± 10 Metern verglichen. Die Konkordanz der Altershinweise aus unterschiedlichen Klimaproxies und aus geophysikalischen Altershinweisen (durch das Identifizieren zeitlich bekannter Variationen des Erdmagnetfelds) legen nahe, dass beiden Abweichungen fehlerhafte 40 Ar/39 Ar−Datierungen zugrunde liegen. Zwei mögliche Ursachen werden in Betracht gezogen: (1) unregelmäßiges beziehungsweise vereinzeltes Auftreten von überschüssigem 40Ar im Zusammenhang mit Schmelz− und Fluideinschlüssen oder (2) Kontamination der Probe mit älteren, xenokristischen Feldspäten durch eine zügige (im Zeitraum von Tagen) Kombination von magmatischer Assimilation und Auswurf des Materials. Ebenfalls nicht auszuschließen ist eine detritische Kontamination. Die normalverteilten 40Ar/39Ar−Werte der Proben sind allerdings untypisch für eine detritische Kontamination. Je ein Aliquot der selektierten Kristallfraktionen wurde intensiv auf vorhandene Zonierungen untersucht. Alle untersuchten Feldspatproben zeigen Elementzonierungen, die sich einteilen lassen. Die Zonierungen sind entweder kompositionelle Zonierungen der Hauptzusammensetzung („C-type – compositional type“), pseudo-oszillatorische Zonierungen gewisser Spurenelementkonzentrationen („PO-type“), konzentrische Zonierungen von Spurenelementkonzentrationen („CC-type – concentric type“) und chaotisch-fleckige Zonierungsmuster („R-type – resorbed and patchy“). Proben, deren 40Ar/39Ar−Alter abweichen, zeigen Zonierungen in ihrer Hauptzusammensetzung (C-type), fleckige Zonierungen (R-type) oder zeigen eine Mischung aus unterschiedlichen Zonierungstypen (C-type und PO-type). Feldspäte, die ausschließlich eine Zonierung ihrer Spurenelmente (PO-type) zeigen, liegen typischerweise in kleineren Korngrößen vor und markieren Zusammensetzungen, die typisch sind für die spätesten Phasen der magmatischen Entwicklung von Feldspäten in peralkalinen Gesteinen. Diese Kristalle sind in der Regel arm an Schmelzeinschlüssen und nur selten korrodiert. Die vorliegende Arbeit weist Feldspäte, die keine Zonierung in ihrer Hauptzusammensetzung, sondern nur pseudo-oszillatorische Spurenelementvariationen aufzeigen, als ideale Chronometer für die Anwendung der 40Ar/39Ar−Methode an Quartären, kaliumarmen Feldspäten aus. Um Abweichende Proben erneut zu analysieren und um stratigraphische Abschnitte zu datieren, die nicht erfolgreich beprobt werden konnten, wurden fünf Proben datiert, indem die 40Ar/39Ar−Methode auf vulkanisches Glas angewendet wurde. Hohe Gehalte an atmosphärischem Argon (in der Regel > 98 %) führten allerdings zu ungenauen radiometrischen Altersbestimmungen, die aufgrund ihrer großen Fehler keine Abweichungen vom Altersmodell zeigen. Die Gläser zeigen Hinweise darauf, dass Variationen in den Altern der Feldspäte auf die Gegenwart eines Ar-Reservoirs in Schmelzeinschlüssen zurückzuführen sein könnte, das weder radiogen noch atmosphärisch ist. Ob eine Verknüpfung der Ar-Isotopien in vulkanischen Gläsern und in Porenwässern gegeben ist, bleibt offen. Instrumentelle und methodische Hürden lassen nur eine Vermutung zu, dass Porenwässer und vulkanische Gläser in ihren Ar-Isotopendaten eine Verknüpfung zeigen könnten. Ein neues Alterstiefenmodell, das ebenfalls auf der Interpolation von Altershinweisen durch Klimaproxies und geophysikalischer Daten basiert wird in dieser Arbeit ebenfalls vorgelegt. Im Gegensatz zu bestehenden „Spline“-Interpolationen wurde in dieser Dissertation eine PCHIP- Interpolation bevorzugt. Abgesehen von abweichenden Proben wurden allen Proben, die mithilfe der 40Ar/39Ar−Methode an Feldspäten datiert sind, zusätzlich ein klimastratigraphisches Modellalter zugewiesen. Diese Modellalter bieten die Grundlage dafür, das Alter des in der Datierung benutzten Mineralstandards (Alder Creek Sanidine) nachrechnen zu können. Die erfolgreiche klimastratigraphische Kalibrierung des Standards beweist, dass Alterstiefenmodelle aus den PALEOVAN-Bohrkernen genau sind, und dass alle verwendeten Chronometer innerhalb der angezeigten Varianzen ein synchrones Timing zulassen. Die Dissertation bietet petrochemische Charakterisierungen der entnommenen Proben an und diskutiert nachvollziehbar mögliche Provenanzen der Pyroklastite. 41 von 57 entnommenen Proben lassen sich Nemrut zuordnen. Kriterien, die für eine Zuordnung herangezogen wurden, werden aufgezeigt und diskutiert. Eine mögliche Korrelation der datierten Proben zu pyroklastischen Einheiten, die in der Literatur an den Hängen der Stratovulkane im Detail beschrieben wurden, wird ebenfalls diskutiert. Die beprobten pyroklasitischen Lagen haben geringe Mächtigkeiten (in der Regel < 40 cm) und liegen mittleren bis kleineren Eruptionen zugrunde. Diese Eruptionen hinterlassen keine oder nur schwer definierbare pyroklastische Einheiten von geringer Mächtigkeit an Land. Eine genaue Korrelation ist mit den hier präsentierten Daten deshalb nicht oder nur sehr vage möglich. Abweichende radiometrische Alter aus Datierungen von Feldspat könnten im Zusammenhang mit vererbtem 40Ar aus Xenokristallen stehen. Um diese Hypothese zu testen, wurden diffusionsabhängige Konzentrationsschwankungen von Barium in zonierten Feldspäten untersucht. Da das diffusive Verhalten von Barium in Feldspat bekannt ist, kann durch die Analyse des Konzentrationsgradienten die Dauer der magmatischen Entwicklung ab der Bildung der untersuchten Zonierung berechnet werden. Diese Zeitspanne wurde genutzt, um zu modellieren, ob Xenokristalle während einer unvollständigen Assimilation komplett entgast werden. Dafür wurde angenommen, dass das diffusive Angleichen von unterschiedlichen Bariumkonzentrationen maximale Werte für die Dauer von der Assimilation bis zum Auswurf liefert. Die Modellierung zeigt, dass vererbtes 40Ar aus Xenokristallen keinen Anteil an den abweichenden Altern haben. Allerdings sind die erhobenen Diffusionsgradienten am Rande der benötigten analytischen Auflösung, und eine Überschätzung der Dauer der magmatischen Prozesse kann nicht ausgeschlossen werden. Die Diffusionsprofile sind ein weiterer Hinweis dafür, dass unregelmäßige beziehungsweise vereinzelte Quellen von überschüssigem 40Ar die schwierigste Hürde für 40Ar/39Ar−Datierungen an ICDP-PALEOVAN Bohrkernen darstellen. Die vorgelegte Arbeit bietet nicht nur 40Ar/39Ar−Datierungen, um das vorhandene Altersmodell kritisch zu diskutieren, sondern zeigt, wie Abweichungen statistisch zu erfassen sind, welche mineralogischen Beobachtungen in die Interpretation abweichender radiometrischer Alter miteinbezogen werden sollten und wie die Synchronizität verschiedener Chronometer getestet werden kann. Die Korrektheit des klima-stratigraphischen Timings der PALEOVAN Kerne ist mit dieser Arbeit nachgewiesen. Vergleiche der Proxydaten zu anderen Klimaarchiven deren Auflösung sogar höher als die der Milankovitchzyklen ist (die Auflösung der Dnsgaard-Oeschger Ereignisse), existieren für viele Kerne des PALEOVAN-Archivs. Die Kerne aus dem PALEOVAN Projekt repräsentieren damit ein Schlüsselarchiv für die Rekonstruktion des Klimas im Nahen Osten. Dieses Archiv bietet ein klima-stratigraphisches Altersmodell von bemerkenswerter Genauigkeit und Auflösung. KW - Lake Van KW - feldspar KW - lacustrine record KW - volcaniclastics KW - 40Ar/39Ar KW - Vansee KW - Feldspat KW - lakustrine Abfolge KW - Vulkaniklastika KW - 40Ar/39Ar Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429539 ER - TY - THES A1 - Staude, Lucia T1 - 3R,4R-Hexa-1,5-dien-3,4-diol : ein vielseitiger C2-symmetrischer Baustein in der organischen Synthese Y1 - 2010 CY - Potsdam ER -