TY - THES A1 - Knoll, Lisa Joanna T1 - When the hedgehog kisses the frog : a functional and structural investigatin of syntactic processing in the developing brain T2 - MPI series in human cognitive and brain sciences Y1 - 2013 SN - 978-3-941504-34-9 VL - 150 PB - MPI CY - Leipzig ER - TY - THES A1 - Fuchs, Sven T1 - Well-log based determination of rock thermal conductivity in the North German Basin T1 - Bestimmung der Gesteinswärmeleitfähigkeit aus geophysikalischen Bohrlochmessungen im Norddeutschen Becken N2 - In sedimentary basins, rock thermal conductivity can vary both laterally and vertically, thus altering the basin’s thermal structure locally and regionally. Knowledge of the thermal conductivity of geological formations and its spatial variations is essential, not only for quantifying basin evolution and hydrocarbon maturation processes, but also for understanding geothermal conditions in a geological setting. In conjunction with the temperature gradient, thermal conductivity represents the basic input parameter for the determination of the heat-flow density; which, in turn, is applied as a major input parameter in thermal modeling at different scales. Drill-core samples, which are necessary to determine thermal properties by laboratory measurements, are rarely available and often limited to previously explored reservoir formations. Thus, thermal conductivities of Mesozoic rocks in the North German Basin (NGB) are largely unknown. In contrast, geophysical borehole measurements are often available for the entire drilled sequence. Therefore, prediction equations to determine thermal conductivity based on well-log data are desirable. In this study rock thermal conductivity was investigated on different scales by (1) providing thermal-conductivity measurements on Mesozoic rocks, (2) evaluating and improving commonly applied mixing models which were used to estimate matrix and pore-filled rock thermal conductivities, and (3) developing new well-log based equations to predict thermal conductivity in boreholes without core control. Laboratory measurements are performed on sedimentary rock of major geothermal reservoirs in the Northeast German Basin (NEGB) (Aalenian, Rhaethian-Liassic, Stuttgart Fm., and Middle Buntsandstein). Samples are obtained from eight deep geothermal wells that approach depths of up to 2,500 m. Bulk thermal conductivities of Mesozoic sandstones range between 2.1 and 3.9 W/(m∙K), while matrix thermal conductivity ranges between 3.4 and 7.4 W/(m∙K). Local heat flow for the Stralsund location averages 76 mW/m², which is in good agreement to values reported previously for the NEGB. For the first time, in-situ bulk thermal conductivity is indirectly calculated for entire borehole profiles in the NEGB using the determined surface heat flow and measured temperature data. Average bulk thermal conductivity, derived for geological formations within the Mesozoic section, ranges between 1.5 and 3.1 W/(m∙K). The measurement of both dry- and water-saturated thermal conductivities allow further evaluation of different two-component mixing models which are often applied in geothermal calculations (e.g., arithmetic mean, geometric mean, harmonic mean, Hashin-Shtrikman mean, and effective-medium theory mean). It is found that the geometric-mean model shows the best correlation between calculated and measured bulk thermal conductivity. However, by applying new model-dependent correction, equations the quality of fit could be significantly improved and the error diffusion of each model reduced. The ‘corrected’ geometric mean provides the most satisfying results and constitutes a universally applicable model for sedimentary rocks. Furthermore, lithotype-specific and model-independent conversion equations are developed permitting a calculation of water-saturated thermal conductivity from dry-measured thermal conductivity and porosity within an error range of 5 to 10%. The limited availability of core samples and the expensive core-based laboratory measurements make it worthwhile to use petrophysical well logs to determine thermal conductivity for sedimentary rocks. The approach followed in this study is based on the detailed analyses of the relationships between thermal conductivity of rock-forming minerals, which are most abundant in sedimentary rocks, and the properties measured by standard logging tools. By using multivariate statistics separately for clastic, carbonate and evaporite rocks, the findings from these analyses allow the development of prediction equations from large artificial data sets that predict matrix thermal conductivity within an error of 4 to 11%. These equations are validated successfully on a comprehensive subsurface data set from the NGB. In comparison to the application of earlier published approaches formation-dependent developed for certain areas, the new developed equations show a significant error reduction of up to 50%. These results are used to infer rock thermal conductivity for entire borehole profiles. By inversion of corrected in-situ thermal-conductivity profiles, temperature profiles are calculated and compared to measured high-precision temperature logs. The resulting uncertainty in temperature prediction averages < 5%, which reveals the excellent temperature prediction capabilities using the presented approach. In conclusion, data and methods are provided to achieve a much more detailed parameterization of thermal models. N2 - Die thermische Modellierung des geologischen Untergrundes ist ein wichtiges Werkzeug bei der Erkundung und Bewertung tiefliegender Ressourcen sedimentärer Becken (e.g., Kohlenwasserstoffe, Wärme). Die laterale und vertikale Temperaturverteilung im Untergrund wird, neben der Wärmestromdichte und der radiogenen Wärmeproduktion, hauptsächlich durch die Wärmeleitfähigkeit (WLF) der abgelagerten Gesteinsschichten bestimmt. Diese Parameter stellen die wesentlichen Eingangsgrößen für thermische Modelle dar. Die vorliegende Dissertation befasst sich mit der Bestimmung der Gesteins-WLF auf verschiedenen Skalen. Dies umfasst (1) laborative WLF-Messungen an mesozoischen Bohrkernproben, (2) die Evaluierung und Verbesserung der Prognosefähigkeit von Mischgesetzten zur Berechnung von Matrix- und Gesamt-WLF sedimentärer Gesteine, sowie (3) die Entwicklung neuer Prognosegleichungen unter Nutzung bohrlochgeophysikalischer Messungen und multivariater Analysemethoden im NGB. Im Nordostdeutschen Becken (NEGB) wurden für die wichtigsten geothermischen Reservoire des Mesozoikums (Aalen, Rhät-Lias-Komplex, Stuttgart Formation, Mittlerer Buntsandstein) Bohrkerne geothermischer Tiefbohrungen (bis 2.500 m Tiefe) auf Ihre thermischen und petrophysikalischen Eigenschaften hin untersucht. Die WLF mesozoischer Sandsteine schwankt im Mittel zwischen 2,1 und 3,9 W/(m∙K), die WLF der Gesteinsmatrix hingegen im Mittel zwischen 3,4 und 7,4 W/(m∙K). Neu berechnete Werte zur Oberflächenwärmestromdichte (e.g., 76 mW/m², Stralsund) stehen im Einklang mit den Ergebnissen früherer Studien im NEGB. Erstmals im NDB wurde für das mesozoisch/känozoischen Intervall am Standort Stralsund ein in-situ WLF-Profil berechnet. In-situ Formations-WLF, für als potentielle Modelschichten interessante, stratigraphische Intervalle, variieren im Mittel zwischen 1,5 und 3,1 W/(m∙K) und bilden eine gute Grundlage für kleinskalige (lokale) thermische Modelle. Auf Grund der in aller Regel nur eingeschränkt verfügbaren Bohrkernproben sowie des hohen laborativen Aufwandes zur Bestimmung der WLF waren alternative Methoden gesucht. Die Auswertung petrophysikalischer Bohrlochmessungen mittels mathematischer-statistischer Methoden stellt einen lang genutzten und erprobten Ansatz dar, welcher in seiner Anwendbarkeit jedoch auf die aufgeschlossenen Gesteinsbereiche (Genese, Geologie, Stratigraphie, etc.) beschränkt ist. Daher wurde ein leicht modifizierter Ansatz entwickelt. Die thermophysikalischen Eigenschaften der 15 wichtigsten gesteinsbildenden Minerale (in Sedimentgesteinen) wurden statistisch analysiert und aus variablen Mischungen dieser Basisminerale ein umfangreicher, synthetischer Datensatz generiert. Dieser wurde mittels multivariater Statistik bearbeitet, in dessen Ergebnis Regressionsgleichungen zur Prognose der Matrix-WLF für drei Gesteinsgruppen (klastisch, karbonatisch, evaporitisch) abgeleitet wurden. In einem zweiten Schritt wurden für ein Echtdatenset (laborativ gemessene WLF und Standardbohrlochmessungen) empirische Prognosegleichungen für die Berechnung der Gesamt-WLF entwickelt. Die berechneten WLF zeigen im Vergleich zu gemessenen WLF Fehler zwischen 5% und 11%. Die Anwendung neu entwickelter, sowie in der Literatur publizierter Verfahren auf den NGB-Datensatz zeigt, dass mit den neu aufgestellten Gleichungen stets der geringste Prognosefehler erreicht wird. Die Inversion neu berechneter WLF-Profile erlaubt die Ableitung synthetischer Temperaturprofile, deren Vergleich zu gemessenen Gesteinstemperaturen in einen mittleren Fehler von < 5% resultiert. Im Rahmen geothermischer Berechnungen werden zur Umrechnung zwischen Matrix- und Gesamt-WLF häufig Zwei-Komponenten-Mischmodelle genutzt (Arithmetisches Mittel, Harmonische Mittel, Geometrisches Mittel, Hashin-Shtrikman Mittel, Effektives-Medium Mittel). Ein umfangreicher Datensatz aus trocken- und gesättigt-gemessenen WLF und Porosität erlaubt die Evaluierung dieser Modelle hinsichtlich Ihrer Prognosefähigkeit. Diese variiert für die untersuchten Modelle stark (Fehler: 5 – 53%), wobei das geometrische Mittel die größte, quantitativ aber weiterhin unbefriedigende Übereinstimmungen zeigt. Die Entwicklung und Anwendung mischmodelspezifischer Korrekturgleichungen führt zu deutlich reduzierten Fehlern. Das korrigierte geometrische Mittel zeigt dabei, bei deutlich reduzierter Fehlerstreubreite, erneut die größte Übereinstimmung zwischen berechneten und gemessenen Werten und scheint ein universell anwendbares Mischmodel für sedimentäre Gesteine zu sein. Die Entwicklung modelunabhängiger, gesteinstypbezogener Konvertierungsgleichungen ermöglicht die Abschätzung der wassergesättigten Gesamt-WLF aus trocken-gemessener WLF und Porosität mit einem mittleren Fehler < 9%. Die präsentierten Daten und die neu entwickelten Methoden erlauben künftig eine detailliertere und präzisere Parametrisierung thermischer Modelle sedimentärer Becken. KW - Wärmeleitfähigkeit KW - Temperaturfeld KW - Nordostdeutsches Becken KW - Bohrlochmessungen KW - Multivariate Analyse KW - Thermal-conductivity KW - Well-log analysis KW - Northeast German Basin KW - temperature field analysis KW - Multivariate statistic Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67801 ER - TY - THES A1 - Berg, Gregor T1 - Virtual prototypes for the model-based elicitation and validation of collaborative scenarios T1 - Virtuelle Prototypen für die Modellbasierte Erhebung und Validierung kollaborativer Szenarien N2 - Requirements engineers have to elicit, document, and validate how stakeholders act and interact to achieve their common goals in collaborative scenarios. Only after gathering all information concerning who interacts with whom to do what and why, can a software system be designed and realized which supports the stakeholders to do their work. To capture and structure requirements of different (groups of) stakeholders, scenario-based approaches have been widely used and investigated. Still, the elicitation and validation of requirements covering collaborative scenarios remains complicated, since the required information is highly intertwined, fragmented, and distributed over several stakeholders. Hence, it can only be elicited and validated collaboratively. In times of globally distributed companies, scheduling and conducting workshops with groups of stakeholders is usually not feasible due to budget and time constraints. Talking to individual stakeholders, on the other hand, is feasible but leads to fragmented and incomplete stakeholder scenarios. Going back and forth between different individual stakeholders to resolve this fragmentation and explore uncovered alternatives is an error-prone, time-consuming, and expensive task for the requirements engineers. While formal modeling methods can be employed to automatically check and ensure consistency of stakeholder scenarios, such methods introduce additional overhead since their formal notations have to be explained in each interaction between stakeholders and requirements engineers. Tangible prototypes as they are used in other disciplines such as design, on the other hand, allow designers to feasibly validate and iterate concepts and requirements with stakeholders. This thesis proposes a model-based approach for prototyping formal behavioral specifications of stakeholders who are involved in collaborative scenarios. By simulating and animating such specifications in a remote domain-specific visualization, stakeholders can experience and validate the scenarios captured so far, i.e., how other stakeholders act and react. This interactive scenario simulation is referred to as a model-based virtual prototype. Moreover, through observing how stakeholders interact with a virtual prototype of their collaborative scenarios, formal behavioral specifications can be automatically derived which complete the otherwise fragmented scenarios. This, in turn, enables requirements engineers to elicit and validate collaborative scenarios in individual stakeholder sessions – decoupled, since stakeholders can participate remotely and are not forced to be available for a joint session at the same time. This thesis discusses and evaluates the feasibility, understandability, and modifiability of model-based virtual prototypes. Similarly to how physical prototypes are perceived, the presented approach brings behavioral models closer to being tangible for stakeholders and, moreover, combines the advantages of joint stakeholder sessions and decoupled sessions. N2 - Anforderungsingenieure erheben, dokumentieren und validieren wie Bedarfsträger in einzelnen und gemeinsamen Aktivitäten die Ziele ihrer kollaborativen Szenarios erreichen. Auf Grundlage von Angaben darüber, wer warum mit wem zusammen was erledigt, kann anschließend ein Softwaresystem spezifiziert und umgesetzt werden, welches die Bedarfsträger bei der Durchführung ihrer Abläufe unterstützt. Um Anforderungen verschiedener (Gruppen von) Bedarfsträger zu erfassen und zu strukturieren, werden szenariobasierte Ansätze genutzt und erforscht. Die Erhebung und Validierung von Anforderungen, die kollaborative Szenarios abdecken, ist dennoch kompliziert, da derartige Informationen hochgradig verknüpft, fragmentiert und über mehrere Bedarfsträger verteilt sind, wodurch sie nur in Gruppensitzungen effizient erhoben und validiert werden können. In Zeiten global verteilter Firmen ist die Planung und Durchführung solcher Workshops mit Gruppen von Bedarfsträgern nur selten praktikabel. Mit einzelnen Bedarfsträgern zu sprechen ist hingegen oft realisierbar, führt aber zu fragmentierten, unvollständigen Szenariobeschreibungen. Durch eine Vielzahl von Einzelgesprächen mit wechselnden Bedarfsträgern kann diese Fragmentierung aufgelöst werden – dies ist aber eine fehleranfällige und zeitaufwändige Aufgabe. Zwar bieten formale Modellierungsmethoden z.B. automatische Konsistenzchecks für Szenarios, doch führen derartige Methoden zu Mehraufwand in allen Gesprächen mit Bedarfsträgern, da diesen die verwendeten formalen Notationen jedes Mal erläutert werden müssen. Handfeste Prototypen, wie sie in anderen Disziplinen eingesetzt werden, ermöglichen es Designern, ihre Konzepte und erhobenen Anforderungen ohne viel Aufwand mit Bedarfsträgern zu validieren und zu iterieren. In dieser Dissertation wird ein modellbasierter Generierungsansatz vorgeschlagen, der kollaborative Szenarios prototypisch auf Grundlage von formalen Verhaltensmodellen für die beteiligten Bedarfsträger darstellt. Durch die Simulation dieses Verhaltens und dessen Animation innerhalb einer webbasierten, domänenspezifischen Visualisierung, können Bedarfsträger diese Modelle erleben und die bisher erfassten Szenarios validieren. Eine derartige interaktive Szenariosimulation wird als modellbasierter virtueller Prototyp bezeichnet. Basierend auf den Interaktionen zwischen Bedarfsträgern und einem virtuellen Prototypen ihrer Szenarios können zudem formale Verhaltensspezifikationen automatisch abgeleitet werden, die wiederum die fragmentierten kollaborativen Szenarios vervollständigen. Dies ermöglicht es den Anforderungsingenieuren, die kollaborativen Szenarios in individuellen Sitzungen mit einzelnen Bedarfsträgern zu erheben und zu validieren – entkoppelt voneinander, da Bedarfsträger webbasiert teilnehmen können und dabei nicht darauf angewiesen sind, dass andere Bedarfsträger ebenfalls in der gleichen Sitzung teilnehmen. Diese Dissertation diskutiert und evaluiert die Machbarkeit, Verständlichkeit sowie die Änderbarkeit der modellbasierten virtuellen Prototypen. Auf die gleiche Art wie physikalische Prototypen wahrgenommen werden, erlaubt es der vorgestellte Ansatz, Verhaltensmodelle für Bedarfsträger erlebbar zu machen und so die Vorteile von Gruppensitzungen mit denen entkoppelter Sitzungen zu verbinden. KW - requirements engineering KW - behavioral specification KW - interactive simulation KW - model-based prototyping KW - rapid prototyping Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69729 ER - TY - THES A1 - Hoffmann, Holger T1 - Vertical structures induced by embedded propeller moonlets in Saturn's rings Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Schlolaut, Gordon T1 - Varve and event layer chronology of Lake Suigetsu (Japan) back to 40 kyr BP and contribution to the international consensus atmospheric radiocarbon calibration curve T1 - Warven- und Ereignislagen-Chronologie der letzten 40 ka BP vom Suigetsu See (Japan) und Beitrag zur internationalen atmosphärischen Radiokarbon-Kalibrationskurve N2 - The main intention of the PhD project was to create a varve chronology for the Suigetsu Varves 2006' (SG06) composite profile from Lake Suigetsu (Japan) by thin section microscopy. The chronology was not only to provide an age-scale for the various palaeo-environmental proxies analysed within the SG06 project, but also and foremost to contribute, in combination with the SG06 14C chronology, to the international atmospheric radiocarbon calibration curve (IntCal). The SG06 14C data are based on terrestrial leaf fossils and therefore record atmospheric 14C values directly, avoiding the corrections necessary for the reservoir ages of the marine datasets, which are currently used beyond the tree-ring limit in the IntCal09 dataset (Reimer et al., 2009). The SG06 project is a follow up of the SG93 project (Kitagawa & van der Plicht, 2000), which aimed to produce an atmospheric calibration dataset, too, but suffered from incomplete core recovery and varve count uncertainties. For the SG06 project the complete Lake Suigetsu sediment sequence was recovered continuously, leaving the task to produce an improved varve count. Varve counting was carried out using a dual method approach utilizing thin section microscopy and micro X-Ray Fluorescence (µXRF). The latter was carried out by Dr. Michael Marshall in cooperation with the PhD candidate. The varve count covers 19 m of composite core, which corresponds to the time frame from ≈10 to ≈40 kyr BP. The count result showed that seasonal layers did not form in every year. Hence, the varve counts from either method were incomplete. This rather common problem in varve counting is usually solved by manual varve interpolation. But manual interpolation often suffers from subjectivity. Furthermore, sedimentation rate estimates (which are the basis for interpolation) are generally derived from neighbouring, well varved intervals. This assumes that the sedimentation rates in neighbouring intervals are identical to those in the incompletely varved section, which is not necessarily true. To overcome these problems a novel interpolation method was devised. It is computer based and automated (i.e. avoids subjectivity and ensures reproducibility) and derives the sedimentation rate estimate directly from the incompletely varved interval by statistically analysing distances between successive seasonal layers. Therefore, the interpolation approach is also suitable for sediments which do not contain well varved intervals. Another benefit of the novel method is that it provides objective interpolation error estimates. Interpolation results from the two counting methods were combined and the resulting chronology compared to the 14C chronology from Lake Suigetsu, calibrated with the tree-ring derived section of IntCal09 (which is considered accurate). The varve and 14C chronology showed a high degree of similarity, demonstrating that the novel interpolation method produces reliable results. In order to constrain the uncertainties of the varve chronology, especially the cumulative error estimates, U-Th dated speleothem data were used by linking the low frequency 14C signal of Lake Suigetsu and the speleothems, increasing the accuracy and precision of the Suigetsu calibration dataset. The resulting chronology also represents the age-scale for the various palaeo-environmental proxies analysed in the SG06 project. One proxy analysed within the PhD project was the distribution of event layers, which are often representatives of past floods or earthquakes. A detailed microfacies analysis revealed three different types of event layers, two of which are described here for the first time for the Suigetsu sediment. The types are: matrix supported layers produced as result of subaqueous slope failures, turbidites produced as result of landslides and turbidites produced as result of flood events. The former two are likely to have been triggered by earthquakes. The vast majority of event layers was related to floods (362 out of 369), which allowed the construction of a respective chronology for the last 40 kyr. Flood frequencies were highly variable, reaching their greatest values during the global sea level low-stand of the Glacial, their lowest values during Heinrich Event 1. Typhoons affecting the region represent the most likely control on the flood frequency, especially during the Glacial. However, also local, non-climatic controls are suggested by the data. In summary, the work presented here expands and revises knowledge on the Lake Suigetsu sediment and enabls the construction of a far more precise varve chronology. The 14C calibration dataset is the first such derived from lacustrine sediments to be included into the (next) IntCal dataset. References: Kitagawa & van der Plicht, 2000, Radiocarbon, Vol 42(3), 370-381 Reimer et al., 2009, Radiocarbon, Vol 51(4), 1111-1150 N2 - Die Hauptzielsetzung der Doktorarbeit war die Erstellung einer Warvenchronologie für das Kompositprofil der "Suigetsu Varves 2006" (SG06) Sedimentbohrung vom Suigetsu See durch Dünnschliffmikroskopie. Die Chronologie soll dabei nicht nur als Altersskala für die unterschiedlichen Proxies, die im Rahmen des SG06 Projekts bearbeitet werden, dienen, sondern in Kombination mit der SG06 14C Chronologie auch zur Verbesserung der internationalen Radiokarbon Kalibrationskurve (IntCal) beitragen. Da die SG06 14C Daten aus fossilen, in den See eingewehten Blättern gewonnen wurden, geben sie den 14C Gehalt der Atmosphäre direkt wieder. Das heißt, dass Korrekturen entfallen, wie sie bei den derzeit im IntCal09 Datensatz (Reimer et al., 2009) genutzten marinen 14C Daten notwendig sind. Das SG06 Projekt ist ein Folgeprojekt des SG93 Projekts (Kitagawa & van der Plicht, 2000), welches ebenfalls die Erstellung eines Kalibrationsdatensatzes zur Zielsetzung hatte. Allerdings war das Sedimentprofil der SG93 Bohrung unvollständig und die Warvenchronologie unzureichend genau. Im Rahmen des SG06 Projekts wurde die komplette Sedimentabfolge des Sees erbohrt, so dass die Erstellung einer verbesserten Warvenchronologie als Aufgabe verblieb. Für die Erstellung der Warvenchronologie kam neben Dünnschliffmikroskopie eine zweite, unabhängige Zähltechnik zum Einsatz, die Mikro-Röntgenfluoresenz (µXRF) Daten nutzt. Diese Zählung wurde von Dr. Michael Marshall in Zusammenarbeit mit dem Doktoranden erstellt. Insgesamt wurden in 19 m des SG06 Sedimentprofils Warven gezählt, was dem Zeitabschnitt zwischen ≈10 und ≈40 ka BP entspricht. Die Warvenzählung zeigte, dass sich nicht jedes Jahr saisonale Lagen ausgebildet hatten und die Zählungen von beiden Techniken damit unvollständig waren. Dieses Problem tritt bei Warvenzählungen häufiger auf und wird in der Regel durch manuelle Interpolation der fehlenden Lagen gelöst. Allerdings hat der manuelle Ansatz Schwächen. Zum einen kann es zu subjektiven Ungenauigkeiten kommen, zum anderen wird die durchschnittliche Sedimentationsrate (welche die Grundlage der Interpolation ist) in der Regel aus benachbarten, gut warvierten Bereichen abgeleitet. Das setzt jedoch voraus, dass die Sedimentationsrate in den benachbarten Intervallen identisch mit der im zu interpolierenden Bereich ist, was nicht zwingend der Fall ist. Um diese Probleme zu umgehen wurde für die vorliegende Arbeit eine neuartige Interpolationsmethode entwickelt. Diese ist computergestützt und automatisiert und Ergebnisse daher objektiv und reproduzierbar. Weiterhin wird die Sedimentationsrate direkt aus dem zu interpolierenden Bereich bestimmt, indem die Abstände der auftretenden saisonalen Lagen statistisch ausgewertet werden. Daher kann die Methode auch für Profile ohne gut warvierte Bereiche eingesetzt werden. Ein weiterer Vorteil des neuen Interpolationsprogramms ist, dass ein objektiver Interpolationsfehlers berechnet wird. Die interpolierten Ergebnisse der beiden Zähltechniken wurden kombiniert und um nachzuweisen, dass es sich bei der resultierenden Chronologie um ein zuverlässiges Ergebnis handelt, wurde diese mit der mit IntCal09 kalibrierten 14C Chronologie vom Suigetsu See verglichen. Dabei wurde nur der Abschnitt berücksichtigt, in dem IntCal09 auf dendrologischen Daten beruht (bis 12,55 ka cal BP). Der Vergleich zeigte, dass die finale Warvenchronologie innerhalb des 68,2% Fehlerbereichs der 14C Datierungen lag. Das heißt, dass die Interpolationsmethode hinreichend genaue und zuverlässige Ergebnisse erzielt. Die Genauigkeit wurde weiter verbessert, indem die Chronologie mit U-Th Altern von Speläothemen modelliert wurde, wobei die tieffrequenten Signale der 14C Daten als Verbindung zwischen Suigetsu und den Speläothemen verwendet wurde, was die Konstruktion eines verbesserten Kalibrationdatensatzes erlaubte. Die modellierte Chronologie stellt dabei auch die Altersskale für die im SG06 Projekt analysierten Proxies dar. Ein Proxy der im Rahmen der Doktorarbeit untersucht wurde war die Verteilung von Ereignislagen. Diese sind in der Regel Anzeiger für Flutereignisse oder Erdbeben. Die mikrofazielle Untersuchung der Ereignislagen zeigte drei verschiedene Lagentypen auf, wobei zwei davon hier erstmals für den Suigetsu See beschrieben sind. Die Lagentypen sind: Matrix dominierte Lagen als Ergebnis von Seegrundrutschungen, Turbidite als Ergebnis von Hangrutschungen und Turbidite als Ergebnis von Flutereignissen. Die ersten beiden Lagentypen wurden vermutlich durch Erdbeben ausgelöst. Die große Mehrheit der Ereignislagen ist jedoch auf Flutereignisse zurückzuführen (362 von 369). Dies erlaubte die Rekonstruktion der Hochwasserhäufigkeit für die letzten 40 ka. Dabei zeigten sich starke Schwankungen über den analysierten Zeitraum. Die höchsten Werte wurden während des glazialen Meeresspiegelminimums erreicht während die niedrigsten Werte im Zusammenhang mit Heinrich Ereignis 1 auftraten, was vermutlich in erster Linie mit der Taifunhäufigkeit in der Region zusammenhängt. Allerdings zeigten die Daten auch Einflüsse von lokalen, nicht Klima getriebenen Prozessen. Zusammenfassend kann gesagt werden, dass die hier vorliegende Arbeit die Kenntnisse über die Sedimente des Suigetsu Sees deutlich erweitert hat und die Revidierung einiger älterer Interpretationen nahe legt. Die verbesserte Warvenchronologie trug zu einem deutlich verbesserten Kalibrationsdatensatz bei. Dieser ist der erste aus lakustrinen Daten gewonnen Datensatz, der in den (kommenden) IntCal Datensatz eingearbeitet werden wird. Quellennachweis: Kitagawa & van der Plicht, 2000, Radiocarbon, Vol 42(3), 370-381 Reimer et al., 2009, Radiocarbon, Vol 51(4), 1111-1150 KW - Suigetsu KW - radiocarbon KW - floods Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69096 ER - TY - THES A1 - Czech, Andreas T1 - Variations in the tRNA pool of mammalian cells upon differentiation and oxidative stress Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Schleussner, Carl-Friedrich T1 - Variability and trend of the North Atlantic ocean circulation in past and future climate Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Mühlenbruch, Kristin T1 - Updating the german diabetes risk score - model extensions, validation and reclassification Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Uhlemann, Steffi T1 - Understanding trans-basin floods in Germany : data, information and knowledge T1 - Flussgebietsübergreifende Hochwasserereignisse in Deutschland : Daten, Informationen und Wissen. N2 - Large Central European flood events of the past have demonstrated that flooding can affect several river basins at the same time leading to catastrophic economic and humanitarian losses that can stretch emergency resources beyond planned levels of service. For Germany, the spatial coherence of flooding, the contributing processes and the role of trans-basin floods for a national risk assessment is largely unknown and analysis is limited by a lack of systematic data, information and knowledge on past events. This study investigates the frequency and intensity of trans-basin flood events in Germany. It evaluates the data and information basis on which knowledge about trans-basin floods can be generated in order to improve any future flood risk assessment. In particu-lar, the study assesses whether flood documentations and related reports can provide a valuable data source for understanding trans-basin floods. An adaptive algorithm was developed that systematically captures trans-basin floods using series of mean daily discharge at a large number of sites of even time series length (1952-2002). It identifies the simultaneous occurrence of flood peaks based on the exceedance of an initial threshold of a 10 year flood at one location and consecutively pools all causally related, spatially and temporally lagged peak recordings at the other locations. A weighted cumulative index was developed that accounts for the spatial extent and the individual flood magnitudes within an event and allows quantifying the overall event severity. The parameters of the method were tested in a sensitivity analysis. An intensive study on sources and ways of information dissemination of flood-relevant publications in Germany was conducted. Based on the method of systematic reviews a strategic search approach was developed to identify relevant documentations for each of the 40 strongest trans-basin flood events. A novel framework for assessing the quality of event specific flood reports from a user’s perspective was developed and validated by independent peers. The framework was designed to be generally applicable for any natural hazard type and assesses the quality of a document addressing accessibility as well as representational, contextual, and intrinsic dimensions of quality. The analysis of time-series of mean daily discharge resulted in the identification of 80 trans-basin flood events within the period 1952-2002 in Germany. The set is dominated by events that were recorded in the hydrological winter (64%); 36% occurred during the summer months. The occurrence of floods is characterised by a distinct clustering in time. Dividing the study period into two sub-periods, we find an increase in the percentage of winter events from 58% in the first to 70.5% in the second sub-period. Accordingly, we find a significant increase in the number of extreme trans-basin floods in the second sub-period. A large body of 186 flood relevant documentations was identified. For 87.5% of the 40 strongest trans-basin floods in Germany at least one report has been found and for the most severe floods a substantial amount of documentation could be obtained. 80% of the material can be considered grey literature (i.e. literature not controlled by commercial publishers). The results of the quality assessment show that the majority of flood event specific reports are of a good quality, i.e. they are well enough drafted, largely accurate and objective, and contain a substantial amount of information on the sources, pathways and receptors/consequences of the floods. The inclusion of this information in the process of knowledge building for flood risk assessment is recommended. Both the results as well as the data produced in this study are openly accessible and can be used for further research. The results of this study contribute to an improved spatial risk assessment in Germany. The identified set of trans-basin floods provides the basis for an assessment of the chance that flooding occurs simultaneously at a number of sites. The information obtained from flood event documentation can usefully supplement the analysis of the processes that govern flood risk. N2 - Abschätzungen zum Hochwasserrisiko beschränken sich zumeist auf die Analyse innerhalb eines Einzugsgebietes bzw. eines bestimmten Ortes. Die Zusammenhänge in größeren Regionen und vor allem Korrelationen zwischen verschiedenen Einzugsgebieten werden nur selten betrachtet. Solche einzugsgebietsübergreifenden Analysen sind jedoch sowohl für die Versicherungswirtschaft, den Katastrophenschutz sowie für großräumige strategische Hochwasserplanungen notwendig. Allerdings stehen nur für eine geringe Auswahl historischer Ereignisse Daten zur Verfügung und systematische Ansätze zu ihrer Erfassung wurden für Deutschland bisher nicht entwickelt. Die vorliegende Studie untersucht zum ersten die Häufigkeit und Intensität von flussgebietsübergreifenden Hochwasserereignissen in Deutschland anhand von gemessenen Abflüssen an einer Vielzahl von Stationen. Es können insgesamt 80 Hochwasserereignisse in Deutschland im Zeitraum von 1952-2002 nachgewiesen werden. Davon treten die meisten Ereignissen im hydrologischen Winterhalbjahr auf (64%). Wir können nachweisen, dass die Häufigkeit des Auftretens in verschiedenen Perioden unterschiedlich ist, und dass im Untersuchungszeitraum eine signifikante Zunahme von Winterereignissen und damit vor allem von sehr schweren flussgebietsübergreifenden Hochwasserereignissen zu verzeichnen ist. Die Studie hatte des Weiteren zum Ziel, die verfügbare Daten- und Informationsgrundlage zur Hochwasseranalyse zu erkunden. Im speziellen wird untersucht, inwieweit Hochwasserereignisdokumentationen und verwandte Berichte als eine weitere Datenquelle für ein verbessertes Prozessverständnis genutzt werden können. Im Rahmen einer systematischen Suche konnten für die 40 größten Hochwasserereignisse in Deutschland 186 relevante Berichte identifiziert werden. 80% des Materials kann als Grauliteratur eingestuft werden, d.h. als Veröffentlichungen welche nicht durch kommerzielle Verleger publiziert wird. Die sich daraus ergebende Frage nach der Qualität der Dokumente und ihres Informationsgehaltes wurde durch die Entwicklung und Anwendung eines Qualitätsbewertungsschemas beantwortet. Die Ergebnisse der Qualitätsbewertung zeigen, dass die Mehrheit der ereignisspezifischen Hochwasserberichte von guter Qualität ist, d.h. die Berichte sind in ausreichender Qualität verfasst, größtenteils korrekt und objektiv und beinhalten eine substantielle Menge an Informationen zu den Ursachen, Verläufen, betroffenen Objekten und Schäden eines Ereignisses. Es wird empfohlen diese Informationen in die Wissenssynthese für die Hochwasserrisikobewertung einfließen zu lassen. Sowohl Ergebnisse als auch Daten dieser Studie sind so publiziert, dass sie öffentlich zugänglich sind und für weitere Forschungsfragen genutzt werden können. KW - Hochwasser KW - Deutschland KW - Grauliteratur KW - Ereignisdokumentation KW - Qualitätsbewertung KW - floods KW - Germany KW - grey literature KW - event documentation KW - quality assessment framework Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68868 ER - TY - THES A1 - Gumienny, Raja Carola T1 - Understanding the adoption of digital whiteboard systems for collaborative design work T1 - Untersuchungen zur Einführung von digitalen Whiteboard-Systemen für kollaboratives kreatives Arbeiten N2 - User-centered design processes are the first choice when new interactive systems or services are developed to address real customer needs and provide a good user experience. Common tools for collecting user research data, conducting brainstormings, or sketching ideas are whiteboards and sticky notes. They are ubiquitously available, and no technical or domain knowledge is necessary to use them. However, traditional pen and paper tools fall short when saving the content and sharing it with others unable to be in the same location. They are also missing further digital advantages such as searching or sorting content. Although research on digital whiteboard and sticky note applications has been conducted for over 20 years, these tools are not widely adopted in company contexts. While many research prototypes exist, they have not been used for an extended period of time in a real-world context. The goal of this thesis is to investigate what the enablers and obstacles for the adoption of digital whiteboard systems are. As an instrument for different studies, we developed the Tele-Board software system for collaborative creative work. Based on interviews, observations, and findings from former research, we tried to transfer the analog way of working to the digital world. Being a software system, Tele-Board can be used with a variety of hardware and does not depend on special devices. This feature became one of the main factors for adoption on a larger scale. In this thesis, I will present three studies on the use of Tele-Board with different user groups and foci. I will use a combination of research methods (laboratory case studies and data from field research) with the overall goal of finding out when a digital whiteboard system is used and in which cases not. Not surprisingly, the system is used and accepted if a user sees a main benefit that neither analog tools nor other applications can offer. However, I found that these perceived benefits are very different for each user and usage context. If a tool provides possibilities to use in different ways and with different equipment, the chances of its adoption by a larger group increase. Tele-Board has now been in use for over 1.5 years in a global IT company in at least five countries with a constantly growing user base. Its use, advantages, and disadvantages will be described based on 42 interviews and usage statistics from server logs. Through these insights and findings from laboratory case studies, I will present a detailed analysis of digital whiteboard use in different contexts with design implications for future systems. N2 - Nutzerorientierte Gestaltungsprozesse werden angewandt, um zu gewährleisten, dass neue Software für Computer und Smartphones gebrauchstauglich ist und die tatsächlichen Bedürfnisse der Anwender adressiert. Dazu sollen potentielle Anwender befragt und beobachtet und darauf basierend Ideen und Entwürfe für die neue Software entwickelt werden. Um die Nutzerdaten und Ideen zu sammeln, sowie daraus Konzepte zu erarbeiten, werden häufig Whiteboards und Haftnotizen (Post-its) benutzt. Sie haben den Vorteil, dass sie weit verbreitet sind und keine speziellen Kenntnisse erfordern. Analoge Whiteboards sowie Stift und Papier haben allerdings auch den Nachteil, dass die Informationen nicht digital gespeichert und mit Personen an anderen Standorten geteilt werden können. Auch andere digitale Vorteile, wie z. B. Inhalte suchen und sortieren, sind nicht verfügbar. Obwohl es seit 20 Jahren Forschung zu digitalen Whiteboard-Anwendungen gibt, werden diese Systeme im Firmenumfeld kaum genutzt. Diverse Forschungsprototypen sind bisher weder im Langzeiteinsatz noch in Unternehmen ausreichend getestet worden. Ziel dieser Dissertation ist zu erforschen, welche Faktoren den Einsatz von digitalen Whiteboard-Systemen begünstigen und welche Faktoren eher hinderlich sind. Zu diesem Zweck haben wir das Tele-Board Software System für gemeinsames kreatives Arbeiten entwickelt. Basierend auf Interviews und Beobachtungen, sowie Erkenntnissen aus vorheriger Forschung, haben wir versucht, die analoge Arbeitsweise mit herkömmlichen Arbeitsmitteln in die digitale Welt zu übertragen. Tele-Board kann mit unterschiedlicher Hardware benutzt werden und ist nicht an spezielle Geräte gebunden. Diese Tatsache hat sich als Vorteil für den Einsatz der Software in größerem Umfang erwiesen. In dieser Arbeit präsentiere ich drei Studien zur Nutzung von Tele-Board von verschiedenen Anwendern in unterschiedlichen Umgebungen. Die Studien wurden sowohl unter kontrollierten Bedingungen, als auch im realen Arbeitsumfeld durchgeführt. Wie zu erwarten war, wird das System besonders dann angenommen, wenn die Anwender Vorteile sehen, die sie mit analogen Arbeitsmitteln und anderer Software nicht haben. Allerdings unterscheiden sich die empfundenen Vorteile je nach Anwender und Nutzungskontext. Daher steigen die Chancen auf eine Verbreitung der Software, wenn sie verschiedene Anwendungsfälle und unterschiedliches Equipment unterstützt. Tele-Board ist mittlerweile seit 1,5 Jahren in einer global agierenden IT-Firma in mindestens fünf Ländern mit konstant steigenden Nutzerzahlen im Einsatz. Auf der Basis von 42 Interviews und Nutzungsstatistiken vom Server wird beschrieben, auf welche Art und Weise das System angewandt wird und welche Vor- und Nachteile es hat. Aus diesen Erkenntnissen sowie anderen Studien, präsentiere ich eine detaillierte Analyse der Nutzung von digitalen Whiteboards und gebe Empfehlungen für die Entwicklung zukünftiger Systeme. KW - Verteiltes Arbeiten KW - CSCW KW - Digitale Whiteboards KW - Design Thinking KW - remote collaboration KW - cscw KW - digital whiteboard KW - design thinking Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72417 ER -