TY - THES A1 - Fischer, Anna T1 - "Reactive hard templating" : from carbon nitrides to metal nitrides T1 - Synthese von Metallnitrid Nanostrukturen durch "Reaktives Hardtemplating" N2 - Nanostructured inorganic materials are routinely synthesized by the use of templates. Depending on the synthesis conditions of the product material, either “soft” or “hard” templates can be applied. For sol-gel processes, usually “soft” templating techniques are employed, while “hard” templates are used for high temperature synthesis pathways. In classical templating approaches, the template has the unique role of structure directing agent, in the sense that it is not participating to the chemical formation of the resulting material. This work investigates a new templating pathway to nanostructured materials, where the template is also a reagent in the formation of the final material. This concept is described as “reactive templating” and opens a synthetic path toward materials which cannot be synthesised on a nanometre scale by classical templating approaches. Metal nitrides are such kind of materials. They are usually produced by the conversion of metals or metal oxides in ammonia flow at high temperature (T > 1000°C), which make the application of classical templating techniques difficult. Graphitic carbon nitride, g-C3N4, despite its fundamental and theoretical importance, is probably one of the most promising materials to complement carbon in material science and many efforts are put in the synthesis of this material. A simple polyaddition/elimination reaction path at high temperature (T = 550°C) allows the polymerisation of cyanamide toward graphitic carbon nitride solids. By hard templating, using nanostructured silica or aluminium oxide as nanotemplates, a variety of nanostructured graphitic carbon nitrides such as nanorods, nanotubes, meso- and macroporous powders could be obtained by nanocasting or nanocoating. Due to the special semi-conducting properties of the graphitic carbon nitride matrix, the nanostructured graphitic carbon nitrides show unexpected catalytic activity for the activation of benzene in Friedel-Crafts type reactions, making this material an interesting metal free catalyst. Furthermore, due to the chemical composition of g-C3N4 and the fact that it is totally decomposed at temperatures between 600°C and 800°C even under inert atmosphere, g-C3N4 was shown to be a good nitrogen donor for the synthesis of early transition metal nitrides at high temperatures. Thus using the nanostructured carbon nitrides as “reactive templates” or “nanoreactors”, various metal nitride nanostructures, such as nanoparticles and porous frameworks could be obtained at high temperature. In this approach the carbon nitride nanostructure played both the role of the nitrogen source and of the exotemplate, imprinting its size and shape to the resulting metal nitride nanostructure. N2 - Die Nanostrukturierung anorganischer Materialien, d.h. die Kontrolle ihrer Form und Größe auf der Nanometerebene durch unterschiedliche Herstellungsverfahren, ist ein sich immer noch erweiterndes Forschungsgebiet. Eine solche Nanostrukturierung wird oft über sogenannte Templatierungsverfahren erreicht: Hier werden Formgeber (Template) mit definierter Morphologie und Größe verwendet und deren Struktur in ein neues Material abgebildet. Templatierungsverfahren können, je nach der Beschaffenheit des Templats, zwischen „weich“ und „hart“ unterschieden werden. Die Begriffe beziehen sich dabei vor allem auf die mechanische und thermische Stabilität der Template, d.h. weiche Template sind vornehmlich organischer, harte Template anorganischer Natur. Wo weiche Template in milden chemischen Verfahren eingesetzt werden, werden harte Template zur Herstellung von Materialien bei Hochtemperaturverfahren verwendet (z. B. poröse Kohlenstoffe). Allgemein dienen Template ausschließlich als Strukturgeber und gehen in keiner Weise in Form einer chemischen Reaktion in die Synthese des gewünschten Materials mit ein. Gegenstand dieser Arbeit ist ein neues Templatierungsverfahren: Die „reaktive Templatierung“. Hierbei wird das Templat - neben seiner Funktion als Strukturgeber – auch als Reagenz für die Synthese des Produktes verwendet. Dieser Synthese-Ansatz öffnet damit neue Wege für die Synthese von nanostrukturierten Materialien, die durch klassische Templatierungsansätze schwer zugänglich sind. Hierzu zählen zum Beispiel die Metallnitride. Üblicherweise werden Metallnitride über die Umsetzung von Metallen oder Metalloxiden in einem Ammoniakstrom bei Mindesttemperaturen von 1000°C gewonnen, was die Anwendung klassischer Templatierungsverfahren beinahe unmöglich macht. Darüber hinaus sind konzentrierte Lauge oder Flusssäure, welche zur Entfernung klassischer harter Template benötigt werden auch Aufschlussmittel für Metallnitride. Graphitisches Kohlenstoffnitrid, g-C3N4, ist wohl eines der meistversprechendsten Materialien um Kohlenstoff in der Materialwissenschaft zu ergänzen. Es wurden bereits viele potentielle Syntheseansätze beschrieben. Eine durch Groenewolt M. erstellte Route ist die thermisch induzierte Polykondensation von Cyanamid (NCNH2) bei 550°C. Da g-C3N4 sich zwischen 600°C und 800°C vollständig in NH3 und CxNyH-Gase zersetzt, ist es eine geeignete Festkörper-Stickstoffquelle für die Herstellung von Metalnitriden. Daher boten sich nanostrukturierte graphitische Kohlenstoffnitride als geeignete reaktive Template oder Nanoreaktoren zur Herstellung von nano-strukturierten Metalnitriden an. Die Templatierung der g-C3N4-Matrix wurde über klassische Harttemplatierungsverfahren erreicht. So konnte eine Vielzahl nano-strukturierter g-C3N4 Materialien synthetisiert werden wie zum Beispiel Nanostäbchen, Nanoröhren, mesoporöse oder makroporöse graphitische Kohlenstoffnitride. Diese haben sich interessanterweise, als metalfreie Katalysatoren für die Aktivierung von Benzol in Friedel-Crafts-Acylierung und -Alkylierung erwiesen. Durch die Infiltrierung der nano-strukturierten g-C3N4-Materialien mit diversen Metal-Präkursoren und nachfolgendem Tempern bei 800°C unter Schutzgas, konnten entsprechende nano-strukturierte Metalnitride, als Nanoabdrücke der vorgegebenen Kohlenstoffnitrid Nanostrukturen hergestellt werden. So konnten TiN, VN, GaN, AlGaN und TiVN Nanopartikel synthetisiert werden, macroporöse TiN/Kohlenstoff Komposite sowie TiN Hohlkugeln. Die so hergestellten Materialien erwiesen sich als effektive basische Katalysatoren für Aldol-Kondensations Reaktionen. KW - Kohlenstoffnitride KW - Metallnitride KW - nano KW - Templatierung KW - Carbonitrides KW - metal nitrides KW - reactive templating KW - confinement KW - nano Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-19777 ER - TY - THES A1 - Zeiske, Anja T1 - "Sexualität im angehenden Erwachsenenalter" : die sexuelle Handlungsfähigkeit junger Frauen und Männer T1 - "Sexuality in emerging adulthood" : young women's and men's sexual agency N2 - In dieser Arbeit wurden Zusammenhänge zwischen den sexuellen Erfahrungen junger Frauen und Männer, ihren Persönlichkeitseigenschaften und ihren sexualmoralischen Einstellungen auf der einen Seite und der Einschätzung ihrer sexuellen Handlungsfähigkeit auf der anderen Seite untersucht. Die Grundlage für das Modell der sexuellen Handlungsfähigkeit bildeten die Vorstellungen der Arbeitsgruppe um Matthias Grundmann (Grundmann et al. 2006) sowie von Emirbayer und Mische (1998). Das in dieser Arbeit entwickelte Modell zur sexuellen Handlungsfähigkeit ist ein multidimensionales Konstrukt, das sich aus den Komponenten „sexuelle Kommunikation“, „sexuelle Zufriedenheit“, „sexuelle Reziprozität“ sowie „sexuelle Eigenverantwortung“ zusammensetzt. „Sexuelle Kommunikation“ beinhaltet die Fähigkeit, sexuelle Wünsche zum Ausdruck bringen zu können. „Sexuelle Zufriedenheit“ beschreibt den Grad der Zufriedenheit mit dem eigenen Sexualleben. „Sexuelle Reziprozität“ verweist auf die Fähigkeit, sexuelle Aufmerksamkeiten sowohl Annehmen als auch Geben zu können. „Sexuelle Eigenverantwortung“ betont schließlich die Einschätzung, inwieweit die eigene Sexualität selbst bestimmt gestaltet werden kann. Mit Emirbayer und Mische werden die sexuellen Erfahrungen der Frauen und Männer als Korrelate der Einschätzung der Dimensionen der sexuellen Handlungsfähigkeit betrachtet. Mit Grundmann et al. sind es zudem verschiedene Persönlichkeitseigenschaften sowie sexualmoralische Einstellungen, deren Beschaffenheiten Aussagen über die sexuelle Handlungsfähigkeit erlauben. Um die Thematik der sexuellen Handlungsfähigkeit empirisch zu betrachten, wurden im Jahr 2006 695 junge Potsdamer/innen im Alter von 19 bis 21 Jahren im Rahmen einer standardisierten Erhebung zu ihren sexuellen und Beziehungserfahrungen befragt. Die empirischen Analysen verdeutlichen eine ko-konstruktive Anschauung von der Entwicklung sexueller Handlungsfähigkeit. Diese entsteht nicht im Individuum allein, sondern innerhalb der Interaktions- und Aushandlungsprozesse des Individuums mit den Anderen seiner sozialen und sexuellen Umwelt. Von Bedeutung erweisen dabei sowohl die Erlebnisse der sexuellen Biografie als auch die Persönlichkeitsmerkmale eines jeden Einzelnen. Nur geringfügig erscheinen die erfragten sexualmoralischen Ansichten von Bedeutung. N2 - This study examines the connections between young women’s and men’s sexual experiences, their psychometrically meassures, and their moral attitudes according to sexuality on the one hand and the young women’s and men’s evaluation of their sexual agency on the other hand. The model of sexual agency used in this study is based upon the conceptions of Matthias Grundmann and collegues (Grundmann et al. 2006) as well as upon the conceptions of Mustafa Emirbayer and Ann Mische (1998). According to Emirbayer and Mische, in this study young women’s and men’s sexual experiences are conceived as correlates of their self-evalutation of sexual agency. Moreover, according to Grundmann et al., it is suggested that the young adults’ personality traits and their moral attitudes concerning sexulity are able to characterize their state of sexual agency. In this work a multidimensional construct of sexual agency has been developed. The multidimensional construct of sexual agency consists of the four dimensions “sexual communication”, “sexual satisfaction”, “sexual reciprocity”, and “sexual self-responsibility”. “Sexual communication” characterizes the ability to communicate one’s own sexual wishes. “Sexual satisfaction” describes the state of satisfaction with one’s sexual life. “Sexual reciprocity” contains the ability of both taking and giving sexual pleasures. Finally, “sexual self-responsibility” emphasizes the capability of creating one’s sexuality in an self dependened way. Based on a quantitative sample the subject of sexual agency has been examined empirically. In the year 2006 695 young adults, aged 19 to 21 years and living in Potsdam, Germany, have been asked about their sexual experiences and their experiences concerning romantic relationships. Data support a co-constructive view of the development of sexual agency. Thus, the development of sexual agency is not an exclusively individual demand, but a demand of the individuum’s negotiations with it’s social others, with men and women of it’s social and sexual society. Therefore, aspects of the individual’s sexual biography as well as the individual’s personality traits are important for the self-evaluaton of it’s sexual agency. However, data also show that the moral attitudes concerning sexuality are less important for the perception of one’s state of sexual agency. KW - Sexualität KW - sexuelle Handlungsfähigkeit KW - junge Erwachsene KW - Frauen KW - Männer KW - sexuality KW - sexual agency KW - emerging adults KW - women KW - men Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52346 ER - TY - THES A1 - Reininghaus, Karl T1 - "So sind die Zeichen in der Welt" : Beobachtungen zur Rezeption von eher Wenigem Friedrich Hölderlins T1 - "So sind die Zeichen in der Welt" : an inquiry into the Friedrich Hölderlin reception N2 - Wenn in einem verbrannten Gebäude, in dem sich unliebsame Untermieter breit gemacht haben, diese damit beginnen, Stein für Stein das restliche Gemäuer abzutragen, um die verbliebenen Fenster zuzumauern, wird es Zeit, mit mehr oder weniger freundlichen Worten die Bewohner des Hauses zu verweisen, die nur verhindern, dass sich neue Besucher dem Gelände nähern. Dafür muss freilich alter und neuer Behang von den Wänden genommen werden; und eben durch die Verbannung all dessen, was nicht an diesen Ort gehört, kann ein freundliches Bild des Dichters Friedrich Hölderlin erhalten bleiben, der nicht nur poetisch, sondern auch zwischenmenschlich einigen bedeutenden Persönlichkeiten seiner Zeit im Wege stand, was ihm wohl in beiden Aspekten zum Verhängnis geworden ist, weil er sich weder verwandtschaftlich noch im Rahmen des poetischen Geschäfts gegen seine intrigante Umgebung zur Wehr zu setzen wusste. Der etwas länger geratene Aufsatz „So sind die Zeichen in der Welt“ soll weder ein neues Heiligenbild schaffen noch einen frisch aus der Tasche gezogenen Popstar zum Liebhaben, sondern will behutsam einige Fresken des Gedankengebäudes Hölderlin für diejenigen freilegen, deren Bild des Dichters noch nicht völlig von der Vorstellung des wahnsinnig gewordenen Dichters übertüncht worden ist. Obwohl sich die Arbeit damit ganz bewusst den Hölderlin - Studien von Pierre Bertaux anschließt, setzt sie sich auch mit dieser Wahrnehmungslinie kritisch auseinander, indem sie neben biographischen Anmerkungen auch stil- und ideologiekritische Methoden einsetzt, um die manchmal unübersichtliche Quellenlage ein wenig durchsichtiger zu machen, als dies bisher der Fall ist. Über eine solche, in Einzelheiten vielleicht unorthodox wirkende Darstellung hinaus will die Arbeit die Behandlungsmöglichkeit von Friedrich Hölderlin im Deutschunterricht des Gymnasiums nahe legen, weil selbst Jüngeres über ihn behandelt wird, das darauf hinweist, inwiefern die Marginalisierung dieses Poeten damit zu tun hat, dass er während eines langen Abschnitts der Literaturgeschichte auch dafür verantwortlich gemacht wurde, was er weder geschrieben hat noch meinte. Die Intention der Arbeit besteht insgesamt in der Vorstellung, das Gedankengut Hölderlins müsse aus dem breiten Strom einer konservativen Wahrnehmungstradition entfernt werden (zu der beispielsweise auch die dramatische Hölderlin - Bearbeitung E. Jelineks Wolken.Heim. gezählt werden kann, selbst wenn sie widerborstig gemeint sein sollte) und dieser Dichter sei als realistischer Denker zu restaurieren, der sich deshalb dem Literaturbetrieb seiner Zeit entgezogen hat, weil er, selbst der Lebensführung nach, sehr früh die Bewegungen gegen französische Aufklärung und Revolution begriffen hat – und von deren massiver Ablehnung Hölderlin bis heute getroffen wird. Da Friedrich Hölderlin aber nicht nur ideologischer Betrachtung, Kritik und Verfälschung ausgesetzt ist, sondern auch regelmäßig Gegenstand umfangreicher biographisch - psychologischer Spekulationen darstellt, wurde dieser Aspekt nicht nur bezogen auf die Rezeptionsgeschichte untersucht, sondern am Gegenstand selbst. In diesem Zusammenhang konnte nicht nur eine bislang vernachlässigte Beziehung Hölderlins zu Sophie Mereau rekonstruiert und der Verdacht zurückgewiesen werden, es habe zur selben Zeit eine homoerotische Beziehung zu Isaak Sinclair bestanden, vielmehr gelang auch der Nachweis, dass das Verhältnis des Dichters zu Susette Gontard weder singulär noch konkurrenzlos gewesen ist, weshalb sich eine eindeutige Zuordnung dieser Frau zur poetischen Figur der Diotima verbietet. Dazu wurde einerseits der Umstand entmythologisiert, nach dem die Liebe zur Frankfurter Zeit platonisch betrieben wurde, andererseits aber diese Affaire den Verhältnissen Hölderlins zu anderen Frauen zugeordnet, mit denen sich Frau Gontard – letztlich erfolglos – dadurch auseinander zu setzen versuchte, dass sie die Rolle Diotimas okkupierte. Dabei ließ sich schließlich der Verdacht erhärten, die stabilste Bindung des Dichters an eine Frau sei die zur eigenen Schwester Heinrike gewesen, mit der bis zum Bruch von Bordeaux aus zwar unregelmäßig, aber emotional immer wieder ausufernde Briefe getauscht wurden. Es ist nicht ohne Ironie, wenn ausgerechnet im vielleicht bekanntesten Gedicht Hölderlins, der „Hälfte des Lebens“, in dem regelmäßig ein bedeutender philosophischer Entwurf gesehen wird, Rudimente eines Textes enthalten sind, der – eindeutig erotisch konnotiert – an die eigene Schwester gerichtet ist. N2 - Whenever uninvited guests occupying a house destroyed by fire start to dismantle its leftovers in order to brick the remaining windows, the time has come to expel them with more or less friendly words, since their sole purpose is to prevent new guests from approaching the premises. In order to do so, it is, of course, necessary to remove whatever hangings there might be left on the wall, both old and new, and by means of this very banishment of all which doesn’t inherently belong to the place, it is possible to retain a pleasant image of poet Friedrich Hölderlin – who may have gotten into the way for some of the more influential ones of his contemporaries not only poetically, but also in terms of interpersonal dynamics, both of which caused his eventual disaster. Neither in terms of family relationships, nor in the context of his poetic affairs was he capable of defend himself against the intrigues directed against him. „So sind die Zeichen in der Welt“ is a somewhat longer essay, which neither intends to put the poet on a pedestal, nor to create an adorable pop star. Its intention is to excavate some of the frescoes of the construct of ideas Hölderlin consists today, and to do so for those whose idea of the poet has not yet been buried entirely under the image of the poet gone insane. Although this study consciously chooses to pursuit an approach similar to the one of Pierre Bertaux, it also maintains a critical stance towards this line of interpretation by using not only biographic connotations, but also methods borrowed from the critique of ideology and style in order to make the sometimes confusing current state of source material somewhat more transparent as it has hitherto been the case. It also wants to transcend this approach, which can appear unorthodox in some respects, by suggesting ways of dealing with Friedrich Hölderlin in the curriculum of German secondary schools, which includes even newer material referring to the fact to which extent this poet’s marginalization is caused by his being held responsible for things he neither wrote nor meant during a long period of literary history. The overall intention of this study is the idea that Hölderlin’s body of thought has to be removed from the mainstream of conservative readings (including Elfriede Jelineks dramatic adaptation „Wolken. Heim.”, even if its intentions should be more recalcitrant) and that this poet has to be rehabilitated as a realist thinker who eschewed the literary “scene” of his time because he understood – and counteracted – quite early its rejection of the French Enlightenment and revolution – a rejection which has always been difficult for him to bear. Since Friedrich Hölderlin is, however, not only exposed to ideologically biased reflection, criticism and corruption, but also consists a subject of extensive biographic and psychologic speculation on a regular basis, this aspect has been researched not only with respect to the reception history of his works, but also inherently to the subject. In this context, it was not only possible to reconstruct the hitherto neglected relationship between Hölderlin and Sophie Mereau and to reject the suspicion of a simultaneous homoerotic relationship with Isaak Sinclair. It was also established that the poet’s affair with Susette Gontard was neither singular nor unrivaled, which rules out a doubtless correlation between this woman and the poetic figure of Diotima. In order to make this possible, it was necessary to both demythologize the idea of platonic love during the Frankfurt years, as well as to put this affair in context with Hölderlin’s romantic relationships with other women, which Gontard unsuccessfully tried to come to terms with by taking possession of the Diotima persona. Doing so substantiated the suspicion that the poet’s most stable bond with a woman was the one with his own sister Heinrike, with whom he had an emotionally overflowing, if unfrequent exchange of letters at least until the Bordeaux caesura. It is not without irony that “Hälfte des Lebens” of all poems – the one Hölderlin is maybe known best for and that is regularly considered a significant philosophic outline – contains fragments of a text that clearly features erotic connotations, the recipient of which is Hölderlin’s own sister. KW - Biographie KW - Poesie KW - Rezeption KW - Biography KW - Poetry KW - Reception Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-35723 ER - TY - THES A1 - Lontsi, Agostiny Marrios T1 - 1D shallow sedimentary subsurface imaging using ambient noise and active seismic data T1 - 1D Bildgebung oberflächennaher Sedimente mit Hilfe von Daten der allgemeinen, seismischen Bodenunruhe und Daten der aktiven Seismik N2 - The Earth’s shallow subsurface with sedimentary cover acts as a waveguide to any incoming wavefield. Within the framework of my thesis, I focused on the characterization of this shallow subsurface within tens to few hundreds of meters of sediment cover. I imaged the seismic 1D shear wave velocity (and possibly the 1D compressional wave velocity). This information is not only required for any seismic risk assessment, geotechnical engineering or microzonation activities, but also for exploration and global seismology where site effects are often neglected in seismic waveform modeling. First, the conventional frequency-wavenumber (f - k) technique is used to derive the dispersion characteristic of the propagating surface waves recorded using distinct arrays of seismometers in 1D and 2D configurations. Further, the cross-correlation technique is applied to seismic array data to estimate the Green’s function between receivers pairs combination assuming one is the source and the other the receiver. With the consideration of a 1D media, the estimated cross-correlation Green’s functions are sorted with interstation distance in a virtual 1D active seismic experiment. The f - k technique is then used to estimate the dispersion curves. This integrated analysis is important for the interpretation of a large bandwidth of the phase velocity dispersion curves and therefore improving the resolution of the estimated 1D Vs profile. Second, the new theoretical approach based on the Diffuse Field Assumption (DFA) is used for the interpretation of the observed microtremors H/V spectral ratio. The theory is further extended in this research work to include not only the interpretation of the H/V measured at the surface, but also the H/V measured at depths and in marine environments. A modeling and inversion of synthetic H/V spectral ratio curves on simple predefined geological structures shows an almost perfect recovery of the model parameters (mainly Vs and to a lesser extent Vp). These results are obtained after information from a receiver at depth has been considered in the inversion. Finally, the Rayleigh wave phase velocity information, estimated from array data, and the H/V(z, f) spectral ratio, estimated from a single station data, are combined and inverted for the velocity profile information. Obtained results indicate an improved depth resolution in comparison to estimations using the phase velocity dispersion curves only. The overall estimated sediment thickness is comparable to estimations obtained by inverting the full micortremor H/V spectral ratio. N2 - Oberflächennahe Sedimente wirken oft als Verstärker für einfallende seismische Wellenfelder. Im Rahmen meiner Doktorarbeit konzentriere ich mich auf die Eigenschaften des oberflächennahen Untergrundes von einigen zehn bis zu hundert Metern Sedimentabdeckung. Dabei leite ich Tiefenprofile (1D) der seismische Scherwellengeschwindigkeit (Vs) und wenn möglich auch der Kompressionswellengeschwindigkeit (Vp) aus seismischen Daten ab. Diese Informationen sind nicht nur für jede Erdbebenrisikobewertung, Geotechnik- oder Mikrozonierungsaktivität erforderlich, sondern sind auch für die seismische Erkundung und globale Seismologie von Bedeutung, da Standorteffekte in seismischen Wellenformmodellierungen oft vernachlässigt werden. Zuerst wird die herkömmliche Frequenz-Wellenzahl (f - k) Technik verwendet, um die Dispersionskurven der Phasengeschwindigkeit von Oberflächenwellen abzuleiten. Die zugrundeliegenden Daten stammen von Seismometerarrays in unterschiedlichen 1D- und 2D-Konfigurationen. In einem weiteren Schritt wird die Green’s Funktion zwischen verschiedenen Empfängerpaaren aus den Daten des seismischen Arrays geschätzt. Dabei wird die Kreuzkorrelationstechnik verwendet. In einem virtuellen 1D Experiment der aktiven Seismik werden die abgeleiteten Green’s Funktionen der Interstationsdistanz nach geordnet. Dann wird die f-k Technik verwendet um wiederum Dispersionskurven abzuleiten. Dieser integrierte Ansatz ermöglicht die Analyse einer grösseren Bandbreite für die Dispersionskurven und daher eine verbesserte Auflösung des 1D Tiefenprofils der Scherwellengeschwindigkeit (Vs). In einem zweiten Schritt wird ein neuer Ansatz, basierend auf der diffusen Wellenfeldannahme (engl., Diffuse Field Assumption, DFA), zur Interpretation beobachteter horizontal zu vertikalen Spektralamplitudenverhältnissen (H/V-Spektralverhältnisse), die aus allgemeiner Bodenunruhe abgeleited wurden,genutzt. Diese Theorie wurde im Rahmen der vorliegenden Arbeit erweitert, um nicht nur an der Oberfläche gemessene H/V- Spektralverhältnisse interpretieren zu können sondern auch Messungen in der Tiefe (Bohrloch) und in mariner Umgebung (Ozeanboden). Eine Modellierung und Inversion von synthetischen HV- Spektralverhältnissen für vordefinierte, einfache geologische Strukturen zeigt eine nahezu perfekte Identifikation/Rekonstruktion der Modellparameter (im wesentlichen Vs und in geringerem Maße Vp), wenn die zusätzliche Information von HV- Spektralverhältnissen eines Empfängers in der Tiefe bei der Inversion berücksichtigt wird. Letztlich wurden (i) Phasengeschwindigkeiten von Rayleighwellen, die aus einem Arraydatensatz geschätzt wurden, mit (ii) H/V-Spektralverhältnissen einer Einzelstation kombiniert invertiert, um Tiefen-profile seismischer Geschwindigkeiten (Vs, Vp) zu bestimmen. Die Ergebnisse deuten daraufhin, dass sich mit einer kombinierte Inversion seismische Geschwindigkeiten bis in größere Tiefen bestimmen lassen, verglichen mit der Inversion von nur Phasengeschwindigkeiten allein. Die geschätzte Gesamtmächtigkeit von Oberflächensedimenten aufgrund der kombinierten Inversion ist vergleichbar mit der, abgleitet von nur H/V-Spektralverhältnissen. KW - active seismic KW - passive seismic KW - virtual active seismic KW - dispersion curves KW - inversion KW - Vs profiles KW - inverse theory KW - interferometry KW - site effects KW - aktive Seismik KW - passive Seismik KW - virtuelle aktive Seismik KW - Dispersionskurven KW - Inversion KW - Vs Profile KW - Inversionstheorie KW - Interferometrie KW - Standorteffekte Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103807 ER - TY - THES A1 - Amour, Frédéric T1 - 3-D modeling of shallow-water carbonate systems : a scale-dependent approach based on quantitative outcrop studies T1 - 3-D Modellierung von Flachwasser-Karbonat-Sytemen : eine skalenabhängige Herangehensweise basierend auf quantitativen Aufschlussstudien N2 - The study of outcrop modeling is located at the interface between two fields of expertise, Sedimentology and Computing Geoscience, which respectively investigates and simulates geological heterogeneity observed in the sedimentary record. During the last past years, modeling tools and techniques were constantly improved. In parallel, the study of Phanerozoic carbonate deposits emphasized the common occurrence of a random facies distribution along single depositional domain. Although both fields of expertise are intrinsically linked during outcrop simulation, their respective advances have not been combined in literature to enhance carbonate modeling studies. The present study re-examines the modeling strategy adapted to the simulation of shallow-water carbonate systems, based on a close relationship between field sedimentology and modeling capabilities. In the present study, the evaluation of three commonly used algorithms Truncated Gaussian Simulation (TGSim), Sequential Indicator Simulation (SISim), and Indicator Kriging (IK), were performed for the first time using visual and quantitative comparisons on an ideally suited carbonate outcrop. The results show that the heterogeneity of carbonate rocks cannot be fully simulated using one single algorithm. The operating mode of each algorithm involves capabilities as well as drawbacks that are not capable to match all field observations carried out across the modeling area. Two end members in the spectrum of carbonate depositional settings, a low-angle Jurassic ramp (High Atlas, Morocco) and a Triassic isolated platform (Dolomites, Italy), were investigated to obtain a complete overview of the geological heterogeneity in shallow-water carbonate systems. Field sedimentology and statistical analysis performed on the type, morphology, distribution, and association of carbonate bodies and combined with palaeodepositional reconstructions, emphasize similar results. At the basin scale (x 1 km), facies association, composed of facies recording similar depositional conditions, displays linear and ordered transitions between depositional domains. Contrarily, at the bedding scale (x 0.1 km), individual lithofacies type shows a mosaic-like distribution consisting of an arrangement of spatially independent lithofacies bodies along the depositional profile. The increase of spatial disorder from the basin to bedding scale results from the influence of autocyclic factors on the transport and deposition of carbonate sediments. Scale-dependent types of carbonate heterogeneity are linked with the evaluation of algorithms in order to establish a modeling strategy that considers both the sedimentary characteristics of the outcrop and the modeling capabilities. A surface-based modeling approach was used to model depositional sequences. Facies associations were populated using TGSim to preserve ordered trends between depositional domains. At the lithofacies scale, a fully stochastic approach with SISim was applied to simulate a mosaic-like lithofacies distribution. This new workflow is designed to improve the simulation of carbonate rocks, based on the modeling of each scale of heterogeneity individually. Contrarily to simulation methods applied in literature, the present study considers that the use of one single simulation technique is unlikely to correctly model the natural patterns and variability of carbonate rocks. The implementation of different techniques customized for each level of the stratigraphic hierarchy provides the essential computing flexibility to model carbonate systems. Closer feedback between advances carried out in the field of Sedimentology and Computing Geoscience should be promoted during future outcrop simulations for the enhancement of 3-D geological models. N2 - Das Modellieren von geologischen Aufschlüssen liegt der Schnittstelle zwischen zwei geo-logischen Teildisziplinen, der Sedimentologie und der geologischen Modellierung. Hierbei werden geologische Heterogenitäten untersucht und simuliert, welche im Aufschluss beobachtet wurden. Während der letzten Jahre haben sich die Werkzeuge und die Technik der Modellierung stetig weiter-entwickelt. Parallel dazu hat die Untersuchung der phanerozoischen Karbonatablagerungen ihren Fokus auf gemeinsamen Vorkommen von zufälligen Faziesverteilungen in beiden Ablagerungs-gebieten. Obwohl beide Teildisziplinen durch die Aufschlussmodellierung eigentlich verbunden sind, wurden ihre jeweiligen Vorteile in der Literatur nicht miteinander verbunden, um so eine Verbesserung ähnlicher Studien zu erreichen. Die vorliegende Studie überprüft erneut die Modellierungsstrategie, angepasst an die Simulation von Flachwasser-Karbonat-Systemen und basierend auf einer engen Beziehung zwischen Sedimentologie und Modellierung. Die vorliegende Arbeit behandelt erstmals die Evaluierung der drei am häufigsten verwendeten Algorithmen „Truncated Gaussian Simulation (TGSim)“, „Sequential Indicator Simulation (SISim)“ und „Indicator Kriging (IK)“, um sie visuell und quantitativ mit dem entsprechenden Aufschluss zu vergleichen. Die Ergebnisse zeigen, dass die Heterogenität von Karbonatgesteinen nicht komplett mit nur einem Algorithmus simuliert werden kann. Die Eigenschaften jedes einzelnen Algorithmus beinhalten Vor- und Nachteile, sodass kein Algorithmus alle Beobachtungen aus dem Aufschluss widerspiegelt. Die zwei Endglieder im Spektrum der Ablagerungsbedingungen von Karbonaten, eine flachwinklige, jurassische Karbonat-Rampe (Hoher Atlas, Marokko) und eine isolierte, triassische Plattform (Dolomiten, Italien), wurden untersucht, um einen kompletten Überblick über die verschiedenen Heterogenitäten in Flachwasser-Karbonat- Systemen zu erhalten. Sedimentologische und statistische Analysen wurden für die verschiedenen Typen, Morphologien, Verteilungen und Assoziationen von Karbonatablagerungen durchgeführt und mit paläogeografischen Rekonstruktionen kombiniert und zeigen ähnliche Ergebnisse. Im Beckenmaßstab zeigen die Faziesassoziationen, bestehend aus Fazieszonen mit ähnlichen Ablagerungsbedingungen, einen linearen und kontinuierlichen Übergang zwischen den einzelnen Ablagerungsbereichen. Im Gegensatz dazu zeigt für einzelne Lithofaziestypen im Maßstab einzelner Schichten eine mosaikartige Verteilung, bestehend aus einer Anordnung räumlich unabhängiger Lithofazieszonen entlang des Ablagerungsprofils. Das Ansteigen der räumlichen Unordnung von der beckenweiten Ablagerung zur Ablagerung einzelner Schichten resultiert aus dem Einfluss autozyklischer Faktoren bei der Ablagerung von Karbonaten. Die Skalenabhängigkeit von Karbonat-Heterogenität ist mit der Auswertung der Algorithmen verknüpft um eine Modellierungsstrategie zu etablieren, welche sowohl die sedimentären Charakteristiken des Aufschlusses als auch die Modellierfähigkeit berücksichtigt. Für die Modellierung der Ablagerungssequenzen wurde ein flächenbasierter Ansatz verwendet. Die Faziesassoziationen wurden durch die Benutzung des TGSim-Algorithmus simuliert, um die regulären Trends zwischen den einzelnen Ablagerungsgebieten zu erhalten. Im Bereich der verschiedenen Lithofazien wurde mit dem SISim-Algorithmus, ein voll stochastischer Ansatz angewendet, um die mosaikartige Verteilung der Lithofazies-Typen zu simulieren. Dieser neue Arbeitsablauf wurde konzipiert, um die Simulierung von Karbonaten auf Basis der einzelnen Heterogenitäten in verschiedenen Größenordnungen zu verbessern. Im Gegensatz zu den in der Literatur angewendeten Simulationsmethoden berücksichtigt diese Studie, dass eine einzelne Modellierungstechnik die natürlichen Ablagerungsmuster und Variabilität von Karbonaten wahrscheinlich nicht korrekt abbildet. Die Einführung verschiedener Techniken, angepasst auf die verschiedenen Ebenen der stratigrafischen Hierarchie, liefert die notwendige Flexibilität um Karbonatsysteme korrekt zu modellieren. Eine enge Verknüpfung zwischen den Fortschritten auf dem Gebieten der Sedimentologie und dem Gebiet der modellierenden Geowissenschaften sollte weiterhin bestehen, um auch zukünftig bei der Simulation von geologischen Gelände-Aufschlüssen eine Verbesserung der 3-D-Modellierung zu erreichen. KW - Karbonat KW - 3-D Modellierung KW - Aufschluss-Modellierung KW - Quantitative Daten KW - Skala KW - Stochastischer Algorithmus KW - Carbonate KW - 3-D outcrop modeling KW - quantitative data KW - scale KW - stochastic algorithms Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66621 ER - TY - THES A1 - Koyan, Philipp T1 - 3D attribute analysis and classification to interpret ground-penetrating radar (GPR) data collected across sedimentary environments: Synthetic studies and field examples T1 - 3D Attributanalyse und -klassifizierung zur Interpretation von Georadar-Daten in sedimentären Umgebungen: Synthetische Studien und Feldbeispiele N2 - Die Untersuchung des oberflächennahen Untergrundes erfolgt heutzutage bei Frage- stellungen aus den Bereichen des Bauwesens, der Archäologie oder der Geologie und Hydrologie oft mittels zerstörungsfreier beziehungsweise zerstörungsarmer Methoden der angewandten Geophysik. Ein Bereich, der eine immer zentralere Rolle in Forschung und Ingenieurwesen einnimmt, ist die Untersuchung von sedimentären Umgebungen, zum Beispiel zur Charakterisierung oberflächennaher Grundwassersysteme. Ein in diesem Kontext häufig eingesetztes Verfahren ist das des Georadars (oftmals GPR - aus dem Englischen ground-penetrating radar). Dabei werden kurze elektromagnetische Impulse von einer Antenne in den Untergrund ausgesendet, welche dort wiederum an Kontrasten der elektromagnetischen Eigenschaften (wie zum Beispiel an der Grundwasseroberfläche) reflektiert, gebrochen oder gestreut werden. Eine Empfangsantenne zeichnet diese Signale in Form derer Amplituden und Laufzeiten auf. Eine Analyse dieser aufgezeichneten Signale ermöglicht Aussagen über den Untergrund, beispielsweise über die Tiefenlage der Grundwasseroberfläche oder die Lagerung und Charakteristika oberflächennaher Sedimentschichten. Dank des hohen Auflösungsvermögens der GPR-Methode sowie stetiger technologischer Entwicklungen erfolgt heutzutage die Aufzeichnung von GPR- Daten immer häufiger in 3D. Trotz des hohen zeitlichen und technischen Aufwandes für die Datenakquisition und -bearbeitung werden die resultierenden 3D-Datensätze, welche den Untergrund hochauflösend abbilden, typischerweise von Hand interpretiert. Dies ist in der Regel ein äußerst zeitaufwendiger Analyseschritt. Daher werden oft repräsentative 2D-Schnitte aus dem 3D-Datensatz gewählt, in denen markante Reflektionsstrukuren markiert werden. Aus diesen Strukturen werden dann sich ähnelnde Bereiche im Untergrund als so genannte Radar-Fazies zusammengefasst. Die anhand von 2D-Schnitten erlangten Resultate werden dann als repräsentativ für die gesamte untersuchte Fläche angesehen. In dieser Form durchgeführte Interpretationen sind folglich oft unvollständig sowie zudem in hohem Maße von der Expertise der Interpretierenden abhängig und daher in der Regel nicht reproduzierbar. Eine vielversprechende Alternative beziehungsweise Ergänzung zur manuellen In- terpretation ist die Verwendung von so genannten GPR-Attributen. Dabei werden nicht die aufgezeichneten Daten selbst, sondern daraus abgeleitete Größen, welche die markanten Reflexionsstrukturen in 3D charakterisieren, zur Interpretation herangezogen. In dieser Arbeit wird anhand verschiedener Feld- und Modelldatensätze untersucht, welche Attribute sich dafür insbesondere eignen. Zudem zeigt diese Arbeit, wie ausgewählte Attribute mittels spezieller Bearbeitungs- und Klassifizierungsmethoden zur Erstellung von 3D-Faziesmodellen genutzt werden können. Dank der Möglichkeit der Erstellung so genannter attributbasierter 3D-GPR-Faziesmodelle können zukünftige Interpretationen zu gewissen Teilen automatisiert und somit effizienter durchgeführt werden. Weiterhin beschreiben die so erhaltenen Resultate den untersuchten Untergrund in reproduzierbarer Art und Weise sowie umfänglicher als es bisher mittels manueller Interpretationsmethoden typischerweise möglich war. N2 - Today, near-surface investigations are frequently conducted using non-destructive or minimally invasive methods of applied geophysics, particularly in the fields of civil engineering, archaeology, geology, and hydrology. One field that plays an increasingly central role in research and engineering is the examination of sedimentary environments, for example, for characterizing near-surface groundwater systems. A commonly employed method in this context is ground-penetrating radar (GPR). In this technique, short electromagnetic pulses are emitted into the subsurface by an antenna, which are then reflected, refracted, or scattered at contrasts in electromagnetic properties (such as the water table). A receiving antenna records these signals in terms of their amplitudes and travel times. Analysis of the recorded signals allows for inferences about the subsurface, such as the depth of the groundwater table or the composition and characteristics of near-surface sediment layers. Due to the high resolution of the GPR method and continuous technological advancements, GPR data acquisition is increasingly performed in three-dimensional (3D) fashion today. Despite the considerable temporal and technical efforts involved in data acquisition and processing, the resulting 3D data sets (providing high-resolution images of the subsurface) are typically interpreted manually. This is generally an extremely time-consuming analysis step. Therefore, representative 2D sections highlighting distinctive reflection structures are often selected from the 3D data set. Regions showing similar structures are then grouped into so-called radar facies. The results obtained from 2D sections are considered representative of the entire investigated area. Interpretations conducted in this manner are often incomplete and highly dependent on the expertise of the interpreters, making them generally non-reproducible. A promising alternative or complement to manual interpretation is the use of GPR attributes. Instead of using the recorded data directly, derived quantities characterizing distinctive reflection structures in 3D are applied for interpretation. Using various field and synthetic data sets, this thesis investigates which attributes are particularly suitable for this purpose. Additionally, the study demonstrates how selected attributes can be utilized through specific processing and classification methods to create 3D facies models. The ability to generate attribute-based 3D GPR facies models allows for partially automated and more efficient interpretations in the future. Furthermore, the results obtained in this manner describe the subsurface in a reproducible and more comprehensive manner than what has typically been achievable through manual interpretation methods. KW - ground-penetrating radar KW - sedimentary environments KW - 3D KW - applied geophysics KW - near-surface geophysics KW - Georadar KW - sedimentäre Systeme KW - angewandte Geophysik KW - oberflächennahe Geophysik KW - Attribute KW - attributes KW - geophysics KW - Geophysik Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-639488 ER - TY - THES A1 - Holz, Christian T1 - 3D from 2D touch T1 - 3D von 2D-Berührungen N2 - While interaction with computers used to be dominated by mice and keyboards, new types of sensors now allow users to interact through touch, speech, or using their whole body in 3D space. These new interaction modalities are often referred to as "natural user interfaces" or "NUIs." While 2D NUIs have experienced major success on billions of mobile touch devices sold, 3D NUI systems have so far been unable to deliver a mobile form factor, mainly due to their use of cameras. The fact that cameras require a certain distance from the capture volume has prevented 3D NUI systems from reaching the flat form factor mobile users expect. In this dissertation, we address this issue by sensing 3D input using flat 2D sensors. The systems we present observe the input from 3D objects as 2D imprints upon physical contact. By sampling these imprints at very high resolutions, we obtain the objects' textures. In some cases, a texture uniquely identifies a biometric feature, such as the user's fingerprint. In other cases, an imprint stems from the user's clothing, such as when walking on multitouch floors. By analyzing from which part of the 3D object the 2D imprint results, we reconstruct the object's pose in 3D space. While our main contribution is a general approach to sensing 3D input on 2D sensors upon physical contact, we also demonstrate three applications of our approach. (1) We present high-accuracy touch devices that allow users to reliably touch targets that are a third of the size of those on current touch devices. We show that different users and 3D finger poses systematically affect touch sensing, which current devices perceive as random input noise. We introduce a model for touch that compensates for this systematic effect by deriving the 3D finger pose and the user's identity from each touch imprint. We then investigate this systematic effect in detail and explore how users conceptually touch targets. Our findings indicate that users aim by aligning visual features of their fingers with the target. We present a visual model for touch input that eliminates virtually all systematic effects on touch accuracy. (2) From each touch, we identify users biometrically by analyzing their fingerprints. Our prototype Fiberio integrates fingerprint scanning and a display into the same flat surface, solving a long-standing problem in human-computer interaction: secure authentication on touchscreens. Sensing 3D input and authenticating users upon touch allows Fiberio to implement a variety of applications that traditionally require the bulky setups of current 3D NUI systems. (3) To demonstrate the versatility of 3D reconstruction on larger touch surfaces, we present a high-resolution pressure-sensitive floor that resolves the texture of objects upon touch. Using the same principles as before, our system GravitySpace analyzes all imprints and identifies users based on their shoe soles, detects furniture, and enables accurate touch input using feet. By classifying all imprints, GravitySpace detects the users' body parts that are in contact with the floor and then reconstructs their 3D body poses using inverse kinematics. GravitySpace thus enables a range of applications for future 3D NUI systems based on a flat sensor, such as smart rooms in future homes. We conclude this dissertation by projecting into the future of mobile devices. Focusing on the mobility aspect of our work, we explore how NUI devices may one day augment users directly in the form of implanted devices. N2 - Die Interaktion mit Computern war in den letzten vierzig Jahren stark von Tastatur und Maus geprägt. Neue Arten von Sensoren ermöglichen Computern nun, Eingaben durch Berührungs-, Sprach- oder 3D-Gestensensoren zu erkennen. Solch neuartige Formen der Interaktion werden häufig unter dem Begriff "natürliche Benutzungsschnittstellen" bzw. "NUIs" (englisch natural user interfaces) zusammengefasst. 2D-NUIs ist vor allem auf Mobilgeräten ein Durchbruch gelungen; über eine Milliarde solcher Geräte lassen sich durch Berührungseingaben bedienen. 3D-NUIs haben sich jedoch bisher nicht auf mobilen Plattformen durchsetzen können, da sie Nutzereingaben vorrangig mit Kameras aufzeichnen. Da Kameras Bilder jedoch erst ab einem gewissen Abstand auflösen können, eignen sie sich nicht als Sensor in einer mobilen Plattform. In dieser Arbeit lösen wir dieses Problem mit Hilfe von 2D-Sensoren, von deren Eingaben wir 3D-Informationen rekonstruieren. Unsere Prototypen zeichnen dabei die 2D-Abdrücke der Objekte, die den Sensor berühren, mit hoher Auflösung auf. Aus diesen Abdrücken leiten sie dann die Textur der Objekte ab. Anhand der Stelle der Objektoberfläche, die den Sensor berührt, rekonstruieren unsere Prototypen schließlich die 3D-Ausrichtung des jeweiligen Objektes. Neben unserem Hauptbeitrag der 3D-Rekonstruktion stellen wir drei Anwendungen unserer Methode vor. (1) Wir präsentieren Geräte, die Berührungseingaben dreimal genauer als existierende Geräte messen und damit Nutzern ermöglichen, dreimal kleinere Ziele zuverlässig mit dem Finger auszuwählen. Wir zeigen dabei, dass sowohl die Haltung des Fingers als auch der Benutzer selbst einen systematischen Einfluss auf die vom Sensor gemessene Position ausübt. Da existierende Geräte weder die Haltung des Fingers noch den Benutzer erkennen, nehmen sie solche Variationen als Eingabeungenauigkeit wahr. Wir stellen ein Modell für Berührungseingabe vor, das diese beiden Faktoren integriert, um damit die gemessenen Eingabepositionen zu präzisieren. Anschließend untersuchen wir, welches mentale Modell Nutzer beim Berühren kleiner Ziele mit dem Finger anwenden. Unsere Ergebnisse deuten auf ein visuelles Modell hin, demzufolge Benutzer Merkmale auf der Oberfläche ihres Fingers an einem Ziel ausrichten. Bei der Analyse von Berührungseingaben mit diesem Modell verschwinden nahezu alle zuvor von uns beobachteten systematischen Effekte. (2) Unsere Prototypen identifizieren Nutzer anhand der biometrischen Merkmale von Fingerabdrücken. Unser Prototyp Fiberio integriert dabei einen Fingerabdruckscanner und einen Bildschirm in die selbe Oberfläche und löst somit das seit Langem bestehende Problem der sicheren Authentifizierung auf Berührungsbildschirmen. Gemeinsam mit der 3D-Rekonstruktion von Eingaben ermöglicht diese Fähigkeit Fiberio, eine Reihe von Anwendungen zu implementieren, die bisher den sperrigen Aufbau aktueller 3D-NUI-Systeme voraussetzten. (3) Um die Flexibilität unserer Methode zu zeigen, implementieren wir sie auf einem großen, berührungsempfindlichen Fußboden, der Objekttexturen bei der Eingabe ebenfalls mit hoher Auflösung aufzeichnet. Ähnlich wie zuvor analysiert unser System GravitySpace diese Abdrücke, um Nutzer anhand ihrer Schuhsolen zu identifizieren, Möbelstücke auf dem Boden zu erkennen und Nutzern präzise Eingaben mittels ihrer Schuhe zu ermöglichen. Indem GravitySpace alle Abdrücke klassifiziert, erkennt das System die Körperteile der Benutzer, die sich in Kontakt mit dem Boden befinden. Aus der Anordnung dieser Kontakte schließt GravitySpace dann auf die Körperhaltungen aller Benutzer in 3D. GravitySpace hat daher das Potenzial, Anwendungen für zukünftige 3D-NUI-Systeme auf einer flachen Oberfläche zu implementieren, wie zum Beispiel in zukünftigen intelligenten Wohnungen. Wie schließen diese Arbeit mit einem Ausblick auf zukünftige interaktive Geräte. Dabei konzentrieren wir uns auf den Mobilitätsaspekt aktueller Entwicklungen und beleuchten, wie zukünftige mobile NUI-Geräte Nutzer in Form implantierter Geräte direkt unterstützen können. KW - HCI KW - Berührungseingaben KW - Eingabegenauigkeit KW - Modell KW - Mobilgeräte KW - HCI KW - touch input KW - input accuracy KW - model KW - mobile devices Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67796 ER - TY - THES A1 - Vranic, Marija T1 - 3D Structure of the biomarker hepcidin-25 in its native state T1 - 3D-Struktur des Biomarkers Hepcidin-25 im eigenen nativen Zustand N2 - Hepcidin-25 (Hep-25) plays a crucial role in the control of iron homeostasis. Since the dysfunction of the hepcidin pathway leads to multiple diseases as a result of iron imbalance, hepcidin represents a potential target for the diagnosis and treatment of disorders of iron metabolism. Despite intense research in the last decade targeted at developing a selective immunoassay for iron disorder diagnosis and treatment and better understanding the ferroportin-hepcidin interaction, questions remain. The key to resolving these underlying questions is acquiring exact knowledge of the 3D structure of native Hep-25. Since it was determined that the N-terminus, which is responsible for the bioactivity of Hep-25, contains a small Cu(II)-binding site known as the ATCUN motif, it was assumed that the Hep-25-Cu(II) complex is the native, bioactive form of the hepcidin. This structure has thus far not been elucidated in detail. Owing to the lack of structural information on metal-bound Hep-25, little is known about its possible biological role in iron metabolism. Therefore, this work is focused on structurally characterizing the metal-bound Hep-25 by NMR spectroscopy and molecular dynamics simulations. For the present work, a protocol was developed to prepare and purify properly folded Hep-25 in high quantities. In order to overcome the low solubility of Hep-25 at neutral pH, we introduced the C-terminal DEDEDE solubility tag. The metal binding was investigated through a series of NMR spectroscopic experiments to identify the most affected amino acids that mediate metal coordination. Based on the obtained NMR data, a structural calculation was performed in order to generate a model structure of the Hep-25-Ni(II) complex. The DEDEDE tag was excluded from the structural calculation due to a lack of NMR restraints. The dynamic nature and fast exchange of some of the amide protons with solvent reduced the overall number of NMR restraints needed for a high-quality structure. The NMR data revealed that the 20 Cterminal Hep-25 amino acids experienced no significant conformational changes, compared to published results, as a result of a pH change from pH 3 to pH 7 and metal binding. A 3D model of the Hep-25-Ni(II) complex was constructed from NMR data recorded for the hexapeptideNi(II) complex and Hep-25-DEDEDE-Ni(II) complex in combination with the fixed conformation of 19 C-terminal amino acids. The NMR data of the Hep-25-DEDEDE-Ni(II) complex indicates that the ATCUN motif moves independently from the rest of the structure. The 3D model structure of the metal-bound Hep-25 allows for future works to elucidate hepcidin’s interaction with its receptor ferroportin and should serve as a starting point for the development of antibodies with improved selectivity. N2 - Hepcidin-25 (Hep-25) spielt eine entscheidende Rolle bei der Kontrolle der Eisenhomöostase. Da die Dysfunktion des Hepcidin-Signalweges aufgrund des Eisenungleichgewichts zu mehreren Krankheiten führt, stellt Hepcidin ein potenzielles Ziel für die Diagnose und Behandlung von Störungen des Eisenstoffwechsels dar. Trotz intensiver Forschung in den letzten zehn Jahren, die darauf abzielte, einen selektiven Immunoassay für die Diagnose und Behandlung von Eisenerkrankungen zu entwickeln und die Ferroportin-Hepcidin-Interaktion besser zu verstehen, bleiben Fragen offen. Der Schlüssel zur Lösung dieser grundlegenden Fragen liegt darin, genaue Kenntnisse über die 3D-Struktur des nativen Hep-25 zu erlangen. Da festgestellt wurde, dass der N-Terminus, der für die Bioaktivität von Hep-25 verantwortlich ist, eine kleine Cu(II)-Bindungsstelle enthält, die als ATCUN-Motiv bekannt ist, wurde angenommen, dass der Hep-25- Cu(II)-Komplex die native, bioaktive Form des Hepcidins ist. Diese Struktur ist bisher noch nicht im Detail untersucht worden. Aufgrund fehlender Strukturinformationen über metallgebundenes Hep-25 ist wenig über seine mögliche biologische Rolle im Eisenstoffwechsel bekannt. Daher konzentriert sich diese Arbeit auf die strukturelle Charakterisierung des metallgebundenen Hep-25 mittels NMR-Spektroskopie und Molekulardynamik Simulationen. In der vorliegenden Arbeit wurde ein Protokoll zur Präparation und Reinigung von korrekt gefaltetem Hep-25 in hohen Mengen entwickelt. Um das Problem der geringen Löslichkeit von Hep-25 bei neutralem pH-Wert zu überwinden, haben wir einen C-terminalen DEDEDEDE Löslichkeits-Tag eingeführt. Die Metallbindung wurde durch eine Reihe von NMRspektroskopischen Experimenten untersucht, um die Aminosäuren zu identifizieren, welche an der Metallkoordination beteiligt sind. Basierend auf den erhaltenen NMR-Daten wurde eine Strukturberechnung durchgeführt, um eine Modellstruktur des Hep-25-Ni(II)-Komplexes zu erzeugen. Der DEDEDE-Tag wurde aufgrund fehlender NMR- restraints von der Strukturberechnung ausgeschlossen. Die dynamische Natur und der schnelle Austausch eines Teils der Amid-Protonen mit dem Lösungsmittel reduzierten die Gesamtzahl der NMR- restraints, die für eine hochwertige Struktur erforderlich waren. Die NMR-Daten zeigten, dass die 20 C-terminalen Hep-25-Aminosäuren keine signifikanten Konformationsänderungen als Folge eines pH-Wechsels von pH 3 auf pH 7 und einer Metallbindung erfuhren. Ein 3D-Modell des Hep-25-Ni(II)-Komplexes wurde aus den NMR-Daten des Hexapeptid-Ni(II)-Komplexes und des Hep-25-DEDEDE-Ni(II)-Komplexes in Kombination mit der bekannten Konformation der 19 C-terminalen Aminosäuren erstellt. Die NMR-Daten des Hep-25-DEDEDE-Ni(II)Komplexes zeigen, dass sich das Ni-ATCUN-Motiv unabhängig vom C-Terminus bewegt. Die 3D-Modellstruktur des metallgebundenen Hep-25 ermöglicht es, in Zukunft die Interaktion von Hepcidin mit seinem Rezeptor Ferroportin zu untersuchen und soll als Ausgangspunkt für die Entwicklung von Antikörpern mit verbesserter Selektivität dienen. KW - iron KW - hepcidin KW - peptide KW - metal KW - binding KW - NMR KW - Eisen KW - Hepcidin KW - Peptid KW - Metall KW - Bindung KW - NMR Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459295 ER - TY - THES A1 - Schmoll, Jürgen T1 - 3D-Spektrofotometrie extragalaktischer Emissionslinienobjekte N2 - Populärwissenschaftlicher Abstract: Bislang gibt es in der beobachtenden optischen Astronomie zwei verschiedene Herangehensweisen: Einerseits werden Objekte durch Kameras abbildend erfaßt, andererseits werden durch die wellenlängenabhängige Zerlegung ihres Lichtes Spektren gewonnen. Das Integral - Field - Verfahren ist eine relativ neue Technik, welche die genannten Beobachtungsmethoden vereint. Das Objektbild im Teleskopfokus wird in räumlich zerlegt und jedes Ortselement einem gemeinsamen Spektrografen zugeführt. Hierdurch wird das Objekt nicht nur zweidimensional räumlich erfaßt, sondern zusätzlich die spektrale Kompenente als dritte Dimension erhalten, weswegen das Verfahren auch als 3D-Methode bezeichnet wird. Anschaulich kann man sich das Datenresultat als eine Abbildung vorstellen, in der jeder einzelne Bildpunkt nicht mehr nur einen Intensitätswert enthält, sondern gleich ein ganzes Spektrum. Diese Technik ermöglicht es, ausgedehnte Objekte im Unterschied zu gängigen Spaltspektrografen komplett zu erfassen. Die besondere Stärke der Methode ist die Möglichkeit, die Hintergrundkontamination der unmittelbaren Umgebung des Objektes zu erfassen und in der Auswertung zu berücksichtigen. Durch diese Fähigkeit erscheint die 3D-Methode prädestiniert für den durch moderne Großteleskope erschlossenen Bereich der extragalaktischen Stellarastronomie. Die detaillierte Untersuchung aufgelöster stellare Populationen in nahegelegenen Galaxien ist erst seit kurzer Zeit dank der Fortschritte mit modernen Grossteleskopen und fortschrittlicher Instrumentierung möglich geworden. Wegen der Bedeutung für die Entstehung und Evolution von Galaxien werden diese Arbeiten zukünftig weiter an Bedeutung gewinnen. In der vorliegenden Arbeit wurde die Integral-Field-Spektroskopie an zwei planetarischen Nebeln in der nächstgelegenen großen Spiralgalaxie M31 (NGC 224) getestet, deren Helligkeiten und Koordinaten aus einer Durchmusterung vorlagen. Hierzu wurden Beobachtungen mit dem MPFS-Instrument am russischen 6m - Teleskop in Selentschuk/Kaukasus sowie mit INTEGRAL/WYFFOS am englischen William-Herschel-Teleskop auf La Palma gewonnen. Ein überraschendes Ergebnis war, daß eins der beiden Objekte falsch klassifiziert wurde. Sowohl die meßbare räumliche Ausdehnung des Objektes als auch das spektrale Erscheinungsbild schlossen die Identität mit einem planetarischen Nebel aus. Mit hoher Wahrscheinlichkeit handelt es sich um einen Supernovaüberrest, zumal im Rahmen der Fehler an gleicher Stelle eine vom Röntgensatelliten ROSAT detektierte Röntgenquelle liegt. Die in diesem Projekt verwendeten Integral-Field-Instrumente wiesen zwei verschiedene Bauweisen auf, die sich miteinander vergleichen ließen. Ein Hauptkritikpunkt der verwendeten Instrumente war ihre geringe Lichtausbeute. Die gesammelten Erfahrung fanden Eingang in das Konzept des derzeit in Potsdam in der Fertigung befindlichen 3D-Instruments PMAS (Potsdamer Multi - Apertur - Spektrophotometer), welcher zunächst für das 3.5m-Teleskop des Calar - Alto - Observatoriums in Südspanien vorgesehen ist. Um die Effizienz dieses Instrumentes zu verbessern, wurde in dieser Arbeit die Kopplung der zum Bildrasterung verwendeten Optik zu den Lichtleitfasern im Labor untersucht. Die Untersuchungen zur Maximierung von Lichtausbeute und Stabilität zeigen, daß sich die Effizienz durch Auswahl einer geeigneten Koppelmethode um etwa 20 Prozent steigern lässt. N2 - Popular scientific abstract: Currently there are two different approaches in the observational optical astronomy: On the first hand objects are imaged with cameras, on the other hand spectra are produced. The integral-field-technique is a relatively new way to combine both branches. The object image in the telecopes focus is sampled spatially and each spatial bin assigned to a spectrograph. Hence the object is not only sampled spatially but the spectral component is achieved as a third dimension, so the name 3D-Method. The result is like an image but each point consists of a whole spectrum. The use of this technique is to sample objects completely in contrast to standard slit spectroscopy. The strength of this method is to deal with high background light contamination. So the 3D method looks convincing for the new branch of extragalactic stellar astronomy with modern large telescopes. The detailled investigation of spatially resolved extragalactic populations in nearby galaxies is a rather new topic demanding newest telescopes and instrumentation. These investigations are very important in future to understand the origin and evolution of galaxies. In this thesis the Integral-Field-Spectroscopy was tested for two planetary nebulae in the Andromeda galaxy M31. Observations have been made using the MPFS on the Russian 6m telescope and the INTEGRAL/WYFFOS setup on the 4.2m WHT on La Palma. A surprising result was that one of the two objects was wrongly identified as a planetary nebula. The spatial extension and spectral details excluded this object class. With high probability this object is a supernova remnant. The integral-field-instruments used in this thesis had different technical layouts, which were to compare to each other. The main critics is the poor efficiency of both devices. The experience made was utilized to optimize the concept of the recently developed 3D-instrument PMAS (Potsdam Multi- Aperture Spectrophotometer). PMAS will be used for the 3.5 m telescope at the Calar Alto observatory. To improve efficiency, the coupling of the optical fibers used to sample the object and guide the light into the spectrograph was optimized in the laboratory. This investigations showed that an increase of the coupling efficiency by about 20 percent is possible by using immersion coupling between fibers and lenses. KW - Ortsauflösende Spektrofotometrie KW - extragalaktische Stellarastronomie KW - Integral field spectroscopy KW - extragalactic stellar astronomy Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000372 ER - TY - THES A1 - Engelhardt, Jonathan T1 - 40Ar/39Ar geochronology of ICDP PALEOVAN drilling cores T1 - 40Ar/39Ar Geochronologie der ICDP PALEOVAN Bohrkerne N2 - The scientific drilling campaign PALEOVAN was conducted in the summer of 2010 and was part of the international continental drilling programme (ICDP). The main goal of the campaign was the recovery of a sensitive climate archive in the East of Anatolia. Lacustrine deposits underneath the lake floor of ‘Lake Van’ constitute this archive. The drilled core material was recovered from two locations: the Ahlat Ridge and the Northern Basin. A composite core was constructed from cored material of seven parallel boreholes at the Ahlat Ridge and covers an almost complete lacustrine history of Lake Van. The composite record offered sensitive climate proxies such as variations of total organic carbon, K/Ca ratios, or a relative abundance of arboreal pollen. These proxies revealed patterns that are similar to climate proxy variations from Greenland ice cores. Climate variations in Greenland ice cores have been dated by modelling the timing of orbital forces to affect the climate. Volatiles from melted ice aliquots are often taken as high-resolution proxies and provide a base for fitting the according temporal models. The ICDP PALEOVAN scientific team fitted proxy data from the lacustrine drilling record to ice core data and constructed an age model. Embedded volcaniclastic layers had to be dated radiometrically in order to provide independent age constraints to the climate-stratigraphic age model. Solving this task by an application of the 40Ar/39Ar method was the main objective of this thesis. Earlier efforts to apply the 40Ar/39Ar dating resulted in inaccuracies that could not be explained satisfactorily. The absence of K-rich feldspars in suitable tephra layers implied that feldspar crystals needed to be 500 μm in size minimum, in order to apply single-crystal 40Ar/39Ar dating. Some of the samples did not contain any of these grain sizes or only very few crystals of that size. In order to overcome this problem this study applied a combined single-crystal and multi-crystal approach with different crystal fractions from the same sample. The preferred method of a stepwise heating analysis of an aliquot of feldspar crystals has been applied to three samples. The Na-rich crystals and their young geological age required 20 mg of inclusion-free, non-corroded feldspars. Small sample volumes (usually 25 % aliquots of 5 cm3 of sample material – a spoon full of tephra) and the widespread presence of melt-inclusion led to the application of combined single- and multigrain total fusion analyses. 40Ar/39Ar analyses on single crystals have the advantage of being able to monitor the presence of excess 40Ar and detrital or xenocrystic contamination in the samples. Multigrain analyses may hide the effects from these obstacles. The results from the multigrain analyses are therefore discussed with respect to the findings from the respective cogenetic single crystal ages. Some of the samples in this study were dated by 40Ar/39Ar on feldspars on multigrain separates and (if available) in combination with only a few single crystals. 40Ar/39Ar ages from two of the samples deviated statistically from the age model. All other samples resulted in identical ages. The deviations displayed older ages than those obtained from the age model. t-Tests compared radiometric ages with available age control points from various proxies and from the relative paleointensity of the earth magnetic field within a stratigraphic range of ± 10 m. Concordant age control points from different relative chronometers indicated that deviations are a result of erroneous 40Ar/39Ar ages. The thesis argues two potential reasons for these ages: (1) the irregular appearance of 40Ar from rare melt- and fluid- inclusions and (2) the contamination of the samples with older crystals due to a rapid combination of assimilation and ejection. Another aliquot of feldspar crystals that underwent separation for the application of 40Ar/39Ar dating was investigated for geochemical inhomogeneities. Magmatic zoning is ubiquitous in the volcaniclastic feldspar crystals. Four different types of magmatic zoning were detected. The zoning types are compositional zoning (C-type zoning), pseudo-oscillatory zoning of trace ele- ment concentrations (PO-type zoning), chaotic and patchy zoning of major and trace element concentrations (R-type zoning) and concentric zoning of trace elements (CC-type zoning). Sam- ples that deviated in 40Ar/39Ar ages showed C-type zoning, R-type zoning or a mix of different types of zoning (C-type and PO-type). Feldspars showing PO-type zoning typically represent the smallest grain size fractions in the samples. The constant major element compositions of these crystals are interpreted to represent the latest stages in the compositional evolution of feldspars in a peralkaline melt. PO-type crystals contain less melt- inclusions than other zoning types and are rarely corroded. This thesis concludes that feldspars that show PO-type zoning are most promising chronometers for the 40Ar/39Ar method, if samples provide mixed zoning types of Quaternary anorthoclase feldspars. Five samples were dated by applying the 40Ar/39Ar method to volcanic glass. High fractions of atmospheric Ar (typically > 98%) significantly hampered the precision of the 40Ar/39Ar ages and resulted in rough age estimates that widely overlap the age model. Ar isotopes indicated that the glasses bore a chorine-rich Ar-end member. The chlorine-derived 38Ar indicated chlorine-rich fluid-inclusions or the hydration of the volcanic glass shards. This indication strengthened the evidence that irregularly distributed melt-inclusions and thus irregular distributed excess 40Ar influenced the problematic feldspar 40Ar/39Ar ages. Whether a connection between a corrected initial 40Ar/36Ar ratio from glasses to the 40Ar/36Ar ratios from pore waters exists remains unclear. This thesis offers another age model, which is similarly based on the interpolation of the temporal tie points from geophysical and climate-stratigraphic data. The model used a PCHIP- interpolation (piecewise cubic hermite interpolating polynomial) whereas the older age model used a spline-interpolation. Samples that match in ages from 40Ar/39Ar dating of feldspars with the earlier published age model were additionally assigned with an age from the PCHIP- interpolation. These modelled ages allowed a recalculation of the Alder Creek sanidine mineral standard. The climate-stratigraphic calibration of an 40Ar/39Ar mineral standard proved that the age versus depth interpolations from PAELOVAN drilling cores were accurate, and that the applied chronometers recorded the temporal evolution of Lake Van synchronously. Petrochemical discrimination of the sampled volcaniclastic material is also given in this thesis. 41 from 57 sampled volcaniclastic layers indicate Nemrut as their provenance. Criteria that served for the provenance assignment are provided and reviewed critically. Detailed correlations of selected PALEOVAN volcaniclastics to onshore samples that were described in detail by earlier studies are also discussed. The sampled volcaniclastics dominantly have a thickness of < 40 cm and have been ejected by small to medium sized eruptions. Onshore deposits from these types of eruptions are potentially eroded due to predominant strong winds on Nemrut and Süphan slopes. An exact correlation with the data presented here is therefore equivocal or not possible at all. Deviating feldspar 40Ar/39Ar ages can possibly be explained by inherited 40Ar from feldspar xenocrysts contaminating the samples. In order to test this hypothesis diffusion couples of Ba were investigated in compositionally zoned feldspar crystals. The diffusive behaviour of Ba in feldspar is known, and gradients in the changing concentrations allowed for the calculation of the duration of the crystal’s magmatic development since the formation of the zoning interface. Durations were compared with degassing scenarios that model the Ar-loss during assimilation and subsequent ejection of the xenocrystals. Diffusive equilibration of the contrasting Ba concentrations is assumed to generate maximum durations as the gradient could have been developed in several growth and heating stages. The modelling does not show any indication of an involvement of inherited 40Ar in any of the deviating samples. However, the analytical set-up represents the lower limit of the required spatial resolution. Therefore, it cannot be excluded that the degassing modelling relies on a significant overestimation of the maximum duration of the magmatic history. Nevertheless, the modelling of xenocrystal degassing evidences that the irregular incorporation of excess 40Ar by melt- and fluid inclusions represents the most critical problem that needs to be overcome in dating volcaniclastic feldspars from the PALEOVAN drill cores. This thesis provides the complete background in generating and presenting 40Ar/39Ar ages that are compared to age data from a climate-stratigraphic model. Deviations are identified statistically and then discussed in order to find explanations from the age model and/or from 40Ar/39Ar geochronology. Most of the PALEOVAN stratigraphy provides several chronometers that have been proven for their synchronicity. Lacustrine deposits from Lake Van represent a key archive for reconstructing climate evolution in the eastern Mediterranean and in the Near East. The PALEOVAN record offers a climate-stratigraphic age model with a remarkable accuracy and resolution. N2 - Die PALEOVAN−Bohrkampagne des internationalen kontinentalen Bohrprogramms ICDP wurde im Sommer 2010 realisiert. Das übergeordnete Ziel dieser Kampagne war die Entnahme eines Klimaarchivs im Osten Anatoliens. Als Archiv dienen Süßwasserablagerungen am Grund des Vansees. PALEOVAN Bohrkerne bieten lakustrine Ablagerungen von zwei Lokalitäten des Sees, und zwar der Ahlat Ridge und des Northern Basins. Durch das Zusammenstellen bestmöglicher Bohrkernbestände aus sieben parallelen Bohrungen auf der Ahlat Ridge, konnte die nahezu vollständige Aufzeichnung der Geschichte des Sees gewonnen werden. Dieses detaillierte Archiv zeichnete sensible Klimafaktoren auf. Als Beispiele sind zu nennen: die Variationen organischen Kohlenstoffs, das Verhältnis von Kalium zu Kalzium und die Anteile arborealer Pollen gegenüber dem Gesamtpollenbestand. Stellvertreterdaten für Klimavariationen (sogenannte Proxies) ähneln in ihrem Muster sehr stark den bekannten Klimavariationen aus Eisbohrkernen des Grönlandeises. Da das Timing der Klimavariationen in den Grönlandeiskernen durch Datierungen mithilfe im Eis gespeicherter Gasphasen und orbitaler Modellberechnungen sehr genau bekannt ist, konnten Sedimentolog*innen des PALEOVAN−Teams ein klimastratigraphisches Altersmodell aus den Proxies berechnen. Die Kernaufgabe der hier vorgelegten Dissertation ist es, eingelagerte pyroklastische Ablagerungen mithilfe der 40Ar/39Ar−Methode zu datieren und das Altersmodell zu diskutieren. Die Notwendigkeit der 40Ar/39Ar−Datierungen war besonders gegeben, da vorab publizierte radiometrische Datierungen von ICDP−PALEOVAN Bohrkernen statistisch nicht ausreichend beschrieben wurden und vorhandene Abweichungen gegenüber dem Altersmodell undiskutiert blieben. An der westlichen und nördlichen Küste des Sees befinden sich zwei Stratovulkane: Nemrut und Süphan. Beide Vulkane haben über die Dauer der kompletten Seegeschichte pyroklastisches Material im See abgelagert. Feldspäte und vulkanische Gläser aus rhyolitischen und trachytischen Auswurfprodukten wurden auf ihre Zusammensetzung untersucht und es wurde ihre Eignung für eine Anwendung der 40Ar/39Ar−Geochronologie festgestellt. Die Abwesenheit hoher Kaliumkonzentrationen in Feldspäten aus geeigneten pyroklastischen Lagen bedeutet, dass Kristalle eine Mindestgröße von ca. 500 Mikrometer benötigen, um Analysen an einzelnen Kristallen durchführen zu können. Nicht alle Proben liefern ausreichend Kristalle dieser groben Korngröße. Somit wurde eine Methode gewählt, die Mehrkorn und Einzelkornanalysen miteinander kombiniert. Die bevorzugte Methode des schrittweisen Ausheizens war nur mit drei Proben möglich. Grund dafür ist, dass der geringe Kaliumgehalt und das junge geologische Alter große Mengen (ca. 20 mg) einschluss− und korrosionsfreier Feldspäte benötigten. Die geringen Probenmengen (25% Aliquot von üblicherweise 5 cm3 Probenmaterial) und die Omnipräsenz von Schmelzeinschlüssen in den Feldspäten legten nahe, auf die Methodik des schlagartigen Ausheizens von Einzel− und Mehrkornproben zu setzen. 40Ar/39Ar−Datierungen an einzelnen Feldspäten haben den Vorteil, dass sich ein vorhandener Überschuss von 40Ar oder Kontaminationen detritischer Körner leicht feststellen lassen und in der Altersberechnung berücksichtigt werden können. Mehrkornanalysen zeigen diese Hürden nur bei intensiver Kontamination und bergen die Gefahr, radiometrische Alter zu bestimmen, die von dem tatsächlichen geologischen Alter abweichen, weil sie zu alt sind. 40Ar/39Ar−Datierungen in dieser Dissertation wurden deshalb für die meisten Proben mithilfe von Mehrkornanalysen und (wenn vorhanden) in Kombination mit wenigen Einzelkornanalysen durchgeführt. Bis auf die Resultate zweier Proben sind die radiometrischen Alter der Feldspäte statistisch gesehen identisch zu den Altersabschätzungen des klimastratigraphischen Altersmodells. Abweichungen zeigen ausschließlich ältere radiometrische Alter einzelner Kornfraktionen. Die beiden abweichenden Proben sind ebenfalls älter als das Altersmodell. Eine statistische Auswertung mittels t−Tests beweist die Abweichungen der radiometrischen von den klimastratigraphischen Altersdaten. Das Altersmodell wurde mit jedem der radiometrischen Alter innerhalb eines stratigraphischen Einzugsbereichs von ± 10 Metern verglichen. Die Konkordanz der Altershinweise aus unterschiedlichen Klimaproxies und aus geophysikalischen Altershinweisen (durch das Identifizieren zeitlich bekannter Variationen des Erdmagnetfelds) legen nahe, dass beiden Abweichungen fehlerhafte 40 Ar/39 Ar−Datierungen zugrunde liegen. Zwei mögliche Ursachen werden in Betracht gezogen: (1) unregelmäßiges beziehungsweise vereinzeltes Auftreten von überschüssigem 40Ar im Zusammenhang mit Schmelz− und Fluideinschlüssen oder (2) Kontamination der Probe mit älteren, xenokristischen Feldspäten durch eine zügige (im Zeitraum von Tagen) Kombination von magmatischer Assimilation und Auswurf des Materials. Ebenfalls nicht auszuschließen ist eine detritische Kontamination. Die normalverteilten 40Ar/39Ar−Werte der Proben sind allerdings untypisch für eine detritische Kontamination. Je ein Aliquot der selektierten Kristallfraktionen wurde intensiv auf vorhandene Zonierungen untersucht. Alle untersuchten Feldspatproben zeigen Elementzonierungen, die sich einteilen lassen. Die Zonierungen sind entweder kompositionelle Zonierungen der Hauptzusammensetzung („C-type – compositional type“), pseudo-oszillatorische Zonierungen gewisser Spurenelementkonzentrationen („PO-type“), konzentrische Zonierungen von Spurenelementkonzentrationen („CC-type – concentric type“) und chaotisch-fleckige Zonierungsmuster („R-type – resorbed and patchy“). Proben, deren 40Ar/39Ar−Alter abweichen, zeigen Zonierungen in ihrer Hauptzusammensetzung (C-type), fleckige Zonierungen (R-type) oder zeigen eine Mischung aus unterschiedlichen Zonierungstypen (C-type und PO-type). Feldspäte, die ausschließlich eine Zonierung ihrer Spurenelmente (PO-type) zeigen, liegen typischerweise in kleineren Korngrößen vor und markieren Zusammensetzungen, die typisch sind für die spätesten Phasen der magmatischen Entwicklung von Feldspäten in peralkalinen Gesteinen. Diese Kristalle sind in der Regel arm an Schmelzeinschlüssen und nur selten korrodiert. Die vorliegende Arbeit weist Feldspäte, die keine Zonierung in ihrer Hauptzusammensetzung, sondern nur pseudo-oszillatorische Spurenelementvariationen aufzeigen, als ideale Chronometer für die Anwendung der 40Ar/39Ar−Methode an Quartären, kaliumarmen Feldspäten aus. Um Abweichende Proben erneut zu analysieren und um stratigraphische Abschnitte zu datieren, die nicht erfolgreich beprobt werden konnten, wurden fünf Proben datiert, indem die 40Ar/39Ar−Methode auf vulkanisches Glas angewendet wurde. Hohe Gehalte an atmosphärischem Argon (in der Regel > 98 %) führten allerdings zu ungenauen radiometrischen Altersbestimmungen, die aufgrund ihrer großen Fehler keine Abweichungen vom Altersmodell zeigen. Die Gläser zeigen Hinweise darauf, dass Variationen in den Altern der Feldspäte auf die Gegenwart eines Ar-Reservoirs in Schmelzeinschlüssen zurückzuführen sein könnte, das weder radiogen noch atmosphärisch ist. Ob eine Verknüpfung der Ar-Isotopien in vulkanischen Gläsern und in Porenwässern gegeben ist, bleibt offen. Instrumentelle und methodische Hürden lassen nur eine Vermutung zu, dass Porenwässer und vulkanische Gläser in ihren Ar-Isotopendaten eine Verknüpfung zeigen könnten. Ein neues Alterstiefenmodell, das ebenfalls auf der Interpolation von Altershinweisen durch Klimaproxies und geophysikalischer Daten basiert wird in dieser Arbeit ebenfalls vorgelegt. Im Gegensatz zu bestehenden „Spline“-Interpolationen wurde in dieser Dissertation eine PCHIP- Interpolation bevorzugt. Abgesehen von abweichenden Proben wurden allen Proben, die mithilfe der 40Ar/39Ar−Methode an Feldspäten datiert sind, zusätzlich ein klimastratigraphisches Modellalter zugewiesen. Diese Modellalter bieten die Grundlage dafür, das Alter des in der Datierung benutzten Mineralstandards (Alder Creek Sanidine) nachrechnen zu können. Die erfolgreiche klimastratigraphische Kalibrierung des Standards beweist, dass Alterstiefenmodelle aus den PALEOVAN-Bohrkernen genau sind, und dass alle verwendeten Chronometer innerhalb der angezeigten Varianzen ein synchrones Timing zulassen. Die Dissertation bietet petrochemische Charakterisierungen der entnommenen Proben an und diskutiert nachvollziehbar mögliche Provenanzen der Pyroklastite. 41 von 57 entnommenen Proben lassen sich Nemrut zuordnen. Kriterien, die für eine Zuordnung herangezogen wurden, werden aufgezeigt und diskutiert. Eine mögliche Korrelation der datierten Proben zu pyroklastischen Einheiten, die in der Literatur an den Hängen der Stratovulkane im Detail beschrieben wurden, wird ebenfalls diskutiert. Die beprobten pyroklasitischen Lagen haben geringe Mächtigkeiten (in der Regel < 40 cm) und liegen mittleren bis kleineren Eruptionen zugrunde. Diese Eruptionen hinterlassen keine oder nur schwer definierbare pyroklastische Einheiten von geringer Mächtigkeit an Land. Eine genaue Korrelation ist mit den hier präsentierten Daten deshalb nicht oder nur sehr vage möglich. Abweichende radiometrische Alter aus Datierungen von Feldspat könnten im Zusammenhang mit vererbtem 40Ar aus Xenokristallen stehen. Um diese Hypothese zu testen, wurden diffusionsabhängige Konzentrationsschwankungen von Barium in zonierten Feldspäten untersucht. Da das diffusive Verhalten von Barium in Feldspat bekannt ist, kann durch die Analyse des Konzentrationsgradienten die Dauer der magmatischen Entwicklung ab der Bildung der untersuchten Zonierung berechnet werden. Diese Zeitspanne wurde genutzt, um zu modellieren, ob Xenokristalle während einer unvollständigen Assimilation komplett entgast werden. Dafür wurde angenommen, dass das diffusive Angleichen von unterschiedlichen Bariumkonzentrationen maximale Werte für die Dauer von der Assimilation bis zum Auswurf liefert. Die Modellierung zeigt, dass vererbtes 40Ar aus Xenokristallen keinen Anteil an den abweichenden Altern haben. Allerdings sind die erhobenen Diffusionsgradienten am Rande der benötigten analytischen Auflösung, und eine Überschätzung der Dauer der magmatischen Prozesse kann nicht ausgeschlossen werden. Die Diffusionsprofile sind ein weiterer Hinweis dafür, dass unregelmäßige beziehungsweise vereinzelte Quellen von überschüssigem 40Ar die schwierigste Hürde für 40Ar/39Ar−Datierungen an ICDP-PALEOVAN Bohrkernen darstellen. Die vorgelegte Arbeit bietet nicht nur 40Ar/39Ar−Datierungen, um das vorhandene Altersmodell kritisch zu diskutieren, sondern zeigt, wie Abweichungen statistisch zu erfassen sind, welche mineralogischen Beobachtungen in die Interpretation abweichender radiometrischer Alter miteinbezogen werden sollten und wie die Synchronizität verschiedener Chronometer getestet werden kann. Die Korrektheit des klima-stratigraphischen Timings der PALEOVAN Kerne ist mit dieser Arbeit nachgewiesen. Vergleiche der Proxydaten zu anderen Klimaarchiven deren Auflösung sogar höher als die der Milankovitchzyklen ist (die Auflösung der Dnsgaard-Oeschger Ereignisse), existieren für viele Kerne des PALEOVAN-Archivs. Die Kerne aus dem PALEOVAN Projekt repräsentieren damit ein Schlüsselarchiv für die Rekonstruktion des Klimas im Nahen Osten. Dieses Archiv bietet ein klima-stratigraphisches Altersmodell von bemerkenswerter Genauigkeit und Auflösung. KW - Lake Van KW - feldspar KW - lacustrine record KW - volcaniclastics KW - 40Ar/39Ar KW - Vansee KW - Feldspat KW - lakustrine Abfolge KW - Vulkaniklastika KW - 40Ar/39Ar Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429539 ER - TY - THES A1 - Swierczynski, Tina T1 - A 7000 yr runoff chronology from varved sediments of Lake Mondsee (Upper Austria) T1 - Eine 7000-jährige Abflusschronologie anhand von warvierten Sedimenten des Mondsees (Oberösterreich) N2 - The potential increase in frequency and magnitude of extreme floods is currently discussed in terms of global warming and the intensification of the hydrological cycle. The profound knowledge of past natural variability of floods is of utmost importance in order to assess flood risk for the future. Since instrumental flood series cover only the last ~150 years, other approaches to reconstruct historical and pre-historical flood events are needed. Annually laminated (varved) lake sediments are meaningful natural geoarchives because they provide continuous records of environmental changes > 10000 years down to a seasonal resolution. Since lake basins additionally act as natural sediment traps, the riverine sediment supply, which is preserved as detrital event layers in the lake sediments, can be used as a proxy for extreme discharge events. Within my thesis I examined a ~ 8.50 m long sedimentary record from the pre-Alpine Lake Mondsee (Northeast European Alps), which covered the last 7000 years. This sediment record consists of calcite varves and intercalated detrital layers, which range in thickness from 0.05 to 32 mm. Detrital layer deposition was analysed by a combined method of microfacies analysis via thin sections, Scanning Electron Microscopy (SEM), μX-ray fluorescence (μXRF) scanning and magnetic susceptibility. This approach allows characterizing individual detrital event layers and assigning a corresponding input mechanism and catchment. Based on varve counting and controlled by 14C age dates, the main goals of this thesis are (i) to identify seasonal runoff processes, which lead to significant sediment supply from the catchment into the lake basin and (ii) to investigate flood frequency under changing climate boundary conditions. This thesis follows a line of different time slices, presenting an integrative approach linking instrumental and historical flood data from Lake Mondsee in order to evaluate the flood record inferred from Lake Mondsee sediments. The investigation of eleven short cores covering the last 100 years reveals the abundance of 12 detrital layers. Therein, two types of detrital layers are distinguished by grain size, geochemical composition and distribution pattern within the lake basin. Detrital layers, which are enriched in siliciclastic and dolomitic material, reveal sediment supply from the Flysch sediments and Northern Calcareous Alps into the lake basin. These layers are thicker in the northern lake basin (0.1-3.9 mm) and thinner in the southern lake basin (0.05-1.6 mm). Detrital layers, which are enriched in dolomitic components forming graded detrital layers (turbidites), indicate the provenance from the Northern Calcareous Alps. These layers are generally thicker (0.65-32 mm) and are solely recorded within the southern lake basin. In comparison with instrumental data, thicker graded layers result from local debris flow events in summer, whereas thin layers are deposited during regional flood events in spring/summer. Extreme summer floods as reported from flood layer deposition are principally caused by cyclonic activity from the Mediterranean Sea, e.g. July 1954, July 1997 and August 2002. During the last two millennia, Lake Mondsee sediments reveal two significant flood intervals with decadal-scale flood episodes, during the Dark Ages Cold Period (DACP) and the transition from the Medieval Climate Anomaly (MCA) into the Little Ice Age (LIA) suggesting a linkage of transition to climate cooling and summer flood recurrences in the Northeastern Alps. In contrast, intermediate or decreased flood episodes appeared during the MWP and the LIA. This indicates a non-straightforward relationship between temperature and flood recurrence, suggesting higher cyclonic activity during climate transition in the Northeast Alps. The 7000-year flood chronology reveals 47 debris flows and 269 floods, with increased flood activity shifting around 3500 and 1500 varve yr BP (varve yr BP = varve years before present, before present = AD 1950). This significant increase in flood activity shows a coincidence with millennial-scale climate cooling that is reported from main Alpine glacier advances and lower tree lines in the European Alps since about 3300 cal. yr BP (calibrated years before present). Despite relatively low flood occurrence prior to 1500 varve yr BP, floods at Lake Mondsee could have also influenced human life in early Neolithic lake dwellings (5750-4750 cal. yr BP). While the first lake dwellings were constructed on wetlands, the later lake dwellings were built on piles in the water suggesting an early flood risk adaptation of humans and/or a general change of the Late Neolithic Culture of lake-dwellers because of socio-economic reasons. However, a direct relationship between the final abandonment of the lake dwellings and higher flood frequencies is not evidenced. N2 - Ein verstärktes Auftreten von Hochwassern, sowohl in ihrer Häufigkeit als auch in ihrer Frequenz, wird im Zuge der Klimaerwärmung und einer möglichen Intensivierung des hydrologischen Kreislaufs diskutiert. Die Kenntnis über die natürliche Variabilität von Hochwasserereignissen ist dabei eine grundlegende Voraussetzung, um die Hochwassergefahr für die Zukunft abschätzen zu können. Da instrumentelle Hochwasserzeitreihen meist nur die letzten 150 Jahre abbilden sind andere Methoden erforderlich, um das Auftreten von historischen und prä-historischen Hochwassern festzustellen. Jährlich laminierte (warvierte) Seesedimente sind bedeutende natürliche Archive, denn sie liefern kontinuierliche Zeitreihen > 10000 Jahre mit einer bis zur saisonalen Auflösung. Seebecken stellen natürliche Sedimentfallen dar, wobei eingetragenes Flusssediment in den Seesedimenten als eine distinkte detritische Lage aufgezeichnet wird, und daher zur Rekonstruktion von extremen Abflussereignissen genutzt werden. Im Rahmen meiner Doktorarbeit habe ich einen 8.50 m langen Sedimentkern aus dem Mondsee (Nordostalpen) untersucht, welcher die letzten 7000 Jahre abdeckt. Dieser Sedimentkern besteht aus Kalzitwarven und eingeschalteten detritischen Lagen mit einer Mächtigkeit von 0.05-32 mm. Detritische Lagen wurden mit Hilfe einer kombinierten Methode untersucht: Mikrofaziesanalyse, Rasterelektronenmikroskopie, Röntgenfluoreszenzanalyse (µXRF) und magnetische Suszeptibilität. Dieser Ansatz ermöglicht die Charakterisierung der einzelnen detritischen Lagen bezüglich der Eintragsprozesse und die Lokalisierung des Einzugsgebietes. Auf Grundlage der Warvenzählung und 14C Datierungen sind die wichtigsten Ziele dieser Arbeit: (i) die Identifizierung der Eintragsprozesse, welche zu einem Sedimenteintrag vom Einzugsgebiet bis in den See führen und (ii) die Rekonstruktion der Hochwasserfrequenz unter veränderten Klimabedingungen. Diese Arbeit zeigt eine Untersuchung auf verschiedenen Zeitscheiben, wobei instrumentelle und historische Daten genutzt werden, um die Aufzeichnung von pre-historischen Hochwasser in den Mondseesedimenten besser zu verstehen. Innerhalb der letzten 100 Jahre wurden zwölf Abflussereignisse aufgezeichnet. Zwei Typen von detritschen Lagen können anhand von Korngröße, geochemischer Zusammensetzung und des Verteilungsmusters unterschieden werden. Detritische Lagen, welche aus siliziklastischen und dolomitischen Material bestehen, zeigen eine Sedimentherkunft vom Teileinzugsgebiet des Flysch (nördliches Einzugsgebiet) und der Nördlichen Kalkalpen (südliches Teileinzugsgebiet) auf. Diese Lagen sind im Nördlichen Becken mächtiger (0.1-3.9 mm) als im südlichen Seebecken (0.05-1.6 mm). Detritische Lagen, welche nur aus dolomitischem Material bestehen und Turbititlagen aufzeigen (0.65-32 mm), weisen auf eine Herkunft aus den Nördlichen Kalkalpen hin. Im Vergleich mit instrumentellen Zeitreihen, stammen die mächtigeren Lagen von lokalen Murereignissen im Sommer und feinere Eintragslagen von regionalen Frühjahrs- und Sommerhochwassern. Extreme Sommerhochwasser am Mondsee werden hauptsächlich durch Zyklonen vom Mittelmeer ausgelöst, z.B. Juli 1954, Juli 1997 und August 2002. Die Untersuchung des langen Sedimentkerns vom Mondsee zeigt während der letzten 2000 Jahre signifikante Hochwasserintervalle mit dekadischen Hochwasserepisoden während der Völkerwanderungszeit und im Übergang vom Mittelalter in die Kleine Eiszeit. Dies weist auf eine Verknüpfung von Abkühlungsphasen und Sommerhochwassern im Nordostalpenraum hin. Während der Mittelalterlichen Wärmephase und in der Kleinen Eiszeit kam es jedoch zu einer geringeren Hochwasseraktivität. Dies zeigt einen komplexen Zusammenhang von Temperaturentwicklung und Hochwasseraktivität in den Nordostalpen, mit einer erhöhten Zyklonenaktivät in den Übergängen von wärmeren zu kälteren Phasen. Während der letzten 7000 Jahre wurden 47 Muren und 269 Hochwasser aufgezeichnet, wobei es eine signifikante Änderung mit erhöhter Häufigkeit um 3500 und 1500 Warvenjahre v. h. gab (v.h. = vor heute = AD 1950). Diese signifikante Änderung stimmt mit einem langfristigem Abkühlungstrend überein, welcher durch alpine Gletschervorstöße und das Absinken von Baumgrenzen seit etwa 3300 Warvenjahre v.h. berichtet wird. Trotz relativ geringer Hochwasseraktivität um 1500 Warvenjahre v.h., könnte das Auftreten von Hochwasser auch das Leben Menschen in Neolithischen Pfahlbausiedlungen (5750-4750 cal. yr BP) beeinflusst haben. Während die ersten Pfahlbauten noch als Feuchtbodensiedlungen am Land entstanden, wurden spätere Siedlungen eventuell als Anpassung an stark schwankenden Seewasserspiegeln auf Pfählen im Wasser gebaut und/oder zeigen eine allgemeine Veränderung der Siedlungsaktivitäten der Neolithischen Pfahlbaukultur an, aufgrund sozio-ökonomischer Veränderungen. Ein direkter Zusammenhang zwischen dem Verlassen der Pfahlbausiedlungen und einer erhöhten Hochwasseraktivität konnte jedoch nicht festgestellt werden. KW - Mondsee KW - Paläohochwasser KW - Seesedimente KW - Warven KW - Klimarekonstruktion KW - Mondsee KW - Paleofloods KW - Lake sediments KW - Warves KW - Climate reconstruction Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66702 ER - TY - THES A1 - Hesse, Günter T1 - A benchmark for enterprise stream processing architectures T1 - Ein Benchmark für Architekturen zur Datenstromverarbeitung im Unternehmenskontext N2 - Data stream processing systems (DSPSs) are a key enabler to integrate continuously generated data, such as sensor measurements, into enterprise applications. DSPSs allow to steadily analyze information from data streams, e.g., to monitor manufacturing processes and enable fast reactions to anomalous behavior. Moreover, DSPSs continuously filter, sample, and aggregate incoming streams of data, which reduces the data size, and thus data storage costs. The growing volumes of generated data have increased the demand for high-performance DSPSs, leading to a higher interest in these systems and to the development of new DSPSs. While having more DSPSs is favorable for users as it allows choosing the system that satisfies their requirements the most, it also introduces the challenge of identifying the most suitable DSPS regarding current needs as well as future demands. Having a solution to this challenge is important because replacements of DSPSs require the costly re-writing of applications if no abstraction layer is used for application development. However, quantifying performance differences between DSPSs is a difficult task. Existing benchmarks fail to integrate all core functionalities of DSPSs and lack tool support, which hinders objective result comparisons. Moreover, no current benchmark covers the combination of streaming data with existing structured business data, which is particularly relevant for companies. This thesis proposes a performance benchmark for enterprise stream processing called ESPBench. With enterprise stream processing, we refer to the combination of streaming and structured business data. Our benchmark design represents real-world scenarios and allows for an objective result comparison as well as scaling of data. The defined benchmark query set covers all core functionalities of DSPSs. The benchmark toolkit automates the entire benchmark process and provides important features, such as query result validation and a configurable data ingestion rate. To validate ESPBench and to ease the use of the benchmark, we propose an example implementation of the ESPBench queries leveraging the Apache Beam software development kit (SDK). The Apache Beam SDK is an abstraction layer designed for developing stream processing applications that is applied in academia as well as enterprise contexts. It allows to run the defined applications on any of the supported DSPSs. The performance impact of Apache Beam is studied in this dissertation as well. The results show that there is a significant influence that differs among DSPSs and stream processing applications. For validating ESPBench, we use the example implementation of the ESPBench queries developed using the Apache Beam SDK. We benchmark the implemented queries executed on three modern DSPSs: Apache Flink, Apache Spark Streaming, and Hazelcast Jet. The results of the study prove the functioning of ESPBench and its toolkit. ESPBench is capable of quantifying performance characteristics of DSPSs and of unveiling differences among systems. The benchmark proposed in this thesis covers all requirements to be applied in enterprise stream processing settings, and thus represents an improvement over the current state-of-the-art. N2 - Data Stream Processing Systems (DSPSs) sind eine Schlüsseltechnologie, um kontinuierlich generierte Daten, wie beispielsweise Sensormessungen, in Unternehmensanwendungen zu integrieren. Die durch DSPSs ermöglichte permanente Analyse von Datenströmen kann dabei zur Überwachung von Produktionsprozessen genutzt werden, um möglichst zeitnah auf ungewollte Veränderungen zu reagieren. Darüber hinaus filtern, sampeln und aggregieren DSPSs einkommende Daten, was die Datengröße reduziert und so auch etwaige Kosten für die Datenspeicherung. Steigende Datenvolumen haben in den letzten Jahren den Bedarf für performante DSPSs steigen lassen, was zur Entwicklung neuer DSPSs führte. Während eine große Auswahl an verfügbaren Systemen generell gut für Nutzer ist, stellt es potentielle Anwender auch vor die Herausforderung, das für aktuelle und zukünftige Anforderungen passendste DSPS zu identifizieren. Es ist wichtig, eine Lösung für diese Herausforderung zu haben, da das Austauschen von einem DSPS zu teuren Anpassungen oder Neuentwicklungen der darauf laufenden Anwendungen erfordert, falls für deren Entwicklung keine Abstraktionsschicht verwendet wurde. Das quantitative Vergleichen von DSPSs ist allerdings eine schwierige Aufgabe. Existierende Benchmarks decken nicht alle Kernfunktionalitäten von DSPSs ab und haben keinen oder unzureichenden Tool-Support, was eine objektive Ergebnisberechnung hinsichtlich der Performanz erschwert. Zudem beinhaltet kein Benchmark die Integration von Streamingdaten und strukturierten Geschäftsdaten, was ein besonders für Unternehmen relevantes Szenario ist. Diese Dissertation stellt ESPBench vor, einen neuen Benchmark für Stream Processing-Szenarien im Unternehmenskontext. Der geschäftliche Kontext wird dabei durch die Verbindung von Streamingdaten und Geschäftsdaten dargestellt. Das Design von ESPBench repräsentiert Szenarien der realen Welt, stellt die objektive Berechnung von Benchmarkergebnissen sicher und erlaubt das Skalieren über Datencharakteristiken. Das entwickelte Toolkit des Benchmarks stellt wichtige Funktionalitäten bereit, wie beispielsweise die Automatisierung den kompletten Benchmarkprozesses sowie die Überprüfung der Abfrageergebnisse hinsichtlich ihrer Korrektheit. Um ESPBench zu validieren und die Anwendung weiter zu vereinfachen, haben wir eine Beispielimplementierung der Queries veröffentlicht. Die Implementierung haben wir mithilfe des in Industrie und Wissenschaft eingesetzten Softwareentwicklungsbaukastens Apache Beam durchgeführt, der es ermöglicht, entwickelte Anwendungen auf allen unterstützten DSPSs auszuführen. Den Einfluss auf die Performanz des Verwendens von Apache Beam wird dabei ebenfalls in dieser Arbeit untersucht. Weiterhin nutzen wir die veröffentlichte Beispielimplementierung der Queries um drei moderne DSPSs mit ESPBench zu untersuchen: Apache Flink, Apache Spark Streaming und Hazelcast Jet. Der Ergebnisse der Studie verdeutlichen die Funktionsfähigkeit von ESPBench und dessen Toolkit. ESPBench befähigt Performanzcharakteristiken von DSPSs zu quantifizieren und Unterschiede zwischen Systemen aufzuzeigen. Der in dieser Dissertation vorgestellte Benchmark erfüllt alle Anforderungen, um in Stream Processing-Szenarien im Unternehmenskontext eingesetzt zu werden und stellt somit eine Verbesserung der aktuellen Situation dar. KW - stream processing KW - performance KW - benchmarking KW - dsps KW - espbench KW - benchmark KW - Performanz KW - Datenstromverarbeitung KW - Benchmark Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-566000 ER - TY - THES A1 - Villatoro Leal, José Andrés T1 - A combined approach for the analysis of biomolecules using IR-MALDI ion mobility spectrometry and molecular dynamics simulations of peptide ions in the gas phase T1 - Kombinierter Einsatz von IR-MALDI Ionenmobilitätsspektrometrie und Simulationen der Molekulardynamik von Peptidionen in der Gasphase zur Analyse von Biomolekülen N2 - The aim of this doctoral thesis was to establish a technique for the analysis of biomolecules with infrared matrix-assisted laser dispersion (IR-MALDI) ion mobility (IM) spectrometry. The main components of the work were the characterization of the IR-MALDI process, the development and characterization of different ion mobility spectrometers, the use of IR-MALDI-IM spectrometry as a robust, standalone spectrometer and the development of a collision cross-section estimation approach for peptides based on molecular dynamics and thermodynamic reweighting. First, the IR-MALDI source was studied with atmospheric pressure ion mobility spectrometry and shadowgraphy. It consisted of a metal capillary, at the tip of which a self-renewing droplet of analyte solution was met by an IR laser beam. A relationship between peak shape, ion desolvation, diffusion and extraction pulse delay time (pulse delay) was established. First order desolvation kinetics were observed and related to peak broadening by diffusion, both influenced by the pulse delay. The transport mechanisms in IR-MALDI were then studied by relating different laser impact positions on the droplet surface to the corresponding ion mobility spectra. Two different transport mechanisms were determined: phase explosion due to the laser pulse and electrical transport due to delayed ion extraction. The velocity of the ions stemming from the phase explosion was then measured by ion mobility and shadowgraphy at different time scales and distances from the source capillary, showing an initially very high but rapidly decaying velocity. Finally, the anatomy of the dispersion plume was observed in detail with shadowgraphy and general conclusions over the process were drawn. Understanding the IR-MALDI process enabled the optimization of the different IM spectrometers at atmospheric and reduced pressure (AP and RP, respectively). At reduced pressure, both an AP and an RP IR-MALDI source were used. The influence of the pulsed ion extraction parameters (pulse delay, width and amplitude) on peak shape, resolution and area was systematically studied in both AP and RP IM spectrometers and discussed in the context of the IR-MALDI process. Under RP conditions, the influence of the closing field and of the pressure was also examined for both AP and RP sources. For the AP ionization RP IM spectrometer, the influence of the inlet field (IF) in the source region was also examined. All of these studies led to the determination of the optimal analytical parameters as well as to a better understanding of the initial ion cloud anatomy. The analytical performance of the spectrometer was then studied. Limits of detection (LOD) and linear ranges were determined under static and pulsed ion injection conditions and interpreted in the context of the IR-MALDI mechanism. Applications in the separation of simple mixtures were also illustrated, demonstrating good isomer separation capabilities and the advantages of singly charged peaks. The possibility to couple high performance liquid chromatography (HPLC) to IR-MALDI-IM spectrometry was also demonstrated. Finally, the reduced pressure spectrometer was used to study the effect of high reduced field strength on the mobility of polyatomic ions in polyatomic gases. The last focus point was on the study of peptide ions. A dataset obtained with electrospray IM spectrometry was characterized and used for the calibration of a collision cross-section (CCS) determination method based on molecular dynamics (MD) simulations at high temperature. Instead of producing candidate structures which are evaluated one by one, this semi-automated method uses the simulation as a whole to determine a single average collision cross-section value by reweighting the CCS of a few representative structures. The method was compared to the intrinsic size parameter (ISP) method and to experimental results. Additional MD data obtained from the simulations was also used to further analyze the peptides and understand the experimental results, an advantage with regard to the ISP method. Finally, the CCS of peptide ions analyzed by IR-MALDI were also evaluated with both ISP and MD methods and the results compared to experiment, resulting in a first validation of the MD method. Thus, this thesis brings together the soft ionization technique that is IR-MALDI, which produces mostly singly charged peaks, with ion mobility spectrometry, which can distinguish between isomers, and a collision cross-section determination method which also provides structural information on the analyte at hand. N2 - Das Ziel dieser Arbeit war die Zusammenführung der schonende Ionisationsquelle Infrared Matrix-Assisted Laser Dispersion Ionization (IR-MALDI), der Isomer-diskriminierende Ionenmobilitätsspektrometrie und einer neuartigen, auf Molecular Dynamics (MD) Simulationen basierte Berechnungsmethode für Stoßquerschnitte. Der erste Schritt war die Charakterisierung des Flüssigkeitsdispersionsphänomens in IR-MALDI: Zwei verschiedenen Ionentransportmechanismen wurden nachgewiesen und weiter studiert. Die Beziehung zwischen Peakform, Diffusion, Desolvatation und Ionen Extraktionspuls wurde beschrieben. Die Geschwindigkeit der Ionen, die aus dem Dispersionsphänomen stammen, wurde durch Ionenmobilitätsspektrometrie und Shadowgraphie untersucht. Shadowgraphie hat ebenfalls das Verhalten des Dispersionsphänomens erläutert. Eine hohe, schnell abklingende initielle Geschwindigkeit wurde beobachtet. Das Verständnis des IR-MALDI Verfahrens ermöglichte die Optimierung der verschiedenen Ionenmobilität (IM) Spektrometer zum analytischen Zweck. Eine Atmosphärendruck- und zwei Niederdruckvariante von IM Spektrometern wurden mit gepulster Ionenextraktion genutzt. Die Pulsparameter (Pulsverzögerung, ‑breite, -höhe) und verschiedene elektrische Felder an unterschiedlichen Stellen der Spektrometer wurden systematisch variiert. Deren Einfluss auf die Peakauflösung und -fläche wurde untersucht und im Rahmen des IR-MALDI Verfahrens erklärt. Das Verständnis der Anatomie der Anfangsionenwolke wurde ebenfalls durch diese Experimente vertieft. Die analytische Leistungsfähigkeit eines IM-Spektrometers wurde dann untersucht. Nachweisgrenzen und lineare Bereiche wurden bestimmt und in Zusammenhang mit dem IR-MALDI Verfahren interpretiert. Anhand der Trennung von Isomeren und einfachen Mischungen wurde die Anwendung dieser Technik demonstriert und ihre Vorteile, die Detektion einfachgeladener Ionen und die Möglichkeit der HPLC-Kopplung (High Performance Liquid Chromatography), aufgezeigt. Mit dem Niederdruckspektrometer wurde der Einfluss hoher reduzierter Feldstärken auf die Ionenmobilität von polyatomische Ionen in polyatomische Gasen untersucht. Der letzte Schwerpunkt war die Charakterisierung von Peptidionen. Die Peptiden wurden mit Elektrospray (ESI) IM-Spektrometrie vermessen. Der hieraus erhaltene Datensatz diente zur Etablierung einer Stoßquerschnitt Berechnungsmethode mittels MD. Anstatt verschiedener Kandidat-Strukturen und deren Stoßquerschnitte, ergibt diese neuartige semi-automatisierte Methode einen einzigen, gemittelten Stoßquerschnitt. Die MD Methode wurde dann mit einer anderen, einfacheren Methode und mit den experimentellen Ergebnissen von ESI und IR-MALDI-IM Spektrometrie verglichen. Zudem wurde der Zusammenhang zwischen Ladungszustands- und Stoßquerschnittsdifferenzen zwischen den Peptiden untersucht. Weitere Strukturelle Informationen konnten aus den Simulationen extrahiert, und zur Charakterisierung der Peptiden verwendet werden. KW - Ion mobility spectrometry KW - Molecular dynamics KW - IR-MALDI KW - Peptides KW - Shadowgraphy KW - Liquid dispersion KW - Ionenmobilitätsspektrometrie KW - Molekulardynamik KW - Collision cross-section KW - IR-MALDI KW - Peptiden KW - Shadowgraphie KW - Stoßquerschnitt KW - Flüssigkeitszerstäubung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-419723 ER - TY - THES A1 - Pilz, Marco T1 - A comparison of proxies for seismic site conditions and amplification for the large urban area of Santiago de Chile T1 - Ein Vergleich seismischer Parameter für die Standort- und Verstärkungsabschätzung im Stadtgebiet von Santiago de Chile N2 - Situated in an active tectonic region, Santiago de Chile, the country´s capital with more than six million inhabitants, faces tremendous earthquake hazard. Macroseismic data for the 1985 Valparaiso and the 2010 Maule events show large variations in the distribution of damage to buildings within short distances indicating strong influence of local sediments and the shape of the sediment-bedrock interface on ground motion. Therefore, a temporary seismic network was installed in the urban area for recording earthquake activity, and a study was carried out aiming to estimate site amplification derived from earthquake data and ambient noise. The analysis of earthquake data shows significant dependence on the local geological structure with regards to amplitude and duration. Moreover, the analysis of noise spectral ratios shows that they can provide a lower bound in amplitude for site amplification and, since no variability in terms of time and amplitude is observed, that it is possible to map the fundamental resonance frequency of the soil for a 26 km x 12 km area in the northern part of the Santiago de Chile basin. By inverting the noise spectral rations, local shear wave velocity profiles could be derived under the constraint of the thickness of the sedimentary cover which had previously been determined by gravimetric measurements. The resulting 3D model was derived by interpolation between the single shear wave velocity profiles and shows locally good agreement with the few existing velocity profile data, but allows the entire area, as well as deeper parts of the basin, to be represented in greater detail. The wealth of available data allowed further to check if any correlation between the shear wave velocity in the uppermost 30 m (vs30) and the slope of topography, a new technique recently proposed by Wald and Allen (2007), exists on a local scale. While one lithology might provide a greater scatter in the velocity values for the investigated area, almost no correlation between topographic gradient and calculated vs30 exists, whereas a better link is found between vs30 and the local geology. When comparing the vs30 distribution with the MSK intensities for the 1985 Valparaiso event it becomes clear that high intensities are found where the expected vs30 values are low and over a thick sedimentary cover. Although this evidence cannot be generalized for all possible earthquakes, it indicates the influence of site effects modifying the ground motion when earthquakes occur well outside of the Santiago basin. Using the attained knowledge on the basin characteristics, simulations of strong ground motion within the Santiago Metropolitan area were carried out by means of the spectral element technique. The simulation of a regional event, which has also been recorded by a dense network installed in the city of Santiago for recording aftershock activity following the 27 February 2010 Maule earthquake, shows that the model is capable to realistically calculate ground motion in terms of amplitude, duration, and frequency and, moreover, that the surface topography and the shape of the sediment bedrock interface strongly modify ground motion in the Santiago basin. An examination on the dependency of ground motion on the hypocenter location for a hypothetical event occurring along the active San Ramón fault, which is crossing the eastern outskirts of the city, shows that the unfavorable interaction between fault rupture, radiation mechanism, and complex geological conditions in the near-field may give rise to large values of peak ground velocity and therefore considerably increase the level of seismic risk for Santiago de Chile. N2 - Aufgrund ihrer Lage in einem tektonisch aktiven Gebiet ist Santiago de Chile, die Hauptstadt des Landes mit mehr als sechs Millionen Einwohnern, einer großen Erdbebengefährdung ausgesetzt. Darüberhinaus zeigen makroseismische Daten für das 1985 Valparaiso- und das 2010 Maule-Erdbeben eine räumlich unterschiedliche Verteilung der an den Gebäuden festgestellten Schäden; dies weist auf einen starken Einfluss der unterliegenden Sedimentschichten und der Gestalt der Grenzfläche zwischen den Sedimenten und dem Festgestein auf die Bodenbewegung hin. Zu diesem Zweck wurde in der Stadt ein seismisches Netzwerk für die Aufzeichnung der Bodenbewegung installiert, um die auftretende Untergrundverstärkung mittels Erdbebendaten und seismischem Rauschen abzuschätzen. Dabei zeigt sich für die Erdbebendaten eine deutliche Abhängigkeit von der Struktur des Untergrunds hinsichtlich der Amplitude der Erschütterung und ihrer Dauer. Die Untersuchung der aus seismischem Rauschen gewonnenen horizontal-zu-vertikal-(H/V) Spektral-verhältnisse zeigt, dass diese Ergebnisse nur einen unteren Grenzwert für die Bodenverstärkung liefern können. Weil jedoch andererseits keine zeitliche Veränderung bei der Gestalt dieser Spektralverhältnisse festgestellt werden konnte, erlauben die Ergebnisse ferner, die Resonanzfrequenz des Untergrundes für ein 26 km x 12 km großes Gebiet im Nordteil der Stadt zu bestimmen. Unter Zuhilfenahme von Informationen über die Dicke der Sedimentschichten, welche im vorhinein schon durch gravimetrische Messungen bestimmt worden war, konnten nach Inversion der H/V-Spektralverhältnisse lokale Scherwellengeschwindigkeitsprofile und nach Interpolation zwischen den einzelnen Profilen ein dreidimensionales Modell berechnet werden. Darüberhinaus wurde mit den verfügbaren Daten untersucht, ob auf lokaler Ebene ein Zusammenhang zwischen der mittleren Scherwellengeschwindigkeit in den obersten 30 m (vs30) und dem Gefälle existiert, ein Verfahren, welches kürzlich von Wald und Allen (2007) vorgestellt wurde. Da für jede lithologische Einheit eine starke Streuung für die seismischen Geschwindigkeiten gefunden wurde, konnte kein Zusammenhang zwischen dem Gefälle und vs30 hergestellt werden; demgegenüber besteht zumindest ein tendenzieller Zusammenhang zwischen vs30 und der unterliegenden Geologie. Ein Vergleich der Verteilung von vs30 mit den MKS-Intensitäten für das 1985 Valparaiso-Erdbeben in Santiago zeigt, dass hohe Intensitätswerte vor allem in Bereichen geringer vs30-Werte und dicker Sedimentschichten auftraten. Weiterhin ermöglichte die Kenntnis über das Sedimentbeckens Simulationen der Bodenbewegung mittels eines spektralen-Elemente-Verfahrens. Die Simulation eines regionalen Erdbebens, welches auch von einem dichten seismischen Netzwerk aufgezeichnet wurde, das im Stadtgebiet von Santiago infolge des Maule-Erdbebens am 27. Februar 2010 installiert wurde, zeigt, dass das Modell des Sedimentbeckens realistische Berechnungen hinsichtlich Amplitude, Dauer und Frequenz erlaubt und die ausgeprägte Topographie in Verbindung mit der Form der Grenzfläche zwischen den Sedimenten und dem Festgestein starken Einfluss auf die Bodenbewegung haben. Weitere Untersuchungen zur Abhängigkeit der Bodenerschütterung von der Position des Hypozentrums für ein hypothetisches Erdbeben an der San Ramón-Verwerfung, welche die östlichen Vororte der Stadt kreuzt, zeigen, dass die ungünstige Wechselwirkung zwischen dem Verlauf des Bruchs, der Abstrahlung der Energie und der komplexen geologischen Gegebenheiten hohe Werte bei der maximalen Bodengeschwindigkeit erzeugen kann. Dies führt zu einer signifikanten Zunahme des seismischen Risikos für Santiago de Chile. KW - Standorteffekte KW - seismisches Rauschen KW - Sedimentbecken KW - Simulation KW - site effects KW - seismic noise KW - sedimentary basin KW - simulation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52961 ER - TY - THES A1 - Awad, Ahmed Mahmoud Hany Aly T1 - A compliance management framework for business process models T1 - Ein Compliance-Management-Framework für Geschäftsprozessmodelle N2 - Companies develop process models to explicitly describe their business operations. In the same time, business operations, business processes, must adhere to various types of compliance requirements. Regulations, e.g., Sarbanes Oxley Act of 2002, internal policies, best practices are just a few sources of compliance requirements. In some cases, non-adherence to compliance requirements makes the organization subject to legal punishment. In other cases, non-adherence to compliance leads to loss of competitive advantage and thus loss of market share. Unlike the classical domain-independent behavioral correctness of business processes, compliance requirements are domain-specific. Moreover, compliance requirements change over time. New requirements might appear due to change in laws and adoption of new policies. Compliance requirements are offered or enforced by different entities that have different objectives behind these requirements. Finally, compliance requirements might affect different aspects of business processes, e.g., control flow and data flow. As a result, it is infeasible to hard-code compliance checks in tools. Rather, a repeatable process of modeling compliance rules and checking them against business processes automatically is needed. This thesis provides a formal approach to support process design-time compliance checking. Using visual patterns, it is possible to model compliance requirements concerning control flow, data flow and conditional flow rules. Each pattern is mapped into a temporal logic formula. The thesis addresses the problem of consistency checking among various compliance requirements, as they might stem from divergent sources. Also, the thesis contributes to automatically check compliance requirements against process models using model checking. We show that extra domain knowledge, other than expressed in compliance rules, is needed to reach correct decisions. In case of violations, we are able to provide a useful feedback to the user. The feedback is in the form of parts of the process model whose execution causes the violation. In some cases, our approach is capable of providing automated remedy of the violation. N2 - Firmen entwickeln Prozessmodelle um ihre Geschäftstätigkeit explizit zu beschreiben. Geschäftsprozesse müssen verschiedene Arten von Compliance-Anforderungen einhalten. Solche Compliance-Anforderungen entstammen einer Vielzahl von Quellen, z.B. Verordnung wie dem Sarbanes Oxley Act von 2002, interne Richtlinien und Best Practices. Die Nichteinhaltung von Compliance-Anforderungen kann zu gesetzlichen Strafen oder dem Verlust von Wettbewerbsvorteilen und somit dem Verlust von Marktanteilen führen. Im Gegensatz zum klassischen, domänen-unabhängigen Begriff der Korrektheit von Geschäftsprozessen, sind Compliance-Anforderungen domain-spezifisch und ändern sich im Laufe der Zeit. Neue Anforderungen resultieren aus neuen Gesetzen und der Einführung neuer Unternehmensrichtlinien. Aufgrund der Vielzahl der Quellen für Compliance-Anforderungen, können sie unterschiedliche Ziele verfolgen und somit widersprüchliche Aussagen treffen. Schließlich betreffen Compliance-Anforderungen verschiedene Aspekte von Geschäftsprozessen, wie Kontrollfluss- und Datenabhängigkeiten. Auf Grund dessen können Compliance-Prüfungen nicht direkt Hard-coded werden. Vielmehr ist ein Prozess der wiederholten Modellierung von Compliance-Regeln und ihrer anschließenden automatischen Prüfung gegen die Geschäftsprozesse nötig. Diese Dissertation stellt einen formalen Ansatz zur Überprüfung der Einhaltung von Compliance-Regeln während der Spezifikation von Geschäftsprozessen vor. Mit visuellen Mustern ist es möglich, Compliance-Regeln hinsichtlich Kontrollfluss- und Datenabhängigkeiten sowie bedingte Regeln zu spezifizieren. Jedes Muster wird in eine Formel der temporalen Logik abgebildet. Die Dissertation behandelt das Problem der Konsistenzprüfung zwischen verschiedenen Compliance-Anforderungen, wie sie sich aus unterschiedlichen Quellen ergeben können. Ebenfalls zeigt diese Dissertation, wie Compliance-Regeln gegen die Geschäftsprozesse automatisch mittels Model Checking geprüft werden. Es wird aufgezeigt, dass zusätzliche Domänen-Kenntnisse notwendig sind, um richtige Entscheidungen zu treffen. Der vorgestelle Ansatz ermöglicht nützliches Feedback für Modellierer im Fall eines Compliance-Verstoßes. Das Feedback wird in Form von Teilen des Prozessmodells gegeben, deren Ausführung die Verletzung verursacht. In einigen Fällen ist der vorgestellte Ansatz in der Lage, den Compliance-Verstoß automatisch zu beheben. KW - Geschäftsprozessmodelle KW - Compliance KW - Temporallogik KW - Verletzung Erklärung KW - Verletzung Auflösung KW - Business Process Models KW - Compliance KW - Temporal Logic KW - Violation Explanation KW - Violation Resolution Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49222 ER - TY - THES A1 - Koç, Gamze T1 - A comprehensive analysis of severe flood events in Turkey T1 - Eine ausführliche Analyse schwerer Flutereignisse in der Türkei BT - event documentation, triggering mechanisms and impact modelling BT - Ereignisdokumentation, Auslösemechanismen und Auswirkungsmodellierung N2 - Over the past decades, natural hazards, many of which are aggravated by climate change and reveal an increasing trend in frequency and intensity, have caused significant human and economic losses and pose a considerable obstacle to sustainable development. Hence, dedicated action toward disaster risk reduction is needed to understand the underlying drivers and create efficient risk mitigation plans. Such action is requested by the Sendai Framework for Disaster Risk Reduction 2015-2030 (SFDRR), a global agreement launched in 2015 that establishes stating priorities for action, e.g. an improved understanding of disaster risk. Turkey is one of the SFDRR contracting countries and has been severely affected by many natural hazards, in particular earthquakes and floods. However, disproportionately little is known about flood hazards and risks in Turkey. Therefore, this thesis aims to carry out a comprehensive analysis of flood hazards for the first time in Turkey from triggering drivers to impacts. It is intended to contribute to a better understanding of flood risks, improvements of flood risk mitigation and the facilitated monitoring of progress and achievements while implementing the SFDRR. In order to investigate the occurrence and severity of flooding in comparison to other natural hazards in Turkey and provide an overview of the temporal and spatial distribution of flood losses, the Turkey Disaster Database (TABB) was examined for the years 1960-2014. The TABB database was reviewed through comparison with the Emergency Events Database (EM-DAT), the Dartmouth Flood Observatory database, the scientific literature and news archives. In addition, data on the most severe flood events between 1960 and 2014 were retrieved. These served as a basis for analyzing triggering mechanisms (i.e. atmospheric circulation and precipitation amounts) and aggravating pathways (i.e. topographic features, catchment size, land use types and soil properties). For this, a new approach was developed and the events were classified using hierarchical cluster analyses to identify the main influencing factor per event and provide additional information about the dominant flood pathways for severe floods. The main idea of the study was to start with the event impacts based on a bottom-up approach and identify the causes that created damaging events, instead of applying a model chain with long-term series as input and searching for potentially impacting events as model outcomes. However, within the frequency analysis of the flood-triggering circulation pattern types, it was discovered that events in terms of heavy precipitation were not included in the list of most severe floods, i.e. their impacts were not recorded in national and international loss databases but were mentioned in news archives and reported by the Turkish State Meteorological Service. This finding challenges bottom-up modelling approaches and underlines the urgent need for consistent event and loss documentation. Therefore, as a next step, the aim was to enhance the flood loss documentation by calibrating, validating and applying the United Nations Office for Disaster Risk Reduction (UNDRR) loss estimation method for the recent severe flood events (2015-2020). This provided, a consistent flood loss estimation model for Turkey, allowing governments to estimate losses as quickly as possible after events, e.g. to better coordinate financial aid. This thesis reveals that, after earthquakes, floods have the second most destructive effects in Turkey in terms of human and economic impacts, with over 800 fatalities and US$ 885.7 million in economic losses between 1960 and 2020, and that more attention should be paid on the national scale. The clustering results of the dominant flood-producing mechanisms (e.g. circulation pattern types, extreme rainfall, sudden snowmelt) present crucial information regarding the source and pathway identification, which can be used as base information for hazard identification in the preliminary risk assessment process. The implementation of the UNDRR loss estimation model shows that the model with country-specific parameters, calibrated damage ratios and sufficient event documentation (i.e. physically damaged units) can be recommended in order to provide first estimates of the magnitude of direct economic losses, even shortly after events have occurred, since it performed well when estimates were compared to documented losses. The presented results can contribute to improving the national disaster loss database in Turkey and thus enable a better monitoring of the national progress and achievements with regard to the targets stated by the SFDRR. In addition, the outcomes can be used to better characterize and classify flood events. Information on the main underlying factors and aggravating flood pathways further supports the selection of suitable risk reduction policies. All input variables used in this thesis were obtained from publicly available data. The results are openly accessible and can be used for further research. As an overall conclusion, it can be stated that consistent loss data collection and better event documentation should gain more attention for a reliable monitoring of the implementation of the SFDRR. Better event documentation should be established according to a globally accepted standard for disaster classification and loss estimation in Turkey. Ultimately, this enables stakeholders to create better risk mitigation actions based on clear hazard definitions, flood event classification and consistent loss estimations. N2 - In den letzten Jahrzehnten verursachten Naturgefahren hohe humanitäre und wirtschaftliche Verluste, wobei viele dieser Ereignisse durch den Klimawandel verstärkt werden und einen zunehmenden Trend in Häufigkeit und Schwere aufweisen. Daher sind gezielte Verfahren zur Reduzierung von Katastrophenrisiken erforderlich, um zugrundeliegende Treiber zu verstehen und effektive Risikominderungspläne zu erstellen. Solche Verfahren werden durch das Sendai-Rahmenwerk für Katastrophenvorsorge 2015-2030 (SFDRR) eingefordert. Das SFDRR ist, ein internationales Rahmenwerk, das 2015 verabschiedet wurde und prioritäre Maßnahmen festlegt, z.B. eine Verbesserung der Wissensgrundlagen zum Katastrophenrisiko. Die Türkei ist eines der SFDRR-Vertragsländer und wurde in der Vergangenheit von vielen Naturgefahren, insbesondere Erdbeben und Überschwemmungen schwer getroffen. Über die Hochwassergefahren und -risiken in der Türkei ist jedoch vergleichsweise wenig bekannt. In dieser Arbeit wird daher zum ersten Mal eine umfassende Analyse der Hochwassergefahren in der Türkei durchgeführt, von den auslösenden Ursachen bis hin zu den Auswirkungen. Ziel ist es, das Verständnis über Hochwasserrisiken zu verbessern, Studien zur Minderung des Hochwasserrisikos anzuregen und das Monitoring der Fortschritte und Zielerreichung bei der Umsetzung des SFDRR zu erleichtern. Um das Auftreten und die Stärke von Überschwemmungen im Vergleich zu anderen Naturgefahren in der Türkei zu untersuchen und einen Überblick über die raumzeitliche Verteilung von Hochwasserschäden, wurde die Turkey Disaster Database (TABB) für den Zeitraum 1960 bis 2014 ausgewertet. Die TABB Datenbank wurde durch Vergleiche mit der Emergency Events Datenbank (EM-DAT), der Dartmouth Flood Observatory Datenbank, wissenschaftlicher Literatur und Nachrichtenarchive überprüft. Zudem wurden die stärksten Überschwemmungen zwischen 1960 und 2014 identifiziert. Diese bildeten die Basis für eine Analyse der Auslösemechanismen (bspw. atmosphärische Zirkulationsmuster und Niederschlagsmengen) und verstärkende Wirkungspfade (z.B. topographische Eigenschaften, Größe der Einzugsgebiete, Landnutzung und Bodeneigenschaften). Dafür wurde ein neues Verfahren entwickelt, und die Ereignisse wurden mithilfe von hierarchischen Clusteranalysen klassifiziert, um die Haupteinflussfaktoren pro Ereignis zu identifizieren und zusätzliche Informationen über die dominanten Wirkungspfade bei schweren Überschwemmungen bereitzustellen. Die grundlegende Idee dieser Arbeit bestand darin, bei den Ereignisauswirkungen als Bottom-up-Ansatz zu beginnen und die Ursachen für Schadensereignisse zu identifizieren, anstatt eine Modellkette mit Langzeitreihen als Eingabe anzuwenden und darin nach potenziellen Schadensereignissen zu suchen. Bei der Häufigkeitsanalyse von hochwasserauslösenden Zirkulationsmustern wurde jedoch festgestellt, dass einige schwer Niederschlagsereignisse nicht in der Liste der schwersten Hochwasserereignisse waren, d.h., ihre Auswirkungen waren nicht in nationalen und internationalen Schadensdatenbanken dokumentiert, wurden jedoch in Nachrichtenarchiven erwähnt und vom türkischen staatlichen Wetterdienst gemeldet. Dieses Erkenntnis stellt den Bottom-up-Modelansatz in Frage und unterstreicht die Dringlichkeit einer konsistenten Ereignis- und Schadensdokumentation. Daher wurde im nächsten Schritt gezielt das Schadenmodell der Vereinten Nationen für Katastrophenvorsorge (UNDRR) für kürzlich aufgetretene starke Flutereignisse (2015-2020) angepasst, validiert und angewendet. Damit wurde ein konsistentes Hochwasserschadenmodell für die Türkei bereitgestellt, das es den Behörden ermöglicht, Verluste so schnell wie möglich nach Ereignissen abzuschätzen, zum Beispiel um eine bessere Koordination von finanziellen Hilfen zu gewährleisten. Diese Arbeit zeigt, dass Überschwemmungen mit mehr als 800 Todesfällen und 885,7 Millionen US Dollar wirtschaftlichen Schaden zwischen 1960 und 2020 nach Erdbeben den zweit höchsten zerstörerischen Effekt in der Türkei in Bezug auf humanitäre und wirtschaftliche Auswirkungen haben. Daher sollte dieses Thema mehr Aufmerksamkeit auf nationaler Ebene erhalten. Die Cluster-Ergebnisse der dominanten hochwasser-auslösenden Mechanismen (z.B. Zirkulationsmuster, Starkniederschlag, plötzliche Schneeschmelze) erhalten wichtige Informationen zur Quell- und Pfad-Identifikation, welche als Basisinformation für Gefahren-identifikation in der vorläufigen Risikoeinschätzung dienen kann. Die Implementierung des UNDRR-Schadenmodells zeigt, dass das Modell mit länderspezifischen Parametern, kalibrierten Schadensgraden und ausreichender Ereignisdokumentation (d.h. physischer geschädigte Einheiten) empfohlen werden kann, um erste Schätzungen zur Höhe der direkten wirtschaftlichen Schäden bereitzustellen -- auch unmittelbar nach Eintreten von Ereignissen, da die Modellschätzungen im Vergleich mit dokumentierten Verlusten gut übereinstimmten. Die präsentierten Ergebnisse können dazu beitragen, die nationale Schadensdatenbank der Türkei zu verbessern, und somit ein besseres Monitoring der nationalen Fortschritte und Erfolge im Hinblick auf die Ziele des SFDRR ermöglichen. Zusätzlich können die Ergebnisse für eine bessere Charakterisierung und Klassifizierung von Hochwasserereignissen verwendet werden. Informationen zu den zugrundeliegenden Einflussfaktoren und verstärkenden Wirkungspfaden unterstützen die Auswahl geeigneter Risikomanagementstrategien. Alle Eingabevariablen dieser Arbeit wurden aus öffentlich verfügbaren Daten bezogen. Die Ergebnisse sind zugänglich und können für die weitere Forschung verwendet werden. Insgesamt konnte festgestellt werden, dass die konsistente Erfassung von Schadensdaten und eine bessere Ereignisdokumentation mehr Beachtung finden muss, um die Implementierung des SFDRR verlässlich zu überwachen. Bessere Ereignisdokumentationen sollten nach einem weltweit anerkannten Standard für Gefahrenklassifizierung und Schadensabschätzung in der Türkei etabliert werden. Letztendlich ermöglicht dies den Verantwortlichen auf Basis von eindeutigen Gefahrendefinitionen, Hochwasser-Ereignisklassifizierungen und konsistenten Schadenschätzungen bessere Maßnahmen zur Risikominderung zu erarbeiten. KW - Flood hazards KW - Turkey KW - Triggering mechanisms KW - Cluster analysis KW - Hochwassergefahren KW - Türkei KW - Auslösemechanismen KW - Clusteranalyse KW - Impact modelling KW - Schadenmodell Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-517853 ER - TY - THES A1 - Yadav, Himanshu T1 - A computational evaluation of feature distortion and cue weighting in sentence comprehension T1 - Eine komputationale Evaluation von Feature-Verfälschung und Cue-Gewichtung in der Satzverarbeitung N2 - Successful sentence comprehension requires the comprehender to correctly figure out who did what to whom. For example, in the sentence John kicked the ball, the comprehender has to figure out who did the action of kicking and what was being kicked. This process of identifying and connecting the syntactically-related words in a sentence is called dependency completion. What are the cognitive constraints that determine dependency completion? A widely-accepted theory is cue-based retrieval. The theory maintains that dependency completion is driven by a content-addressable search for the co-dependents in memory. The cue-based retrieval explains a wide range of empirical data from several constructions including subject-verb agreement, subject-verb non-agreement, plausibility mismatch configurations, and negative polarity items. However, there are two major empirical challenges to the theory: (i) Grammatical sentences’ data from subject-verb number agreement dependencies, where the theory predicts a slowdown at the verb in sentences like the key to the cabinet was rusty compared to the key to the cabinets was rusty, but the data are inconsistent with this prediction; and, (ii) Data from antecedent-reflexive dependencies, where a facilitation in reading times is predicted at the reflexive in the bodybuilder who worked with the trainers injured themselves vs. the bodybuilder who worked with the trainer injured themselves, but the data do not show a facilitatory effect. The work presented in this dissertation is dedicated to building a more general theory of dependency completion that can account for the above two datasets without losing the original empirical coverage of the cue-based retrieval assumption. In two journal articles, I present computational modeling work that addresses the above two empirical challenges. To explain the grammatical sentences’ data from subject-verb number agreement dependencies, I propose a new model that assumes that the cue-based retrieval operates on a probabilistically distorted representation of nouns in memory (Article I). This hybrid distortion-plus-retrieval model was compared against the existing candidate models using data from 17 studies on subject-verb number agreement in 4 languages. I find that the hybrid model outperforms the existing models of number agreement processing suggesting that the cue-based retrieval theory must incorporate a feature distortion assumption. To account for the absence of facilitatory effect in antecedent-reflexive dependen� cies, I propose an individual difference model, which was built within the cue-based retrieval framework (Article II). The model assumes that individuals may differ in how strongly they weigh a syntactic cue over a number cue. The model was fitted to data from two studies on antecedent-reflexive dependencies, and the participant-level cue-weighting was estimated. We find that one-fourth of the participants, in both studies, weigh the syntactic cue higher than the number cue in processing reflexive dependencies and the remaining participants weigh the two cues equally. The result indicates that the absence of predicted facilitatory effect at the level of grouped data is driven by some, not all, participants who weigh syntactic cues higher than the number cue. More generally, the result demonstrates that the assumption of differential cue weighting is important for a theory of dependency completion processes. This differential cue weighting idea was independently supported by a modeling study on subject-verb non-agreement dependencies (Article III). Overall, the cue-based retrieval, which is a general theory of dependency completion, needs to incorporate two new assumptions: (i) the nouns stored in memory can undergo probabilistic feature distortion, and (ii) the linguistic cues used for retrieval can be weighted differentially. This is the cumulative result of the modeling work presented in this dissertation. The dissertation makes an important theoretical contribution: Sentence comprehension in humans is driven by a mechanism that assumes cue-based retrieval, probabilistic feature distortion, and differential cue weighting. This insight is theoretically important because there is some independent support for these three assumptions in sentence processing and the broader memory literature. The modeling work presented here is also methodologically important because for the first time, it demonstrates (i) how the complex models of sentence processing can be evaluated using data from multiple studies simultaneously, without oversimplifying the models, and (ii) how the inferences drawn from the individual-level behavior can be used in theory development. N2 - Bei der Satzverarbeitung muss der Leser richtig herausfinden, wer wem was angetan hat. Zum Beispiel muss der Leser in dem Satz „John hat den Ball getreten“ herausfinden, wer tat die Aktion des Tretens und was getreten wurde. Dieser Prozess des Identifizierens und Verbindens der syntaktisch verwandte Wörter in einem Satz nennt man Dependency-Completion. Was sind die kognitiven Mechanismen, die Dependency-Completion bestimmen? Eine weithin akzeptierte Theorie ist der Cue-based retrieval. Die Theorie besagt, dass die Dependency-Completion durch eine inhaltsadressierbare Suche nach der vorangetrieben wird Co-Abhängige im Gedächtnis. Der Cue-basierte Abruf erklärt ein breites Spektrum an empirischen Daten mehrere Konstruktionen, darunter Subjekt-Verb-Übereinstimmung, Subjekt-Verb-Nichtübereinstimmung, Plausibilität Mismatch-Konfigurationen und Elemente mit negativer Polarität. Es gibt jedoch zwei große empirische Herausforderungen für die Theorie: (i) Grammatische Sätze Daten aus Subjekt-Verb-Nummer-Dependency, bei denen die Theorie eine Verlangsamung vorhersagt das Verb in Sätzen wie „the key to the cabinet was rusty“ im Vergleich zu „the key to the cabinets was rusty“, aber die Daten stimmen nicht mit dieser Vorhersage überein; und (ii) Daten von Antezedenz-Reflexiv Strukturen, wo eine Leseerleichterung beim reflexiven „the bodybuilder who worked with the trainers injured themselves“ vs. „the bodybuilder who worked with the trainers injured themselves", aber die Daten zeigen keine vermittelnde Wirkung. Die in dieser Dissertation vorgestellte Arbeit widmet sich dem Aufbau einer allgemeineren Theorie von Dependency-Completion, die die beiden oben genannten Datensätze berücksichtigen kann, ohne das Original zu verlieren empirische Abdeckung der Cue-based Retrieval-Annahme. In zwei Zeitschriftenartikeln stelle ich Arbeiten zur Computermodellierung vor, die sich mit den beiden oben genannten empirischen Herausforderungen befassen. Um die Daten der grammatikalischen Sätze aus den Abhängigkeiten der Subjekt-Verb-Nummer-Übereinstimmung zu erklären, schlage ich ein neues Modell vor, das davon ausgeht, dass der Cue-basierte Abruf probabilistisch funktioniert verzerrte Darstellung von Substantiven im Gedächtnis (Artikel I). Dieses hybride Distortion-plus-Retrieval-Modell wurde anhand von Daten aus 17 Studien zu Subjekt-Verb mit den bestehenden Kandidatenmodellen verglichen Nummernvereinbarung in 4 Sprachen. Ich finde, dass das Hybridmodell die bestehenden Modelle übertrifft der Nummernvereinbarungsverarbeitung, was darauf hindeutet, dass die Cue-based Retrieval-Theorie Folgendes umfassen muss: a Annahme von Feature-Verfälschung. Um das Fehlen eines unterstützenden Effekts in antezedens-reflexiven Abhängigkeiten zu berücksichtigen, schlage ich ein individuelles Differenzmodell vor, das innerhalb des Cue-based Retrieval-Frameworks erstellt wurde (Artikel II). Das Modell geht davon aus, dass Individuen sich darin unterscheiden können, wie stark sie eine Syntax gewichten Cue über einem Nummern-Cue. Das Modell wurde an Daten aus zwei Studien zum Antezedenz-Reflexiv angepasst Abhängigkeiten, und die Cue-Gewichtung auf Teilnehmerebene wurde geschätzt. Wir finden, dass ein Viertel von Die Teilnehmer in beiden Studien gewichten bei der Verarbeitung den syntaktischen Cue höher als den numerischen Cue reflexive Abhängigkeiten und die verbleibenden Teilnehmer gewichten die beiden Cue gleichermaßen. Das Ergebnis weist darauf hin, dass das Fehlen des prognostizierten Erleichterungseffekts auf der Ebene der gruppierten Daten von einigen, nicht alle Teilnehmer, die syntaktische Cue höher gewichten als Zahlenhinweise. Allgemeiner gesagt, die Das Ergebnis zeigt, dass die Annahme einer differentiellen Hinweisgewichtung wichtig für eine Theorie von ist Dependency-Completion. Diese Idee der differentiellen Cue-Gewichtung wurde unabhängig unterstützt durch eine Modellierungsstudie zu Subjekt-Verb-Nichteinigungsabhängigkeiten (Artikel III). Insgesamt benötigt der Cue-basierte Abruf, der eine allgemeine Theorie der Abhängigkeitsvervollständigung ist um zwei neue Annahmen aufzunehmen: (i) die im Gedächtnis gespeicherten Substantive können einer Wahrscheinlichkeitsanalyse unterzogen werden Feature-Verfälschung, und (ii) die für den Abruf verwendeten sprachlichen Cue können unterschiedlich gewichtet werden. Das ist das kumulative Ergebnis der in dieser Dissertation vorgestellten Modellierungsarbeit.Die Dissertation leistet einen wichtigen theoretischen Beitrag: Satzverständnis in Der Mensch wird von einem Mechanismus getrieben, der einen hinweisbasierten Abruf, eine probabilistische Merkmalsverzerrung und eine differentielle Hinweisgewichtung annimmt. Diese Einsicht ist theoretisch wichtig, weil es einige gibt unabhängige Unterstützung für diese drei Annahmen in der Satzverarbeitung und im weiteren Gedächtnis Literatur. Die hier vorgestellten Modellierungsarbeiten sind auch methodisch wichtig, weil für die Zum ersten Mal wird gezeigt, (i) wie die komplexen Modelle der Satzverarbeitung evaluiert werden können Daten aus mehreren Studien gleichzeitig zu verwenden, ohne die Modelle zu stark zu vereinfachen, und (ii) wie die Schlussfolgerungen aus dem Verhalten auf individueller Ebene können in der Theorieentwicklung verwendet werden. KW - sentence comprehension KW - individual differences KW - cue-based retrieval KW - memory distortion KW - Approximate Bayesian Computation KW - cue reliability KW - ungefähre Bayessche Komputation KW - Cue-Gewichtung KW - Cue-basierter Retrieval KW - individuelle Unterschiede KW - Darstellung Verfälschung KW - Satzverarbeitung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-585055 ER - TY - THES A1 - Mertzen, Daniela T1 - A cross-linguistic investigation of similarity-based interference in sentence comprehension T1 - Eine cross-linguistische Untersuchung ähnlichkeitsbasierter Interferenz in der Satzverarbeitung N2 - The aim of this dissertation was to conduct a larger-scale cross-linguistic empirical investigation of similarity-based interference effects in sentence comprehension. Interference studies can offer valuable insights into the mechanisms that are involved in long-distance dependency completion. Many studies have investigated similarity-based interference effects, showing that syntactic and semantic information are employed during long-distance dependency formation (e.g., Arnett & Wagers, 2017; Cunnings & Sturt, 2018; Van Dyke, 2007, Van Dyke & Lewis, 2003; Van Dyke & McElree, 2011). Nevertheless, there are some important open questions in the interference literature that are critical to our understanding of the constraints involved in dependency resolution. The first research question concerns the relative timing of syntactic and semantic interference in online sentence comprehension. Only few interference studies have investigated this question, and, to date, there is not enough data to draw conclusions with regard to their time course (Van Dyke, 2007; Van Dyke & McElree, 2011). Our first cross-linguistic study explores the relative timing of syntactic and semantic interference in two eye-tracking reading experiments that implement the study design used in Van Dyke (2007). The first experiment tests English sentences. The second, larger-sample experiment investigates the two interference types in German. Overall, the data suggest that syntactic and semantic interference can arise simultaneously during retrieval. The second research question concerns a special case of semantic interference: We investigate whether cue-based retrieval interference can be caused by semantically similar items which are not embedded in a syntactic structure. This second interference study builds on a landmark study by Van Dyke & McElree (2006). The study design used in their study is unique in that it is able to pin down the source of interference as a consequence of cue overload during retrieval, when semantic retrieval cues do not uniquely match the retrieval target. Unlike most other interference studies, this design is able to rule out encoding interference as an alternative explanation. Encoding accounts postulate that it is not cue overload at the retrieval site but the erroneous encoding of similar linguistic items in memory that leads to interference (Lewandowsky et al., 2008; Oberauer & Kliegl, 2006). While Van Dyke & McElree (2006) reported cue-based retrieval interference from sentence-external distractors, the evidence for this effect was weak. A subsequent study did not show interference of this type (Van Dyke et al., 2014). Given these inconclusive findings, further research is necessary to investigate semantic cue-based retrieval interference. The second study in this dissertation provides a larger-scale cross-linguistic investigation of cue-based retrieval interference from sentence-external items. Three larger-sample eye-tracking studies in English, German, and Russian tested cue-based interference in the online processing of filler-gap dependencies. This study further extends the previous research by investigating interference in each language under varying task demands (Logačev & Vasishth, 2016; Swets et al., 2008). Overall, we see some very modest support for proactive cue-based retrieval interference in English. Unexpectedly, this was observed only under a low task demand. In German and Russian, there is some evidence against the interference effect. It is possible that interference is attenuated in languages with richer case marking. In sum, the cross-linguistic experiments on the time course of syntactic and semantic interference from sentence-internal distractors support existing evidence of syntactic and semantic interference during sentence comprehension. Our data further show that both types of interference effects can arise simultaneously. Our cross-linguistic experiments investigating semantic cue-based retrieval interference from sentence-external distractors suggest that this type of interference may arise only in specific linguistic contexts. N2 - Ziel dieser Dissertation war es, eine größer-angelegte, sprachübergreifende, empirische Untersuchung von Interferenzeffekten beim Satzverstehen durchzuführen. Interferenzstudien bieten wertvolle Einblicke in die Mechanismen, die während der Satzverarbeitung, insbesondere bei der Bildung von nicht-lokalen Dependenzen eine Rolle spielen. Studien zu ähnlichkeitsbasierten Interferenzeffekten haben gezeigt, dass syntaktische und semantische Informationen bei der Bildung von nicht-lokalen Dependenzen verwendet werden (z. B. Arnett & Wagers, 2017; Cunnings & Sturt, 2018; Van Dyke, 2007, Van Dyke & Lewis, 2003; Van Dyke & McElree, 2011). Dennoch bleiben in der Interferenzliteratur einige wichtige Fragen unbeantwortet, die für unser Verständnis der Satzverarbeitungsmechanismen von Bedeutung sind. Die erste Forschungsfrage betrifft den zeitlichen Ablauf syntaktischer und semantischer Interferenz während des Satzverstehens. Nur wenige Interferenzstudien haben diese Frage untersucht, jedoch sind aktuell nicht genügend Daten vorhanden, um Schlussfolgerungen bezüglich des zeitlichen Verlaufs zu ziehen (Van Dyke, 2007; Van Dyke & McElree, 2011). Die erste sprachübergreifende Studie in dieser Dissertation untersucht den zeitlichen Ablauf von syntaktischer und semantischer Interferenz mithilfe zweier Eyetracking-Leseexperimente. Diese nutzen das von Van Dyke (2007) implementierte Studiendesign. Das erste Experiment testet englische Sätze. Das zweite Experiment, welches eine größere Stichprobe untersucht, testet Interferenzeffekte im Deutschen. Insgesamt deuten die Daten darauf hin, dass syntaktische und semantische Interferenzeffekte zeitgleich auftreten können. Die zweite Forschungsfrage untersucht einen Spezialfall der semantischen Interferenz: Es wird untersucht, ob cue-abhängige Abrufinterferenz durch Items verursacht werden kann, die nicht in die syntaktische Struktur eingebettet sind. Diese zweite Interferenzstudie nutzt das Studiendesign von Van Dyke & McElree (2006), welches in der Lage ist, die Quelle der Interferenzeffekte als Folge von “cue overload” zu bestimmen, d.h., wenn semantische cues während des Abrufs aus dem Gedächtnis nicht eindeutig mit dem Zielwort übereinstimmen. Im Gegensatz zu anderen Interferenzstudien kann dieses Design Enkodierungsinterferenz als alternative Erklärung ausschließen. Enkodierungsansätze nehmen an, dass nicht ein “cue overload”, sondern eine fehlerhafte Kodierung ähnlicher Items im Gedächtnis Interferenz zur Folge hat (Lewandowsky et al., 2008; Oberauer & Kliegl, 2006). Obwohl die Van Dyke & McElree (2006) Studie angibt, cue-basierte Interferenz zu beobachten, ist die Evidenz für diesen Effekt schwach. Eine Folgestudie findet keine Evidenz für Interferenzeffekte dieser Art (Van Dyke et al., 2014). Die nicht eindeutigen Ergebnisse erfordern weitere Untersuchungen semantischer cue-basierter Interferenz. Die zweite Studie in dieser Dissertation untersucht cue-basierte Interferenzeffekte durch Items, die nicht in die syntaktische Struktur eingebettet sind. Drei Eyetracking-Studien, im Englischen, Deutschen und Russischen, untersuchen cue-basierte Interferenz während der Verarbeitung von “filler-gap” Dependenzen. Diese Studie ergänzt bisherige Studien, indem sie Interferenz in mehreren Sprachen sowie unter unterschiedlich komplexen Aufgabenanforderungen untersucht (Logačev & Vasishth, 2016; Swets et al., 2008). Insgesamt zeigen die Daten nur sehr schwache Evidenz für cue-basierte Interferenz im Englischen, und ausschließlich unter wenig komplexen Aufgabenanforderungen. Im Deutschen und Russischen sprechen die Daten gegen einen Interferenzeffekt, was darauf hinweisen könnte, dass Interferenzeffekte in Sprachen mit reicher Kasusmarkierung nur abgeschwächt vorzufinden sind. Insgesamt zeigen die sprachübergreifenden Experimente zum zeitlichen Verlauf syntaktischer und semantischer Interferenz durch satz-interne Items, dass beide Arten von Interferenzeffekten gleichzeitig auftreten können. Unsere sprachübergreifenden Experimente zur Untersuchung semantischer Interferenzen durch satz-externe Items deuten darauf hin, dass diese Art von Interferenz nur kontextspezifisch auftritt. KW - psycholinguistics KW - sentence processing KW - cue-based retrieval KW - similarity-based interference KW - eye-tracking KW - Psycholinguistik KW - Satzverarbeitung KW - Cue-abhängiger Abruf KW - ähnlichkeitsbasierte Gedächtnisinterferenz KW - Eye-tracking Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-556685 ER - TY - THES A1 - Håkansson, Nils T1 - A Dark Matter line search using 3D-modeling of Cherenkov showers below 10 TeV with VERITAS T1 - Die Suche nach Dunkler Materie mit VERITAS durch Liniensuche und 3D Modellierung von Cherenkov-Schauern unter 10 TeV N2 - Dark matter, DM, has not yet been directly observed, but it has a very solid theoretical basis. There are observations that provide indirect evidence, like galactic rotation curves that show that the galaxies are rotating too fast to keep their constituent parts, and galaxy clusters that bends the light coming from behind-lying galaxies more than expected with respect to the mass that can be calculated from what can be visibly seen. These observations, among many others, can be explained with theories that include DM. The missing piece is to detect something that can exclusively be explained by DM. Direct observation in a particle accelerator is one way and indirect detection using telescopes is another. This thesis is focused on the latter method. The Very Energetic Radiation Imaging Telescope Array System, V ERITAS, is a telescope array that detects Cherenkov radiation. Theory predicts that DM particles annihilate into, e.g., a γγ pair and create a distinctive energy spectrum when detected by such telescopes, e.i., a monoenergetic line at the same energy as the particle mass. This so called ”smoking-gun” signature is sought with a sliding window line search within the sub-range ∼ 0.3 − 10 TeV of the VERITAS energy range, ∼ 0.01 − 30 TeV. Standard analysis within the VERITAS collaboration uses Hillas analysis and look-up tables, acquired by analysing particle simulations, to calculate the energy of the particle causing the Cherenkov shower. In this thesis, an improved analysis method has been used. Modelling each shower as a 3Dgaussian should increase the energy recreation quality. Five dwarf spheroidal galaxies were chosen as targets with a total of ∼ 224 hours of data. The targets were analysed individually and stacked. Particle simulations were based on two simulation packages, CARE and GrISU. Improvements have been made to the energy resolution and bias correction, up to a few percent each, in comparison to standard analysis. Nevertheless, no line with a relevant significance has been detected. The most promising line is at an energy of ∼ 422 GeV with an upper limit cross section of 8.10 · 10^−24 cm^3 s^−1 and a significance of ∼ 2.73 σ, before trials correction and ∼ 1.56 σ after. Upper limit cross sections have also been calculated for the γγ annihilation process and four other outcomes. The limits are in line with current limits using other methods, from ∼ 8.56 · 10^−26 − 6.61 · 10^−23 cm^3s^−1. Future larger telescope arrays, like the upcoming Cherenkov Telescope Array, CTA, will provide better results with the help of this analysis method. N2 - Dunkle Materie, DM, wurde noch nicht direkt beobachtet, aber die Theorie ist sehr solide. Es gibt Beobachtungen, die als indirekte Beweise gelten, z.B. galaktische Rotationskurven, die besagen, dass Galaxien zu schnell rotieren um ohne eine zusätzliche Massenkomponente zusammenhalten zu können, oder elliptische Zwerggalaxien, die massereicher sind als die sichtbare Materie vermuten lässt. Diese Beobachtungen könnten z.B. mit dem Vorhandensein von DM erkärt werden, aber bis jetzt fehlt die Beobachtung eines Phänomens, das ausschließlich durch DM erklärt werden kann. Eine Möglichkeit wäre die Beobachtung einer speziellen Energiesignatur durch Teleskope, welche das Thema der vorliegenden Arbeit ist. Das Very Energetic Radiation Imaging Telescope Array System, VERITAS, ist ein Teleskoparray für Cherenkov-Strahlung. Entsprechend der Theorie sollten Teilchen dunkler Materie annihilieren und z.B. ein γγ Paar bilden. Dieses sollte im Teleskop eine spezielle Energiesignatur hinterlassen, nämlich eine monoenergetische Linie bei einer Energie, die der Teilchenmasse entspricht. Diese ”smoking-gun” Signatur wird mit einer sliding window Liniensuche bei Energien < 10TeV gesucht. In der VERITAS Kollaboration werden standardm¨aßig eine Hillas-Analyse und Nachschlagetabellen aus Teilchensimulationen verwendet, um die Energie des Teilchens zu berechnen, das den Cherenkov-Schauer verursacht hat. Hier wird eine verbesserte Analysemethode verwendet. Dabei wird jeder Schauer als 3D-Gaußkurve modelliert, was die Qualität der Energierekonstruktion erheblich verbessern sollte. Dafur wurden funf elliptische Zwerggalaxien beobachtet und einzeln sowie insgesamt analysiert, insgesamt ~ 224 h Beobachtungszeit. Dabei werden zwei verschiedene Teilchensimulationsprogramme verwendet, CARE und GrISU. In dieser Arbeit wurde die Energieauflösung und die Bias-Korrektur um einige Prozent gegen¨uber der Standardanalyse verbessert. Es wurde jedoch keine signifikante Linie detektiert. Die vielversprechendste Linie befindet sich bei einer Energie von ~ 422GeV und hat einen Querschnitt von 8.10·10^−24 cm^3 s^−1 und ein Signifikanzlevel von ~ 2.73 σ bzw. 1.56σ vor bzw. nach statistischer Korrektur. Außerdem wurden obere Grenzwerte fur verschiedene Annihilierungsprozesse berechnet. Sie stimmen mit anderen aktuellen Grenzwerten überein (~ 8.56 · 10^−26 − 6.61 · 10^−23 cm^3s^−1). Zukünftig werden mehr Beobachtungsdaten und neue Teleskoparrays, wie das Cherenkov Telescope Array, CTA, mit Hilfe dieser Analysemethode bessere Ergebnisse ermöglichen. KW - Dark Matter KW - line search KW - VERITAS KW - 3D-modeling KW - Cherenkov showers KW - Dunkler Materie KW - Line Suche KW - VERITAS KW - 3D Modellierung KW - Cherenkov-Schauern Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397670 ER - TY - THES A1 - Krentz, Konrad-Felix T1 - A Denial-of-Sleep-Resilient Medium Access Control Layer for IEEE 802.15.4 Networks T1 - Eine Denial-of-Sleep-Resiliente Mediumzugriffsschicht für IEEE-802.15.4-Netzwerke N2 - With the emergence of the Internet of things (IoT), plenty of battery-powered and energy-harvesting devices are being deployed to fulfill sensing and actuation tasks in a variety of application areas, such as smart homes, precision agriculture, smart cities, and industrial automation. In this context, a critical issue is that of denial-of-sleep attacks. Such attacks temporarily or permanently deprive battery-powered, energy-harvesting, or otherwise energy-constrained devices of entering energy-saving sleep modes, thereby draining their charge. At the very least, a successful denial-of-sleep attack causes a long outage of the victim device. Moreover, to put battery-powered devices back into operation, their batteries have to be replaced. This is tedious and may even be infeasible, e.g., if a battery-powered device is deployed at an inaccessible location. While the research community came up with numerous defenses against denial-of-sleep attacks, most present-day IoT protocols include no denial-of-sleep defenses at all, presumably due to a lack of awareness and unsolved integration problems. After all, despite there are many denial-of-sleep defenses, effective defenses against certain kinds of denial-of-sleep attacks are yet to be found. The overall contribution of this dissertation is to propose a denial-of-sleep-resilient medium access control (MAC) layer for IoT devices that communicate over IEEE 802.15.4 links. Internally, our MAC layer comprises two main components. The first main component is a denial-of-sleep-resilient protocol for establishing session keys among neighboring IEEE 802.15.4 nodes. The established session keys serve the dual purpose of implementing (i) basic wireless security and (ii) complementary denial-of-sleep defenses that belong to the second main component. The second main component is a denial-of-sleep-resilient MAC protocol. Notably, this MAC protocol not only incorporates novel denial-of-sleep defenses, but also state-of-the-art mechanisms for achieving low energy consumption, high throughput, and high delivery ratios. Altogether, our MAC layer resists, or at least greatly mitigates, all denial-of-sleep attacks against it we are aware of. Furthermore, our MAC layer is self-contained and thus can act as a drop-in replacement for IEEE 802.15.4-compliant MAC layers. In fact, we implemented our MAC layer in the Contiki-NG operating system, where it seamlessly integrates into an existing protocol stack. N2 - Mit dem Aufkommen des Internets der Dinge (IoT), werden immer mehr batteriebetriebene und energieerntende Geräte in diversen Anwendungsbereichen eingesetzt, etwa in der Heimautomatisierung, Präzisionslandwirtschaft, Industrieautomatisierung oder intelligenten Stadt. In diesem Kontext stellen sogenannte Denial-of-Sleep-Angriffe eine immer kritischer werdende Bedrohung dar. Solche Angriffe halten batteriebetriebene, energieerntende oder anderweitig energiebeschränkte Geräte zeitweise oder chronisch ab, in energiesparende Schlafmodi überzugehen. Erfolgreiche Denial-of-Sleep-Angriffe führen zumindest zu einer langen Ausfallzeit der betroffenen Geräte. Um betroffene batteriebetriebene Geräte wieder in Betrieb zu nehmen, müssen zudem deren Batterien gewechselt werden. Dies ist mühsam oder eventuell sogar unmöglich, z.B. wenn solche Geräte an unzugänglichen Orten installiert sind. Obwohl die Forschungsgemeinschaft bereits viele Denial-of-Sleep-Abwehrmechanismen vorgeschlagen hat, besitzen die meisten aktuellen IoT-Protokolle überhaupt keine Denial-of-Sleep-Abwehrmechanismen. Dies kann zum einen daran liegen, dass man des Problems noch nicht gewahr ist, aber zum anderen auch daran, dass viele Integrationsfragen bislang ungeklärt sind. Des Weiteren existieren bisher sowieso noch keine effektiven Abwehrmechanismen gegen bestimmte Denial-of-Sleep-Angriffe. Der Hauptbeitrag dieser Dissertation ist die Entwicklung einer Denial-of-Sleep-resilienten Mediumzugriffsschicht für IoT-Geräte, die via IEEE-802.15.4-Funkverbindungen kommunizieren. Die entwickelte Mediumzugriffsschicht besitzt zwei Hauptkomponenten. Die erste Hauptkomponente ist ein Denial-of-Sleep-resilientes Protokoll zur Etablierung von Sitzungsschlüsseln zwischen benachbarten IEEE-802.15.4-Knoten. Diese Sitzungsschlüssel dienen einerseits der grundlegenden Absicherung des Funkverkehrs und andererseits der Implementierung zusätzlicher Denial-of-Sleep-Abwehrmechanismen in der zweiten Hauptkomponente. Die zweite Hauptkomponente ist ein Denial-of-Sleep-resilientes Mediumzugriffsprotokoll. Bemerkenswert an diesem Mediumzugriffsprotokoll ist, dass es nicht nur neuartige Denial-of-Sleep-Abwehrmechanismen enthält, sondern auch dem Stand der Technik entsprechende Mechanismen zur Verringerung des Energieverbrauchs, zur Steigerung des Durchsatzes sowie zur Erhöhung der Zuverlässigkeit. Zusammenfassend widersteht bzw. mildert unsere Denial-of-Sleep-resiliente Mediumzugriffsschicht alle uns bekannten Denial-of-Sleep-Angriffe, die gegen sie gefahren werden können. Außerdem kann unsere Denial-of-Sleep-resiliente Mediumzugriffsschicht ohne Weiteres an Stelle von IEEE-802.15.4-konformen Mediumzugriffsschichten eingesetzt werden. Dies zeigen wir durch die nahtlose Integration unserer Mediumzugriffsschicht in den Netzwerk-Stack des Betriebssystems Contiki-NG. KW - medium access control KW - denial of sleep KW - internet of things KW - Mediumzugriffskontrolle KW - Schlafentzugsangriffe KW - Internet der Dinge Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439301 ER -