TY - THES A1 - Fischer, Anna T1 - "Reactive hard templating" : from carbon nitrides to metal nitrides T1 - Synthese von Metallnitrid Nanostrukturen durch "Reaktives Hardtemplating" N2 - Nanostructured inorganic materials are routinely synthesized by the use of templates. Depending on the synthesis conditions of the product material, either “soft” or “hard” templates can be applied. For sol-gel processes, usually “soft” templating techniques are employed, while “hard” templates are used for high temperature synthesis pathways. In classical templating approaches, the template has the unique role of structure directing agent, in the sense that it is not participating to the chemical formation of the resulting material. This work investigates a new templating pathway to nanostructured materials, where the template is also a reagent in the formation of the final material. This concept is described as “reactive templating” and opens a synthetic path toward materials which cannot be synthesised on a nanometre scale by classical templating approaches. Metal nitrides are such kind of materials. They are usually produced by the conversion of metals or metal oxides in ammonia flow at high temperature (T > 1000°C), which make the application of classical templating techniques difficult. Graphitic carbon nitride, g-C3N4, despite its fundamental and theoretical importance, is probably one of the most promising materials to complement carbon in material science and many efforts are put in the synthesis of this material. A simple polyaddition/elimination reaction path at high temperature (T = 550°C) allows the polymerisation of cyanamide toward graphitic carbon nitride solids. By hard templating, using nanostructured silica or aluminium oxide as nanotemplates, a variety of nanostructured graphitic carbon nitrides such as nanorods, nanotubes, meso- and macroporous powders could be obtained by nanocasting or nanocoating. Due to the special semi-conducting properties of the graphitic carbon nitride matrix, the nanostructured graphitic carbon nitrides show unexpected catalytic activity for the activation of benzene in Friedel-Crafts type reactions, making this material an interesting metal free catalyst. Furthermore, due to the chemical composition of g-C3N4 and the fact that it is totally decomposed at temperatures between 600°C and 800°C even under inert atmosphere, g-C3N4 was shown to be a good nitrogen donor for the synthesis of early transition metal nitrides at high temperatures. Thus using the nanostructured carbon nitrides as “reactive templates” or “nanoreactors”, various metal nitride nanostructures, such as nanoparticles and porous frameworks could be obtained at high temperature. In this approach the carbon nitride nanostructure played both the role of the nitrogen source and of the exotemplate, imprinting its size and shape to the resulting metal nitride nanostructure. N2 - Die Nanostrukturierung anorganischer Materialien, d.h. die Kontrolle ihrer Form und Größe auf der Nanometerebene durch unterschiedliche Herstellungsverfahren, ist ein sich immer noch erweiterndes Forschungsgebiet. Eine solche Nanostrukturierung wird oft über sogenannte Templatierungsverfahren erreicht: Hier werden Formgeber (Template) mit definierter Morphologie und Größe verwendet und deren Struktur in ein neues Material abgebildet. Templatierungsverfahren können, je nach der Beschaffenheit des Templats, zwischen „weich“ und „hart“ unterschieden werden. Die Begriffe beziehen sich dabei vor allem auf die mechanische und thermische Stabilität der Template, d.h. weiche Template sind vornehmlich organischer, harte Template anorganischer Natur. Wo weiche Template in milden chemischen Verfahren eingesetzt werden, werden harte Template zur Herstellung von Materialien bei Hochtemperaturverfahren verwendet (z. B. poröse Kohlenstoffe). Allgemein dienen Template ausschließlich als Strukturgeber und gehen in keiner Weise in Form einer chemischen Reaktion in die Synthese des gewünschten Materials mit ein. Gegenstand dieser Arbeit ist ein neues Templatierungsverfahren: Die „reaktive Templatierung“. Hierbei wird das Templat - neben seiner Funktion als Strukturgeber – auch als Reagenz für die Synthese des Produktes verwendet. Dieser Synthese-Ansatz öffnet damit neue Wege für die Synthese von nanostrukturierten Materialien, die durch klassische Templatierungsansätze schwer zugänglich sind. Hierzu zählen zum Beispiel die Metallnitride. Üblicherweise werden Metallnitride über die Umsetzung von Metallen oder Metalloxiden in einem Ammoniakstrom bei Mindesttemperaturen von 1000°C gewonnen, was die Anwendung klassischer Templatierungsverfahren beinahe unmöglich macht. Darüber hinaus sind konzentrierte Lauge oder Flusssäure, welche zur Entfernung klassischer harter Template benötigt werden auch Aufschlussmittel für Metallnitride. Graphitisches Kohlenstoffnitrid, g-C3N4, ist wohl eines der meistversprechendsten Materialien um Kohlenstoff in der Materialwissenschaft zu ergänzen. Es wurden bereits viele potentielle Syntheseansätze beschrieben. Eine durch Groenewolt M. erstellte Route ist die thermisch induzierte Polykondensation von Cyanamid (NCNH2) bei 550°C. Da g-C3N4 sich zwischen 600°C und 800°C vollständig in NH3 und CxNyH-Gase zersetzt, ist es eine geeignete Festkörper-Stickstoffquelle für die Herstellung von Metalnitriden. Daher boten sich nanostrukturierte graphitische Kohlenstoffnitride als geeignete reaktive Template oder Nanoreaktoren zur Herstellung von nano-strukturierten Metalnitriden an. Die Templatierung der g-C3N4-Matrix wurde über klassische Harttemplatierungsverfahren erreicht. So konnte eine Vielzahl nano-strukturierter g-C3N4 Materialien synthetisiert werden wie zum Beispiel Nanostäbchen, Nanoröhren, mesoporöse oder makroporöse graphitische Kohlenstoffnitride. Diese haben sich interessanterweise, als metalfreie Katalysatoren für die Aktivierung von Benzol in Friedel-Crafts-Acylierung und -Alkylierung erwiesen. Durch die Infiltrierung der nano-strukturierten g-C3N4-Materialien mit diversen Metal-Präkursoren und nachfolgendem Tempern bei 800°C unter Schutzgas, konnten entsprechende nano-strukturierte Metalnitride, als Nanoabdrücke der vorgegebenen Kohlenstoffnitrid Nanostrukturen hergestellt werden. So konnten TiN, VN, GaN, AlGaN und TiVN Nanopartikel synthetisiert werden, macroporöse TiN/Kohlenstoff Komposite sowie TiN Hohlkugeln. Die so hergestellten Materialien erwiesen sich als effektive basische Katalysatoren für Aldol-Kondensations Reaktionen. KW - Kohlenstoffnitride KW - Metallnitride KW - nano KW - Templatierung KW - Carbonitrides KW - metal nitrides KW - reactive templating KW - confinement KW - nano Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-19777 ER - TY - THES A1 - Zeiske, Anja T1 - "Sexualität im angehenden Erwachsenenalter" : die sexuelle Handlungsfähigkeit junger Frauen und Männer T1 - "Sexuality in emerging adulthood" : young women's and men's sexual agency N2 - In dieser Arbeit wurden Zusammenhänge zwischen den sexuellen Erfahrungen junger Frauen und Männer, ihren Persönlichkeitseigenschaften und ihren sexualmoralischen Einstellungen auf der einen Seite und der Einschätzung ihrer sexuellen Handlungsfähigkeit auf der anderen Seite untersucht. Die Grundlage für das Modell der sexuellen Handlungsfähigkeit bildeten die Vorstellungen der Arbeitsgruppe um Matthias Grundmann (Grundmann et al. 2006) sowie von Emirbayer und Mische (1998). Das in dieser Arbeit entwickelte Modell zur sexuellen Handlungsfähigkeit ist ein multidimensionales Konstrukt, das sich aus den Komponenten „sexuelle Kommunikation“, „sexuelle Zufriedenheit“, „sexuelle Reziprozität“ sowie „sexuelle Eigenverantwortung“ zusammensetzt. „Sexuelle Kommunikation“ beinhaltet die Fähigkeit, sexuelle Wünsche zum Ausdruck bringen zu können. „Sexuelle Zufriedenheit“ beschreibt den Grad der Zufriedenheit mit dem eigenen Sexualleben. „Sexuelle Reziprozität“ verweist auf die Fähigkeit, sexuelle Aufmerksamkeiten sowohl Annehmen als auch Geben zu können. „Sexuelle Eigenverantwortung“ betont schließlich die Einschätzung, inwieweit die eigene Sexualität selbst bestimmt gestaltet werden kann. Mit Emirbayer und Mische werden die sexuellen Erfahrungen der Frauen und Männer als Korrelate der Einschätzung der Dimensionen der sexuellen Handlungsfähigkeit betrachtet. Mit Grundmann et al. sind es zudem verschiedene Persönlichkeitseigenschaften sowie sexualmoralische Einstellungen, deren Beschaffenheiten Aussagen über die sexuelle Handlungsfähigkeit erlauben. Um die Thematik der sexuellen Handlungsfähigkeit empirisch zu betrachten, wurden im Jahr 2006 695 junge Potsdamer/innen im Alter von 19 bis 21 Jahren im Rahmen einer standardisierten Erhebung zu ihren sexuellen und Beziehungserfahrungen befragt. Die empirischen Analysen verdeutlichen eine ko-konstruktive Anschauung von der Entwicklung sexueller Handlungsfähigkeit. Diese entsteht nicht im Individuum allein, sondern innerhalb der Interaktions- und Aushandlungsprozesse des Individuums mit den Anderen seiner sozialen und sexuellen Umwelt. Von Bedeutung erweisen dabei sowohl die Erlebnisse der sexuellen Biografie als auch die Persönlichkeitsmerkmale eines jeden Einzelnen. Nur geringfügig erscheinen die erfragten sexualmoralischen Ansichten von Bedeutung. N2 - This study examines the connections between young women’s and men’s sexual experiences, their psychometrically meassures, and their moral attitudes according to sexuality on the one hand and the young women’s and men’s evaluation of their sexual agency on the other hand. The model of sexual agency used in this study is based upon the conceptions of Matthias Grundmann and collegues (Grundmann et al. 2006) as well as upon the conceptions of Mustafa Emirbayer and Ann Mische (1998). According to Emirbayer and Mische, in this study young women’s and men’s sexual experiences are conceived as correlates of their self-evalutation of sexual agency. Moreover, according to Grundmann et al., it is suggested that the young adults’ personality traits and their moral attitudes concerning sexulity are able to characterize their state of sexual agency. In this work a multidimensional construct of sexual agency has been developed. The multidimensional construct of sexual agency consists of the four dimensions “sexual communication”, “sexual satisfaction”, “sexual reciprocity”, and “sexual self-responsibility”. “Sexual communication” characterizes the ability to communicate one’s own sexual wishes. “Sexual satisfaction” describes the state of satisfaction with one’s sexual life. “Sexual reciprocity” contains the ability of both taking and giving sexual pleasures. Finally, “sexual self-responsibility” emphasizes the capability of creating one’s sexuality in an self dependened way. Based on a quantitative sample the subject of sexual agency has been examined empirically. In the year 2006 695 young adults, aged 19 to 21 years and living in Potsdam, Germany, have been asked about their sexual experiences and their experiences concerning romantic relationships. Data support a co-constructive view of the development of sexual agency. Thus, the development of sexual agency is not an exclusively individual demand, but a demand of the individuum’s negotiations with it’s social others, with men and women of it’s social and sexual society. Therefore, aspects of the individual’s sexual biography as well as the individual’s personality traits are important for the self-evaluaton of it’s sexual agency. However, data also show that the moral attitudes concerning sexuality are less important for the perception of one’s state of sexual agency. KW - Sexualität KW - sexuelle Handlungsfähigkeit KW - junge Erwachsene KW - Frauen KW - Männer KW - sexuality KW - sexual agency KW - emerging adults KW - women KW - men Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52346 ER - TY - THES A1 - Reininghaus, Karl T1 - "So sind die Zeichen in der Welt" : Beobachtungen zur Rezeption von eher Wenigem Friedrich Hölderlins T1 - "So sind die Zeichen in der Welt" : an inquiry into the Friedrich Hölderlin reception N2 - Wenn in einem verbrannten Gebäude, in dem sich unliebsame Untermieter breit gemacht haben, diese damit beginnen, Stein für Stein das restliche Gemäuer abzutragen, um die verbliebenen Fenster zuzumauern, wird es Zeit, mit mehr oder weniger freundlichen Worten die Bewohner des Hauses zu verweisen, die nur verhindern, dass sich neue Besucher dem Gelände nähern. Dafür muss freilich alter und neuer Behang von den Wänden genommen werden; und eben durch die Verbannung all dessen, was nicht an diesen Ort gehört, kann ein freundliches Bild des Dichters Friedrich Hölderlin erhalten bleiben, der nicht nur poetisch, sondern auch zwischenmenschlich einigen bedeutenden Persönlichkeiten seiner Zeit im Wege stand, was ihm wohl in beiden Aspekten zum Verhängnis geworden ist, weil er sich weder verwandtschaftlich noch im Rahmen des poetischen Geschäfts gegen seine intrigante Umgebung zur Wehr zu setzen wusste. Der etwas länger geratene Aufsatz „So sind die Zeichen in der Welt“ soll weder ein neues Heiligenbild schaffen noch einen frisch aus der Tasche gezogenen Popstar zum Liebhaben, sondern will behutsam einige Fresken des Gedankengebäudes Hölderlin für diejenigen freilegen, deren Bild des Dichters noch nicht völlig von der Vorstellung des wahnsinnig gewordenen Dichters übertüncht worden ist. Obwohl sich die Arbeit damit ganz bewusst den Hölderlin - Studien von Pierre Bertaux anschließt, setzt sie sich auch mit dieser Wahrnehmungslinie kritisch auseinander, indem sie neben biographischen Anmerkungen auch stil- und ideologiekritische Methoden einsetzt, um die manchmal unübersichtliche Quellenlage ein wenig durchsichtiger zu machen, als dies bisher der Fall ist. Über eine solche, in Einzelheiten vielleicht unorthodox wirkende Darstellung hinaus will die Arbeit die Behandlungsmöglichkeit von Friedrich Hölderlin im Deutschunterricht des Gymnasiums nahe legen, weil selbst Jüngeres über ihn behandelt wird, das darauf hinweist, inwiefern die Marginalisierung dieses Poeten damit zu tun hat, dass er während eines langen Abschnitts der Literaturgeschichte auch dafür verantwortlich gemacht wurde, was er weder geschrieben hat noch meinte. Die Intention der Arbeit besteht insgesamt in der Vorstellung, das Gedankengut Hölderlins müsse aus dem breiten Strom einer konservativen Wahrnehmungstradition entfernt werden (zu der beispielsweise auch die dramatische Hölderlin - Bearbeitung E. Jelineks Wolken.Heim. gezählt werden kann, selbst wenn sie widerborstig gemeint sein sollte) und dieser Dichter sei als realistischer Denker zu restaurieren, der sich deshalb dem Literaturbetrieb seiner Zeit entgezogen hat, weil er, selbst der Lebensführung nach, sehr früh die Bewegungen gegen französische Aufklärung und Revolution begriffen hat – und von deren massiver Ablehnung Hölderlin bis heute getroffen wird. Da Friedrich Hölderlin aber nicht nur ideologischer Betrachtung, Kritik und Verfälschung ausgesetzt ist, sondern auch regelmäßig Gegenstand umfangreicher biographisch - psychologischer Spekulationen darstellt, wurde dieser Aspekt nicht nur bezogen auf die Rezeptionsgeschichte untersucht, sondern am Gegenstand selbst. In diesem Zusammenhang konnte nicht nur eine bislang vernachlässigte Beziehung Hölderlins zu Sophie Mereau rekonstruiert und der Verdacht zurückgewiesen werden, es habe zur selben Zeit eine homoerotische Beziehung zu Isaak Sinclair bestanden, vielmehr gelang auch der Nachweis, dass das Verhältnis des Dichters zu Susette Gontard weder singulär noch konkurrenzlos gewesen ist, weshalb sich eine eindeutige Zuordnung dieser Frau zur poetischen Figur der Diotima verbietet. Dazu wurde einerseits der Umstand entmythologisiert, nach dem die Liebe zur Frankfurter Zeit platonisch betrieben wurde, andererseits aber diese Affaire den Verhältnissen Hölderlins zu anderen Frauen zugeordnet, mit denen sich Frau Gontard – letztlich erfolglos – dadurch auseinander zu setzen versuchte, dass sie die Rolle Diotimas okkupierte. Dabei ließ sich schließlich der Verdacht erhärten, die stabilste Bindung des Dichters an eine Frau sei die zur eigenen Schwester Heinrike gewesen, mit der bis zum Bruch von Bordeaux aus zwar unregelmäßig, aber emotional immer wieder ausufernde Briefe getauscht wurden. Es ist nicht ohne Ironie, wenn ausgerechnet im vielleicht bekanntesten Gedicht Hölderlins, der „Hälfte des Lebens“, in dem regelmäßig ein bedeutender philosophischer Entwurf gesehen wird, Rudimente eines Textes enthalten sind, der – eindeutig erotisch konnotiert – an die eigene Schwester gerichtet ist. N2 - Whenever uninvited guests occupying a house destroyed by fire start to dismantle its leftovers in order to brick the remaining windows, the time has come to expel them with more or less friendly words, since their sole purpose is to prevent new guests from approaching the premises. In order to do so, it is, of course, necessary to remove whatever hangings there might be left on the wall, both old and new, and by means of this very banishment of all which doesn’t inherently belong to the place, it is possible to retain a pleasant image of poet Friedrich Hölderlin – who may have gotten into the way for some of the more influential ones of his contemporaries not only poetically, but also in terms of interpersonal dynamics, both of which caused his eventual disaster. Neither in terms of family relationships, nor in the context of his poetic affairs was he capable of defend himself against the intrigues directed against him. „So sind die Zeichen in der Welt“ is a somewhat longer essay, which neither intends to put the poet on a pedestal, nor to create an adorable pop star. Its intention is to excavate some of the frescoes of the construct of ideas Hölderlin consists today, and to do so for those whose idea of the poet has not yet been buried entirely under the image of the poet gone insane. Although this study consciously chooses to pursuit an approach similar to the one of Pierre Bertaux, it also maintains a critical stance towards this line of interpretation by using not only biographic connotations, but also methods borrowed from the critique of ideology and style in order to make the sometimes confusing current state of source material somewhat more transparent as it has hitherto been the case. It also wants to transcend this approach, which can appear unorthodox in some respects, by suggesting ways of dealing with Friedrich Hölderlin in the curriculum of German secondary schools, which includes even newer material referring to the fact to which extent this poet’s marginalization is caused by his being held responsible for things he neither wrote nor meant during a long period of literary history. The overall intention of this study is the idea that Hölderlin’s body of thought has to be removed from the mainstream of conservative readings (including Elfriede Jelineks dramatic adaptation „Wolken. Heim.”, even if its intentions should be more recalcitrant) and that this poet has to be rehabilitated as a realist thinker who eschewed the literary “scene” of his time because he understood – and counteracted – quite early its rejection of the French Enlightenment and revolution – a rejection which has always been difficult for him to bear. Since Friedrich Hölderlin is, however, not only exposed to ideologically biased reflection, criticism and corruption, but also consists a subject of extensive biographic and psychologic speculation on a regular basis, this aspect has been researched not only with respect to the reception history of his works, but also inherently to the subject. In this context, it was not only possible to reconstruct the hitherto neglected relationship between Hölderlin and Sophie Mereau and to reject the suspicion of a simultaneous homoerotic relationship with Isaak Sinclair. It was also established that the poet’s affair with Susette Gontard was neither singular nor unrivaled, which rules out a doubtless correlation between this woman and the poetic figure of Diotima. In order to make this possible, it was necessary to both demythologize the idea of platonic love during the Frankfurt years, as well as to put this affair in context with Hölderlin’s romantic relationships with other women, which Gontard unsuccessfully tried to come to terms with by taking possession of the Diotima persona. Doing so substantiated the suspicion that the poet’s most stable bond with a woman was the one with his own sister Heinrike, with whom he had an emotionally overflowing, if unfrequent exchange of letters at least until the Bordeaux caesura. It is not without irony that “Hälfte des Lebens” of all poems – the one Hölderlin is maybe known best for and that is regularly considered a significant philosophic outline – contains fragments of a text that clearly features erotic connotations, the recipient of which is Hölderlin’s own sister. KW - Biographie KW - Poesie KW - Rezeption KW - Biography KW - Poetry KW - Reception Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-35723 ER - TY - THES A1 - Lontsi, Agostiny Marrios T1 - 1D shallow sedimentary subsurface imaging using ambient noise and active seismic data T1 - 1D Bildgebung oberflächennaher Sedimente mit Hilfe von Daten der allgemeinen, seismischen Bodenunruhe und Daten der aktiven Seismik N2 - The Earth’s shallow subsurface with sedimentary cover acts as a waveguide to any incoming wavefield. Within the framework of my thesis, I focused on the characterization of this shallow subsurface within tens to few hundreds of meters of sediment cover. I imaged the seismic 1D shear wave velocity (and possibly the 1D compressional wave velocity). This information is not only required for any seismic risk assessment, geotechnical engineering or microzonation activities, but also for exploration and global seismology where site effects are often neglected in seismic waveform modeling. First, the conventional frequency-wavenumber (f - k) technique is used to derive the dispersion characteristic of the propagating surface waves recorded using distinct arrays of seismometers in 1D and 2D configurations. Further, the cross-correlation technique is applied to seismic array data to estimate the Green’s function between receivers pairs combination assuming one is the source and the other the receiver. With the consideration of a 1D media, the estimated cross-correlation Green’s functions are sorted with interstation distance in a virtual 1D active seismic experiment. The f - k technique is then used to estimate the dispersion curves. This integrated analysis is important for the interpretation of a large bandwidth of the phase velocity dispersion curves and therefore improving the resolution of the estimated 1D Vs profile. Second, the new theoretical approach based on the Diffuse Field Assumption (DFA) is used for the interpretation of the observed microtremors H/V spectral ratio. The theory is further extended in this research work to include not only the interpretation of the H/V measured at the surface, but also the H/V measured at depths and in marine environments. A modeling and inversion of synthetic H/V spectral ratio curves on simple predefined geological structures shows an almost perfect recovery of the model parameters (mainly Vs and to a lesser extent Vp). These results are obtained after information from a receiver at depth has been considered in the inversion. Finally, the Rayleigh wave phase velocity information, estimated from array data, and the H/V(z, f) spectral ratio, estimated from a single station data, are combined and inverted for the velocity profile information. Obtained results indicate an improved depth resolution in comparison to estimations using the phase velocity dispersion curves only. The overall estimated sediment thickness is comparable to estimations obtained by inverting the full micortremor H/V spectral ratio. N2 - Oberflächennahe Sedimente wirken oft als Verstärker für einfallende seismische Wellenfelder. Im Rahmen meiner Doktorarbeit konzentriere ich mich auf die Eigenschaften des oberflächennahen Untergrundes von einigen zehn bis zu hundert Metern Sedimentabdeckung. Dabei leite ich Tiefenprofile (1D) der seismische Scherwellengeschwindigkeit (Vs) und wenn möglich auch der Kompressionswellengeschwindigkeit (Vp) aus seismischen Daten ab. Diese Informationen sind nicht nur für jede Erdbebenrisikobewertung, Geotechnik- oder Mikrozonierungsaktivität erforderlich, sondern sind auch für die seismische Erkundung und globale Seismologie von Bedeutung, da Standorteffekte in seismischen Wellenformmodellierungen oft vernachlässigt werden. Zuerst wird die herkömmliche Frequenz-Wellenzahl (f - k) Technik verwendet, um die Dispersionskurven der Phasengeschwindigkeit von Oberflächenwellen abzuleiten. Die zugrundeliegenden Daten stammen von Seismometerarrays in unterschiedlichen 1D- und 2D-Konfigurationen. In einem weiteren Schritt wird die Green’s Funktion zwischen verschiedenen Empfängerpaaren aus den Daten des seismischen Arrays geschätzt. Dabei wird die Kreuzkorrelationstechnik verwendet. In einem virtuellen 1D Experiment der aktiven Seismik werden die abgeleiteten Green’s Funktionen der Interstationsdistanz nach geordnet. Dann wird die f-k Technik verwendet um wiederum Dispersionskurven abzuleiten. Dieser integrierte Ansatz ermöglicht die Analyse einer grösseren Bandbreite für die Dispersionskurven und daher eine verbesserte Auflösung des 1D Tiefenprofils der Scherwellengeschwindigkeit (Vs). In einem zweiten Schritt wird ein neuer Ansatz, basierend auf der diffusen Wellenfeldannahme (engl., Diffuse Field Assumption, DFA), zur Interpretation beobachteter horizontal zu vertikalen Spektralamplitudenverhältnissen (H/V-Spektralverhältnisse), die aus allgemeiner Bodenunruhe abgeleited wurden,genutzt. Diese Theorie wurde im Rahmen der vorliegenden Arbeit erweitert, um nicht nur an der Oberfläche gemessene H/V- Spektralverhältnisse interpretieren zu können sondern auch Messungen in der Tiefe (Bohrloch) und in mariner Umgebung (Ozeanboden). Eine Modellierung und Inversion von synthetischen HV- Spektralverhältnissen für vordefinierte, einfache geologische Strukturen zeigt eine nahezu perfekte Identifikation/Rekonstruktion der Modellparameter (im wesentlichen Vs und in geringerem Maße Vp), wenn die zusätzliche Information von HV- Spektralverhältnissen eines Empfängers in der Tiefe bei der Inversion berücksichtigt wird. Letztlich wurden (i) Phasengeschwindigkeiten von Rayleighwellen, die aus einem Arraydatensatz geschätzt wurden, mit (ii) H/V-Spektralverhältnissen einer Einzelstation kombiniert invertiert, um Tiefen-profile seismischer Geschwindigkeiten (Vs, Vp) zu bestimmen. Die Ergebnisse deuten daraufhin, dass sich mit einer kombinierte Inversion seismische Geschwindigkeiten bis in größere Tiefen bestimmen lassen, verglichen mit der Inversion von nur Phasengeschwindigkeiten allein. Die geschätzte Gesamtmächtigkeit von Oberflächensedimenten aufgrund der kombinierten Inversion ist vergleichbar mit der, abgleitet von nur H/V-Spektralverhältnissen. KW - active seismic KW - passive seismic KW - virtual active seismic KW - dispersion curves KW - inversion KW - Vs profiles KW - inverse theory KW - interferometry KW - site effects KW - aktive Seismik KW - passive Seismik KW - virtuelle aktive Seismik KW - Dispersionskurven KW - Inversion KW - Vs Profile KW - Inversionstheorie KW - Interferometrie KW - Standorteffekte Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103807 ER - TY - THES A1 - Amour, Frédéric T1 - 3-D modeling of shallow-water carbonate systems : a scale-dependent approach based on quantitative outcrop studies T1 - 3-D Modellierung von Flachwasser-Karbonat-Sytemen : eine skalenabhängige Herangehensweise basierend auf quantitativen Aufschlussstudien N2 - The study of outcrop modeling is located at the interface between two fields of expertise, Sedimentology and Computing Geoscience, which respectively investigates and simulates geological heterogeneity observed in the sedimentary record. During the last past years, modeling tools and techniques were constantly improved. In parallel, the study of Phanerozoic carbonate deposits emphasized the common occurrence of a random facies distribution along single depositional domain. Although both fields of expertise are intrinsically linked during outcrop simulation, their respective advances have not been combined in literature to enhance carbonate modeling studies. The present study re-examines the modeling strategy adapted to the simulation of shallow-water carbonate systems, based on a close relationship between field sedimentology and modeling capabilities. In the present study, the evaluation of three commonly used algorithms Truncated Gaussian Simulation (TGSim), Sequential Indicator Simulation (SISim), and Indicator Kriging (IK), were performed for the first time using visual and quantitative comparisons on an ideally suited carbonate outcrop. The results show that the heterogeneity of carbonate rocks cannot be fully simulated using one single algorithm. The operating mode of each algorithm involves capabilities as well as drawbacks that are not capable to match all field observations carried out across the modeling area. Two end members in the spectrum of carbonate depositional settings, a low-angle Jurassic ramp (High Atlas, Morocco) and a Triassic isolated platform (Dolomites, Italy), were investigated to obtain a complete overview of the geological heterogeneity in shallow-water carbonate systems. Field sedimentology and statistical analysis performed on the type, morphology, distribution, and association of carbonate bodies and combined with palaeodepositional reconstructions, emphasize similar results. At the basin scale (x 1 km), facies association, composed of facies recording similar depositional conditions, displays linear and ordered transitions between depositional domains. Contrarily, at the bedding scale (x 0.1 km), individual lithofacies type shows a mosaic-like distribution consisting of an arrangement of spatially independent lithofacies bodies along the depositional profile. The increase of spatial disorder from the basin to bedding scale results from the influence of autocyclic factors on the transport and deposition of carbonate sediments. Scale-dependent types of carbonate heterogeneity are linked with the evaluation of algorithms in order to establish a modeling strategy that considers both the sedimentary characteristics of the outcrop and the modeling capabilities. A surface-based modeling approach was used to model depositional sequences. Facies associations were populated using TGSim to preserve ordered trends between depositional domains. At the lithofacies scale, a fully stochastic approach with SISim was applied to simulate a mosaic-like lithofacies distribution. This new workflow is designed to improve the simulation of carbonate rocks, based on the modeling of each scale of heterogeneity individually. Contrarily to simulation methods applied in literature, the present study considers that the use of one single simulation technique is unlikely to correctly model the natural patterns and variability of carbonate rocks. The implementation of different techniques customized for each level of the stratigraphic hierarchy provides the essential computing flexibility to model carbonate systems. Closer feedback between advances carried out in the field of Sedimentology and Computing Geoscience should be promoted during future outcrop simulations for the enhancement of 3-D geological models. N2 - Das Modellieren von geologischen Aufschlüssen liegt der Schnittstelle zwischen zwei geo-logischen Teildisziplinen, der Sedimentologie und der geologischen Modellierung. Hierbei werden geologische Heterogenitäten untersucht und simuliert, welche im Aufschluss beobachtet wurden. Während der letzten Jahre haben sich die Werkzeuge und die Technik der Modellierung stetig weiter-entwickelt. Parallel dazu hat die Untersuchung der phanerozoischen Karbonatablagerungen ihren Fokus auf gemeinsamen Vorkommen von zufälligen Faziesverteilungen in beiden Ablagerungs-gebieten. Obwohl beide Teildisziplinen durch die Aufschlussmodellierung eigentlich verbunden sind, wurden ihre jeweiligen Vorteile in der Literatur nicht miteinander verbunden, um so eine Verbesserung ähnlicher Studien zu erreichen. Die vorliegende Studie überprüft erneut die Modellierungsstrategie, angepasst an die Simulation von Flachwasser-Karbonat-Systemen und basierend auf einer engen Beziehung zwischen Sedimentologie und Modellierung. Die vorliegende Arbeit behandelt erstmals die Evaluierung der drei am häufigsten verwendeten Algorithmen „Truncated Gaussian Simulation (TGSim)“, „Sequential Indicator Simulation (SISim)“ und „Indicator Kriging (IK)“, um sie visuell und quantitativ mit dem entsprechenden Aufschluss zu vergleichen. Die Ergebnisse zeigen, dass die Heterogenität von Karbonatgesteinen nicht komplett mit nur einem Algorithmus simuliert werden kann. Die Eigenschaften jedes einzelnen Algorithmus beinhalten Vor- und Nachteile, sodass kein Algorithmus alle Beobachtungen aus dem Aufschluss widerspiegelt. Die zwei Endglieder im Spektrum der Ablagerungsbedingungen von Karbonaten, eine flachwinklige, jurassische Karbonat-Rampe (Hoher Atlas, Marokko) und eine isolierte, triassische Plattform (Dolomiten, Italien), wurden untersucht, um einen kompletten Überblick über die verschiedenen Heterogenitäten in Flachwasser-Karbonat- Systemen zu erhalten. Sedimentologische und statistische Analysen wurden für die verschiedenen Typen, Morphologien, Verteilungen und Assoziationen von Karbonatablagerungen durchgeführt und mit paläogeografischen Rekonstruktionen kombiniert und zeigen ähnliche Ergebnisse. Im Beckenmaßstab zeigen die Faziesassoziationen, bestehend aus Fazieszonen mit ähnlichen Ablagerungsbedingungen, einen linearen und kontinuierlichen Übergang zwischen den einzelnen Ablagerungsbereichen. Im Gegensatz dazu zeigt für einzelne Lithofaziestypen im Maßstab einzelner Schichten eine mosaikartige Verteilung, bestehend aus einer Anordnung räumlich unabhängiger Lithofazieszonen entlang des Ablagerungsprofils. Das Ansteigen der räumlichen Unordnung von der beckenweiten Ablagerung zur Ablagerung einzelner Schichten resultiert aus dem Einfluss autozyklischer Faktoren bei der Ablagerung von Karbonaten. Die Skalenabhängigkeit von Karbonat-Heterogenität ist mit der Auswertung der Algorithmen verknüpft um eine Modellierungsstrategie zu etablieren, welche sowohl die sedimentären Charakteristiken des Aufschlusses als auch die Modellierfähigkeit berücksichtigt. Für die Modellierung der Ablagerungssequenzen wurde ein flächenbasierter Ansatz verwendet. Die Faziesassoziationen wurden durch die Benutzung des TGSim-Algorithmus simuliert, um die regulären Trends zwischen den einzelnen Ablagerungsgebieten zu erhalten. Im Bereich der verschiedenen Lithofazien wurde mit dem SISim-Algorithmus, ein voll stochastischer Ansatz angewendet, um die mosaikartige Verteilung der Lithofazies-Typen zu simulieren. Dieser neue Arbeitsablauf wurde konzipiert, um die Simulierung von Karbonaten auf Basis der einzelnen Heterogenitäten in verschiedenen Größenordnungen zu verbessern. Im Gegensatz zu den in der Literatur angewendeten Simulationsmethoden berücksichtigt diese Studie, dass eine einzelne Modellierungstechnik die natürlichen Ablagerungsmuster und Variabilität von Karbonaten wahrscheinlich nicht korrekt abbildet. Die Einführung verschiedener Techniken, angepasst auf die verschiedenen Ebenen der stratigrafischen Hierarchie, liefert die notwendige Flexibilität um Karbonatsysteme korrekt zu modellieren. Eine enge Verknüpfung zwischen den Fortschritten auf dem Gebieten der Sedimentologie und dem Gebiet der modellierenden Geowissenschaften sollte weiterhin bestehen, um auch zukünftig bei der Simulation von geologischen Gelände-Aufschlüssen eine Verbesserung der 3-D-Modellierung zu erreichen. KW - Karbonat KW - 3-D Modellierung KW - Aufschluss-Modellierung KW - Quantitative Daten KW - Skala KW - Stochastischer Algorithmus KW - Carbonate KW - 3-D outcrop modeling KW - quantitative data KW - scale KW - stochastic algorithms Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66621 ER - TY - THES A1 - Holz, Christian T1 - 3D from 2D touch T1 - 3D von 2D-Berührungen N2 - While interaction with computers used to be dominated by mice and keyboards, new types of sensors now allow users to interact through touch, speech, or using their whole body in 3D space. These new interaction modalities are often referred to as "natural user interfaces" or "NUIs." While 2D NUIs have experienced major success on billions of mobile touch devices sold, 3D NUI systems have so far been unable to deliver a mobile form factor, mainly due to their use of cameras. The fact that cameras require a certain distance from the capture volume has prevented 3D NUI systems from reaching the flat form factor mobile users expect. In this dissertation, we address this issue by sensing 3D input using flat 2D sensors. The systems we present observe the input from 3D objects as 2D imprints upon physical contact. By sampling these imprints at very high resolutions, we obtain the objects' textures. In some cases, a texture uniquely identifies a biometric feature, such as the user's fingerprint. In other cases, an imprint stems from the user's clothing, such as when walking on multitouch floors. By analyzing from which part of the 3D object the 2D imprint results, we reconstruct the object's pose in 3D space. While our main contribution is a general approach to sensing 3D input on 2D sensors upon physical contact, we also demonstrate three applications of our approach. (1) We present high-accuracy touch devices that allow users to reliably touch targets that are a third of the size of those on current touch devices. We show that different users and 3D finger poses systematically affect touch sensing, which current devices perceive as random input noise. We introduce a model for touch that compensates for this systematic effect by deriving the 3D finger pose and the user's identity from each touch imprint. We then investigate this systematic effect in detail and explore how users conceptually touch targets. Our findings indicate that users aim by aligning visual features of their fingers with the target. We present a visual model for touch input that eliminates virtually all systematic effects on touch accuracy. (2) From each touch, we identify users biometrically by analyzing their fingerprints. Our prototype Fiberio integrates fingerprint scanning and a display into the same flat surface, solving a long-standing problem in human-computer interaction: secure authentication on touchscreens. Sensing 3D input and authenticating users upon touch allows Fiberio to implement a variety of applications that traditionally require the bulky setups of current 3D NUI systems. (3) To demonstrate the versatility of 3D reconstruction on larger touch surfaces, we present a high-resolution pressure-sensitive floor that resolves the texture of objects upon touch. Using the same principles as before, our system GravitySpace analyzes all imprints and identifies users based on their shoe soles, detects furniture, and enables accurate touch input using feet. By classifying all imprints, GravitySpace detects the users' body parts that are in contact with the floor and then reconstructs their 3D body poses using inverse kinematics. GravitySpace thus enables a range of applications for future 3D NUI systems based on a flat sensor, such as smart rooms in future homes. We conclude this dissertation by projecting into the future of mobile devices. Focusing on the mobility aspect of our work, we explore how NUI devices may one day augment users directly in the form of implanted devices. N2 - Die Interaktion mit Computern war in den letzten vierzig Jahren stark von Tastatur und Maus geprägt. Neue Arten von Sensoren ermöglichen Computern nun, Eingaben durch Berührungs-, Sprach- oder 3D-Gestensensoren zu erkennen. Solch neuartige Formen der Interaktion werden häufig unter dem Begriff "natürliche Benutzungsschnittstellen" bzw. "NUIs" (englisch natural user interfaces) zusammengefasst. 2D-NUIs ist vor allem auf Mobilgeräten ein Durchbruch gelungen; über eine Milliarde solcher Geräte lassen sich durch Berührungseingaben bedienen. 3D-NUIs haben sich jedoch bisher nicht auf mobilen Plattformen durchsetzen können, da sie Nutzereingaben vorrangig mit Kameras aufzeichnen. Da Kameras Bilder jedoch erst ab einem gewissen Abstand auflösen können, eignen sie sich nicht als Sensor in einer mobilen Plattform. In dieser Arbeit lösen wir dieses Problem mit Hilfe von 2D-Sensoren, von deren Eingaben wir 3D-Informationen rekonstruieren. Unsere Prototypen zeichnen dabei die 2D-Abdrücke der Objekte, die den Sensor berühren, mit hoher Auflösung auf. Aus diesen Abdrücken leiten sie dann die Textur der Objekte ab. Anhand der Stelle der Objektoberfläche, die den Sensor berührt, rekonstruieren unsere Prototypen schließlich die 3D-Ausrichtung des jeweiligen Objektes. Neben unserem Hauptbeitrag der 3D-Rekonstruktion stellen wir drei Anwendungen unserer Methode vor. (1) Wir präsentieren Geräte, die Berührungseingaben dreimal genauer als existierende Geräte messen und damit Nutzern ermöglichen, dreimal kleinere Ziele zuverlässig mit dem Finger auszuwählen. Wir zeigen dabei, dass sowohl die Haltung des Fingers als auch der Benutzer selbst einen systematischen Einfluss auf die vom Sensor gemessene Position ausübt. Da existierende Geräte weder die Haltung des Fingers noch den Benutzer erkennen, nehmen sie solche Variationen als Eingabeungenauigkeit wahr. Wir stellen ein Modell für Berührungseingabe vor, das diese beiden Faktoren integriert, um damit die gemessenen Eingabepositionen zu präzisieren. Anschließend untersuchen wir, welches mentale Modell Nutzer beim Berühren kleiner Ziele mit dem Finger anwenden. Unsere Ergebnisse deuten auf ein visuelles Modell hin, demzufolge Benutzer Merkmale auf der Oberfläche ihres Fingers an einem Ziel ausrichten. Bei der Analyse von Berührungseingaben mit diesem Modell verschwinden nahezu alle zuvor von uns beobachteten systematischen Effekte. (2) Unsere Prototypen identifizieren Nutzer anhand der biometrischen Merkmale von Fingerabdrücken. Unser Prototyp Fiberio integriert dabei einen Fingerabdruckscanner und einen Bildschirm in die selbe Oberfläche und löst somit das seit Langem bestehende Problem der sicheren Authentifizierung auf Berührungsbildschirmen. Gemeinsam mit der 3D-Rekonstruktion von Eingaben ermöglicht diese Fähigkeit Fiberio, eine Reihe von Anwendungen zu implementieren, die bisher den sperrigen Aufbau aktueller 3D-NUI-Systeme voraussetzten. (3) Um die Flexibilität unserer Methode zu zeigen, implementieren wir sie auf einem großen, berührungsempfindlichen Fußboden, der Objekttexturen bei der Eingabe ebenfalls mit hoher Auflösung aufzeichnet. Ähnlich wie zuvor analysiert unser System GravitySpace diese Abdrücke, um Nutzer anhand ihrer Schuhsolen zu identifizieren, Möbelstücke auf dem Boden zu erkennen und Nutzern präzise Eingaben mittels ihrer Schuhe zu ermöglichen. Indem GravitySpace alle Abdrücke klassifiziert, erkennt das System die Körperteile der Benutzer, die sich in Kontakt mit dem Boden befinden. Aus der Anordnung dieser Kontakte schließt GravitySpace dann auf die Körperhaltungen aller Benutzer in 3D. GravitySpace hat daher das Potenzial, Anwendungen für zukünftige 3D-NUI-Systeme auf einer flachen Oberfläche zu implementieren, wie zum Beispiel in zukünftigen intelligenten Wohnungen. Wie schließen diese Arbeit mit einem Ausblick auf zukünftige interaktive Geräte. Dabei konzentrieren wir uns auf den Mobilitätsaspekt aktueller Entwicklungen und beleuchten, wie zukünftige mobile NUI-Geräte Nutzer in Form implantierter Geräte direkt unterstützen können. KW - HCI KW - Berührungseingaben KW - Eingabegenauigkeit KW - Modell KW - Mobilgeräte KW - HCI KW - touch input KW - input accuracy KW - model KW - mobile devices Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67796 ER - TY - THES A1 - Vranic, Marija T1 - 3D Structure of the biomarker hepcidin-25 in its native state T1 - 3D-Struktur des Biomarkers Hepcidin-25 im eigenen nativen Zustand N2 - Hepcidin-25 (Hep-25) plays a crucial role in the control of iron homeostasis. Since the dysfunction of the hepcidin pathway leads to multiple diseases as a result of iron imbalance, hepcidin represents a potential target for the diagnosis and treatment of disorders of iron metabolism. Despite intense research in the last decade targeted at developing a selective immunoassay for iron disorder diagnosis and treatment and better understanding the ferroportin-hepcidin interaction, questions remain. The key to resolving these underlying questions is acquiring exact knowledge of the 3D structure of native Hep-25. Since it was determined that the N-terminus, which is responsible for the bioactivity of Hep-25, contains a small Cu(II)-binding site known as the ATCUN motif, it was assumed that the Hep-25-Cu(II) complex is the native, bioactive form of the hepcidin. This structure has thus far not been elucidated in detail. Owing to the lack of structural information on metal-bound Hep-25, little is known about its possible biological role in iron metabolism. Therefore, this work is focused on structurally characterizing the metal-bound Hep-25 by NMR spectroscopy and molecular dynamics simulations. For the present work, a protocol was developed to prepare and purify properly folded Hep-25 in high quantities. In order to overcome the low solubility of Hep-25 at neutral pH, we introduced the C-terminal DEDEDE solubility tag. The metal binding was investigated through a series of NMR spectroscopic experiments to identify the most affected amino acids that mediate metal coordination. Based on the obtained NMR data, a structural calculation was performed in order to generate a model structure of the Hep-25-Ni(II) complex. The DEDEDE tag was excluded from the structural calculation due to a lack of NMR restraints. The dynamic nature and fast exchange of some of the amide protons with solvent reduced the overall number of NMR restraints needed for a high-quality structure. The NMR data revealed that the 20 Cterminal Hep-25 amino acids experienced no significant conformational changes, compared to published results, as a result of a pH change from pH 3 to pH 7 and metal binding. A 3D model of the Hep-25-Ni(II) complex was constructed from NMR data recorded for the hexapeptideNi(II) complex and Hep-25-DEDEDE-Ni(II) complex in combination with the fixed conformation of 19 C-terminal amino acids. The NMR data of the Hep-25-DEDEDE-Ni(II) complex indicates that the ATCUN motif moves independently from the rest of the structure. The 3D model structure of the metal-bound Hep-25 allows for future works to elucidate hepcidin’s interaction with its receptor ferroportin and should serve as a starting point for the development of antibodies with improved selectivity. N2 - Hepcidin-25 (Hep-25) spielt eine entscheidende Rolle bei der Kontrolle der Eisenhomöostase. Da die Dysfunktion des Hepcidin-Signalweges aufgrund des Eisenungleichgewichts zu mehreren Krankheiten führt, stellt Hepcidin ein potenzielles Ziel für die Diagnose und Behandlung von Störungen des Eisenstoffwechsels dar. Trotz intensiver Forschung in den letzten zehn Jahren, die darauf abzielte, einen selektiven Immunoassay für die Diagnose und Behandlung von Eisenerkrankungen zu entwickeln und die Ferroportin-Hepcidin-Interaktion besser zu verstehen, bleiben Fragen offen. Der Schlüssel zur Lösung dieser grundlegenden Fragen liegt darin, genaue Kenntnisse über die 3D-Struktur des nativen Hep-25 zu erlangen. Da festgestellt wurde, dass der N-Terminus, der für die Bioaktivität von Hep-25 verantwortlich ist, eine kleine Cu(II)-Bindungsstelle enthält, die als ATCUN-Motiv bekannt ist, wurde angenommen, dass der Hep-25- Cu(II)-Komplex die native, bioaktive Form des Hepcidins ist. Diese Struktur ist bisher noch nicht im Detail untersucht worden. Aufgrund fehlender Strukturinformationen über metallgebundenes Hep-25 ist wenig über seine mögliche biologische Rolle im Eisenstoffwechsel bekannt. Daher konzentriert sich diese Arbeit auf die strukturelle Charakterisierung des metallgebundenen Hep-25 mittels NMR-Spektroskopie und Molekulardynamik Simulationen. In der vorliegenden Arbeit wurde ein Protokoll zur Präparation und Reinigung von korrekt gefaltetem Hep-25 in hohen Mengen entwickelt. Um das Problem der geringen Löslichkeit von Hep-25 bei neutralem pH-Wert zu überwinden, haben wir einen C-terminalen DEDEDEDE Löslichkeits-Tag eingeführt. Die Metallbindung wurde durch eine Reihe von NMRspektroskopischen Experimenten untersucht, um die Aminosäuren zu identifizieren, welche an der Metallkoordination beteiligt sind. Basierend auf den erhaltenen NMR-Daten wurde eine Strukturberechnung durchgeführt, um eine Modellstruktur des Hep-25-Ni(II)-Komplexes zu erzeugen. Der DEDEDE-Tag wurde aufgrund fehlender NMR- restraints von der Strukturberechnung ausgeschlossen. Die dynamische Natur und der schnelle Austausch eines Teils der Amid-Protonen mit dem Lösungsmittel reduzierten die Gesamtzahl der NMR- restraints, die für eine hochwertige Struktur erforderlich waren. Die NMR-Daten zeigten, dass die 20 C-terminalen Hep-25-Aminosäuren keine signifikanten Konformationsänderungen als Folge eines pH-Wechsels von pH 3 auf pH 7 und einer Metallbindung erfuhren. Ein 3D-Modell des Hep-25-Ni(II)-Komplexes wurde aus den NMR-Daten des Hexapeptid-Ni(II)-Komplexes und des Hep-25-DEDEDE-Ni(II)-Komplexes in Kombination mit der bekannten Konformation der 19 C-terminalen Aminosäuren erstellt. Die NMR-Daten des Hep-25-DEDEDE-Ni(II)Komplexes zeigen, dass sich das Ni-ATCUN-Motiv unabhängig vom C-Terminus bewegt. Die 3D-Modellstruktur des metallgebundenen Hep-25 ermöglicht es, in Zukunft die Interaktion von Hepcidin mit seinem Rezeptor Ferroportin zu untersuchen und soll als Ausgangspunkt für die Entwicklung von Antikörpern mit verbesserter Selektivität dienen. KW - iron KW - hepcidin KW - peptide KW - metal KW - binding KW - NMR KW - Eisen KW - Hepcidin KW - Peptid KW - Metall KW - Bindung KW - NMR Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459295 ER - TY - THES A1 - Schmoll, Jürgen T1 - 3D-Spektrofotometrie extragalaktischer Emissionslinienobjekte N2 - Populärwissenschaftlicher Abstract: Bislang gibt es in der beobachtenden optischen Astronomie zwei verschiedene Herangehensweisen: Einerseits werden Objekte durch Kameras abbildend erfaßt, andererseits werden durch die wellenlängenabhängige Zerlegung ihres Lichtes Spektren gewonnen. Das Integral - Field - Verfahren ist eine relativ neue Technik, welche die genannten Beobachtungsmethoden vereint. Das Objektbild im Teleskopfokus wird in räumlich zerlegt und jedes Ortselement einem gemeinsamen Spektrografen zugeführt. Hierdurch wird das Objekt nicht nur zweidimensional räumlich erfaßt, sondern zusätzlich die spektrale Kompenente als dritte Dimension erhalten, weswegen das Verfahren auch als 3D-Methode bezeichnet wird. Anschaulich kann man sich das Datenresultat als eine Abbildung vorstellen, in der jeder einzelne Bildpunkt nicht mehr nur einen Intensitätswert enthält, sondern gleich ein ganzes Spektrum. Diese Technik ermöglicht es, ausgedehnte Objekte im Unterschied zu gängigen Spaltspektrografen komplett zu erfassen. Die besondere Stärke der Methode ist die Möglichkeit, die Hintergrundkontamination der unmittelbaren Umgebung des Objektes zu erfassen und in der Auswertung zu berücksichtigen. Durch diese Fähigkeit erscheint die 3D-Methode prädestiniert für den durch moderne Großteleskope erschlossenen Bereich der extragalaktischen Stellarastronomie. Die detaillierte Untersuchung aufgelöster stellare Populationen in nahegelegenen Galaxien ist erst seit kurzer Zeit dank der Fortschritte mit modernen Grossteleskopen und fortschrittlicher Instrumentierung möglich geworden. Wegen der Bedeutung für die Entstehung und Evolution von Galaxien werden diese Arbeiten zukünftig weiter an Bedeutung gewinnen. In der vorliegenden Arbeit wurde die Integral-Field-Spektroskopie an zwei planetarischen Nebeln in der nächstgelegenen großen Spiralgalaxie M31 (NGC 224) getestet, deren Helligkeiten und Koordinaten aus einer Durchmusterung vorlagen. Hierzu wurden Beobachtungen mit dem MPFS-Instrument am russischen 6m - Teleskop in Selentschuk/Kaukasus sowie mit INTEGRAL/WYFFOS am englischen William-Herschel-Teleskop auf La Palma gewonnen. Ein überraschendes Ergebnis war, daß eins der beiden Objekte falsch klassifiziert wurde. Sowohl die meßbare räumliche Ausdehnung des Objektes als auch das spektrale Erscheinungsbild schlossen die Identität mit einem planetarischen Nebel aus. Mit hoher Wahrscheinlichkeit handelt es sich um einen Supernovaüberrest, zumal im Rahmen der Fehler an gleicher Stelle eine vom Röntgensatelliten ROSAT detektierte Röntgenquelle liegt. Die in diesem Projekt verwendeten Integral-Field-Instrumente wiesen zwei verschiedene Bauweisen auf, die sich miteinander vergleichen ließen. Ein Hauptkritikpunkt der verwendeten Instrumente war ihre geringe Lichtausbeute. Die gesammelten Erfahrung fanden Eingang in das Konzept des derzeit in Potsdam in der Fertigung befindlichen 3D-Instruments PMAS (Potsdamer Multi - Apertur - Spektrophotometer), welcher zunächst für das 3.5m-Teleskop des Calar - Alto - Observatoriums in Südspanien vorgesehen ist. Um die Effizienz dieses Instrumentes zu verbessern, wurde in dieser Arbeit die Kopplung der zum Bildrasterung verwendeten Optik zu den Lichtleitfasern im Labor untersucht. Die Untersuchungen zur Maximierung von Lichtausbeute und Stabilität zeigen, daß sich die Effizienz durch Auswahl einer geeigneten Koppelmethode um etwa 20 Prozent steigern lässt. N2 - Popular scientific abstract: Currently there are two different approaches in the observational optical astronomy: On the first hand objects are imaged with cameras, on the other hand spectra are produced. The integral-field-technique is a relatively new way to combine both branches. The object image in the telecopes focus is sampled spatially and each spatial bin assigned to a spectrograph. Hence the object is not only sampled spatially but the spectral component is achieved as a third dimension, so the name 3D-Method. The result is like an image but each point consists of a whole spectrum. The use of this technique is to sample objects completely in contrast to standard slit spectroscopy. The strength of this method is to deal with high background light contamination. So the 3D method looks convincing for the new branch of extragalactic stellar astronomy with modern large telescopes. The detailled investigation of spatially resolved extragalactic populations in nearby galaxies is a rather new topic demanding newest telescopes and instrumentation. These investigations are very important in future to understand the origin and evolution of galaxies. In this thesis the Integral-Field-Spectroscopy was tested for two planetary nebulae in the Andromeda galaxy M31. Observations have been made using the MPFS on the Russian 6m telescope and the INTEGRAL/WYFFOS setup on the 4.2m WHT on La Palma. A surprising result was that one of the two objects was wrongly identified as a planetary nebula. The spatial extension and spectral details excluded this object class. With high probability this object is a supernova remnant. The integral-field-instruments used in this thesis had different technical layouts, which were to compare to each other. The main critics is the poor efficiency of both devices. The experience made was utilized to optimize the concept of the recently developed 3D-instrument PMAS (Potsdam Multi- Aperture Spectrophotometer). PMAS will be used for the 3.5 m telescope at the Calar Alto observatory. To improve efficiency, the coupling of the optical fibers used to sample the object and guide the light into the spectrograph was optimized in the laboratory. This investigations showed that an increase of the coupling efficiency by about 20 percent is possible by using immersion coupling between fibers and lenses. KW - Ortsauflösende Spektrofotometrie KW - extragalaktische Stellarastronomie KW - Integral field spectroscopy KW - extragalactic stellar astronomy Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000372 ER - TY - THES A1 - Engelhardt, Jonathan T1 - 40Ar/39Ar geochronology of ICDP PALEOVAN drilling cores T1 - 40Ar/39Ar Geochronologie der ICDP PALEOVAN Bohrkerne N2 - The scientific drilling campaign PALEOVAN was conducted in the summer of 2010 and was part of the international continental drilling programme (ICDP). The main goal of the campaign was the recovery of a sensitive climate archive in the East of Anatolia. Lacustrine deposits underneath the lake floor of ‘Lake Van’ constitute this archive. The drilled core material was recovered from two locations: the Ahlat Ridge and the Northern Basin. A composite core was constructed from cored material of seven parallel boreholes at the Ahlat Ridge and covers an almost complete lacustrine history of Lake Van. The composite record offered sensitive climate proxies such as variations of total organic carbon, K/Ca ratios, or a relative abundance of arboreal pollen. These proxies revealed patterns that are similar to climate proxy variations from Greenland ice cores. Climate variations in Greenland ice cores have been dated by modelling the timing of orbital forces to affect the climate. Volatiles from melted ice aliquots are often taken as high-resolution proxies and provide a base for fitting the according temporal models. The ICDP PALEOVAN scientific team fitted proxy data from the lacustrine drilling record to ice core data and constructed an age model. Embedded volcaniclastic layers had to be dated radiometrically in order to provide independent age constraints to the climate-stratigraphic age model. Solving this task by an application of the 40Ar/39Ar method was the main objective of this thesis. Earlier efforts to apply the 40Ar/39Ar dating resulted in inaccuracies that could not be explained satisfactorily. The absence of K-rich feldspars in suitable tephra layers implied that feldspar crystals needed to be 500 μm in size minimum, in order to apply single-crystal 40Ar/39Ar dating. Some of the samples did not contain any of these grain sizes or only very few crystals of that size. In order to overcome this problem this study applied a combined single-crystal and multi-crystal approach with different crystal fractions from the same sample. The preferred method of a stepwise heating analysis of an aliquot of feldspar crystals has been applied to three samples. The Na-rich crystals and their young geological age required 20 mg of inclusion-free, non-corroded feldspars. Small sample volumes (usually 25 % aliquots of 5 cm3 of sample material – a spoon full of tephra) and the widespread presence of melt-inclusion led to the application of combined single- and multigrain total fusion analyses. 40Ar/39Ar analyses on single crystals have the advantage of being able to monitor the presence of excess 40Ar and detrital or xenocrystic contamination in the samples. Multigrain analyses may hide the effects from these obstacles. The results from the multigrain analyses are therefore discussed with respect to the findings from the respective cogenetic single crystal ages. Some of the samples in this study were dated by 40Ar/39Ar on feldspars on multigrain separates and (if available) in combination with only a few single crystals. 40Ar/39Ar ages from two of the samples deviated statistically from the age model. All other samples resulted in identical ages. The deviations displayed older ages than those obtained from the age model. t-Tests compared radiometric ages with available age control points from various proxies and from the relative paleointensity of the earth magnetic field within a stratigraphic range of ± 10 m. Concordant age control points from different relative chronometers indicated that deviations are a result of erroneous 40Ar/39Ar ages. The thesis argues two potential reasons for these ages: (1) the irregular appearance of 40Ar from rare melt- and fluid- inclusions and (2) the contamination of the samples with older crystals due to a rapid combination of assimilation and ejection. Another aliquot of feldspar crystals that underwent separation for the application of 40Ar/39Ar dating was investigated for geochemical inhomogeneities. Magmatic zoning is ubiquitous in the volcaniclastic feldspar crystals. Four different types of magmatic zoning were detected. The zoning types are compositional zoning (C-type zoning), pseudo-oscillatory zoning of trace ele- ment concentrations (PO-type zoning), chaotic and patchy zoning of major and trace element concentrations (R-type zoning) and concentric zoning of trace elements (CC-type zoning). Sam- ples that deviated in 40Ar/39Ar ages showed C-type zoning, R-type zoning or a mix of different types of zoning (C-type and PO-type). Feldspars showing PO-type zoning typically represent the smallest grain size fractions in the samples. The constant major element compositions of these crystals are interpreted to represent the latest stages in the compositional evolution of feldspars in a peralkaline melt. PO-type crystals contain less melt- inclusions than other zoning types and are rarely corroded. This thesis concludes that feldspars that show PO-type zoning are most promising chronometers for the 40Ar/39Ar method, if samples provide mixed zoning types of Quaternary anorthoclase feldspars. Five samples were dated by applying the 40Ar/39Ar method to volcanic glass. High fractions of atmospheric Ar (typically > 98%) significantly hampered the precision of the 40Ar/39Ar ages and resulted in rough age estimates that widely overlap the age model. Ar isotopes indicated that the glasses bore a chorine-rich Ar-end member. The chlorine-derived 38Ar indicated chlorine-rich fluid-inclusions or the hydration of the volcanic glass shards. This indication strengthened the evidence that irregularly distributed melt-inclusions and thus irregular distributed excess 40Ar influenced the problematic feldspar 40Ar/39Ar ages. Whether a connection between a corrected initial 40Ar/36Ar ratio from glasses to the 40Ar/36Ar ratios from pore waters exists remains unclear. This thesis offers another age model, which is similarly based on the interpolation of the temporal tie points from geophysical and climate-stratigraphic data. The model used a PCHIP- interpolation (piecewise cubic hermite interpolating polynomial) whereas the older age model used a spline-interpolation. Samples that match in ages from 40Ar/39Ar dating of feldspars with the earlier published age model were additionally assigned with an age from the PCHIP- interpolation. These modelled ages allowed a recalculation of the Alder Creek sanidine mineral standard. The climate-stratigraphic calibration of an 40Ar/39Ar mineral standard proved that the age versus depth interpolations from PAELOVAN drilling cores were accurate, and that the applied chronometers recorded the temporal evolution of Lake Van synchronously. Petrochemical discrimination of the sampled volcaniclastic material is also given in this thesis. 41 from 57 sampled volcaniclastic layers indicate Nemrut as their provenance. Criteria that served for the provenance assignment are provided and reviewed critically. Detailed correlations of selected PALEOVAN volcaniclastics to onshore samples that were described in detail by earlier studies are also discussed. The sampled volcaniclastics dominantly have a thickness of < 40 cm and have been ejected by small to medium sized eruptions. Onshore deposits from these types of eruptions are potentially eroded due to predominant strong winds on Nemrut and Süphan slopes. An exact correlation with the data presented here is therefore equivocal or not possible at all. Deviating feldspar 40Ar/39Ar ages can possibly be explained by inherited 40Ar from feldspar xenocrysts contaminating the samples. In order to test this hypothesis diffusion couples of Ba were investigated in compositionally zoned feldspar crystals. The diffusive behaviour of Ba in feldspar is known, and gradients in the changing concentrations allowed for the calculation of the duration of the crystal’s magmatic development since the formation of the zoning interface. Durations were compared with degassing scenarios that model the Ar-loss during assimilation and subsequent ejection of the xenocrystals. Diffusive equilibration of the contrasting Ba concentrations is assumed to generate maximum durations as the gradient could have been developed in several growth and heating stages. The modelling does not show any indication of an involvement of inherited 40Ar in any of the deviating samples. However, the analytical set-up represents the lower limit of the required spatial resolution. Therefore, it cannot be excluded that the degassing modelling relies on a significant overestimation of the maximum duration of the magmatic history. Nevertheless, the modelling of xenocrystal degassing evidences that the irregular incorporation of excess 40Ar by melt- and fluid inclusions represents the most critical problem that needs to be overcome in dating volcaniclastic feldspars from the PALEOVAN drill cores. This thesis provides the complete background in generating and presenting 40Ar/39Ar ages that are compared to age data from a climate-stratigraphic model. Deviations are identified statistically and then discussed in order to find explanations from the age model and/or from 40Ar/39Ar geochronology. Most of the PALEOVAN stratigraphy provides several chronometers that have been proven for their synchronicity. Lacustrine deposits from Lake Van represent a key archive for reconstructing climate evolution in the eastern Mediterranean and in the Near East. The PALEOVAN record offers a climate-stratigraphic age model with a remarkable accuracy and resolution. N2 - Die PALEOVAN−Bohrkampagne des internationalen kontinentalen Bohrprogramms ICDP wurde im Sommer 2010 realisiert. Das übergeordnete Ziel dieser Kampagne war die Entnahme eines Klimaarchivs im Osten Anatoliens. Als Archiv dienen Süßwasserablagerungen am Grund des Vansees. PALEOVAN Bohrkerne bieten lakustrine Ablagerungen von zwei Lokalitäten des Sees, und zwar der Ahlat Ridge und des Northern Basins. Durch das Zusammenstellen bestmöglicher Bohrkernbestände aus sieben parallelen Bohrungen auf der Ahlat Ridge, konnte die nahezu vollständige Aufzeichnung der Geschichte des Sees gewonnen werden. Dieses detaillierte Archiv zeichnete sensible Klimafaktoren auf. Als Beispiele sind zu nennen: die Variationen organischen Kohlenstoffs, das Verhältnis von Kalium zu Kalzium und die Anteile arborealer Pollen gegenüber dem Gesamtpollenbestand. Stellvertreterdaten für Klimavariationen (sogenannte Proxies) ähneln in ihrem Muster sehr stark den bekannten Klimavariationen aus Eisbohrkernen des Grönlandeises. Da das Timing der Klimavariationen in den Grönlandeiskernen durch Datierungen mithilfe im Eis gespeicherter Gasphasen und orbitaler Modellberechnungen sehr genau bekannt ist, konnten Sedimentolog*innen des PALEOVAN−Teams ein klimastratigraphisches Altersmodell aus den Proxies berechnen. Die Kernaufgabe der hier vorgelegten Dissertation ist es, eingelagerte pyroklastische Ablagerungen mithilfe der 40Ar/39Ar−Methode zu datieren und das Altersmodell zu diskutieren. Die Notwendigkeit der 40Ar/39Ar−Datierungen war besonders gegeben, da vorab publizierte radiometrische Datierungen von ICDP−PALEOVAN Bohrkernen statistisch nicht ausreichend beschrieben wurden und vorhandene Abweichungen gegenüber dem Altersmodell undiskutiert blieben. An der westlichen und nördlichen Küste des Sees befinden sich zwei Stratovulkane: Nemrut und Süphan. Beide Vulkane haben über die Dauer der kompletten Seegeschichte pyroklastisches Material im See abgelagert. Feldspäte und vulkanische Gläser aus rhyolitischen und trachytischen Auswurfprodukten wurden auf ihre Zusammensetzung untersucht und es wurde ihre Eignung für eine Anwendung der 40Ar/39Ar−Geochronologie festgestellt. Die Abwesenheit hoher Kaliumkonzentrationen in Feldspäten aus geeigneten pyroklastischen Lagen bedeutet, dass Kristalle eine Mindestgröße von ca. 500 Mikrometer benötigen, um Analysen an einzelnen Kristallen durchführen zu können. Nicht alle Proben liefern ausreichend Kristalle dieser groben Korngröße. Somit wurde eine Methode gewählt, die Mehrkorn und Einzelkornanalysen miteinander kombiniert. Die bevorzugte Methode des schrittweisen Ausheizens war nur mit drei Proben möglich. Grund dafür ist, dass der geringe Kaliumgehalt und das junge geologische Alter große Mengen (ca. 20 mg) einschluss− und korrosionsfreier Feldspäte benötigten. Die geringen Probenmengen (25% Aliquot von üblicherweise 5 cm3 Probenmaterial) und die Omnipräsenz von Schmelzeinschlüssen in den Feldspäten legten nahe, auf die Methodik des schlagartigen Ausheizens von Einzel− und Mehrkornproben zu setzen. 40Ar/39Ar−Datierungen an einzelnen Feldspäten haben den Vorteil, dass sich ein vorhandener Überschuss von 40Ar oder Kontaminationen detritischer Körner leicht feststellen lassen und in der Altersberechnung berücksichtigt werden können. Mehrkornanalysen zeigen diese Hürden nur bei intensiver Kontamination und bergen die Gefahr, radiometrische Alter zu bestimmen, die von dem tatsächlichen geologischen Alter abweichen, weil sie zu alt sind. 40Ar/39Ar−Datierungen in dieser Dissertation wurden deshalb für die meisten Proben mithilfe von Mehrkornanalysen und (wenn vorhanden) in Kombination mit wenigen Einzelkornanalysen durchgeführt. Bis auf die Resultate zweier Proben sind die radiometrischen Alter der Feldspäte statistisch gesehen identisch zu den Altersabschätzungen des klimastratigraphischen Altersmodells. Abweichungen zeigen ausschließlich ältere radiometrische Alter einzelner Kornfraktionen. Die beiden abweichenden Proben sind ebenfalls älter als das Altersmodell. Eine statistische Auswertung mittels t−Tests beweist die Abweichungen der radiometrischen von den klimastratigraphischen Altersdaten. Das Altersmodell wurde mit jedem der radiometrischen Alter innerhalb eines stratigraphischen Einzugsbereichs von ± 10 Metern verglichen. Die Konkordanz der Altershinweise aus unterschiedlichen Klimaproxies und aus geophysikalischen Altershinweisen (durch das Identifizieren zeitlich bekannter Variationen des Erdmagnetfelds) legen nahe, dass beiden Abweichungen fehlerhafte 40 Ar/39 Ar−Datierungen zugrunde liegen. Zwei mögliche Ursachen werden in Betracht gezogen: (1) unregelmäßiges beziehungsweise vereinzeltes Auftreten von überschüssigem 40Ar im Zusammenhang mit Schmelz− und Fluideinschlüssen oder (2) Kontamination der Probe mit älteren, xenokristischen Feldspäten durch eine zügige (im Zeitraum von Tagen) Kombination von magmatischer Assimilation und Auswurf des Materials. Ebenfalls nicht auszuschließen ist eine detritische Kontamination. Die normalverteilten 40Ar/39Ar−Werte der Proben sind allerdings untypisch für eine detritische Kontamination. Je ein Aliquot der selektierten Kristallfraktionen wurde intensiv auf vorhandene Zonierungen untersucht. Alle untersuchten Feldspatproben zeigen Elementzonierungen, die sich einteilen lassen. Die Zonierungen sind entweder kompositionelle Zonierungen der Hauptzusammensetzung („C-type – compositional type“), pseudo-oszillatorische Zonierungen gewisser Spurenelementkonzentrationen („PO-type“), konzentrische Zonierungen von Spurenelementkonzentrationen („CC-type – concentric type“) und chaotisch-fleckige Zonierungsmuster („R-type – resorbed and patchy“). Proben, deren 40Ar/39Ar−Alter abweichen, zeigen Zonierungen in ihrer Hauptzusammensetzung (C-type), fleckige Zonierungen (R-type) oder zeigen eine Mischung aus unterschiedlichen Zonierungstypen (C-type und PO-type). Feldspäte, die ausschließlich eine Zonierung ihrer Spurenelmente (PO-type) zeigen, liegen typischerweise in kleineren Korngrößen vor und markieren Zusammensetzungen, die typisch sind für die spätesten Phasen der magmatischen Entwicklung von Feldspäten in peralkalinen Gesteinen. Diese Kristalle sind in der Regel arm an Schmelzeinschlüssen und nur selten korrodiert. Die vorliegende Arbeit weist Feldspäte, die keine Zonierung in ihrer Hauptzusammensetzung, sondern nur pseudo-oszillatorische Spurenelementvariationen aufzeigen, als ideale Chronometer für die Anwendung der 40Ar/39Ar−Methode an Quartären, kaliumarmen Feldspäten aus. Um Abweichende Proben erneut zu analysieren und um stratigraphische Abschnitte zu datieren, die nicht erfolgreich beprobt werden konnten, wurden fünf Proben datiert, indem die 40Ar/39Ar−Methode auf vulkanisches Glas angewendet wurde. Hohe Gehalte an atmosphärischem Argon (in der Regel > 98 %) führten allerdings zu ungenauen radiometrischen Altersbestimmungen, die aufgrund ihrer großen Fehler keine Abweichungen vom Altersmodell zeigen. Die Gläser zeigen Hinweise darauf, dass Variationen in den Altern der Feldspäte auf die Gegenwart eines Ar-Reservoirs in Schmelzeinschlüssen zurückzuführen sein könnte, das weder radiogen noch atmosphärisch ist. Ob eine Verknüpfung der Ar-Isotopien in vulkanischen Gläsern und in Porenwässern gegeben ist, bleibt offen. Instrumentelle und methodische Hürden lassen nur eine Vermutung zu, dass Porenwässer und vulkanische Gläser in ihren Ar-Isotopendaten eine Verknüpfung zeigen könnten. Ein neues Alterstiefenmodell, das ebenfalls auf der Interpolation von Altershinweisen durch Klimaproxies und geophysikalischer Daten basiert wird in dieser Arbeit ebenfalls vorgelegt. Im Gegensatz zu bestehenden „Spline“-Interpolationen wurde in dieser Dissertation eine PCHIP- Interpolation bevorzugt. Abgesehen von abweichenden Proben wurden allen Proben, die mithilfe der 40Ar/39Ar−Methode an Feldspäten datiert sind, zusätzlich ein klimastratigraphisches Modellalter zugewiesen. Diese Modellalter bieten die Grundlage dafür, das Alter des in der Datierung benutzten Mineralstandards (Alder Creek Sanidine) nachrechnen zu können. Die erfolgreiche klimastratigraphische Kalibrierung des Standards beweist, dass Alterstiefenmodelle aus den PALEOVAN-Bohrkernen genau sind, und dass alle verwendeten Chronometer innerhalb der angezeigten Varianzen ein synchrones Timing zulassen. Die Dissertation bietet petrochemische Charakterisierungen der entnommenen Proben an und diskutiert nachvollziehbar mögliche Provenanzen der Pyroklastite. 41 von 57 entnommenen Proben lassen sich Nemrut zuordnen. Kriterien, die für eine Zuordnung herangezogen wurden, werden aufgezeigt und diskutiert. Eine mögliche Korrelation der datierten Proben zu pyroklastischen Einheiten, die in der Literatur an den Hängen der Stratovulkane im Detail beschrieben wurden, wird ebenfalls diskutiert. Die beprobten pyroklasitischen Lagen haben geringe Mächtigkeiten (in der Regel < 40 cm) und liegen mittleren bis kleineren Eruptionen zugrunde. Diese Eruptionen hinterlassen keine oder nur schwer definierbare pyroklastische Einheiten von geringer Mächtigkeit an Land. Eine genaue Korrelation ist mit den hier präsentierten Daten deshalb nicht oder nur sehr vage möglich. Abweichende radiometrische Alter aus Datierungen von Feldspat könnten im Zusammenhang mit vererbtem 40Ar aus Xenokristallen stehen. Um diese Hypothese zu testen, wurden diffusionsabhängige Konzentrationsschwankungen von Barium in zonierten Feldspäten untersucht. Da das diffusive Verhalten von Barium in Feldspat bekannt ist, kann durch die Analyse des Konzentrationsgradienten die Dauer der magmatischen Entwicklung ab der Bildung der untersuchten Zonierung berechnet werden. Diese Zeitspanne wurde genutzt, um zu modellieren, ob Xenokristalle während einer unvollständigen Assimilation komplett entgast werden. Dafür wurde angenommen, dass das diffusive Angleichen von unterschiedlichen Bariumkonzentrationen maximale Werte für die Dauer von der Assimilation bis zum Auswurf liefert. Die Modellierung zeigt, dass vererbtes 40Ar aus Xenokristallen keinen Anteil an den abweichenden Altern haben. Allerdings sind die erhobenen Diffusionsgradienten am Rande der benötigten analytischen Auflösung, und eine Überschätzung der Dauer der magmatischen Prozesse kann nicht ausgeschlossen werden. Die Diffusionsprofile sind ein weiterer Hinweis dafür, dass unregelmäßige beziehungsweise vereinzelte Quellen von überschüssigem 40Ar die schwierigste Hürde für 40Ar/39Ar−Datierungen an ICDP-PALEOVAN Bohrkernen darstellen. Die vorgelegte Arbeit bietet nicht nur 40Ar/39Ar−Datierungen, um das vorhandene Altersmodell kritisch zu diskutieren, sondern zeigt, wie Abweichungen statistisch zu erfassen sind, welche mineralogischen Beobachtungen in die Interpretation abweichender radiometrischer Alter miteinbezogen werden sollten und wie die Synchronizität verschiedener Chronometer getestet werden kann. Die Korrektheit des klima-stratigraphischen Timings der PALEOVAN Kerne ist mit dieser Arbeit nachgewiesen. Vergleiche der Proxydaten zu anderen Klimaarchiven deren Auflösung sogar höher als die der Milankovitchzyklen ist (die Auflösung der Dnsgaard-Oeschger Ereignisse), existieren für viele Kerne des PALEOVAN-Archivs. Die Kerne aus dem PALEOVAN Projekt repräsentieren damit ein Schlüsselarchiv für die Rekonstruktion des Klimas im Nahen Osten. Dieses Archiv bietet ein klima-stratigraphisches Altersmodell von bemerkenswerter Genauigkeit und Auflösung. KW - Lake Van KW - feldspar KW - lacustrine record KW - volcaniclastics KW - 40Ar/39Ar KW - Vansee KW - Feldspat KW - lakustrine Abfolge KW - Vulkaniklastika KW - 40Ar/39Ar Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429539 ER - TY - THES A1 - Swierczynski, Tina T1 - A 7000 yr runoff chronology from varved sediments of Lake Mondsee (Upper Austria) T1 - Eine 7000-jährige Abflusschronologie anhand von warvierten Sedimenten des Mondsees (Oberösterreich) N2 - The potential increase in frequency and magnitude of extreme floods is currently discussed in terms of global warming and the intensification of the hydrological cycle. The profound knowledge of past natural variability of floods is of utmost importance in order to assess flood risk for the future. Since instrumental flood series cover only the last ~150 years, other approaches to reconstruct historical and pre-historical flood events are needed. Annually laminated (varved) lake sediments are meaningful natural geoarchives because they provide continuous records of environmental changes > 10000 years down to a seasonal resolution. Since lake basins additionally act as natural sediment traps, the riverine sediment supply, which is preserved as detrital event layers in the lake sediments, can be used as a proxy for extreme discharge events. Within my thesis I examined a ~ 8.50 m long sedimentary record from the pre-Alpine Lake Mondsee (Northeast European Alps), which covered the last 7000 years. This sediment record consists of calcite varves and intercalated detrital layers, which range in thickness from 0.05 to 32 mm. Detrital layer deposition was analysed by a combined method of microfacies analysis via thin sections, Scanning Electron Microscopy (SEM), μX-ray fluorescence (μXRF) scanning and magnetic susceptibility. This approach allows characterizing individual detrital event layers and assigning a corresponding input mechanism and catchment. Based on varve counting and controlled by 14C age dates, the main goals of this thesis are (i) to identify seasonal runoff processes, which lead to significant sediment supply from the catchment into the lake basin and (ii) to investigate flood frequency under changing climate boundary conditions. This thesis follows a line of different time slices, presenting an integrative approach linking instrumental and historical flood data from Lake Mondsee in order to evaluate the flood record inferred from Lake Mondsee sediments. The investigation of eleven short cores covering the last 100 years reveals the abundance of 12 detrital layers. Therein, two types of detrital layers are distinguished by grain size, geochemical composition and distribution pattern within the lake basin. Detrital layers, which are enriched in siliciclastic and dolomitic material, reveal sediment supply from the Flysch sediments and Northern Calcareous Alps into the lake basin. These layers are thicker in the northern lake basin (0.1-3.9 mm) and thinner in the southern lake basin (0.05-1.6 mm). Detrital layers, which are enriched in dolomitic components forming graded detrital layers (turbidites), indicate the provenance from the Northern Calcareous Alps. These layers are generally thicker (0.65-32 mm) and are solely recorded within the southern lake basin. In comparison with instrumental data, thicker graded layers result from local debris flow events in summer, whereas thin layers are deposited during regional flood events in spring/summer. Extreme summer floods as reported from flood layer deposition are principally caused by cyclonic activity from the Mediterranean Sea, e.g. July 1954, July 1997 and August 2002. During the last two millennia, Lake Mondsee sediments reveal two significant flood intervals with decadal-scale flood episodes, during the Dark Ages Cold Period (DACP) and the transition from the Medieval Climate Anomaly (MCA) into the Little Ice Age (LIA) suggesting a linkage of transition to climate cooling and summer flood recurrences in the Northeastern Alps. In contrast, intermediate or decreased flood episodes appeared during the MWP and the LIA. This indicates a non-straightforward relationship between temperature and flood recurrence, suggesting higher cyclonic activity during climate transition in the Northeast Alps. The 7000-year flood chronology reveals 47 debris flows and 269 floods, with increased flood activity shifting around 3500 and 1500 varve yr BP (varve yr BP = varve years before present, before present = AD 1950). This significant increase in flood activity shows a coincidence with millennial-scale climate cooling that is reported from main Alpine glacier advances and lower tree lines in the European Alps since about 3300 cal. yr BP (calibrated years before present). Despite relatively low flood occurrence prior to 1500 varve yr BP, floods at Lake Mondsee could have also influenced human life in early Neolithic lake dwellings (5750-4750 cal. yr BP). While the first lake dwellings were constructed on wetlands, the later lake dwellings were built on piles in the water suggesting an early flood risk adaptation of humans and/or a general change of the Late Neolithic Culture of lake-dwellers because of socio-economic reasons. However, a direct relationship between the final abandonment of the lake dwellings and higher flood frequencies is not evidenced. N2 - Ein verstärktes Auftreten von Hochwassern, sowohl in ihrer Häufigkeit als auch in ihrer Frequenz, wird im Zuge der Klimaerwärmung und einer möglichen Intensivierung des hydrologischen Kreislaufs diskutiert. Die Kenntnis über die natürliche Variabilität von Hochwasserereignissen ist dabei eine grundlegende Voraussetzung, um die Hochwassergefahr für die Zukunft abschätzen zu können. Da instrumentelle Hochwasserzeitreihen meist nur die letzten 150 Jahre abbilden sind andere Methoden erforderlich, um das Auftreten von historischen und prä-historischen Hochwassern festzustellen. Jährlich laminierte (warvierte) Seesedimente sind bedeutende natürliche Archive, denn sie liefern kontinuierliche Zeitreihen > 10000 Jahre mit einer bis zur saisonalen Auflösung. Seebecken stellen natürliche Sedimentfallen dar, wobei eingetragenes Flusssediment in den Seesedimenten als eine distinkte detritische Lage aufgezeichnet wird, und daher zur Rekonstruktion von extremen Abflussereignissen genutzt werden. Im Rahmen meiner Doktorarbeit habe ich einen 8.50 m langen Sedimentkern aus dem Mondsee (Nordostalpen) untersucht, welcher die letzten 7000 Jahre abdeckt. Dieser Sedimentkern besteht aus Kalzitwarven und eingeschalteten detritischen Lagen mit einer Mächtigkeit von 0.05-32 mm. Detritische Lagen wurden mit Hilfe einer kombinierten Methode untersucht: Mikrofaziesanalyse, Rasterelektronenmikroskopie, Röntgenfluoreszenzanalyse (µXRF) und magnetische Suszeptibilität. Dieser Ansatz ermöglicht die Charakterisierung der einzelnen detritischen Lagen bezüglich der Eintragsprozesse und die Lokalisierung des Einzugsgebietes. Auf Grundlage der Warvenzählung und 14C Datierungen sind die wichtigsten Ziele dieser Arbeit: (i) die Identifizierung der Eintragsprozesse, welche zu einem Sedimenteintrag vom Einzugsgebiet bis in den See führen und (ii) die Rekonstruktion der Hochwasserfrequenz unter veränderten Klimabedingungen. Diese Arbeit zeigt eine Untersuchung auf verschiedenen Zeitscheiben, wobei instrumentelle und historische Daten genutzt werden, um die Aufzeichnung von pre-historischen Hochwasser in den Mondseesedimenten besser zu verstehen. Innerhalb der letzten 100 Jahre wurden zwölf Abflussereignisse aufgezeichnet. Zwei Typen von detritschen Lagen können anhand von Korngröße, geochemischer Zusammensetzung und des Verteilungsmusters unterschieden werden. Detritische Lagen, welche aus siliziklastischen und dolomitischen Material bestehen, zeigen eine Sedimentherkunft vom Teileinzugsgebiet des Flysch (nördliches Einzugsgebiet) und der Nördlichen Kalkalpen (südliches Teileinzugsgebiet) auf. Diese Lagen sind im Nördlichen Becken mächtiger (0.1-3.9 mm) als im südlichen Seebecken (0.05-1.6 mm). Detritische Lagen, welche nur aus dolomitischem Material bestehen und Turbititlagen aufzeigen (0.65-32 mm), weisen auf eine Herkunft aus den Nördlichen Kalkalpen hin. Im Vergleich mit instrumentellen Zeitreihen, stammen die mächtigeren Lagen von lokalen Murereignissen im Sommer und feinere Eintragslagen von regionalen Frühjahrs- und Sommerhochwassern. Extreme Sommerhochwasser am Mondsee werden hauptsächlich durch Zyklonen vom Mittelmeer ausgelöst, z.B. Juli 1954, Juli 1997 und August 2002. Die Untersuchung des langen Sedimentkerns vom Mondsee zeigt während der letzten 2000 Jahre signifikante Hochwasserintervalle mit dekadischen Hochwasserepisoden während der Völkerwanderungszeit und im Übergang vom Mittelalter in die Kleine Eiszeit. Dies weist auf eine Verknüpfung von Abkühlungsphasen und Sommerhochwassern im Nordostalpenraum hin. Während der Mittelalterlichen Wärmephase und in der Kleinen Eiszeit kam es jedoch zu einer geringeren Hochwasseraktivität. Dies zeigt einen komplexen Zusammenhang von Temperaturentwicklung und Hochwasseraktivität in den Nordostalpen, mit einer erhöhten Zyklonenaktivät in den Übergängen von wärmeren zu kälteren Phasen. Während der letzten 7000 Jahre wurden 47 Muren und 269 Hochwasser aufgezeichnet, wobei es eine signifikante Änderung mit erhöhter Häufigkeit um 3500 und 1500 Warvenjahre v. h. gab (v.h. = vor heute = AD 1950). Diese signifikante Änderung stimmt mit einem langfristigem Abkühlungstrend überein, welcher durch alpine Gletschervorstöße und das Absinken von Baumgrenzen seit etwa 3300 Warvenjahre v.h. berichtet wird. Trotz relativ geringer Hochwasseraktivität um 1500 Warvenjahre v.h., könnte das Auftreten von Hochwasser auch das Leben Menschen in Neolithischen Pfahlbausiedlungen (5750-4750 cal. yr BP) beeinflusst haben. Während die ersten Pfahlbauten noch als Feuchtbodensiedlungen am Land entstanden, wurden spätere Siedlungen eventuell als Anpassung an stark schwankenden Seewasserspiegeln auf Pfählen im Wasser gebaut und/oder zeigen eine allgemeine Veränderung der Siedlungsaktivitäten der Neolithischen Pfahlbaukultur an, aufgrund sozio-ökonomischer Veränderungen. Ein direkter Zusammenhang zwischen dem Verlassen der Pfahlbausiedlungen und einer erhöhten Hochwasseraktivität konnte jedoch nicht festgestellt werden. KW - Mondsee KW - Paläohochwasser KW - Seesedimente KW - Warven KW - Klimarekonstruktion KW - Mondsee KW - Paleofloods KW - Lake sediments KW - Warves KW - Climate reconstruction Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66702 ER - TY - THES A1 - Hesse, Günter T1 - A benchmark for enterprise stream processing architectures T1 - Ein Benchmark für Architekturen zur Datenstromverarbeitung im Unternehmenskontext N2 - Data stream processing systems (DSPSs) are a key enabler to integrate continuously generated data, such as sensor measurements, into enterprise applications. DSPSs allow to steadily analyze information from data streams, e.g., to monitor manufacturing processes and enable fast reactions to anomalous behavior. Moreover, DSPSs continuously filter, sample, and aggregate incoming streams of data, which reduces the data size, and thus data storage costs. The growing volumes of generated data have increased the demand for high-performance DSPSs, leading to a higher interest in these systems and to the development of new DSPSs. While having more DSPSs is favorable for users as it allows choosing the system that satisfies their requirements the most, it also introduces the challenge of identifying the most suitable DSPS regarding current needs as well as future demands. Having a solution to this challenge is important because replacements of DSPSs require the costly re-writing of applications if no abstraction layer is used for application development. However, quantifying performance differences between DSPSs is a difficult task. Existing benchmarks fail to integrate all core functionalities of DSPSs and lack tool support, which hinders objective result comparisons. Moreover, no current benchmark covers the combination of streaming data with existing structured business data, which is particularly relevant for companies. This thesis proposes a performance benchmark for enterprise stream processing called ESPBench. With enterprise stream processing, we refer to the combination of streaming and structured business data. Our benchmark design represents real-world scenarios and allows for an objective result comparison as well as scaling of data. The defined benchmark query set covers all core functionalities of DSPSs. The benchmark toolkit automates the entire benchmark process and provides important features, such as query result validation and a configurable data ingestion rate. To validate ESPBench and to ease the use of the benchmark, we propose an example implementation of the ESPBench queries leveraging the Apache Beam software development kit (SDK). The Apache Beam SDK is an abstraction layer designed for developing stream processing applications that is applied in academia as well as enterprise contexts. It allows to run the defined applications on any of the supported DSPSs. The performance impact of Apache Beam is studied in this dissertation as well. The results show that there is a significant influence that differs among DSPSs and stream processing applications. For validating ESPBench, we use the example implementation of the ESPBench queries developed using the Apache Beam SDK. We benchmark the implemented queries executed on three modern DSPSs: Apache Flink, Apache Spark Streaming, and Hazelcast Jet. The results of the study prove the functioning of ESPBench and its toolkit. ESPBench is capable of quantifying performance characteristics of DSPSs and of unveiling differences among systems. The benchmark proposed in this thesis covers all requirements to be applied in enterprise stream processing settings, and thus represents an improvement over the current state-of-the-art. N2 - Data Stream Processing Systems (DSPSs) sind eine Schlüsseltechnologie, um kontinuierlich generierte Daten, wie beispielsweise Sensormessungen, in Unternehmensanwendungen zu integrieren. Die durch DSPSs ermöglichte permanente Analyse von Datenströmen kann dabei zur Überwachung von Produktionsprozessen genutzt werden, um möglichst zeitnah auf ungewollte Veränderungen zu reagieren. Darüber hinaus filtern, sampeln und aggregieren DSPSs einkommende Daten, was die Datengröße reduziert und so auch etwaige Kosten für die Datenspeicherung. Steigende Datenvolumen haben in den letzten Jahren den Bedarf für performante DSPSs steigen lassen, was zur Entwicklung neuer DSPSs führte. Während eine große Auswahl an verfügbaren Systemen generell gut für Nutzer ist, stellt es potentielle Anwender auch vor die Herausforderung, das für aktuelle und zukünftige Anforderungen passendste DSPS zu identifizieren. Es ist wichtig, eine Lösung für diese Herausforderung zu haben, da das Austauschen von einem DSPS zu teuren Anpassungen oder Neuentwicklungen der darauf laufenden Anwendungen erfordert, falls für deren Entwicklung keine Abstraktionsschicht verwendet wurde. Das quantitative Vergleichen von DSPSs ist allerdings eine schwierige Aufgabe. Existierende Benchmarks decken nicht alle Kernfunktionalitäten von DSPSs ab und haben keinen oder unzureichenden Tool-Support, was eine objektive Ergebnisberechnung hinsichtlich der Performanz erschwert. Zudem beinhaltet kein Benchmark die Integration von Streamingdaten und strukturierten Geschäftsdaten, was ein besonders für Unternehmen relevantes Szenario ist. Diese Dissertation stellt ESPBench vor, einen neuen Benchmark für Stream Processing-Szenarien im Unternehmenskontext. Der geschäftliche Kontext wird dabei durch die Verbindung von Streamingdaten und Geschäftsdaten dargestellt. Das Design von ESPBench repräsentiert Szenarien der realen Welt, stellt die objektive Berechnung von Benchmarkergebnissen sicher und erlaubt das Skalieren über Datencharakteristiken. Das entwickelte Toolkit des Benchmarks stellt wichtige Funktionalitäten bereit, wie beispielsweise die Automatisierung den kompletten Benchmarkprozesses sowie die Überprüfung der Abfrageergebnisse hinsichtlich ihrer Korrektheit. Um ESPBench zu validieren und die Anwendung weiter zu vereinfachen, haben wir eine Beispielimplementierung der Queries veröffentlicht. Die Implementierung haben wir mithilfe des in Industrie und Wissenschaft eingesetzten Softwareentwicklungsbaukastens Apache Beam durchgeführt, der es ermöglicht, entwickelte Anwendungen auf allen unterstützten DSPSs auszuführen. Den Einfluss auf die Performanz des Verwendens von Apache Beam wird dabei ebenfalls in dieser Arbeit untersucht. Weiterhin nutzen wir die veröffentlichte Beispielimplementierung der Queries um drei moderne DSPSs mit ESPBench zu untersuchen: Apache Flink, Apache Spark Streaming und Hazelcast Jet. Der Ergebnisse der Studie verdeutlichen die Funktionsfähigkeit von ESPBench und dessen Toolkit. ESPBench befähigt Performanzcharakteristiken von DSPSs zu quantifizieren und Unterschiede zwischen Systemen aufzuzeigen. Der in dieser Dissertation vorgestellte Benchmark erfüllt alle Anforderungen, um in Stream Processing-Szenarien im Unternehmenskontext eingesetzt zu werden und stellt somit eine Verbesserung der aktuellen Situation dar. KW - stream processing KW - performance KW - benchmarking KW - dsps KW - espbench KW - benchmark KW - Performanz KW - Datenstromverarbeitung KW - Benchmark Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-566000 ER - TY - THES A1 - Villatoro Leal, José Andrés T1 - A combined approach for the analysis of biomolecules using IR-MALDI ion mobility spectrometry and molecular dynamics simulations of peptide ions in the gas phase T1 - Kombinierter Einsatz von IR-MALDI Ionenmobilitätsspektrometrie und Simulationen der Molekulardynamik von Peptidionen in der Gasphase zur Analyse von Biomolekülen N2 - The aim of this doctoral thesis was to establish a technique for the analysis of biomolecules with infrared matrix-assisted laser dispersion (IR-MALDI) ion mobility (IM) spectrometry. The main components of the work were the characterization of the IR-MALDI process, the development and characterization of different ion mobility spectrometers, the use of IR-MALDI-IM spectrometry as a robust, standalone spectrometer and the development of a collision cross-section estimation approach for peptides based on molecular dynamics and thermodynamic reweighting. First, the IR-MALDI source was studied with atmospheric pressure ion mobility spectrometry and shadowgraphy. It consisted of a metal capillary, at the tip of which a self-renewing droplet of analyte solution was met by an IR laser beam. A relationship between peak shape, ion desolvation, diffusion and extraction pulse delay time (pulse delay) was established. First order desolvation kinetics were observed and related to peak broadening by diffusion, both influenced by the pulse delay. The transport mechanisms in IR-MALDI were then studied by relating different laser impact positions on the droplet surface to the corresponding ion mobility spectra. Two different transport mechanisms were determined: phase explosion due to the laser pulse and electrical transport due to delayed ion extraction. The velocity of the ions stemming from the phase explosion was then measured by ion mobility and shadowgraphy at different time scales and distances from the source capillary, showing an initially very high but rapidly decaying velocity. Finally, the anatomy of the dispersion plume was observed in detail with shadowgraphy and general conclusions over the process were drawn. Understanding the IR-MALDI process enabled the optimization of the different IM spectrometers at atmospheric and reduced pressure (AP and RP, respectively). At reduced pressure, both an AP and an RP IR-MALDI source were used. The influence of the pulsed ion extraction parameters (pulse delay, width and amplitude) on peak shape, resolution and area was systematically studied in both AP and RP IM spectrometers and discussed in the context of the IR-MALDI process. Under RP conditions, the influence of the closing field and of the pressure was also examined for both AP and RP sources. For the AP ionization RP IM spectrometer, the influence of the inlet field (IF) in the source region was also examined. All of these studies led to the determination of the optimal analytical parameters as well as to a better understanding of the initial ion cloud anatomy. The analytical performance of the spectrometer was then studied. Limits of detection (LOD) and linear ranges were determined under static and pulsed ion injection conditions and interpreted in the context of the IR-MALDI mechanism. Applications in the separation of simple mixtures were also illustrated, demonstrating good isomer separation capabilities and the advantages of singly charged peaks. The possibility to couple high performance liquid chromatography (HPLC) to IR-MALDI-IM spectrometry was also demonstrated. Finally, the reduced pressure spectrometer was used to study the effect of high reduced field strength on the mobility of polyatomic ions in polyatomic gases. The last focus point was on the study of peptide ions. A dataset obtained with electrospray IM spectrometry was characterized and used for the calibration of a collision cross-section (CCS) determination method based on molecular dynamics (MD) simulations at high temperature. Instead of producing candidate structures which are evaluated one by one, this semi-automated method uses the simulation as a whole to determine a single average collision cross-section value by reweighting the CCS of a few representative structures. The method was compared to the intrinsic size parameter (ISP) method and to experimental results. Additional MD data obtained from the simulations was also used to further analyze the peptides and understand the experimental results, an advantage with regard to the ISP method. Finally, the CCS of peptide ions analyzed by IR-MALDI were also evaluated with both ISP and MD methods and the results compared to experiment, resulting in a first validation of the MD method. Thus, this thesis brings together the soft ionization technique that is IR-MALDI, which produces mostly singly charged peaks, with ion mobility spectrometry, which can distinguish between isomers, and a collision cross-section determination method which also provides structural information on the analyte at hand. N2 - Das Ziel dieser Arbeit war die Zusammenführung der schonende Ionisationsquelle Infrared Matrix-Assisted Laser Dispersion Ionization (IR-MALDI), der Isomer-diskriminierende Ionenmobilitätsspektrometrie und einer neuartigen, auf Molecular Dynamics (MD) Simulationen basierte Berechnungsmethode für Stoßquerschnitte. Der erste Schritt war die Charakterisierung des Flüssigkeitsdispersionsphänomens in IR-MALDI: Zwei verschiedenen Ionentransportmechanismen wurden nachgewiesen und weiter studiert. Die Beziehung zwischen Peakform, Diffusion, Desolvatation und Ionen Extraktionspuls wurde beschrieben. Die Geschwindigkeit der Ionen, die aus dem Dispersionsphänomen stammen, wurde durch Ionenmobilitätsspektrometrie und Shadowgraphie untersucht. Shadowgraphie hat ebenfalls das Verhalten des Dispersionsphänomens erläutert. Eine hohe, schnell abklingende initielle Geschwindigkeit wurde beobachtet. Das Verständnis des IR-MALDI Verfahrens ermöglichte die Optimierung der verschiedenen Ionenmobilität (IM) Spektrometer zum analytischen Zweck. Eine Atmosphärendruck- und zwei Niederdruckvariante von IM Spektrometern wurden mit gepulster Ionenextraktion genutzt. Die Pulsparameter (Pulsverzögerung, ‑breite, -höhe) und verschiedene elektrische Felder an unterschiedlichen Stellen der Spektrometer wurden systematisch variiert. Deren Einfluss auf die Peakauflösung und -fläche wurde untersucht und im Rahmen des IR-MALDI Verfahrens erklärt. Das Verständnis der Anatomie der Anfangsionenwolke wurde ebenfalls durch diese Experimente vertieft. Die analytische Leistungsfähigkeit eines IM-Spektrometers wurde dann untersucht. Nachweisgrenzen und lineare Bereiche wurden bestimmt und in Zusammenhang mit dem IR-MALDI Verfahren interpretiert. Anhand der Trennung von Isomeren und einfachen Mischungen wurde die Anwendung dieser Technik demonstriert und ihre Vorteile, die Detektion einfachgeladener Ionen und die Möglichkeit der HPLC-Kopplung (High Performance Liquid Chromatography), aufgezeigt. Mit dem Niederdruckspektrometer wurde der Einfluss hoher reduzierter Feldstärken auf die Ionenmobilität von polyatomische Ionen in polyatomische Gasen untersucht. Der letzte Schwerpunkt war die Charakterisierung von Peptidionen. Die Peptiden wurden mit Elektrospray (ESI) IM-Spektrometrie vermessen. Der hieraus erhaltene Datensatz diente zur Etablierung einer Stoßquerschnitt Berechnungsmethode mittels MD. Anstatt verschiedener Kandidat-Strukturen und deren Stoßquerschnitte, ergibt diese neuartige semi-automatisierte Methode einen einzigen, gemittelten Stoßquerschnitt. Die MD Methode wurde dann mit einer anderen, einfacheren Methode und mit den experimentellen Ergebnissen von ESI und IR-MALDI-IM Spektrometrie verglichen. Zudem wurde der Zusammenhang zwischen Ladungszustands- und Stoßquerschnittsdifferenzen zwischen den Peptiden untersucht. Weitere Strukturelle Informationen konnten aus den Simulationen extrahiert, und zur Charakterisierung der Peptiden verwendet werden. KW - Ion mobility spectrometry KW - Molecular dynamics KW - IR-MALDI KW - Peptides KW - Shadowgraphy KW - Liquid dispersion KW - Ionenmobilitätsspektrometrie KW - Molekulardynamik KW - Collision cross-section KW - IR-MALDI KW - Peptiden KW - Shadowgraphie KW - Stoßquerschnitt KW - Flüssigkeitszerstäubung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-419723 ER - TY - THES A1 - Pilz, Marco T1 - A comparison of proxies for seismic site conditions and amplification for the large urban area of Santiago de Chile T1 - Ein Vergleich seismischer Parameter für die Standort- und Verstärkungsabschätzung im Stadtgebiet von Santiago de Chile N2 - Situated in an active tectonic region, Santiago de Chile, the country´s capital with more than six million inhabitants, faces tremendous earthquake hazard. Macroseismic data for the 1985 Valparaiso and the 2010 Maule events show large variations in the distribution of damage to buildings within short distances indicating strong influence of local sediments and the shape of the sediment-bedrock interface on ground motion. Therefore, a temporary seismic network was installed in the urban area for recording earthquake activity, and a study was carried out aiming to estimate site amplification derived from earthquake data and ambient noise. The analysis of earthquake data shows significant dependence on the local geological structure with regards to amplitude and duration. Moreover, the analysis of noise spectral ratios shows that they can provide a lower bound in amplitude for site amplification and, since no variability in terms of time and amplitude is observed, that it is possible to map the fundamental resonance frequency of the soil for a 26 km x 12 km area in the northern part of the Santiago de Chile basin. By inverting the noise spectral rations, local shear wave velocity profiles could be derived under the constraint of the thickness of the sedimentary cover which had previously been determined by gravimetric measurements. The resulting 3D model was derived by interpolation between the single shear wave velocity profiles and shows locally good agreement with the few existing velocity profile data, but allows the entire area, as well as deeper parts of the basin, to be represented in greater detail. The wealth of available data allowed further to check if any correlation between the shear wave velocity in the uppermost 30 m (vs30) and the slope of topography, a new technique recently proposed by Wald and Allen (2007), exists on a local scale. While one lithology might provide a greater scatter in the velocity values for the investigated area, almost no correlation between topographic gradient and calculated vs30 exists, whereas a better link is found between vs30 and the local geology. When comparing the vs30 distribution with the MSK intensities for the 1985 Valparaiso event it becomes clear that high intensities are found where the expected vs30 values are low and over a thick sedimentary cover. Although this evidence cannot be generalized for all possible earthquakes, it indicates the influence of site effects modifying the ground motion when earthquakes occur well outside of the Santiago basin. Using the attained knowledge on the basin characteristics, simulations of strong ground motion within the Santiago Metropolitan area were carried out by means of the spectral element technique. The simulation of a regional event, which has also been recorded by a dense network installed in the city of Santiago for recording aftershock activity following the 27 February 2010 Maule earthquake, shows that the model is capable to realistically calculate ground motion in terms of amplitude, duration, and frequency and, moreover, that the surface topography and the shape of the sediment bedrock interface strongly modify ground motion in the Santiago basin. An examination on the dependency of ground motion on the hypocenter location for a hypothetical event occurring along the active San Ramón fault, which is crossing the eastern outskirts of the city, shows that the unfavorable interaction between fault rupture, radiation mechanism, and complex geological conditions in the near-field may give rise to large values of peak ground velocity and therefore considerably increase the level of seismic risk for Santiago de Chile. N2 - Aufgrund ihrer Lage in einem tektonisch aktiven Gebiet ist Santiago de Chile, die Hauptstadt des Landes mit mehr als sechs Millionen Einwohnern, einer großen Erdbebengefährdung ausgesetzt. Darüberhinaus zeigen makroseismische Daten für das 1985 Valparaiso- und das 2010 Maule-Erdbeben eine räumlich unterschiedliche Verteilung der an den Gebäuden festgestellten Schäden; dies weist auf einen starken Einfluss der unterliegenden Sedimentschichten und der Gestalt der Grenzfläche zwischen den Sedimenten und dem Festgestein auf die Bodenbewegung hin. Zu diesem Zweck wurde in der Stadt ein seismisches Netzwerk für die Aufzeichnung der Bodenbewegung installiert, um die auftretende Untergrundverstärkung mittels Erdbebendaten und seismischem Rauschen abzuschätzen. Dabei zeigt sich für die Erdbebendaten eine deutliche Abhängigkeit von der Struktur des Untergrunds hinsichtlich der Amplitude der Erschütterung und ihrer Dauer. Die Untersuchung der aus seismischem Rauschen gewonnenen horizontal-zu-vertikal-(H/V) Spektral-verhältnisse zeigt, dass diese Ergebnisse nur einen unteren Grenzwert für die Bodenverstärkung liefern können. Weil jedoch andererseits keine zeitliche Veränderung bei der Gestalt dieser Spektralverhältnisse festgestellt werden konnte, erlauben die Ergebnisse ferner, die Resonanzfrequenz des Untergrundes für ein 26 km x 12 km großes Gebiet im Nordteil der Stadt zu bestimmen. Unter Zuhilfenahme von Informationen über die Dicke der Sedimentschichten, welche im vorhinein schon durch gravimetrische Messungen bestimmt worden war, konnten nach Inversion der H/V-Spektralverhältnisse lokale Scherwellengeschwindigkeitsprofile und nach Interpolation zwischen den einzelnen Profilen ein dreidimensionales Modell berechnet werden. Darüberhinaus wurde mit den verfügbaren Daten untersucht, ob auf lokaler Ebene ein Zusammenhang zwischen der mittleren Scherwellengeschwindigkeit in den obersten 30 m (vs30) und dem Gefälle existiert, ein Verfahren, welches kürzlich von Wald und Allen (2007) vorgestellt wurde. Da für jede lithologische Einheit eine starke Streuung für die seismischen Geschwindigkeiten gefunden wurde, konnte kein Zusammenhang zwischen dem Gefälle und vs30 hergestellt werden; demgegenüber besteht zumindest ein tendenzieller Zusammenhang zwischen vs30 und der unterliegenden Geologie. Ein Vergleich der Verteilung von vs30 mit den MKS-Intensitäten für das 1985 Valparaiso-Erdbeben in Santiago zeigt, dass hohe Intensitätswerte vor allem in Bereichen geringer vs30-Werte und dicker Sedimentschichten auftraten. Weiterhin ermöglichte die Kenntnis über das Sedimentbeckens Simulationen der Bodenbewegung mittels eines spektralen-Elemente-Verfahrens. Die Simulation eines regionalen Erdbebens, welches auch von einem dichten seismischen Netzwerk aufgezeichnet wurde, das im Stadtgebiet von Santiago infolge des Maule-Erdbebens am 27. Februar 2010 installiert wurde, zeigt, dass das Modell des Sedimentbeckens realistische Berechnungen hinsichtlich Amplitude, Dauer und Frequenz erlaubt und die ausgeprägte Topographie in Verbindung mit der Form der Grenzfläche zwischen den Sedimenten und dem Festgestein starken Einfluss auf die Bodenbewegung haben. Weitere Untersuchungen zur Abhängigkeit der Bodenerschütterung von der Position des Hypozentrums für ein hypothetisches Erdbeben an der San Ramón-Verwerfung, welche die östlichen Vororte der Stadt kreuzt, zeigen, dass die ungünstige Wechselwirkung zwischen dem Verlauf des Bruchs, der Abstrahlung der Energie und der komplexen geologischen Gegebenheiten hohe Werte bei der maximalen Bodengeschwindigkeit erzeugen kann. Dies führt zu einer signifikanten Zunahme des seismischen Risikos für Santiago de Chile. KW - Standorteffekte KW - seismisches Rauschen KW - Sedimentbecken KW - Simulation KW - site effects KW - seismic noise KW - sedimentary basin KW - simulation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52961 ER - TY - THES A1 - Awad, Ahmed Mahmoud Hany Aly T1 - A compliance management framework for business process models T1 - Ein Compliance-Management-Framework für Geschäftsprozessmodelle N2 - Companies develop process models to explicitly describe their business operations. In the same time, business operations, business processes, must adhere to various types of compliance requirements. Regulations, e.g., Sarbanes Oxley Act of 2002, internal policies, best practices are just a few sources of compliance requirements. In some cases, non-adherence to compliance requirements makes the organization subject to legal punishment. In other cases, non-adherence to compliance leads to loss of competitive advantage and thus loss of market share. Unlike the classical domain-independent behavioral correctness of business processes, compliance requirements are domain-specific. Moreover, compliance requirements change over time. New requirements might appear due to change in laws and adoption of new policies. Compliance requirements are offered or enforced by different entities that have different objectives behind these requirements. Finally, compliance requirements might affect different aspects of business processes, e.g., control flow and data flow. As a result, it is infeasible to hard-code compliance checks in tools. Rather, a repeatable process of modeling compliance rules and checking them against business processes automatically is needed. This thesis provides a formal approach to support process design-time compliance checking. Using visual patterns, it is possible to model compliance requirements concerning control flow, data flow and conditional flow rules. Each pattern is mapped into a temporal logic formula. The thesis addresses the problem of consistency checking among various compliance requirements, as they might stem from divergent sources. Also, the thesis contributes to automatically check compliance requirements against process models using model checking. We show that extra domain knowledge, other than expressed in compliance rules, is needed to reach correct decisions. In case of violations, we are able to provide a useful feedback to the user. The feedback is in the form of parts of the process model whose execution causes the violation. In some cases, our approach is capable of providing automated remedy of the violation. N2 - Firmen entwickeln Prozessmodelle um ihre Geschäftstätigkeit explizit zu beschreiben. Geschäftsprozesse müssen verschiedene Arten von Compliance-Anforderungen einhalten. Solche Compliance-Anforderungen entstammen einer Vielzahl von Quellen, z.B. Verordnung wie dem Sarbanes Oxley Act von 2002, interne Richtlinien und Best Practices. Die Nichteinhaltung von Compliance-Anforderungen kann zu gesetzlichen Strafen oder dem Verlust von Wettbewerbsvorteilen und somit dem Verlust von Marktanteilen führen. Im Gegensatz zum klassischen, domänen-unabhängigen Begriff der Korrektheit von Geschäftsprozessen, sind Compliance-Anforderungen domain-spezifisch und ändern sich im Laufe der Zeit. Neue Anforderungen resultieren aus neuen Gesetzen und der Einführung neuer Unternehmensrichtlinien. Aufgrund der Vielzahl der Quellen für Compliance-Anforderungen, können sie unterschiedliche Ziele verfolgen und somit widersprüchliche Aussagen treffen. Schließlich betreffen Compliance-Anforderungen verschiedene Aspekte von Geschäftsprozessen, wie Kontrollfluss- und Datenabhängigkeiten. Auf Grund dessen können Compliance-Prüfungen nicht direkt Hard-coded werden. Vielmehr ist ein Prozess der wiederholten Modellierung von Compliance-Regeln und ihrer anschließenden automatischen Prüfung gegen die Geschäftsprozesse nötig. Diese Dissertation stellt einen formalen Ansatz zur Überprüfung der Einhaltung von Compliance-Regeln während der Spezifikation von Geschäftsprozessen vor. Mit visuellen Mustern ist es möglich, Compliance-Regeln hinsichtlich Kontrollfluss- und Datenabhängigkeiten sowie bedingte Regeln zu spezifizieren. Jedes Muster wird in eine Formel der temporalen Logik abgebildet. Die Dissertation behandelt das Problem der Konsistenzprüfung zwischen verschiedenen Compliance-Anforderungen, wie sie sich aus unterschiedlichen Quellen ergeben können. Ebenfalls zeigt diese Dissertation, wie Compliance-Regeln gegen die Geschäftsprozesse automatisch mittels Model Checking geprüft werden. Es wird aufgezeigt, dass zusätzliche Domänen-Kenntnisse notwendig sind, um richtige Entscheidungen zu treffen. Der vorgestelle Ansatz ermöglicht nützliches Feedback für Modellierer im Fall eines Compliance-Verstoßes. Das Feedback wird in Form von Teilen des Prozessmodells gegeben, deren Ausführung die Verletzung verursacht. In einigen Fällen ist der vorgestellte Ansatz in der Lage, den Compliance-Verstoß automatisch zu beheben. KW - Geschäftsprozessmodelle KW - Compliance KW - Temporallogik KW - Verletzung Erklärung KW - Verletzung Auflösung KW - Business Process Models KW - Compliance KW - Temporal Logic KW - Violation Explanation KW - Violation Resolution Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49222 ER - TY - THES A1 - Koç, Gamze T1 - A comprehensive analysis of severe flood events in Turkey T1 - Eine ausführliche Analyse schwerer Flutereignisse in der Türkei BT - event documentation, triggering mechanisms and impact modelling BT - Ereignisdokumentation, Auslösemechanismen und Auswirkungsmodellierung N2 - Over the past decades, natural hazards, many of which are aggravated by climate change and reveal an increasing trend in frequency and intensity, have caused significant human and economic losses and pose a considerable obstacle to sustainable development. Hence, dedicated action toward disaster risk reduction is needed to understand the underlying drivers and create efficient risk mitigation plans. Such action is requested by the Sendai Framework for Disaster Risk Reduction 2015-2030 (SFDRR), a global agreement launched in 2015 that establishes stating priorities for action, e.g. an improved understanding of disaster risk. Turkey is one of the SFDRR contracting countries and has been severely affected by many natural hazards, in particular earthquakes and floods. However, disproportionately little is known about flood hazards and risks in Turkey. Therefore, this thesis aims to carry out a comprehensive analysis of flood hazards for the first time in Turkey from triggering drivers to impacts. It is intended to contribute to a better understanding of flood risks, improvements of flood risk mitigation and the facilitated monitoring of progress and achievements while implementing the SFDRR. In order to investigate the occurrence and severity of flooding in comparison to other natural hazards in Turkey and provide an overview of the temporal and spatial distribution of flood losses, the Turkey Disaster Database (TABB) was examined for the years 1960-2014. The TABB database was reviewed through comparison with the Emergency Events Database (EM-DAT), the Dartmouth Flood Observatory database, the scientific literature and news archives. In addition, data on the most severe flood events between 1960 and 2014 were retrieved. These served as a basis for analyzing triggering mechanisms (i.e. atmospheric circulation and precipitation amounts) and aggravating pathways (i.e. topographic features, catchment size, land use types and soil properties). For this, a new approach was developed and the events were classified using hierarchical cluster analyses to identify the main influencing factor per event and provide additional information about the dominant flood pathways for severe floods. The main idea of the study was to start with the event impacts based on a bottom-up approach and identify the causes that created damaging events, instead of applying a model chain with long-term series as input and searching for potentially impacting events as model outcomes. However, within the frequency analysis of the flood-triggering circulation pattern types, it was discovered that events in terms of heavy precipitation were not included in the list of most severe floods, i.e. their impacts were not recorded in national and international loss databases but were mentioned in news archives and reported by the Turkish State Meteorological Service. This finding challenges bottom-up modelling approaches and underlines the urgent need for consistent event and loss documentation. Therefore, as a next step, the aim was to enhance the flood loss documentation by calibrating, validating and applying the United Nations Office for Disaster Risk Reduction (UNDRR) loss estimation method for the recent severe flood events (2015-2020). This provided, a consistent flood loss estimation model for Turkey, allowing governments to estimate losses as quickly as possible after events, e.g. to better coordinate financial aid. This thesis reveals that, after earthquakes, floods have the second most destructive effects in Turkey in terms of human and economic impacts, with over 800 fatalities and US$ 885.7 million in economic losses between 1960 and 2020, and that more attention should be paid on the national scale. The clustering results of the dominant flood-producing mechanisms (e.g. circulation pattern types, extreme rainfall, sudden snowmelt) present crucial information regarding the source and pathway identification, which can be used as base information for hazard identification in the preliminary risk assessment process. The implementation of the UNDRR loss estimation model shows that the model with country-specific parameters, calibrated damage ratios and sufficient event documentation (i.e. physically damaged units) can be recommended in order to provide first estimates of the magnitude of direct economic losses, even shortly after events have occurred, since it performed well when estimates were compared to documented losses. The presented results can contribute to improving the national disaster loss database in Turkey and thus enable a better monitoring of the national progress and achievements with regard to the targets stated by the SFDRR. In addition, the outcomes can be used to better characterize and classify flood events. Information on the main underlying factors and aggravating flood pathways further supports the selection of suitable risk reduction policies. All input variables used in this thesis were obtained from publicly available data. The results are openly accessible and can be used for further research. As an overall conclusion, it can be stated that consistent loss data collection and better event documentation should gain more attention for a reliable monitoring of the implementation of the SFDRR. Better event documentation should be established according to a globally accepted standard for disaster classification and loss estimation in Turkey. Ultimately, this enables stakeholders to create better risk mitigation actions based on clear hazard definitions, flood event classification and consistent loss estimations. N2 - In den letzten Jahrzehnten verursachten Naturgefahren hohe humanitäre und wirtschaftliche Verluste, wobei viele dieser Ereignisse durch den Klimawandel verstärkt werden und einen zunehmenden Trend in Häufigkeit und Schwere aufweisen. Daher sind gezielte Verfahren zur Reduzierung von Katastrophenrisiken erforderlich, um zugrundeliegende Treiber zu verstehen und effektive Risikominderungspläne zu erstellen. Solche Verfahren werden durch das Sendai-Rahmenwerk für Katastrophenvorsorge 2015-2030 (SFDRR) eingefordert. Das SFDRR ist, ein internationales Rahmenwerk, das 2015 verabschiedet wurde und prioritäre Maßnahmen festlegt, z.B. eine Verbesserung der Wissensgrundlagen zum Katastrophenrisiko. Die Türkei ist eines der SFDRR-Vertragsländer und wurde in der Vergangenheit von vielen Naturgefahren, insbesondere Erdbeben und Überschwemmungen schwer getroffen. Über die Hochwassergefahren und -risiken in der Türkei ist jedoch vergleichsweise wenig bekannt. In dieser Arbeit wird daher zum ersten Mal eine umfassende Analyse der Hochwassergefahren in der Türkei durchgeführt, von den auslösenden Ursachen bis hin zu den Auswirkungen. Ziel ist es, das Verständnis über Hochwasserrisiken zu verbessern, Studien zur Minderung des Hochwasserrisikos anzuregen und das Monitoring der Fortschritte und Zielerreichung bei der Umsetzung des SFDRR zu erleichtern. Um das Auftreten und die Stärke von Überschwemmungen im Vergleich zu anderen Naturgefahren in der Türkei zu untersuchen und einen Überblick über die raumzeitliche Verteilung von Hochwasserschäden, wurde die Turkey Disaster Database (TABB) für den Zeitraum 1960 bis 2014 ausgewertet. Die TABB Datenbank wurde durch Vergleiche mit der Emergency Events Datenbank (EM-DAT), der Dartmouth Flood Observatory Datenbank, wissenschaftlicher Literatur und Nachrichtenarchive überprüft. Zudem wurden die stärksten Überschwemmungen zwischen 1960 und 2014 identifiziert. Diese bildeten die Basis für eine Analyse der Auslösemechanismen (bspw. atmosphärische Zirkulationsmuster und Niederschlagsmengen) und verstärkende Wirkungspfade (z.B. topographische Eigenschaften, Größe der Einzugsgebiete, Landnutzung und Bodeneigenschaften). Dafür wurde ein neues Verfahren entwickelt, und die Ereignisse wurden mithilfe von hierarchischen Clusteranalysen klassifiziert, um die Haupteinflussfaktoren pro Ereignis zu identifizieren und zusätzliche Informationen über die dominanten Wirkungspfade bei schweren Überschwemmungen bereitzustellen. Die grundlegende Idee dieser Arbeit bestand darin, bei den Ereignisauswirkungen als Bottom-up-Ansatz zu beginnen und die Ursachen für Schadensereignisse zu identifizieren, anstatt eine Modellkette mit Langzeitreihen als Eingabe anzuwenden und darin nach potenziellen Schadensereignissen zu suchen. Bei der Häufigkeitsanalyse von hochwasserauslösenden Zirkulationsmustern wurde jedoch festgestellt, dass einige schwer Niederschlagsereignisse nicht in der Liste der schwersten Hochwasserereignisse waren, d.h., ihre Auswirkungen waren nicht in nationalen und internationalen Schadensdatenbanken dokumentiert, wurden jedoch in Nachrichtenarchiven erwähnt und vom türkischen staatlichen Wetterdienst gemeldet. Dieses Erkenntnis stellt den Bottom-up-Modelansatz in Frage und unterstreicht die Dringlichkeit einer konsistenten Ereignis- und Schadensdokumentation. Daher wurde im nächsten Schritt gezielt das Schadenmodell der Vereinten Nationen für Katastrophenvorsorge (UNDRR) für kürzlich aufgetretene starke Flutereignisse (2015-2020) angepasst, validiert und angewendet. Damit wurde ein konsistentes Hochwasserschadenmodell für die Türkei bereitgestellt, das es den Behörden ermöglicht, Verluste so schnell wie möglich nach Ereignissen abzuschätzen, zum Beispiel um eine bessere Koordination von finanziellen Hilfen zu gewährleisten. Diese Arbeit zeigt, dass Überschwemmungen mit mehr als 800 Todesfällen und 885,7 Millionen US Dollar wirtschaftlichen Schaden zwischen 1960 und 2020 nach Erdbeben den zweit höchsten zerstörerischen Effekt in der Türkei in Bezug auf humanitäre und wirtschaftliche Auswirkungen haben. Daher sollte dieses Thema mehr Aufmerksamkeit auf nationaler Ebene erhalten. Die Cluster-Ergebnisse der dominanten hochwasser-auslösenden Mechanismen (z.B. Zirkulationsmuster, Starkniederschlag, plötzliche Schneeschmelze) erhalten wichtige Informationen zur Quell- und Pfad-Identifikation, welche als Basisinformation für Gefahren-identifikation in der vorläufigen Risikoeinschätzung dienen kann. Die Implementierung des UNDRR-Schadenmodells zeigt, dass das Modell mit länderspezifischen Parametern, kalibrierten Schadensgraden und ausreichender Ereignisdokumentation (d.h. physischer geschädigte Einheiten) empfohlen werden kann, um erste Schätzungen zur Höhe der direkten wirtschaftlichen Schäden bereitzustellen -- auch unmittelbar nach Eintreten von Ereignissen, da die Modellschätzungen im Vergleich mit dokumentierten Verlusten gut übereinstimmten. Die präsentierten Ergebnisse können dazu beitragen, die nationale Schadensdatenbank der Türkei zu verbessern, und somit ein besseres Monitoring der nationalen Fortschritte und Erfolge im Hinblick auf die Ziele des SFDRR ermöglichen. Zusätzlich können die Ergebnisse für eine bessere Charakterisierung und Klassifizierung von Hochwasserereignissen verwendet werden. Informationen zu den zugrundeliegenden Einflussfaktoren und verstärkenden Wirkungspfaden unterstützen die Auswahl geeigneter Risikomanagementstrategien. Alle Eingabevariablen dieser Arbeit wurden aus öffentlich verfügbaren Daten bezogen. Die Ergebnisse sind zugänglich und können für die weitere Forschung verwendet werden. Insgesamt konnte festgestellt werden, dass die konsistente Erfassung von Schadensdaten und eine bessere Ereignisdokumentation mehr Beachtung finden muss, um die Implementierung des SFDRR verlässlich zu überwachen. Bessere Ereignisdokumentationen sollten nach einem weltweit anerkannten Standard für Gefahrenklassifizierung und Schadensabschätzung in der Türkei etabliert werden. Letztendlich ermöglicht dies den Verantwortlichen auf Basis von eindeutigen Gefahrendefinitionen, Hochwasser-Ereignisklassifizierungen und konsistenten Schadenschätzungen bessere Maßnahmen zur Risikominderung zu erarbeiten. KW - Flood hazards KW - Turkey KW - Triggering mechanisms KW - Cluster analysis KW - Hochwassergefahren KW - Türkei KW - Auslösemechanismen KW - Clusteranalyse KW - Impact modelling KW - Schadenmodell Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-517853 ER - TY - THES A1 - Yadav, Himanshu T1 - A computational evaluation of feature distortion and cue weighting in sentence comprehension T1 - Eine komputationale Evaluation von Feature-Verfälschung und Cue-Gewichtung in der Satzverarbeitung N2 - Successful sentence comprehension requires the comprehender to correctly figure out who did what to whom. For example, in the sentence John kicked the ball, the comprehender has to figure out who did the action of kicking and what was being kicked. This process of identifying and connecting the syntactically-related words in a sentence is called dependency completion. What are the cognitive constraints that determine dependency completion? A widely-accepted theory is cue-based retrieval. The theory maintains that dependency completion is driven by a content-addressable search for the co-dependents in memory. The cue-based retrieval explains a wide range of empirical data from several constructions including subject-verb agreement, subject-verb non-agreement, plausibility mismatch configurations, and negative polarity items. However, there are two major empirical challenges to the theory: (i) Grammatical sentences’ data from subject-verb number agreement dependencies, where the theory predicts a slowdown at the verb in sentences like the key to the cabinet was rusty compared to the key to the cabinets was rusty, but the data are inconsistent with this prediction; and, (ii) Data from antecedent-reflexive dependencies, where a facilitation in reading times is predicted at the reflexive in the bodybuilder who worked with the trainers injured themselves vs. the bodybuilder who worked with the trainer injured themselves, but the data do not show a facilitatory effect. The work presented in this dissertation is dedicated to building a more general theory of dependency completion that can account for the above two datasets without losing the original empirical coverage of the cue-based retrieval assumption. In two journal articles, I present computational modeling work that addresses the above two empirical challenges. To explain the grammatical sentences’ data from subject-verb number agreement dependencies, I propose a new model that assumes that the cue-based retrieval operates on a probabilistically distorted representation of nouns in memory (Article I). This hybrid distortion-plus-retrieval model was compared against the existing candidate models using data from 17 studies on subject-verb number agreement in 4 languages. I find that the hybrid model outperforms the existing models of number agreement processing suggesting that the cue-based retrieval theory must incorporate a feature distortion assumption. To account for the absence of facilitatory effect in antecedent-reflexive dependen� cies, I propose an individual difference model, which was built within the cue-based retrieval framework (Article II). The model assumes that individuals may differ in how strongly they weigh a syntactic cue over a number cue. The model was fitted to data from two studies on antecedent-reflexive dependencies, and the participant-level cue-weighting was estimated. We find that one-fourth of the participants, in both studies, weigh the syntactic cue higher than the number cue in processing reflexive dependencies and the remaining participants weigh the two cues equally. The result indicates that the absence of predicted facilitatory effect at the level of grouped data is driven by some, not all, participants who weigh syntactic cues higher than the number cue. More generally, the result demonstrates that the assumption of differential cue weighting is important for a theory of dependency completion processes. This differential cue weighting idea was independently supported by a modeling study on subject-verb non-agreement dependencies (Article III). Overall, the cue-based retrieval, which is a general theory of dependency completion, needs to incorporate two new assumptions: (i) the nouns stored in memory can undergo probabilistic feature distortion, and (ii) the linguistic cues used for retrieval can be weighted differentially. This is the cumulative result of the modeling work presented in this dissertation. The dissertation makes an important theoretical contribution: Sentence comprehension in humans is driven by a mechanism that assumes cue-based retrieval, probabilistic feature distortion, and differential cue weighting. This insight is theoretically important because there is some independent support for these three assumptions in sentence processing and the broader memory literature. The modeling work presented here is also methodologically important because for the first time, it demonstrates (i) how the complex models of sentence processing can be evaluated using data from multiple studies simultaneously, without oversimplifying the models, and (ii) how the inferences drawn from the individual-level behavior can be used in theory development. N2 - Bei der Satzverarbeitung muss der Leser richtig herausfinden, wer wem was angetan hat. Zum Beispiel muss der Leser in dem Satz „John hat den Ball getreten“ herausfinden, wer tat die Aktion des Tretens und was getreten wurde. Dieser Prozess des Identifizierens und Verbindens der syntaktisch verwandte Wörter in einem Satz nennt man Dependency-Completion. Was sind die kognitiven Mechanismen, die Dependency-Completion bestimmen? Eine weithin akzeptierte Theorie ist der Cue-based retrieval. Die Theorie besagt, dass die Dependency-Completion durch eine inhaltsadressierbare Suche nach der vorangetrieben wird Co-Abhängige im Gedächtnis. Der Cue-basierte Abruf erklärt ein breites Spektrum an empirischen Daten mehrere Konstruktionen, darunter Subjekt-Verb-Übereinstimmung, Subjekt-Verb-Nichtübereinstimmung, Plausibilität Mismatch-Konfigurationen und Elemente mit negativer Polarität. Es gibt jedoch zwei große empirische Herausforderungen für die Theorie: (i) Grammatische Sätze Daten aus Subjekt-Verb-Nummer-Dependency, bei denen die Theorie eine Verlangsamung vorhersagt das Verb in Sätzen wie „the key to the cabinet was rusty“ im Vergleich zu „the key to the cabinets was rusty“, aber die Daten stimmen nicht mit dieser Vorhersage überein; und (ii) Daten von Antezedenz-Reflexiv Strukturen, wo eine Leseerleichterung beim reflexiven „the bodybuilder who worked with the trainers injured themselves“ vs. „the bodybuilder who worked with the trainers injured themselves", aber die Daten zeigen keine vermittelnde Wirkung. Die in dieser Dissertation vorgestellte Arbeit widmet sich dem Aufbau einer allgemeineren Theorie von Dependency-Completion, die die beiden oben genannten Datensätze berücksichtigen kann, ohne das Original zu verlieren empirische Abdeckung der Cue-based Retrieval-Annahme. In zwei Zeitschriftenartikeln stelle ich Arbeiten zur Computermodellierung vor, die sich mit den beiden oben genannten empirischen Herausforderungen befassen. Um die Daten der grammatikalischen Sätze aus den Abhängigkeiten der Subjekt-Verb-Nummer-Übereinstimmung zu erklären, schlage ich ein neues Modell vor, das davon ausgeht, dass der Cue-basierte Abruf probabilistisch funktioniert verzerrte Darstellung von Substantiven im Gedächtnis (Artikel I). Dieses hybride Distortion-plus-Retrieval-Modell wurde anhand von Daten aus 17 Studien zu Subjekt-Verb mit den bestehenden Kandidatenmodellen verglichen Nummernvereinbarung in 4 Sprachen. Ich finde, dass das Hybridmodell die bestehenden Modelle übertrifft der Nummernvereinbarungsverarbeitung, was darauf hindeutet, dass die Cue-based Retrieval-Theorie Folgendes umfassen muss: a Annahme von Feature-Verfälschung. Um das Fehlen eines unterstützenden Effekts in antezedens-reflexiven Abhängigkeiten zu berücksichtigen, schlage ich ein individuelles Differenzmodell vor, das innerhalb des Cue-based Retrieval-Frameworks erstellt wurde (Artikel II). Das Modell geht davon aus, dass Individuen sich darin unterscheiden können, wie stark sie eine Syntax gewichten Cue über einem Nummern-Cue. Das Modell wurde an Daten aus zwei Studien zum Antezedenz-Reflexiv angepasst Abhängigkeiten, und die Cue-Gewichtung auf Teilnehmerebene wurde geschätzt. Wir finden, dass ein Viertel von Die Teilnehmer in beiden Studien gewichten bei der Verarbeitung den syntaktischen Cue höher als den numerischen Cue reflexive Abhängigkeiten und die verbleibenden Teilnehmer gewichten die beiden Cue gleichermaßen. Das Ergebnis weist darauf hin, dass das Fehlen des prognostizierten Erleichterungseffekts auf der Ebene der gruppierten Daten von einigen, nicht alle Teilnehmer, die syntaktische Cue höher gewichten als Zahlenhinweise. Allgemeiner gesagt, die Das Ergebnis zeigt, dass die Annahme einer differentiellen Hinweisgewichtung wichtig für eine Theorie von ist Dependency-Completion. Diese Idee der differentiellen Cue-Gewichtung wurde unabhängig unterstützt durch eine Modellierungsstudie zu Subjekt-Verb-Nichteinigungsabhängigkeiten (Artikel III). Insgesamt benötigt der Cue-basierte Abruf, der eine allgemeine Theorie der Abhängigkeitsvervollständigung ist um zwei neue Annahmen aufzunehmen: (i) die im Gedächtnis gespeicherten Substantive können einer Wahrscheinlichkeitsanalyse unterzogen werden Feature-Verfälschung, und (ii) die für den Abruf verwendeten sprachlichen Cue können unterschiedlich gewichtet werden. Das ist das kumulative Ergebnis der in dieser Dissertation vorgestellten Modellierungsarbeit.Die Dissertation leistet einen wichtigen theoretischen Beitrag: Satzverständnis in Der Mensch wird von einem Mechanismus getrieben, der einen hinweisbasierten Abruf, eine probabilistische Merkmalsverzerrung und eine differentielle Hinweisgewichtung annimmt. Diese Einsicht ist theoretisch wichtig, weil es einige gibt unabhängige Unterstützung für diese drei Annahmen in der Satzverarbeitung und im weiteren Gedächtnis Literatur. Die hier vorgestellten Modellierungsarbeiten sind auch methodisch wichtig, weil für die Zum ersten Mal wird gezeigt, (i) wie die komplexen Modelle der Satzverarbeitung evaluiert werden können Daten aus mehreren Studien gleichzeitig zu verwenden, ohne die Modelle zu stark zu vereinfachen, und (ii) wie die Schlussfolgerungen aus dem Verhalten auf individueller Ebene können in der Theorieentwicklung verwendet werden. KW - sentence comprehension KW - individual differences KW - cue-based retrieval KW - memory distortion KW - Approximate Bayesian Computation KW - cue reliability KW - ungefähre Bayessche Komputation KW - Cue-Gewichtung KW - Cue-basierter Retrieval KW - individuelle Unterschiede KW - Darstellung Verfälschung KW - Satzverarbeitung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-585055 ER - TY - THES A1 - Mertzen, Daniela T1 - A cross-linguistic investigation of similarity-based interference in sentence comprehension T1 - Eine cross-linguistische Untersuchung ähnlichkeitsbasierter Interferenz in der Satzverarbeitung N2 - The aim of this dissertation was to conduct a larger-scale cross-linguistic empirical investigation of similarity-based interference effects in sentence comprehension. Interference studies can offer valuable insights into the mechanisms that are involved in long-distance dependency completion. Many studies have investigated similarity-based interference effects, showing that syntactic and semantic information are employed during long-distance dependency formation (e.g., Arnett & Wagers, 2017; Cunnings & Sturt, 2018; Van Dyke, 2007, Van Dyke & Lewis, 2003; Van Dyke & McElree, 2011). Nevertheless, there are some important open questions in the interference literature that are critical to our understanding of the constraints involved in dependency resolution. The first research question concerns the relative timing of syntactic and semantic interference in online sentence comprehension. Only few interference studies have investigated this question, and, to date, there is not enough data to draw conclusions with regard to their time course (Van Dyke, 2007; Van Dyke & McElree, 2011). Our first cross-linguistic study explores the relative timing of syntactic and semantic interference in two eye-tracking reading experiments that implement the study design used in Van Dyke (2007). The first experiment tests English sentences. The second, larger-sample experiment investigates the two interference types in German. Overall, the data suggest that syntactic and semantic interference can arise simultaneously during retrieval. The second research question concerns a special case of semantic interference: We investigate whether cue-based retrieval interference can be caused by semantically similar items which are not embedded in a syntactic structure. This second interference study builds on a landmark study by Van Dyke & McElree (2006). The study design used in their study is unique in that it is able to pin down the source of interference as a consequence of cue overload during retrieval, when semantic retrieval cues do not uniquely match the retrieval target. Unlike most other interference studies, this design is able to rule out encoding interference as an alternative explanation. Encoding accounts postulate that it is not cue overload at the retrieval site but the erroneous encoding of similar linguistic items in memory that leads to interference (Lewandowsky et al., 2008; Oberauer & Kliegl, 2006). While Van Dyke & McElree (2006) reported cue-based retrieval interference from sentence-external distractors, the evidence for this effect was weak. A subsequent study did not show interference of this type (Van Dyke et al., 2014). Given these inconclusive findings, further research is necessary to investigate semantic cue-based retrieval interference. The second study in this dissertation provides a larger-scale cross-linguistic investigation of cue-based retrieval interference from sentence-external items. Three larger-sample eye-tracking studies in English, German, and Russian tested cue-based interference in the online processing of filler-gap dependencies. This study further extends the previous research by investigating interference in each language under varying task demands (Logačev & Vasishth, 2016; Swets et al., 2008). Overall, we see some very modest support for proactive cue-based retrieval interference in English. Unexpectedly, this was observed only under a low task demand. In German and Russian, there is some evidence against the interference effect. It is possible that interference is attenuated in languages with richer case marking. In sum, the cross-linguistic experiments on the time course of syntactic and semantic interference from sentence-internal distractors support existing evidence of syntactic and semantic interference during sentence comprehension. Our data further show that both types of interference effects can arise simultaneously. Our cross-linguistic experiments investigating semantic cue-based retrieval interference from sentence-external distractors suggest that this type of interference may arise only in specific linguistic contexts. N2 - Ziel dieser Dissertation war es, eine größer-angelegte, sprachübergreifende, empirische Untersuchung von Interferenzeffekten beim Satzverstehen durchzuführen. Interferenzstudien bieten wertvolle Einblicke in die Mechanismen, die während der Satzverarbeitung, insbesondere bei der Bildung von nicht-lokalen Dependenzen eine Rolle spielen. Studien zu ähnlichkeitsbasierten Interferenzeffekten haben gezeigt, dass syntaktische und semantische Informationen bei der Bildung von nicht-lokalen Dependenzen verwendet werden (z. B. Arnett & Wagers, 2017; Cunnings & Sturt, 2018; Van Dyke, 2007, Van Dyke & Lewis, 2003; Van Dyke & McElree, 2011). Dennoch bleiben in der Interferenzliteratur einige wichtige Fragen unbeantwortet, die für unser Verständnis der Satzverarbeitungsmechanismen von Bedeutung sind. Die erste Forschungsfrage betrifft den zeitlichen Ablauf syntaktischer und semantischer Interferenz während des Satzverstehens. Nur wenige Interferenzstudien haben diese Frage untersucht, jedoch sind aktuell nicht genügend Daten vorhanden, um Schlussfolgerungen bezüglich des zeitlichen Verlaufs zu ziehen (Van Dyke, 2007; Van Dyke & McElree, 2011). Die erste sprachübergreifende Studie in dieser Dissertation untersucht den zeitlichen Ablauf von syntaktischer und semantischer Interferenz mithilfe zweier Eyetracking-Leseexperimente. Diese nutzen das von Van Dyke (2007) implementierte Studiendesign. Das erste Experiment testet englische Sätze. Das zweite Experiment, welches eine größere Stichprobe untersucht, testet Interferenzeffekte im Deutschen. Insgesamt deuten die Daten darauf hin, dass syntaktische und semantische Interferenzeffekte zeitgleich auftreten können. Die zweite Forschungsfrage untersucht einen Spezialfall der semantischen Interferenz: Es wird untersucht, ob cue-abhängige Abrufinterferenz durch Items verursacht werden kann, die nicht in die syntaktische Struktur eingebettet sind. Diese zweite Interferenzstudie nutzt das Studiendesign von Van Dyke & McElree (2006), welches in der Lage ist, die Quelle der Interferenzeffekte als Folge von “cue overload” zu bestimmen, d.h., wenn semantische cues während des Abrufs aus dem Gedächtnis nicht eindeutig mit dem Zielwort übereinstimmen. Im Gegensatz zu anderen Interferenzstudien kann dieses Design Enkodierungsinterferenz als alternative Erklärung ausschließen. Enkodierungsansätze nehmen an, dass nicht ein “cue overload”, sondern eine fehlerhafte Kodierung ähnlicher Items im Gedächtnis Interferenz zur Folge hat (Lewandowsky et al., 2008; Oberauer & Kliegl, 2006). Obwohl die Van Dyke & McElree (2006) Studie angibt, cue-basierte Interferenz zu beobachten, ist die Evidenz für diesen Effekt schwach. Eine Folgestudie findet keine Evidenz für Interferenzeffekte dieser Art (Van Dyke et al., 2014). Die nicht eindeutigen Ergebnisse erfordern weitere Untersuchungen semantischer cue-basierter Interferenz. Die zweite Studie in dieser Dissertation untersucht cue-basierte Interferenzeffekte durch Items, die nicht in die syntaktische Struktur eingebettet sind. Drei Eyetracking-Studien, im Englischen, Deutschen und Russischen, untersuchen cue-basierte Interferenz während der Verarbeitung von “filler-gap” Dependenzen. Diese Studie ergänzt bisherige Studien, indem sie Interferenz in mehreren Sprachen sowie unter unterschiedlich komplexen Aufgabenanforderungen untersucht (Logačev & Vasishth, 2016; Swets et al., 2008). Insgesamt zeigen die Daten nur sehr schwache Evidenz für cue-basierte Interferenz im Englischen, und ausschließlich unter wenig komplexen Aufgabenanforderungen. Im Deutschen und Russischen sprechen die Daten gegen einen Interferenzeffekt, was darauf hinweisen könnte, dass Interferenzeffekte in Sprachen mit reicher Kasusmarkierung nur abgeschwächt vorzufinden sind. Insgesamt zeigen die sprachübergreifenden Experimente zum zeitlichen Verlauf syntaktischer und semantischer Interferenz durch satz-interne Items, dass beide Arten von Interferenzeffekten gleichzeitig auftreten können. Unsere sprachübergreifenden Experimente zur Untersuchung semantischer Interferenzen durch satz-externe Items deuten darauf hin, dass diese Art von Interferenz nur kontextspezifisch auftritt. KW - psycholinguistics KW - sentence processing KW - cue-based retrieval KW - similarity-based interference KW - eye-tracking KW - Psycholinguistik KW - Satzverarbeitung KW - Cue-abhängiger Abruf KW - ähnlichkeitsbasierte Gedächtnisinterferenz KW - Eye-tracking Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-556685 ER - TY - THES A1 - Håkansson, Nils T1 - A Dark Matter line search using 3D-modeling of Cherenkov showers below 10 TeV with VERITAS T1 - Die Suche nach Dunkler Materie mit VERITAS durch Liniensuche und 3D Modellierung von Cherenkov-Schauern unter 10 TeV N2 - Dark matter, DM, has not yet been directly observed, but it has a very solid theoretical basis. There are observations that provide indirect evidence, like galactic rotation curves that show that the galaxies are rotating too fast to keep their constituent parts, and galaxy clusters that bends the light coming from behind-lying galaxies more than expected with respect to the mass that can be calculated from what can be visibly seen. These observations, among many others, can be explained with theories that include DM. The missing piece is to detect something that can exclusively be explained by DM. Direct observation in a particle accelerator is one way and indirect detection using telescopes is another. This thesis is focused on the latter method. The Very Energetic Radiation Imaging Telescope Array System, V ERITAS, is a telescope array that detects Cherenkov radiation. Theory predicts that DM particles annihilate into, e.g., a γγ pair and create a distinctive energy spectrum when detected by such telescopes, e.i., a monoenergetic line at the same energy as the particle mass. This so called ”smoking-gun” signature is sought with a sliding window line search within the sub-range ∼ 0.3 − 10 TeV of the VERITAS energy range, ∼ 0.01 − 30 TeV. Standard analysis within the VERITAS collaboration uses Hillas analysis and look-up tables, acquired by analysing particle simulations, to calculate the energy of the particle causing the Cherenkov shower. In this thesis, an improved analysis method has been used. Modelling each shower as a 3Dgaussian should increase the energy recreation quality. Five dwarf spheroidal galaxies were chosen as targets with a total of ∼ 224 hours of data. The targets were analysed individually and stacked. Particle simulations were based on two simulation packages, CARE and GrISU. Improvements have been made to the energy resolution and bias correction, up to a few percent each, in comparison to standard analysis. Nevertheless, no line with a relevant significance has been detected. The most promising line is at an energy of ∼ 422 GeV with an upper limit cross section of 8.10 · 10^−24 cm^3 s^−1 and a significance of ∼ 2.73 σ, before trials correction and ∼ 1.56 σ after. Upper limit cross sections have also been calculated for the γγ annihilation process and four other outcomes. The limits are in line with current limits using other methods, from ∼ 8.56 · 10^−26 − 6.61 · 10^−23 cm^3s^−1. Future larger telescope arrays, like the upcoming Cherenkov Telescope Array, CTA, will provide better results with the help of this analysis method. N2 - Dunkle Materie, DM, wurde noch nicht direkt beobachtet, aber die Theorie ist sehr solide. Es gibt Beobachtungen, die als indirekte Beweise gelten, z.B. galaktische Rotationskurven, die besagen, dass Galaxien zu schnell rotieren um ohne eine zusätzliche Massenkomponente zusammenhalten zu können, oder elliptische Zwerggalaxien, die massereicher sind als die sichtbare Materie vermuten lässt. Diese Beobachtungen könnten z.B. mit dem Vorhandensein von DM erkärt werden, aber bis jetzt fehlt die Beobachtung eines Phänomens, das ausschließlich durch DM erklärt werden kann. Eine Möglichkeit wäre die Beobachtung einer speziellen Energiesignatur durch Teleskope, welche das Thema der vorliegenden Arbeit ist. Das Very Energetic Radiation Imaging Telescope Array System, VERITAS, ist ein Teleskoparray für Cherenkov-Strahlung. Entsprechend der Theorie sollten Teilchen dunkler Materie annihilieren und z.B. ein γγ Paar bilden. Dieses sollte im Teleskop eine spezielle Energiesignatur hinterlassen, nämlich eine monoenergetische Linie bei einer Energie, die der Teilchenmasse entspricht. Diese ”smoking-gun” Signatur wird mit einer sliding window Liniensuche bei Energien < 10TeV gesucht. In der VERITAS Kollaboration werden standardm¨aßig eine Hillas-Analyse und Nachschlagetabellen aus Teilchensimulationen verwendet, um die Energie des Teilchens zu berechnen, das den Cherenkov-Schauer verursacht hat. Hier wird eine verbesserte Analysemethode verwendet. Dabei wird jeder Schauer als 3D-Gaußkurve modelliert, was die Qualität der Energierekonstruktion erheblich verbessern sollte. Dafur wurden funf elliptische Zwerggalaxien beobachtet und einzeln sowie insgesamt analysiert, insgesamt ~ 224 h Beobachtungszeit. Dabei werden zwei verschiedene Teilchensimulationsprogramme verwendet, CARE und GrISU. In dieser Arbeit wurde die Energieauflösung und die Bias-Korrektur um einige Prozent gegen¨uber der Standardanalyse verbessert. Es wurde jedoch keine signifikante Linie detektiert. Die vielversprechendste Linie befindet sich bei einer Energie von ~ 422GeV und hat einen Querschnitt von 8.10·10^−24 cm^3 s^−1 und ein Signifikanzlevel von ~ 2.73 σ bzw. 1.56σ vor bzw. nach statistischer Korrektur. Außerdem wurden obere Grenzwerte fur verschiedene Annihilierungsprozesse berechnet. Sie stimmen mit anderen aktuellen Grenzwerten überein (~ 8.56 · 10^−26 − 6.61 · 10^−23 cm^3s^−1). Zukünftig werden mehr Beobachtungsdaten und neue Teleskoparrays, wie das Cherenkov Telescope Array, CTA, mit Hilfe dieser Analysemethode bessere Ergebnisse ermöglichen. KW - Dark Matter KW - line search KW - VERITAS KW - 3D-modeling KW - Cherenkov showers KW - Dunkler Materie KW - Line Suche KW - VERITAS KW - 3D Modellierung KW - Cherenkov-Schauern Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397670 ER - TY - THES A1 - Krentz, Konrad-Felix T1 - A Denial-of-Sleep-Resilient Medium Access Control Layer for IEEE 802.15.4 Networks T1 - Eine Denial-of-Sleep-Resiliente Mediumzugriffsschicht für IEEE-802.15.4-Netzwerke N2 - With the emergence of the Internet of things (IoT), plenty of battery-powered and energy-harvesting devices are being deployed to fulfill sensing and actuation tasks in a variety of application areas, such as smart homes, precision agriculture, smart cities, and industrial automation. In this context, a critical issue is that of denial-of-sleep attacks. Such attacks temporarily or permanently deprive battery-powered, energy-harvesting, or otherwise energy-constrained devices of entering energy-saving sleep modes, thereby draining their charge. At the very least, a successful denial-of-sleep attack causes a long outage of the victim device. Moreover, to put battery-powered devices back into operation, their batteries have to be replaced. This is tedious and may even be infeasible, e.g., if a battery-powered device is deployed at an inaccessible location. While the research community came up with numerous defenses against denial-of-sleep attacks, most present-day IoT protocols include no denial-of-sleep defenses at all, presumably due to a lack of awareness and unsolved integration problems. After all, despite there are many denial-of-sleep defenses, effective defenses against certain kinds of denial-of-sleep attacks are yet to be found. The overall contribution of this dissertation is to propose a denial-of-sleep-resilient medium access control (MAC) layer for IoT devices that communicate over IEEE 802.15.4 links. Internally, our MAC layer comprises two main components. The first main component is a denial-of-sleep-resilient protocol for establishing session keys among neighboring IEEE 802.15.4 nodes. The established session keys serve the dual purpose of implementing (i) basic wireless security and (ii) complementary denial-of-sleep defenses that belong to the second main component. The second main component is a denial-of-sleep-resilient MAC protocol. Notably, this MAC protocol not only incorporates novel denial-of-sleep defenses, but also state-of-the-art mechanisms for achieving low energy consumption, high throughput, and high delivery ratios. Altogether, our MAC layer resists, or at least greatly mitigates, all denial-of-sleep attacks against it we are aware of. Furthermore, our MAC layer is self-contained and thus can act as a drop-in replacement for IEEE 802.15.4-compliant MAC layers. In fact, we implemented our MAC layer in the Contiki-NG operating system, where it seamlessly integrates into an existing protocol stack. N2 - Mit dem Aufkommen des Internets der Dinge (IoT), werden immer mehr batteriebetriebene und energieerntende Geräte in diversen Anwendungsbereichen eingesetzt, etwa in der Heimautomatisierung, Präzisionslandwirtschaft, Industrieautomatisierung oder intelligenten Stadt. In diesem Kontext stellen sogenannte Denial-of-Sleep-Angriffe eine immer kritischer werdende Bedrohung dar. Solche Angriffe halten batteriebetriebene, energieerntende oder anderweitig energiebeschränkte Geräte zeitweise oder chronisch ab, in energiesparende Schlafmodi überzugehen. Erfolgreiche Denial-of-Sleep-Angriffe führen zumindest zu einer langen Ausfallzeit der betroffenen Geräte. Um betroffene batteriebetriebene Geräte wieder in Betrieb zu nehmen, müssen zudem deren Batterien gewechselt werden. Dies ist mühsam oder eventuell sogar unmöglich, z.B. wenn solche Geräte an unzugänglichen Orten installiert sind. Obwohl die Forschungsgemeinschaft bereits viele Denial-of-Sleep-Abwehrmechanismen vorgeschlagen hat, besitzen die meisten aktuellen IoT-Protokolle überhaupt keine Denial-of-Sleep-Abwehrmechanismen. Dies kann zum einen daran liegen, dass man des Problems noch nicht gewahr ist, aber zum anderen auch daran, dass viele Integrationsfragen bislang ungeklärt sind. Des Weiteren existieren bisher sowieso noch keine effektiven Abwehrmechanismen gegen bestimmte Denial-of-Sleep-Angriffe. Der Hauptbeitrag dieser Dissertation ist die Entwicklung einer Denial-of-Sleep-resilienten Mediumzugriffsschicht für IoT-Geräte, die via IEEE-802.15.4-Funkverbindungen kommunizieren. Die entwickelte Mediumzugriffsschicht besitzt zwei Hauptkomponenten. Die erste Hauptkomponente ist ein Denial-of-Sleep-resilientes Protokoll zur Etablierung von Sitzungsschlüsseln zwischen benachbarten IEEE-802.15.4-Knoten. Diese Sitzungsschlüssel dienen einerseits der grundlegenden Absicherung des Funkverkehrs und andererseits der Implementierung zusätzlicher Denial-of-Sleep-Abwehrmechanismen in der zweiten Hauptkomponente. Die zweite Hauptkomponente ist ein Denial-of-Sleep-resilientes Mediumzugriffsprotokoll. Bemerkenswert an diesem Mediumzugriffsprotokoll ist, dass es nicht nur neuartige Denial-of-Sleep-Abwehrmechanismen enthält, sondern auch dem Stand der Technik entsprechende Mechanismen zur Verringerung des Energieverbrauchs, zur Steigerung des Durchsatzes sowie zur Erhöhung der Zuverlässigkeit. Zusammenfassend widersteht bzw. mildert unsere Denial-of-Sleep-resiliente Mediumzugriffsschicht alle uns bekannten Denial-of-Sleep-Angriffe, die gegen sie gefahren werden können. Außerdem kann unsere Denial-of-Sleep-resiliente Mediumzugriffsschicht ohne Weiteres an Stelle von IEEE-802.15.4-konformen Mediumzugriffsschichten eingesetzt werden. Dies zeigen wir durch die nahtlose Integration unserer Mediumzugriffsschicht in den Netzwerk-Stack des Betriebssystems Contiki-NG. KW - medium access control KW - denial of sleep KW - internet of things KW - Mediumzugriffskontrolle KW - Schlafentzugsangriffe KW - Internet der Dinge Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439301 ER - TY - THES A1 - Klar, Jochen T1 - A detailed view of filaments and sheets of the warm-hot intergalactic medium T1 - Eine detaillierte Ansicht der Filamente und Ebenen des warm-heißen intergalaktischen Mediums N2 - In the context of cosmological structure formation sheets, filaments and eventually halos form due to gravitational instabilities. It is noteworthy, that at all times, the majority of the baryons in the universe does not reside in the dense halos but in the filaments and the sheets of the intergalactic medium. While at higher redshifts of z > 2, these baryons can be detected via the absorption of light (originating from more distant sources) by neutral hydrogen at temperatures of T ~ 10^4 K (the Lyman-alpha forest), at lower redshifts only about 20 % can be found in this state. The remain (about 50 to 70 % of the total baryons mass) is unaccounted for by observational means. Numerical simulations predict that these missing baryons could reside in the filaments and sheets of the cosmic web at high temperatures of T = 10^4.5 - 10^7 K, but only at low to intermediate densities, and constitutes the warm-hot intergalactic medium (WHIM). The high temperatures of the WHIM are caused by the formation of shocks and the subsequent shock-heating of the gas. This results in a high degree of ionization and renders the reliable detection of the WHIM a challenging task. Recent high-resolution hydrodynamical simulations indicate that, at redshifts of z ~ 2, filaments are able to provide very massive galaxies with a significant amount of cool gas at temperatures of T ~ 10^4 K. This could have an important impact on the star-formation in those galaxies. It is therefore of principle importance to investigate the particular hydro- and thermodynamical conditions of these large filament structures. Density and temperature profiles, and velocity fields, are expected to leave their special imprint on spectroscopic observations. A potential multiphase structure may act as tracer in observational studies of the WHIM. In the context of cold streams, it is important to explore the processes, which regulate the amount of gas transported by the streams. This includes the time evolution of filaments, as well as possible quenching mechanisms. In this context, the halo mass range in which cold stream accretion occurs is of particular interest. In order to address these questions, we perform particular hydrodynamical simulations of very high resolution, and investigate the formation and evolution of prototype structures representing the typical filaments and sheets of the WHIM. We start with a comprehensive study of the one-dimensional collapse of a sinusoidal density perturbation (pancake formation) and examine the influence of radiative cooling, heating due to an UV background, thermal conduction, and the effect of small-scale perturbations given by the cosmological power spectrum. We use a set of simulations, parametrized by the wave length of the initial perturbation L. For L ~ 2 Mpc/h the collapse leads to shock-confined structures. As a result of radiative cooling and of heating due to an UV background, a relatively cold and dense core forms. With increasing L the core becomes denser and more concentrated. Thermal conduction enhances this trend and may lead to an evaporation of the core at very large L ~ 30 Mpc/h. When extending our simulations into three dimensions, instead of a pancake structure, we obtain a configuration consisting of well-defined sheets, filaments, and a gaseous halo. For L > 4 Mpc/h filaments form, which are fully confined by an accretion shock. As with the one-dimensional pancakes, they exhibit an isothermal core. Thus, our results confirm a multiphase structure, which may generate particular spectral tracers. We find that, after its formation, the core becomes shielded against further infall of gas onto the filament, and its mass content decreases with time. In the vicinity of the halo, the filament's core can be attributed to the cold streams found in other studies. We show, that the basic structure of these cold streams exists from the very beginning of the collapse process. Further on, the cross section of the streams is constricted by the outwards moving accretion shock of the halo. Thermal conduction leads to a complete evaporation of the cold stream for L > 6 Mpc/h. This corresponds to halos with a total mass higher than M_halo = 10^13 M_sun, and predicts that in more massive halos star-formation can not be sustained by cold streams. Far away from the gaseous halo, the temperature gradients in the filament are not sufficiently strong for thermal conduction to be effective. N2 - Im Rahmen der kosmologischen Strukturbildung entstehen durch Gravitationsinstabilitäten Flächen, Filamente und schließlich Halos. Interessanterweise befinden sich zu jedem Zeitpunkt der kosmologischen Entwicklung der Großteil der Baryonen nicht in den Halos, sondern in den Filamenten und Ebenen des intergalaktischen Mediums. Während diese Baryonen bei höheren Rotverschiebungen (z ~ 2) noch in Form durch die Absorbtion von Licht (von weit entfernteren Quellen) durch neutralen Wasserstoff bei einer Temperatur von T ~ 10^4 K beobachtbar sind (Lyman-Alpha Wald), gilt dies bei niedrigeren Rotverschiebungen für nur noch ca. 20 % der Baryonen. Der überwiegende Teil (ca. 50-70 % der gesamten baryonischen Masse) sind bisher noch nicht direkt beobachtbar. Numerische Simulationen sagen jedoch voraus, das sich diese Baryonen in den Filamenten und Flächen des kosmischen Netzes befinden. Die entsprechende Gasverteilung zeichnet sich durch hohe Temperaturen T = 10^5 - 10^7 K und geringe bis mittlere Dichten aus und wird als warm-heißes intergalaktisches Medium (WHIM) bezeichnet. Die hohen Temperaturen entstehen in Folge der Bildung von Stoßwellen und der darauf folgenden Erhitzung des Gases (shock-heating). Das WHIM ist daher hochgradig ionisiert und sein verlässlicher Nachweis stellt eine große Herausforderung für die beobachtende Kosmologie dar. Neuere hydrodynamische Simulationen zeigen, dass sich bei höheren Rotverschiebungen von z ~ 2 Gasströmungen entlang der Filamente bilden, die massive Galaxien mit erheblichen Mengen an relativ kaltem Gas (T ~ 10^4 K) versorgen können. Dies hätte einen erheblichen Einfluss auf die Sternentstehung in diesen Galaxien. Es ist daher von grundsätzlichem Interesse, die spezifischen hydro- und thermodynamischen Bedingungen in den Strukturen des WHIM zu untersuchen. Sowohl Dichte- und Temperaturprofile als auch Geschwindigkeitsfelder prägen spektroskopische Beobachtungen. Eine mögliche Mehrphasenstruktur des WHIM könnte daher als Indikator in beobachtenden Studien dienen. Im Zusammenhang mit den kalten Strömen ist es besonders interessant, Prozesse zu untersuchen die den Zufluss von kaltem Gas zu den Galaxien regulieren. Dies umfasst die Zeitentwicklung des Anteils an kaltem Gas in den Filamenten, sowie mögliche Mechanismen, die zum Versiegen des Zuflusses von kaltem Gas auf die Galaxienscheibe führen. Um diese Zusammenhänge zu erforschen, führen wir spezielle hydrodynamische Simulationen mit sehr hoher Auflösung durch, die zu ausgewählten, wohldefinierten Strukturen führen, die das WHIM charakterisieren. Wir beginnen mit einer ausführlichen Untersuchung des eindimensionalen Kollaps einer sinusförmigen Störung (pancake formation). Hierbei untersuchen wir den Einfluss von Strahlungkühlung, Heizung durch den intergalaktischen UV Hintergrund, Wärmeleitung, sowie von kleinskaligen Störungen, welche dem kosmologischen Störungsspektrum folgen. Wir benutzen hierbei eine Reihe von Simulationen, welche die Längenskala der anfänglichen Störung L als Parameter verwenden. Für L ~ 2 Mpc/h führt der Kollaps zur Ausbildung einer Stoßwelle. Zusätzlich entsteht als Folge der Strahlungskühlung und der Heizung durch den UV Hintergrund ein relativ dichter und kalter isothermer Kern. Mit ansteigendem L wird dieser Kern dichter und kompakter. Durch Wärmeleitung reduziert sich die räumliche Ausdehnung des Kerns. Für L ~ 30 Mpc/h führt dies zu einem Verschwinden des Kerns. Mit der Erweiterung unserer Methodik auf dreidimensionale Simulationen, entsteht nun eine Konfiguration, welche aus wohldefinierten Flächen, Filamenten und einem gasförmigen Halo besteht. Für L > 4 Mpc/h, erhalten wir Filamente, die vollständig durch Akkretionsschocks begrenzt sind. Wie in unseren eindimensionalen Simulationen weisen auch sie einen isothermen Kern auf. Dies legt nahe, dass das WHIM eine Mehrphasenstruktur besitzt und mögliche Spektralsignaturen erzeugen kann. Nach seiner Entstehung ist der Kern gegen weiteren Zufluss von Gas abgeschirmt und seine Masse reduziert sich mit der Zeit. In der direkten Umgebung des Halos entspricht der Kern des Filamentes den oben angesprochenen kalten Strömen. Unsere Untersuchung zeigt, dass diese während der gesamten Entwicklung des Halos existent sind. In der weiteren Entwicklung werden sie durch den expandierenden Akkretionsschock des Halos verengt. Ab einer Skala von L > 6 Mpc/h kann Wärmeleitung zu einem Verschwinden des Zustroms von kaltem Gas führen. Diese Skala entspricht Halos mit einer Gesamtmasse von M_halo = 10^13 M_sun. Galaxien, die sich in noch massiveren Halos bilden, können daher nicht durch kalte Ströme mit Gas für die Sternentstehung versorgt werden. Im Filament, weit außerhalb des gasförmigen Halos, sind die Temperaturgradienten zu klein, um effiziente Wärmeleitung zu ermöglichen. KW - Kosmologie KW - Hydrodynamik KW - Intergalaktisches Medium KW - cosmology KW - hydrodynamics KW - intergalactic medium Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58038 ER - TY - THES A1 - Biewald, Anne T1 - A dynamic life cycle model for Germany with unemployment uncertainty T1 - Ein dynamisch, stochastisches Lebenszyklusmodell für Deutschland mit Beschäftigungsunsicherheit N2 - This work analyzes the saving and consumption behavior of agents faced with the possibility of unemployment in a dynamic and stochastic life cycle model. The intertemporal optimization is based on Dynamic Programming with a backward recursion algorithm. The implemented uncertainty is not based on income shocks as it is done in traditional life cycle models but uses Markov probabilities where the probability for the next employment status of the agent depends on the current status. The utility function used is a CRRA function (constant relative risk aversion), combined with a CES function (constant elasticity of substitution) and has several consumption goods, a subsistence level, money and a bequest function. N2 - Diese Arbeit modelliert das Spar- und Konsumverhalten von Individuen in Deutschland mit einem Lebenszyklusmodell. Dabei hat das Modell zwei Besonderheiten, erstens trifft die Möglichkeit arbeitslos zu werden nicht jeden Agenten des Models mit der gleichen Wahrscheinlichkeit, sondern wird von Bildungsabschluss und dem Beschäftigungsstatus des Agenten beeinflußt und zweitens weicht die verwendete Nutzenfunktion von den Standardnutzenfunktionen ab und implementiert Vererbung, Geld, verschiedene Güter und Subsistenzlevel. Der Optimierungsalgorithmus basiert auf Dynamischer Programmierung. KW - Lebenszyklusmodell KW - Deutschland KW - Arbeitslosigkeit KW - Markov Wahrscheinlichkeiten KW - Sparraten KW - life cycle model KW - Germany KW - unemployment KW - markov chains KW - saving rates Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-33111 ER - TY - THES A1 - Muksin, Umar T1 - A fault-controlled geothermal system in Tarutung (North Sumatra, Indonesia)investigated by seismological analysis N2 - The seismic structure (Vp, Vp/Vs, and Qp anomalies) contributes to the physical properties and the lithology of rocks and possible fluid distribution in the region. The Vp model images the geometry of the Tarutung and the Sarulla basins. Both basins have a depth of around 2.0 km. High Vp/Vs and high attenuation (low Qp) anomalies are observed along the Sarulla graben associated with a weak zone caused by volcanic activities along the graben. Low Vp/Vs and low conductivity anomalies are found in the west of the Tarutung basin. This anomaly is interpreted as dry, compact, and rigid granitic rock in the region as also found by geological observations. Low Vp, high Vp/Vs and low Qp anomalies are found at the east of the Tarutung basin which appear to be associated with the three big geothermal manifestations in Sipoholon, Hutabarat, and Panabungan area. These anomalies are connected with high Vp/Vs and low Qp anomalies below the Tarutung basin at depth of around 3 - 10 km. This suggests that these geothermal manifestations are fed by the same source of the hot fluid below the Tarutung basin. The hot fluids from below the Tarutung basin propagate to the more dilatational and more permeable zone in the northeast. Granite found in the west of the Tarutung basin could also be abundant underneath the basin at a certain depth so that it prevents the hot fluid to be transported directly to the Tarutung basin. High seismic attenuation and low Vp/Vs anomalies are found in the southwest of the Tarutung basin below the Martimbang volcano. These anomalies are associated with hot rock below the volcano without or with less amount of partial melting. There is no indication that the volcano controls the geothermal system around the Tarutung basin. The geothermal resources around the Tarutung basin is a fault-controlled system as a result of deep circulation of fluids. Outside of the basin, the seismicity delineation and the focal mechanism correlate with the shape and the characteristics of the strike-slip Sumatran fault. Within the Tarutung basin, the seismicity is distributed more broadly which coincides with the margin of the basin. An extensional duplex system in the Tarutung basin is derived from the seismicity and focal mechanism analysis which is also consistent with the geological observations. The vertical distribution of the seismicity suggests the presence of a negative flower structure within the Tarutung basin. N2 - Indonesien zählt zu den weltweit führenden Ländern bei der Nutzung von geothermischer Energie. Die geothermischen Energiequellen sind im Wesentlichen an den aktiven Vulkanismus gebunden, der durch die Prozesse an der indonesischen Subduktionszone verursacht wird. Darüber hinaus sind geotektonische Strukturen wie beispielsweise die Sumatra-Störung als verstärkende Faktoren für das geothermische Potenzial von Bedeutung. Bei der geophysikalischen Erkundung der indonesischen Geothermie-Ressourcen konzentrierte man sich bisher vor allem auf die Magnetotellurik. Passive Seismologie wurde dahingegen ausschließlich für die Überwachung von im Betrieb befindlichen Geothermie-Anlagen verwendet. Jüngste Untersuchungungen z.B. in Island und in den USA haben jedoch gezeigt, dass seismologische Verfahren bereits in der Erkundungsphase wichtige Informationen zu den physikalischen Eigenschaften, zum Spannungsfeld und zu möglichen Fluid- und Wärmetransportwegen liefern können. In der vorgelegten Doktorarbeit werden verschiedene moderne Methoden der passiven Seismologie verwendet, um beispielhaft ein neues, von der indonesischen Regierung für zukünftige geothermische Energiegewinnung ausgewiesenes Gebiet im nördlichen Teil Sumatras (Indonesien) zu erkunden. Die konkreten Ziele der Untersuchungen umfassten (1) die Ableitung von 3D Strukturmodellen der P- und S-Wellen Geschwindigkeiten (Parameter Vp und Vs), (2) die Bestimmung der Absorptionseigenschaften (Parameter Qp), und (3) die Kartierung und Charakterisierung von Störungssystemen auf der Grundlage der Seismizitätsverteilung und der Herdflächenlösungen. Für diese Zwecke habe ich zusammen mit Kollegen ein seismologisches Netzwerk in Tarutung (Sumatra) aufgebaut und über einen Zeitraum von 10 Monaten (Mai 2011 – Februar 2012) betrieben. Insgesamt wurden hierbei 42 Stationen (jeweils ausgestattet mit EDL-Datenlogger, 3-Komponenten, 1 Hz Seismometer) über eine Fläche von etwa 35 x 35 km verteilt. Mit dem Netzwerk wurden im gesamten Zeitraum 2568 lokale Erdbeben registriert. Die integrierte Betrachtung der Ergebnisse aus den verschiedenen Teilstudien (Tomographie, Erdbebenverteilung) erlaubt neue Einblicke in die generelle geologische Stukturierung sowie eine Eingrenzung von Bereichen mit einem erhöhten geothermischen Potenzial. Das tomographische Vp-Modell ermöglicht eine Bestimmung der Geometrie von Sedimentbecken entlang der Sumatra-Störung. Für die Geothermie besonders interessant ist der Bereich nordwestlich des Tarutung-Beckens. Die dort abgebildeten Anomalien (erhöhtes Vp/Vs, geringes Qp) habe ich als mögliche Aufstiegswege von warmen Fluiden interpretiert. Die scheinbar asymetrische Verteilung der Anomalien wird hierbei im Zusammenhang mit der Seismizitätsverteilung, der Geometrie der Beben-Bruchflächen, sowie struktur-geologischen Modellvorstellungen diskutiert. Damit werden wesentliche Informationen für die Planung einer zukünftigen geothermischen Anlage bereitgestellt. T2 - Seismologische Untersuchungen eines Störungs-kontrollierten geothermischen Systems in Tarutung (Nord-Sumatra, Indonesien) KW - Tarutung KW - Sumatra Störung KW - Absorptionseigenschaften KW - seismische Geschwindigkeiten KW - Tarutung KW - Sumatra fault KW - attenuation tomography KW - velocity structure Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72065 ER - TY - THES A1 - Beyhl, Thomas T1 - A framework for incremental view graph maintenance T1 - Ein Framework für die inkrementelle Wartung von Sichten auf Graphen N2 - Nowadays, graph data models are employed, when relationships between entities have to be stored and are in the scope of queries. For each entity, this graph data model locally stores relationships to adjacent entities. Users employ graph queries to query and modify these entities and relationships. These graph queries employ graph patterns to lookup all subgraphs in the graph data that satisfy certain graph structures. These subgraphs are called graph pattern matches. However, this graph pattern matching is NP-complete for subgraph isomorphism. Thus, graph queries can suffer a long response time, when the number of entities and relationships in the graph data or the graph patterns increases. One possibility to improve the graph query performance is to employ graph views that keep ready graph pattern matches for complex graph queries for later retrieval. However, these graph views must be maintained by means of an incremental graph pattern matching to keep them consistent with the graph data from which they are derived, when the graph data changes. This maintenance adds subgraphs that satisfy a graph pattern to the graph views and removes subgraphs that do not satisfy a graph pattern anymore from the graph views. Current approaches for incremental graph pattern matching employ Rete networks. Rete networks are discrimination networks that enumerate and maintain all graph pattern matches of certain graph queries by employing a network of condition tests, which implement partial graph patterns that together constitute the overall graph query. Each condition test stores all subgraphs that satisfy the partial graph pattern. Thus, Rete networks suffer high memory consumptions, because they store a large number of partial graph pattern matches. But, especially these partial graph pattern matches enable Rete networks to update the stored graph pattern matches efficiently, because the network maintenance exploits the already stored partial graph pattern matches to find new graph pattern matches. However, other kinds of discrimination networks exist that can perform better in time and space than Rete networks. Currently, these other kinds of networks are not used for incremental graph pattern matching. This thesis employs generalized discrimination networks for incremental graph pattern matching. These discrimination networks permit a generalized network structure of condition tests to enable users to steer the trade-off between memory consumption and execution time for the incremental graph pattern matching. For that purpose, this thesis contributes a modeling language for the effective definition of generalized discrimination networks. Furthermore, this thesis contributes an efficient and scalable incremental maintenance algorithm, which updates the (partial) graph pattern matches that are stored by each condition test. Moreover, this thesis provides a modeling evaluation, which shows that the proposed modeling language enables the effective modeling of generalized discrimination networks. Furthermore, this thesis provides a performance evaluation, which shows that a) the incremental maintenance algorithm scales, when the graph data becomes large, and b) the generalized discrimination network structures can outperform Rete network structures in time and space at the same time for incremental graph pattern matching. N2 - Heutzutage werden Graphdatenmodelle verwendet um Beziehungen zwischen Entitäten zu speichern und diese Beziehungen später abzufragen. Jede Entität im Graphdatenmodell speichert lokal die Beziehungen zu anderen verknüpften Entitäten. Benutzer stellen Suchanfragen um diese Entitäten und Beziehungen abzufragen und zu modifizieren. Dafür machen Suchanfragen Gebrauch von Graphmustern um alle Teilgraphen in den Graphdaten zu finden, die über bestimmte Graphstrukturen verfügen. Diese Teilgraphen werden Graphmusterübereinstimmung (Match) genannt. Allerdings ist diese Suche nach Matches NP-vollständig für Teilgraphisomorphie. Daher können Suchanfragen einer langen Antwortzeit unterliegen, wenn die Anzahl von Entitäten und Beziehungen in den Graphdaten oder -mustern ansteigt. Eine Möglichkeit die Antwortzeiten von Suchanfragen zu verbessern ist Matches für komplexe Suchanfragen in sogenannten Sichten über die Graphdaten für spätere Suchanfragen bereitzuhalten. Allerdings müssen diese Sichten mittels einer inkrementellen Suche nach Matches gewartete werden um sie konsistent zu den sich ändernden Graphdaten zu halten. Diese Wartung ergänzt Teilgraphen, die Graphmuster erfüllen, in den Sichten und entfernt Teilgraphen, die Graphmuster nicht mehr erfüllen, aus den Sichten. Aktuelle Ansätze für die inkrementelle Suche nach Matches verwenden Rete Netzwerke. Rete Netzwerke sind sogenannte Discrimination Networks, die alle Matches für bestimmte Suchanfragen aufzählen und warten, indem sie ein Netzwerk aus einzelnen Teilgraphmustern anwenden, die zusammen eine vollständige Suchanfrage ergeben. Das Netzwerk speichert für jedes Teilgraphmuster welche Teilgraphen das Teilgraphmuster erfüllen. Daher haben Rete Netzwerke einen hohen Speicherverbrauch, da sie alle Zwischenergebnisse speichern müssen. Jedoch sind es gerade diese gespeicherten Zwischenergebnisse, die es dem Rete Netzwerk ermöglichen die gespeicherten Zwischenergebnisse effizient zu warten, da diese Zwischenergebnisse für das Auffinden neuer Matches ausgenutzt werden. Allerdings existieren andere Arten von Discrimination Networks, die hinsichtlich Speicher- und Zeitverbrauch effizienter sind, aber derzeit nicht für die inkrementelle Suche nach Matches verwendet werden. Diese Doktorarbeit wendet eine verallgemeinerte Art von Discrimination Networks an. Diese verallgemeinerte Art ermöglicht es die Balance zwischen Speicher- und Zeitverbrauch für die inkrementelle Suche nach Matches zu steuern. Dafür stellt diese Arbeit eine Modellierungssprache vor, die es ermöglicht verallgemeinerte Arten von Discrimination Networks effektiv zu spezifizieren. Darauf aufbauend stellt diese Arbeit einen inkrementellen Algorithmus vor, der die gespeicherten Matches effizient und skalierbar wartet. Abschließend stellt diese Arbeit eine Evaluierung vor, die aufzeigt dass die Modellierungssprache eine effektive Spezifikation von verallgemeinerten Discrimination Networks erlaubt. Außerdem zeigt die Evaluierung, dass a) der inkrementelle Wartungsalgorithmus für große Graphdaten skaliert und b) die Netzwerkstrukturen von verallgemeinerten Discrimination Networks im Vergleich zu den Netzwerkstrukturen von Rete Netzwerken im Speicher- und Zeitverbrauch für die inkrementelle Suche nach Matches effizienter sein können. KW - incremental graph pattern matching KW - discrimination networks KW - Rete networks KW - Gator networks KW - model-driven software engineering KW - inkrementelle Graphmustersuche KW - Discrimination Networks KW - Rete Netzwerk KW - Gator Netzwerk KW - modellgetriebene Softwareentwicklung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405929 ER - TY - THES A1 - Tattarini, Giulia T1 - A job is good, but is a good job healthier? BT - Longitudinal analyses on the health consequences of unemployment and precarious employment in Europe N2 - What are the consequences of unemployment and precarious employment for individuals' health in Europe? What are the moderating factors that may offset (or increase) the health consequences of labor-market risks? How do the effects of these risks vary across different contexts, which differ in their institutional and cultural settings? Does gender, regarded as a social structure, play a role, and how? To answer these questions is the aim of my cumulative thesis. This study aims to advance our knowledge about the health consequences that unemployment and precariousness cause over the life course. In particular, I investigate how several moderating factors, such as gender, the family, and the broader cultural and institutional context, may offset or increase the impact of employment instability and insecurity on individual health. In my first paper, 'The buffering role of the family in the relationship between job loss and self-perceived health: Longitudinal results from Europe, 2004-2011', I and my co-authors measure the causal effect of job loss on health and the role of the family and welfare states (regimes) as moderating factors. Using EU-SILC longitudinal data (2004-2011), we estimate the probability of experiencing 'bad health' following a transition to unemployment by applying linear probability models and undertake separate analyses for men and women. Firstly, we measure whether changes in the independent variable 'job loss' lead to changes in the dependent variable 'self-rated health' for men and women separately. Then, by adding into the model different interaction terms, we measure the moderating effect of the family, both in terms of emotional and economic support, and how much it varies across different welfare regimes. As an identification strategy, we first implement static fixed-effect panel models, which control for time-varying observables and indirect health selection—i.e., constant unobserved heterogeneity. Secondly, to control for reverse causality and path dependency, we implement dynamic fixed-effect panel models, adding a lagged dependent variable to the model. We explore the role of the family by focusing on close ties within households: we consider the presence of a stable partner and his/her working status as a source of social and economic support. According to previous literature, having a partner should reduce the stress from adverse events, thanks to the symbolic and emotional dimensions that such a relationship entails, regardless of any economic benefits. Our results, however, suggest that benefits linked to the presence of a (female) partner also come from the financial stability that (s)he can provide in terms of a second income. Furthermore, we find partners' employment to be at least as important as the mere presence of the partner in reducing the negative effect of job loss on the individual's health by maintaining the household's standard of living and decreasing economic strain on the family. Our results are in line with previous research, which has highlighted that some people cope better than others with adverse life circumstances, and the support provided by the family is a crucial resource in that regard. We also reported an important interaction between the family and the welfare state in moderating the health consequences of unemployment, showing how the compensation effect of the family varies across welfare regimes. The family plays a decisive role in cushioning the adverse consequences of labor market risks in Southern and Eastern welfare states, characterized by less developed social protection systems and –especially the Southern – high level of familialism. The first paper also found important gender differences concerning job loss, family and welfare effects. Of particular interest is the evidence suggesting that health selection works differently for men and women, playing a more prominent role for women than for men in explaining the relationship between job loss and self-perceived health. The second paper, 'Gender roles and selection mechanisms across contexts: A comparative analysis of the relationship between unemployment, self-perceived health, and gender.' investigates more in-depth the gender differential in health driven by unemployment. Being a highly contested issue in literature, we aim to study whether men are more penalized than women or the other way around and the mechanisms that may explain the gender difference. To do that, we rely on two theoretical arguments: the availability of alternative roles and social selection. The first argument builds on the idea that men and women may compensate for the detrimental health consequences of unemployment through the commitment to 'alternative roles,' which can provide for the resources needed to fulfill people's socially constructed needs. Notably, the availability of alternative options depends on the different positions that men and women have in society. Further, we merge the availability of the 'alternative roles' argument with the health selection argument. We assume that health selection could be contingent on people's social position as defined by gender and, thus, explain the gender differential in the relationship between unemployment and health. Ill people might be less reluctant to fall or remain (i.e., self-select) in unemployment if they have alternative roles. In Western societies, women generally have more alternative roles than men and thus more discretion in their labor market attachment. Therefore, health selection should be stronger for them, explaining why unemployment is less menace for women than for their male counterparts. Finally, relying on the idea of different gender regimes, we extended these arguments to comparison across contexts. For example, in contexts where being a caregiver is assumed to be women's traditional and primary roles and the primary breadwinner role is reserved to men, unemployment is less stigmatized, and taking up alternative roles is more socially accepted for women than for men (Hp.1). Accordingly, social (self)selection should be stronger for women than for men in traditional contexts, where, in the case of ill-health, the separation from work is eased by the availability of alternative roles (Hp.2). By focusing on contexts that are representative of different gender regimes, we implement a multiple-step comparative approach. Firstly, by using EU-SILC longitudinal data (2004-2015), our analysis tests gender roles and selection mechanisms for Sweden and Italy, representing radically different gender regimes, thus providing institutional and cultural variation. Then, we limit institutional heterogeneity by focusing on Germany and comparing East- and West-Germany and older and younger cohorts—for West-Germany (SOEP data 1995-2017). Next, to assess the differential impact of unemployment for men and women, we compared (unemployed and employed) men with (unemployed and employed) women. To do so, we calculate predicted probabilities and average marginal effect from two distinct random-effects probit models. Our first step is estimating random-effects models that assess the association between unemployment and self-perceived health, controlling for observable characteristics. In the second step, our fully adjusted model controls for both direct and indirect selection. We do this using dynamic correlated random-effects (CRE) models. Further, based on the fully adjusted model, we test our hypotheses on alternative roles (Hp.1) by comparing several contexts – models are estimated separately for each context. For this hypothesis, we pool men and women and include an interaction term between unemployment and gender, which has the advantage to allow for directly testing whether gender differences in the effect of unemployment exist and are statistically significant. Finally, we test the role of selection mechanisms (Hp.2), using the KHB method to compare coefficients across nested nonlinear models. Specifically, we test the role of selection for the relationship between unemployment and health by comparing the partially-adjusted and fully-adjusted models. To allow selection mechanisms to operate differently between genders, we estimate separate models for men and women. We found support to our first hypotheses—the context where people are embedded structures the relationship between unemployment, health, and gender. We found no gendered effect of unemployment on health in the egalitarian context of Sweden. Conversely, in the traditional context of Italy, we observed substantive and statistically significant gender differences in the effect of unemployment on bad health, with women suffering less than men. We found the same pattern for comparing East and West Germany and younger and older cohorts in West Germany. On the contrary, our results did not support our theoretical argument on social selection. We found that in Sweden, women are more selected out of employment than men. In contrast, in Italy, health selection does not seem to be the primary mechanism behind the gender differential—Italian men and women seem to be selected out of employment to the same extent. Namely, we do not find any evidence that health selection is stronger for women in more traditional countries (Hp2), despite the fact that the institutional and the cultural context would offer them a more comprehensive range of 'alternative roles' relative to men. Moreover, our second hypothesis is also rejected in the second and third comparisons, where the cross-country heterogeneity is reduced to maximize cultural differences within the same institutional context. Further research that addresses selection into inactivity is needed to evaluate the interplay between selection and social roles across gender regimes. While the health consequences of unemployment have been on the research agenda for a pretty long time, the interest in precarious employment—defined as the linking of the vulnerable worker to work that is characterized by uncertainty and insecurity concerning pay, the stability of the work arrangement, limited access to social benefits, and statutory protections—has emerged only later. Since the 80s, scholars from different disciplines have raised concerns about the social consequences of de-standardization of employment relationships. However, while work has become undoubtedly more precarious, very little is known about its causal effect on individual health and the role of gender as a moderator. These questions are at the core of my third paper : 'Bad job, bad health? A longitudinal analysis of the interaction between precariousness, gender and self-perceived health in Germany'. Herein, I investigate the multidimensional nature of precarious employment and its causal effect on health, particularly focusing on gender differences. With this paper, I aim at overcoming three major shortcomings of earlier studies: The first one regards the cross-sectional nature of data that prevents the authors from ruling out unobserved heterogeneity as a mechanism for the association between precarious employment and health. Indeed, several unmeasured individual characteristics—such as cognitive abilities—may confound the relationship between precarious work and health, leading to biased results. Secondly, only a few studies have directly addressed the role of gender in shaping the relationship. Moreover, available results on the gender differential are mixed and inconsistent: some found precarious employment being more detrimental for women's health, while others found no gender differences or stronger negative association for men. Finally, previous attempts to an empirical translation of the employment precariousness (EP) concept have not always been coherent with their theoretical framework. EP is usually assumed to be a multidimensional and continuous phenomenon; it is characterized by different dimensions of insecurity that may overlap in the same job and lead to different "degrees of precariousness." However, researchers have predominantly focused on one-dimensional indicators—e.g., temporary employment, subjective job insecurity—to measure EP and study the association with health. Besides the fact that this approach partially grasps the phenomenon's complexity, the major problem is the inconsistency of evidence that it has produced. Indeed, this line of inquiry generally reveals an ambiguous picture, with some studies finding substantial adverse effects of temporary over permanent employment, while others report only minor differences. To measure the (causal) effect of precarious work on self-rated health and its variation by gender, I focus on Germany and use four waves from SOEP data (2003, 2007, 2011, and 2015). Germany is a suitable context for my study. Indeed, since the 1980s, the labor market and welfare system have been restructured in many ways to increase the German economy's competitiveness in the global market. As a result, the (standard) employment relationship has been de-standardized: non-standard and atypical employment arrangements—i.e., part-time work, fixed-term contracts, mini-jobs, and work agencies—have increased over time while wages have lowered, even among workers with standard work. In addition, the power of unions has also fallen over the last three decades, leaving a large share of workers without collective protection. Because of this process of de-standardization, the link between wage employment and strong social rights has eroded, making workers more powerless and more vulnerable to labor market risks than in the past. EP refers to this uneven distribution of power in the employment relationship, which can be detrimental to workers' health. Indeed, by affecting individuals' access to power and other resources, EP puts precarious workers at risk of experiencing health shocks and influences their ability to gain and accumulate health advantages (Hp.1). Further, the focus on Germany allows me to investigate my second research question on the gender differential. Germany is usually regarded as a traditionalist gender regime: a context characterized by a configuration of roles. Here, being a caregiver is assumed to be women's primary role, whereas the primary breadwinner role is reserved for men. Although many signs of progress have been made over the last decades towards a greater equalization of opportunities and more egalitarianism, the breadwinner model has barely changed towards a modified version. Thus, women usually take on the double role of workers (the so-called secondary earner) and caregivers, and men still devote most of their time to paid work activities. Moreover, the overall upward trend towards more egalitarian gender ideologies has leveled off over the last decades, moving notably towards more traditional gender ideologies. In this setting, two alternative hypotheses are possible. Firstly, I assume that the negative relationship between EP and health is stronger for women than for men. This is because women are systematically more disadvantaged than men in the public and private spheres of life, having less access to formal and informal sources of power. These gender-related power asymmetries may interact with EP-related power asymmetries resulting in a stronger effect of EP on women's health than on men's health (Hp.2). An alternative way of looking at the gender differential is to consider the interaction that precariousness might have with men's and women's gender identities. According to this view, the negative relationship between EP and health is weaker for women than for men (Hp.2a). In a society with a gendered division of labor and a strong link between masculine identities and stable and well-rewarded job—i.e., a job that confers the role of primary family provider—a male worker with precarious employment might violate the traditional male gender role. Men in precarious jobs may perceive themselves (and by others) as possessing a socially undesirable characteristic, which conflicts with the stereotypical idea of themselves as the male breadwinner. Engaging in behaviors that contradict stereotypical gender identity may decrease self-esteem and foster feelings of inferiority, helplessness, and jealousy, leading to poor health. I develop a new indicator of EP that empirically translates a definition of EP as a multidimensional and continuous phenomenon. I assume that EP is a latent construct composed of seven dimensions of insecurity chosen according to the theory and previous empirical research: Income insecurity, social insecurity, legal insecurity, employment insecurity, working-time insecurity, representation insecurity, worker's vulnerability. The seven dimensions are proxied by eight indicators available in the four waves of the SOEP dataset. The EP composite indicator is obtained by performing a multiple correspondence analysis (MCA) on the eight indicators. This approach aims to construct a summary scale in which all dimensions contribute jointly to the measured experience of precariousness and its health impact. Further, the relationship between EP and 'general self-perceived health' is estimated by applying ordered probit random-effects estimators and calculating average marginal effect (further AME). Then, to control for unobserved heterogeneity, I implement correlated random-effects models that add to the model the within-individual means of the time-varying independent variables. To test the significance of the gender differential, I add an interaction term between EP and gender in the fully adjusted model in the pooled sample. My correlated random-effects models showed EP's negative and substantial 'effect' on self-perceived health for both men and women. Although nonsignificant, the evidence seems in line with previous cross-sectional literature. It supports the hypothesis that employment precariousness could be detrimental to workers' health. Further, my results showed the crucial role of unobserved heterogeneity in shaping the health consequences of precarious employment. This is particularly important as evidence accumulates, yet it is still mostly descriptive. Moreover, my results revealed a substantial difference among men and women in the relationship between EP and health: when EP increases, the risk of experiencing poor health increases much more for men than for women. This evidence falsifies previous theory according to whom the gender differential is contingent on the structurally disadvantaged position of women in western societies. In contrast, they seem to confirm the idea that men in precarious work could experience role conflict to a larger extent than women, as their self-standard is supposed to be the stereotypical breadwinner worker with a good and well-rewarded job. Finally, results from the multiple correspondence analysis contribute to the methodological debate on precariousness, showing that a multidimensional and continuous indicator can express a latent variable of EP. All in all, complementarities are revealed in the results of unemployment and employment precariousness, which have two implications: Policy-makers need to be aware that the total costs of unemployment and precariousness go far beyond the economic and material realm penetrating other fundamental life domains such as individual health. Moreover, they need to balance the trade-off between protecting adequately unemployed people and fostering high-quality employment in reaction to the highlighted market pressures. In this sense, the further development of a (universalistic) welfare state certainly helps mitigate the adverse health effects of unemployment and, therefore, the future costs of both individuals' health and welfare spending. In addition, the presence of a working partner is crucial for reducing the health consequences of employment instability. Therefore, policies aiming to increase female labor market participation should be promoted, especially in those contexts where the welfare state is less developed. Moreover, my results support the significance of taking account of a gender perspective in health research. The findings of the three articles show that job loss, unemployment, and precarious employment, in general, have adverse effects on men's health but less or absent consequences for women's health. Indeed, this suggests the importance of labor and health policies that consider and further distinguish the specific needs of the male and female labor force in Europe. Nevertheless, a further implication emerges: the health consequences of employment instability and de-standardization need to be investigated in light of the gender arrangements and the transforming gender relationships in specific cultural and institutional contexts. My results indeed seem to suggest that women's health advantage may be a transitory phenomenon, contingent on the predominant gendered institutional and cultural context. As the structural difference between men's and women's position in society is eroded, egalitarianism becomes the dominant normative status, so will probably be the gender difference in the health consequences of job loss and precariousness. Therefore, while gender equality in opportunities and roles is a desirable aspect for contemporary societies and a political goal that cannot be postponed further, this thesis raises a further and maybe more crucial question: What kind of equality should be pursued to provide men and women with both good life quality and equal chances in the public and private spheres? In this sense, I believe that social and labor policies aiming to reduce gender inequality in society should focus on improving women's integration into the labor market, implementing policies targeting men, and facilitating their involvement in the private sphere of life. Equal redistribution of social roles could activate a crucial transformation of gender roles and the cultural models that sustain and still legitimate gender inequality in Western societies. KW - unemployment KW - employment precariousness KW - self-rated health KW - gender KW - family KW - welfare and gender regimes Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536723 ER - TY - THES A1 - Reike, Dennis T1 - A look behind perceptual performance in numerical cognition T1 - Ein Blick hinter die perzeptuellen Leistungen numerischer Kognition N2 - Recognizing, understanding, and responding to quantities are considerable skills for human beings. We can easily communicate quantities, and we are extremely efficient in adapting our behavior to numerical related tasks. One usual task is to compare quantities. We also use symbols like digits in numerical-related tasks. To solve tasks including digits, we must to rely on our previously learned internal number representations. This thesis elaborates on the process of number comparison with the use of noisy mental representations of numbers, the interaction of number and size representations and how we use mental number representations strategically. For this, three studies were carried out. In the first study, participants had to decide which of two presented digits was numerically larger. They had to respond with a saccade in the direction of the anticipated answer. Using only a small set of meaningfully interpretable parameters, a variant of random walk models is described that accounts for response time, error rate, and variance of response time for the full matrix of 72 digit pairs. In addition, the used random walk model predicts a numerical distance effect even for error response times and this effect clearly occurs in the observed data. In relation to corresponding correct answers error responses were systematically faster. However, different from standard assumptions often made in random walk models, this account required that the distributions of step sizes of the induced random walks be asymmetric to account for this asymmetry between correct and incorrect responses. Furthermore, the presented model provides a well-defined framework to investigate the nature and scale (e.g., linear vs. logarithmic) of the mapping of numerical magnitude onto its internal representation. In comparison of the fits of proposed models with linear and logarithmic mapping, the logarithmic mapping is suggested to be prioritized. Finally, we discuss how our findings can help interpret complex findings (e.g., conflicting speed vs. accuracy trends) in applied studies that use number comparison as a well-established diagnostic tool. Furthermore, a novel oculomotoric effect is reported, namely the saccadic overschoot effect. The participants responded by saccadic eye movements and the amplitude of these saccadic responses decreases with numerical distance. For the second study, an experimental design was developed that allows us to apply the signal detection theory to a task where participants had to decide whether a presented digit was physically smaller or larger. A remaining question is, whether the benefit in (numerical magnitude – physical size) congruent conditions is related to a better perception than in incongruent conditions. Alternatively, the number-size congruency effect is mediated by response biases due to numbers magnitude. The signal detection theory is a perfect tool to distinguish between these two alternatives. It describes two parameters, namely sensitivity and response bias. Changes in the sensitivity are related to the actual task performance due to real differences in perception processes whereas changes in the response bias simply reflect strategic implications as a stronger preparation (activation) of an anticipated answer. Our results clearly demonstrate that the number-size congruency effect cannot be reduced to mere response bias effects, and that genuine sensitivity gains for congruent number-size pairings contribute to the number-size congruency effect. Third, participants had to perform a SNARC task – deciding whether a presented digit was odd or even. Local transition probability of irrelevant attributes (magnitude) was varied while local transition probability of relevant attributes (parity) and global probability occurrence of each stimulus were kept constantly. Participants were quite sensitive in recognizing the underlying local transition probability of irrelevant attributes. A gain in performance was observed for actual repetitions of the irrelevant attribute in relation to changes of the irrelevant attribute in high repetition conditions compared to low repetition conditions. One interpretation of these findings is that information about the irrelevant attribute (magnitude) in the previous trial is used as an informative precue, so that participants can prepare early processing stages in the current trial, with the corresponding benefits and costs typical of standard cueing studies. Finally, the results reported in this thesis are discussed in relation to recent studies in numerical cognition. N2 - Das Erkennen, Verstehen und Verwenden von Mengen sind beachtliche menschliche Fähigkeiten. Die Kommunikation numerischer Information fällt uns leicht, zudem beeinflussen numerische Informationen unser Handeln. Eine typische numerische Aufgabe ist der Mengenvergleich. Um solche Mengen zu beschreiben verwenden wir Ziffern als Symbole zur Bildung von Zahlen. Um Zahlen zu vergleichen, müssen wir auf die zuvor erlernte interne Zahlenrepräsentationen zurückgreifen. In dieser Dissertation werden drei Studien vorgestellt. Diese betrachten den Prozess des Zahlenvergleichs, die Interaktion numerischer und physikalischer Repräsentation und die strategische Nutzung numerischer Repräsentationen. In der ersten Studie sollten Versuchspersonen so schnell wie möglich die größere von zwei präsentierten Zahlen angeben. Sie sollten mit einer Sakkade in Richtung der größeren Zahl antworten. Eine Variante von Random Walk Modellen mit einem sparsamen Set an interpretierbaren Parameter wurde verwendet um die Reaktionszeit, die Fehlerrate und die Varianz der Reaktionszeit zu beschreiben. Auch für Fehlerzeiten sagt dieses Modell einen numerischen Distanzeffekt vorher, der sich in den Daten robust zeigt. Außerdem sind Fehlerzeiten schneller als korrespondierende Reaktionszeiten richtiger Antworten. Diese Asymmetrie lässt sich durch eine schiefe Schrittgrößenverteilung erklären, welche nicht zu den üblichen Standardannahmen von Random Walk Modellen gehört. Das vorgestellte Modell liefert einen definierten Rahmen um die Art und Skalierung (z.B. linear vs. logarithmisch) numerischer Repräsentationen zu untersuchen, wobei die Ergebnisse klar für eine logarithmische Skalierung sprechen. Abschließend wird ein Ausblick gegeben, wie dieses Modell helfen kann, komplexe Befunde (z.B. Geschwindigkeit vs. Genauigkeit) in Studien zu erklären, die Zahlenvergleiche als etabliertes Werkzeug verwenden. Außerdem beschreiben wir einen neuen okulomotorischen Effekt, den sakkadischen Overschoot Effekt. Für die zweite Studie wurde ein experimentelles Design entwickelt, das es ermöglicht die Signalentdeckungstheorie zu verwenden. Hierbei sollten Versuchspersonen die physikalische Größe von Ziffern beurteilen. Eine offene Frage ist, ob der Leistungsgewinn in (numerisch - physikalisch) kongruenten Bedingungen auf eine verbesserte Wahrnehmung oder auf einen numerisch induzierten Antwortbias zurückzuführen ist. Die Signalentdeckungstheorie ist das perfekte Werkzeug um zwischen diesen beiden Erklärungen zu unterscheiden. Dabei werden zwei Parameter beschrieben, die Sensitivität und der Antwortbias. Unsere Ergebnisse demonstrieren, dass der Zahlen-Größen Effekt nicht auf einen einfachen Antwortbias zurückzuführen ist. Vielmehr tragen wahre Sensitivitätsgewinne in kongruenten Bedingungen zur Entstehung des Zahlen-Größen Effekts bei. In der dritten Studie sollten die Versuchspersonen eine SNARC Aufgabe durchführen, wobei sie angeben sollten ob eine präsentierte Zahl gerade oder ungerade ist. Die lokale Wiederholungswahrscheinlichkeit des irrelevanten Attributes (Magnitude) wurde zwischen Versuchspersonen variiert. Die Versuchspersonen waren sensitiv für diese Wiederholungswahrscheinlichkeiten. Ein Leistungsgewinn zeigte sich bei tatsächlichen Wiederholungen des irrelevanten Attributes in der Bedingung mit hoher Wiederholungswahrscheinlichkeit des irrelevanten Attributes. Eine mögliche Interpretation ist, dass Informationen aus dem Vortrial als eine Art Hinweis betrachtet werden, so dass die Versuchspersonen im aktuellen Trial frühe Prozessstufen vorbereiten können, was zu entsprechenden Gewinnen und Kosten führt. Die in dieser Dissertation berichteten Ergebnisse werden abschließend diskutiert und in Relation zu aktuellen Studien im Bereich der numerischen Kognition gesetzt. KW - numerical cognition KW - mental number representation KW - numerische Kognition KW - mentale Zahlenrepräsentation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407821 ER - TY - THES A1 - Andjelkovic, Marko T1 - A methodology for characterization, modeling and mitigation of single event transient effects in CMOS standard combinational cells T1 - Eine Methode zur Charakterisierung, Modellierung und Minderung von SET Effekten in kombinierten CMOS-Standardzellen N2 - With the downscaling of CMOS technologies, the radiation-induced Single Event Transient (SET) effects in combinational logic have become a critical reliability issue for modern integrated circuits (ICs) intended for operation under harsh radiation conditions. The SET pulses generated in combinational logic may propagate through the circuit and eventually result in soft errors. It has thus become an imperative to address the SET effects in the early phases of the radiation-hard IC design. In general, the soft error mitigation solutions should accommodate both static and dynamic measures to ensure the optimal utilization of available resources. An efficient soft-error-aware design should address synergistically three main aspects: (i) characterization and modeling of soft errors, (ii) multi-level soft error mitigation, and (iii) online soft error monitoring. Although significant results have been achieved, the effectiveness of SET characterization methods, accuracy of predictive SET models, and efficiency of SET mitigation measures are still critical issues. Therefore, this work addresses the following topics: (i) Characterization and modeling of SET effects in standard combinational cells, (ii) Static mitigation of SET effects in standard combinational cells, and (iii) Online particle detection, as a support for dynamic soft error mitigation. Since the standard digital libraries are widely used in the design of radiation-hard ICs, the characterization of SET effects in standard cells and the availability of accurate SET models for the Soft Error Rate (SER) evaluation are the main prerequisites for efficient radiation-hard design. This work introduces an approach for the SPICE-based standard cell characterization with the reduced number of simulations, improved SET models and optimized SET sensitivity database. It has been shown that the inherent similarities in the SET response of logic cells for different input levels can be utilized to reduce the number of required simulations. Based on characterization results, the fitting models for the SET sensitivity metrics (critical charge, generated SET pulse width and propagated SET pulse width) have been developed. The proposed models are based on the principle of superposition, and they express explicitly the dependence of the SET sensitivity of individual combinational cells on design, operating and irradiation parameters. In contrast to the state-of-the-art characterization methodologies which employ extensive look-up tables (LUTs) for storing the simulation results, this work proposes the use of LUTs for storing the fitting coefficients of the SET sensitivity models derived from the characterization results. In that way the amount of characterization data in the SET sensitivity database is reduced significantly. The initial step in enhancing the robustness of combinational logic is the application of gate-level mitigation techniques. As a result, significant improvement of the overall SER can be achieved with minimum area, delay and power overheads. For the SET mitigation in standard cells, it is essential to employ the techniques that do not require modifying the cell structure. This work introduces the use of decoupling cells for improving the robustness of standard combinational cells. By insertion of two decoupling cells at the output of a target cell, the critical charge of the cell’s output node is increased and the attenuation of short SETs is enhanced. In comparison to the most common gate-level techniques (gate upsizing and gate duplication), the proposed approach provides better SET filtering. However, as there is no single gate-level mitigation technique with optimal performance, a combination of multiple techniques is required. This work introduces a comprehensive characterization of gate-level mitigation techniques aimed to quantify their impact on the SET robustness improvement, as well as introduced area, delay and power overhead per gate. By characterizing the gate-level mitigation techniques together with the standard cells, the required effort in subsequent SER analysis of a target design can be reduced. The characterization database of the hardened standard cells can be utilized as a guideline for selection of the most appropriate mitigation solution for a given design. As a support for dynamic soft error mitigation techniques, it is important to enable the online detection of energetic particles causing the soft errors. This allows activating the power-greedy fault-tolerant configurations based on N-modular redundancy only at the high radiation levels. To enable such a functionality, it is necessary to monitor both the particle flux and the variation of particle LET, as these two parameters contribute significantly to the system SER. In this work, a particle detection approach based on custom-sized pulse stretching inverters is proposed. Employing the pulse stretching inverters connected in parallel enables to measure the particle flux in terms of the number of detected SETs, while the particle LET variations can be estimated from the distribution of SET pulse widths. This approach requires a purely digital processing logic, in contrast to the standard detectors which require complex mixed-signal processing. Besides the possibility of LET monitoring, additional advantages of the proposed particle detector are low detection latency and power consumption, and immunity to error accumulation. The results achieved in this thesis can serve as a basis for establishment of an overall soft-error-aware database for a given digital library, and a comprehensive multi-level radiation-hard design flow that can be implemented with the standard IC design tools. The following step will be to evaluate the achieved results with the irradiation experiments. N2 - Mit der Verkleinerung der Strukturen moderner CMOS-Technologien sind strahlungsinduzierte Single Event Transient (SET)-Effekte in kombinatorischer Logik zu einem kritischen Zuverlässigkeitsproblem in integrierten Schaltkreisen (ICs) geworden, die für den Betrieb unter rauen Strahlungsbedingungen (z. B. im Weltraum) vorgesehen sind. Die in der Kombinationslogik erzeugten SET-Impulse können durch die Schaltungen propagieren und schließlich in Speicherelementen (z.B. Flip-Flops oder Latches) zwischengespeichert werden, was zu sogenannten Soft-Errors und folglich zu Datenbeschädigungen oder einem Systemausfall führt. Daher ist es in den frühen Phasen des strahlungsharten IC-Designs unerlässlich geworden, die SET-Effekte systematisch anzugehen. Im Allgemeinen sollten die Lösungen zur Minderung von Soft-Errors sowohl statische als auch dynamische Maßnahmen berücksichtigen, um die optimale Nutzung der verfügbaren Ressourcen sicherzustellen. Somit sollte ein effizientes Soft-Error-Aware-Design drei Hauptaspekte synergistisch berücksichtigen: (i) die Charakterisierung und Modellierung von Soft-Errors, (ii) eine mehrstufige-Soft-Error-Minderung und (iii) eine Online-Soft-Error-Überwachung. Obwohl signifikante Ergebnisse erzielt wurden, sind die Wirksamkeit der SET-Charakterisierung, die Genauigkeit von Vorhersagemodellen und die Effizienz der Minderungsmaßnahmen immer noch die kritischen Punkte. Daher stellt diese Arbeit die folgenden Originalbeiträge vor: • Eine ganzheitliche Methodik zur SPICE-basierten Charakterisierung von SET-Effekten in kombinatorischen Standardzellen und entsprechenden Härtungskonfigurationen auf Gate-Ebene mit reduzierter Anzahl von Simulationen und reduzierter SET-Sensitivitätsdatenbank. • Analytische Modelle für SET-Empfindlichkeit (kritische Ladung, erzeugte SET-Pulsbreite und propagierte SET-Pulsbreite), basierend auf dem Superpositionsprinzip und Anpassung der Ergebnisse aus SPICE-Simulationen. • Ein Ansatz zur SET-Abschwächung auf Gate-Ebene, der auf dem Einfügen von zwei Entkopplungszellen am Ausgang eines Logikgatters basiert, was den Anstieg der kritischen Ladung und die signifikante Unterdrückung kurzer SETs beweist. • Eine vergleichende Charakterisierung der vorgeschlagenen SET-Abschwächungstechnik mit Entkopplungszellen und sieben bestehenden Techniken durch eine quantitative Bewertung ihrer Auswirkungen auf die Verbesserung der SET-Robustheit einzelner Logikgatter. • Ein Partikeldetektor auf Basis von Impulsdehnungs-Invertern in Skew-Größe zur Online-Überwachung des Partikelflusses und der LET-Variationen mit rein digitaler Anzeige. Die in dieser Dissertation erzielten Ergebnisse können als Grundlage für den Aufbau einer umfassenden Soft-Error-aware-Datenbank für eine gegebene digitale Bibliothek und eines umfassenden mehrstufigen strahlungsharten Designflusses dienen, der mit den Standard-IC-Designtools implementiert werden kann. Im nächsten Schritt werden die mit den Bestrahlungsexperimenten erzielten Ergebnisse ausgewertet. KW - Single Event Transient KW - radiation hardness design KW - Single Event Transient KW - Strahlungshärte Entwurf Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-534843 ER - TY - THES A1 - Kirschbaum, Michael T1 - A microfluidic approach for the initiation and investigation of surface-mediated signal transduction processes on a single-cell level T1 - Entwicklung einer mikrofluidischen Prozesslinie für die Induktion und Analyse oberflächenvermittelter Signaltransduktionsprozesse auf Einzelzell-Ebene N2 - For the elucidation of the dynamics of signal transduction processes that are induced by cellular interactions, defined events along the signal transduction cascade and subsequent activation steps have to be analyzed and then also correlated with each other. This cannot be achieved by ensemble measurements because averaging biological data ignores the variability in timing and response patterns of individual cells and leads to highly blurred results. Instead, only a multi-parameter analysis at a single-cell level is able to exploit the information that is crucially needed for deducing the signaling pathways involved. The aim of this work was to develop a process line that allows the initiation of cell-cell or cell-particle interactions while at the same time the induced cellular reactions can be analyzed at various stages along the signal transduction cascade and correlated with each other. As this approach requires the gentle management of individually addressable cells, a dielectrophoresis (DEP)-based microfluidic system was employed that provides the manipulation of microscale objects with very high spatiotemporal precision and without the need of contacting the cell membrane. The system offers a high potential for automation and parallelization. This is essential for achieving a high level of robustness and reproducibility, which are key requirements in order to qualify this approach for a biomedical application. As an example process for intercellular communication, T cell activation has been chosen. The activation of the single T cells was triggered by contacting them individually with microbeads that were coated with antibodies directed against specific cell surface proteins, like the T cell receptor-associated kinase CD3 and the costimulatory molecule CD28 (CD; cluster of differentiation). The stimulation of the cells with the functionalized beads led to a rapid rise of their cytosolic Ca2+ concentration which was analyzed by a dual-wavelength ratiometric fluorescence measurement of the Ca2+-sensitive dye Fura-2. After Ca2+ imaging, the cells were isolated individually from the microfluidic system and cultivated further. Cell division and expression of the marker molecule CD69 as a late activation event of great significance were analyzed the following day and correlated with the previously recorded Ca2+ traces for each individual cell. It turned out such that the temporal profile of the Ca2+ traces between both activated and non-activated cells as well as dividing and non-dividing cells differed significantly. This shows that the pattern of Ca2+ signals in T cells can provide early information about a later reaction of the cell. As isolated cells are highly delicate objects, a precondition for these experiments was the successful adaptation of the system to maintain the vitality of single cells during and after manipulation. In this context, the influences of the microfluidic environment as well as the applied electric fields on the vitality of the cells and the cytosolic Ca2+ concentration as crucially important physiological parameters were thoroughly investigated. While a short-term DEP manipulation did not affect the vitality of the cells, they showed irregular Ca2+ transients upon exposure to the DEP field only. The rate and the strength of these Ca2+ signals depended on exposure time, electric field strength and field frequency. By minimizing their occurrence rate, experimental conditions were identified that caused the least interference with the physiology of the cell. The possibility to precisely control the exact time point of stimulus application, to simultaneously analyze short-term reactions and to correlate them with later events of the signal transduction cascade on the level of individual cells makes this approach unique among previously described applications and offers new possibilities to unravel the mechanisms underlying intercellular communication. N2 - Zelluläre Interaktionen sind wirkungsvolle Mechanismen zur Kontrolle zellulärer Zustände in vivo. Für die Entschlüsselung der dabei beteiligten Signaltransduktionsprozesse müssen definierte Ereignisse entlang der zellulären Signalkaskade erfasst und ihre wechselseitige Beziehung zueinander aufgeklärt werden. Dies kann von Ensemble-Messungen nicht geleistet werden, da die Mittelung biologischer Daten die Variabilität des Antwortverhaltens individueller Zellen missachtet und verschwommene Resultate liefert. Nur eine Multiparameteranalyse auf Einzelzellebene kann die entscheidenden Informationen liefern, die für ein detailliertes Verständnis zellulärer Signalwege unabdingbar sind. Ziel der vorliegenden Arbeit war die Entwicklung einer Methode, welche die gezielte Kontaktierung einzelner Zellen mit anderen Zellen oder Partikeln ermöglicht und mit der die dadurch ausgelösten zellulären Reaktionen auf unterschiedlichen zeitlichen Ebenen analysiert und miteinander korreliert werden können. Da dies die schonende Handhabung einzeln adressierbarer Zellen erfordert, wurde ein auf Dielektrophorese (DEP) basierendes mikrofluidisches System eingesetzt, welches die berührungslose Manipulation mikroskaliger Objekte mit hoher zeitlicher und örtlicher Präzision erlaubt. Das System besitzt ein hohes Potential zur Automatisierung und Parallelisierung, was für eine robuste und reproduzierbare Analyse lebender Zellen essentiell, und daher eine wichtige Voraussetzung für eine Anwendung in der Biomedizin ist. Als Modellsystem für interzelluläre Kommunikation wurde die T-Zell-Aktivierung gewählt. Die Aktivierung der einzelnen T-Zellen wurde durch ihre gezielte Kontaktierung mit Mikropartikeln („beads“) induziert, welche mit Antikörpern gegen spezielle Oberflächenproteine, wie die dem T-Zell-Rezeptor assoziierte Kinase CD3 oder das kostimulatorische Protein CD28, beschichtet waren. Die Stimulation der Zellen mit den funktionalisierten beads führte zu einem raschen Anstieg der intrazellulären Ca2+-Konzentration, welche über eine ratiometrische Detektion des Ca2+-sensitiven Fluoreszenzfarbstoffs Fura-2 gemessen wurde. Anschließend wurden die einzelnen Zellen aus dem mikrofluidischen System isoliert und weiterkultiviert. Am nächsten Tag wurden Zellteilung und die CD69-Expression – ein wichtiger Marker für aktivierte T-Zellen – analysiert und auf Ebene der individuellen Zelle mit dem zuvor gemessenen Ca2+-Signal korreliert. Es stellte sich heraus, dass der zeitliche Verlauf des intrazellulären Ca2+-Signals zwischen aktivierten und nicht aktivierten, sowie zwischen geteilten und nicht geteilten Zellen signifikant verschieden war. Dies zeigt, dass Ca2+-Signale in stimulierten T-Zellen wichtige Informationen über eine spätere Reaktion der Zelle liefern können. Da Einzelzellen äußerst empfindlich auf ihre Umgebungsbedingungen reagieren, war die Anpassung der experimentellen Vorgehensweise im Hinblick auf die Zellverträglichkeit von großer Bedeutung. Vor diesem Hintergrund wurde der Einfluss sowohl der mikrofluidischen Umgebung, als auch der elektrischen Felder auf die Überlebensrate und die intrazelluläre Ca2+-Konzentration der Zellen untersucht. Während eine kurzzeitige DEP-Manipulation im mikrofluidischen System die Vitalität der Zellen nicht beeinträchtigte, zeigten diese unregelmäßige Fluktuationen ihrer intrazellulären Ca2+-Konzentration selbst bei geringer elektrischer Feldexposition. Die Ausprägung dieser Fluktuationen war abhängig von der Expositionszeit, der elektrischen Feldstärke und der Feldfrequenz. Über die Minimierung ihres Auftretens konnten experimentelle Bedingungen mit dem geringsten Einfluss auf die Physiologie der Zellen identifiziert werden. Die Möglichkeit, einzelne Zellen zeitlich definiert und präzise mit anderen Zellen oder Oberflächen zu kontaktieren, die unmittelbare Reaktion der Zellen zu messen und diese mit späteren Ereignissen der Zellantwort zu korrelieren, macht die hier vorgestellte Methode einzigartig im Vergleich mit anderen Ansätzen und eröffnet neue Wege, die der interzellulären Kommunikation zugrunde liegenden Mechanismen aufzuklären. KW - T-Zell Aktivierung KW - Calcium KW - Einzelzellen KW - Mikrofluidik KW - Dielektrophorese KW - T cell activation KW - calcium KW - single-cell KW - lab on a chip KW - dielectrophoresis Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-39576 ER - TY - THES A1 - Gerling, Marten Tobias T1 - A microfluidic system for high-precision image-based live cell sorting using dielectrophoretic forces T1 - Ein mikrofluidisches System zur hochpräzisen und bildgestützten Sortierung lebender Zellen mittels dielektrophoretischer Kräfte N2 - An important goal in biotechnology and (bio-) medical research is the isolation of single cells from a heterogeneous cell population. These specialised cells are of great interest for bioproduction, diagnostics, drug development, (cancer) therapy and research. To tackle emerging questions, an ever finer differentiation between target cells and non-target cells is required. This precise differentiation is a challenge for a growing number of available methods. Since the physiological properties of the cells are closely linked to their morphology, it is beneficial to include their appearance in the sorting decision. For established methods, this represents a non addressable parameter, requiring new methods for the identification and isolation of target cells. Consequently, a variety of new flow-based methods have been developed and presented in recent years utilising 2D imaging data to identify target cells within a sample. As these methods aim for high throughput, the devices developed typically require highly complex fluid handling techniques, making them expensive while offering limited image quality. In this work, a new continuous flow system for image-based cell sorting was developed that uses dielectrophoresis to precisely handle cells in a microchannel. Dielectrophoretic forces are exerted by inhomogeneous alternating electric fields on polarisable particles (here: cells). In the present system, the electric fields can be switched on and off precisely and quickly by a signal generator. In addition to the resulting simple and effective cell handling, the system is characterised by the outstanding quality of the image data generated and its compatibility with standard microscopes. These aspects result in low complexity, making it both affordable and user-friendly. With the developed cell sorting system, cells could be sorted reliably and efficiently according to their cytosolic staining as well as morphological properties at different optical magnifications. The achieved purity of the target cell population was up to 95% and about 85% of the sorted cells could be recovered from the system. Good agreement was achieved between the results obtained and theoretical considerations. The achieved throughput of the system was up to 12,000 cells per hour. Cell viability studies indicated a high biocompatibility of the system. The results presented demonstrate the potential of image-based cell sorting using dielectrophoresis. The outstanding image quality and highly precise yet gentle handling of the cells set the system apart from other technologies. This results in enormous potential for processing valuable and sensitive cell samples. N2 - Ein wichtiges Ziel in der Biotechnologie und (bio-) medizinischen Forschung ist die Isolation von Einzelzellen aus einer heterogenen Zellpopulation. Aufgrund ihrer besonderen Eigenschaften sind diese Zellen für die Bioproduktion, Diagnostik, Arzneimittelentwicklung, (Krebs-) Therapie und Forschung von großem Interesse. Um neue Fragestellungen angehen zu können, ist eine immer feinere Differenzierung zwischen Zielzellen und Nicht-Zielzellen erforderlich. Diese präzise Differenzierung stellt eine Herausforderung für eine wachsende Zahl verfügbarer Methoden dar. Da die physiologischen Eigenschaften der Zellen eng mit ihrer Morphologie verknüpft sind, ist es sinnvoll ihr Erscheinungsbild mit in die Sortierentscheidung einzubeziehen. Für etablierte Methoden stellt dies jedoch einen nicht adressierbaren Parameter dar, weshalb neue Methoden zur Identifikation und Isolation der Zielzellen benötigt werden. Folglich wurde in den letzten Jahren eine Vielzahl neuer durchflussbasierter Methoden entwickelt und vorgestellt, die 2D-Bilddaten zur Identifikation der Zielzellen innerhalb einer Probe heranziehen. Da diese Methoden auf hohe Durchsätze abzielen, erfordern die entwickelten Geräte in der Regel hochkomplexe Techniken zur Handhabung der Flüssigkeiten, was sie teuer macht und gleichzeitig zu einer begrenzten Bildqualität führt. In dieser Arbeit wurde ein neues durchflussbasiertes System zur bildbasierten Zellsortierung entwickelt, das Dielektrophorese zur präzisen Handhabung der Zellen in einem Mikrokanal verwendet. Dielektrophoretische Kräfte werden von inhomogenen elektrischen Wechselfeldern auf polarisierbare Partikel (hier: Zellen) ausgeübt. Bei dem vorliegenden System können die elektrischen Felder durch einen Signalgenerator präzise und schnell ein- und ausgeschaltet werden. Neben der daraus resultierenden einfachen und effektiven Handhabung der Zellen zeichnet sich das System durch die hervorragende Qualität der erzeugten Bilddaten und die Kompatibilität mit Standardmikroskopen aus. Diese Aspekte führen zu einer geringen Komplexität, die es sowohl erschwinglich als auch benutzerfreundlich macht. Mit dem entwickelten System zur Zellsortierung konnten Zellen sowohl auf Basis einer zytosolischen Färbung als auch auf Basis morphologischer Eigenschaften bei verschiedenen optischen Vergrößerungen zuverlässig und effizient sortiert werden. Die erreichte Reinheit der Zielzellpopulation betrug bis zu 95% wobei etwa 85% der sortierten Zellen aus dem System zurückgewonnen werden konnten. Dabei wurde eine gute Übereinstimmung der ermittelten Ergebnisse mit theoretischen Überlegungen erreicht. Der erreichte Durchsatz des Systems betrug bis zu 12.000 Zellen pro Stunde. Untersuchungen der Zellvitalität deuteten darauf hin, dass das System eine hohe Biokompatibilität aufweist. Die vorgestellten Ergebnisse demonstrieren das Potenzial der bildbasierten Zellsortierung mittels Dielektrophorese. Die herausragende Bildqualität und hochpräzise aber dennoch zellschonende Handhabung der Zellen grenzen das System von anderen Technologien ab. Daraus ergibt sich ein enormes Potenzial für die Verarbeitung wertvoller und sensibler Zellproben. KW - microfluidics KW - cell sorting KW - dielectrophoresis KW - Zellsortierung KW - Dielektrophorese KW - Mikrofluidik Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-587421 ER - TY - THES A1 - Mauri, Marco T1 - A model for sigma factor competition in bacterial cells N2 - Bacteria respond to changing environmental conditions by switching the global pattern of expressed genes. In response to specific environmental stresses the cell activates several stress-specific molecules such as sigma factors. They reversibly bind the RNA polymerase to form the so-called holoenzyme and direct it towards the appropriate stress response genes. In exponentially growing E. coli cells, the majority of the transcriptional activity is carried out by the housekeeping sigma factor, while stress responses are often under the control of alternative sigma factors. Different sigma factors compete for binding to a limited pool of RNA polymerase (RNAP) core enzymes, providing a mechanism for cross talk between genes or gene classes via the sharing of expression machinery. To quantitatively analyze the contribution of sigma factor competition to global changes in gene expression, we develop a thermodynamic model that describes binding between sigma factors and core RNAP at equilibrium, transcription, non-specific binding to DNA and the modulation of the availability of the molecular components. Association of housekeeping sigma factor to RNAP is generally favored by its abundance and higher binding affinity to the core. In order to promote transcription by alternative sigma subunits, the bacterial cell modulates the transcriptional efficiency in a reversible manner through several strategies such as anti-sigma factors, 6S RNA and generally any kind of transcriptional regulators (e.g. activators or inhibitors). By shifting the outcome of sigma factor competition for the core, these modulators bias the transcriptional program of the cell. The model is validated by comparison with in vitro competition experiments, with which excellent agreement is found. We observe that transcription is affected via the modulation of the concentrations of the different types of holoenzymes, so saturated promoters are only weakly affected by sigma factor competition. However, in case of overlapping promoters or promoters recognized by two types of sigma factors, we find that even saturated promoters are strongly affected. Active transcription effectively lowers the affinity between the sigma factor driving it and the core RNAP, resulting in complex cross talk effects and raising the question of how their in vitro measure is relevant in the cell. We also estimate that sigma factor competition is not strongly affected by non-specific binding of core RNAPs, sigma factors, and holoenzymes to DNA. Finally, we analyze the role of increased core RNAP availability upon the shut-down of ribosomal RNA transcription during stringent response. We find that passive up-regulation of alternative sigma-dependent transcription is not only possible, but also displays hypersensitivity based on the sigma factor competition. Our theoretical analysis thus provides support for a significant role of passive control during that global switch of the gene expression program and gives new insights into RNAP partitioning in the cell. N2 - Bakterien reagieren auf Aenderungen in ihren Umgebungsbedingungen indem sie global das Genexpressionsprogramm umschalten. Die Zelle aktiviert, als spezifische Reaktion auf Stressbedingungen, mehrere charakteristische Molekuele wie zum Beispiel die Sigmafaktoren. Diese binden reversibel an die RNA Polymerase (RNAP), mit der sie einen Komplex bilden das sogenannte Holoenzym und steuern sie als Reaktion auf den Stress zu den entsprechenden Genen. In exponentiell wachsenden E. Coli Zellen wird das Meiste der Transkription von einem sogenannten Haushaltssigmafaktor organisiert. Wohingegen Stressreaktionen haeufig von alternativen Sigmafaktoren kontrolliert werden. Die verschiedenen Sigmafaktoren konkurrieren um einen begrenzten Pool von RNAP Coreenzymen, womit die Expression einzelner Gene oder Genklassen beeinflusst wird, da sie sich die Maschienerie teilen. Um den Beitrag der Sigmafaktorkonkurrenz an der gesamten Veraenderung der Genexpression quantitativ zu analysieren, haben wir ein theoretisches Modell entwickelt, welches das Binden von Sigmafaktoren mit RNAP Coreenzymen im gleichgewicht, die Transkription, das nichtspezifische Binden an die DNA sowie die Modulation verfuegbarer molekularer Komponenten beschreibt. Normalerweise wird die Assoziation des Haushaltssigmafaktors mit dem RNAP Coreenzym beguenstigt durch dessen grosse Anzahl und die hohe Bindungsaffinitaet. Daher nutzen bakterielle Zellen verschiedene, reversibele Strategien um die Transkription durch alternative Holoenzyme zu foerdern. Dazu gehoeren Anti-Sigmafaktoren, 6S RNA und generell beliebige Transkriptionsregulatoren (z.B.: Aktivatoren oder Repressoren). Sie beeinflussen das Transkriptionsprogramm der Zelle indem sie das Resultat der Sigmafaktorkonkurrenz um die RNAP Coreenzyme zugunsten eines der Sigmafaktoren verschieben. Das Modell kann validiert werden durch Vergleiche mit in vitro Konkurrenzexperimenten, die exzellente uebereinstimmung zeigen. Wir koennen feststellen, dass die Transkription durch Konzentrationsaenderungen der verschiedenen Holoenzyme beeinflusst wird, daher ist der Effekt der Sigmafaktorkonkurrenz klein bei saturierten Promotoren. Was sich jedoch aendert bei sich ueberlappenden Promotoren oder Promotoren, die von zwei verschiedenen Sigmafaktoren erkannt werden. In diesen Faellen sehen wir einen grossen Effekt. Transkription fuehrt zu effektiv abgesekten Affinitaet zwischen den zugehoerigen Sigmafaktoren und den RNAP Coreenzymen, was zu komplizierten Verhalten fuehrt und die Frage aufwirft, inwieweit in vitro gemessenen Effekte in der Zelle wiederzufinden sind. Wir koennen den Einfluss nichtspezifischen Bindens der RNAPs, der Sigmafaktoren und der Holoenzyme an die DNA abschaetzen. Als letztes analysieren wir die Konkurrenz waehrend der "Stringent Response". Hierbei wird die Transkription der ribosomalen RNA unterbrochen was die Anzahl der freien RNAP Coreenzyme stark erhoeht. Wir sehen, dass das passive Hochregeln des alternativen sigmafaktorabhaengigen Transkriptionsprogramms durch Sigmafaktorkokurrenz moeglich und sogar hypersensitiv ist. Unsere theoretische Analyse zeigt, dass die passive Kontrolle in diesem Fall eine signifikante Rolle im globalen umschalten des Transkriptionsprogramms spielt und liefert neue Erkenntnisse zur RNAP Partitionierung in der Zelle. T2 - Ein Modell für die Konkurrenz zwischen Sigmafaktoren in Bakterienzellen KW - biophysics KW - systems biology KW - gene regulation KW - stress response KW - Biophysik KW - Systembiologie KW - Genregulation KW - Stressantwort Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72098 ER - TY - THES A1 - Zass, Alexander T1 - A multifaceted study of marked Gibbs point processes T1 - Facetten von markierten Gibbsschen Punktprozessen N2 - This thesis focuses on the study of marked Gibbs point processes, in particular presenting some results on their existence and uniqueness, with ideas and techniques drawn from different areas of statistical mechanics: the entropy method from large deviations theory, cluster expansion and the Kirkwood--Salsburg equations, the Dobrushin contraction principle and disagreement percolation. We first present an existence result for infinite-volume marked Gibbs point processes. More precisely, we use the so-called entropy method (and large-deviation tools) to construct marked Gibbs point processes in R^d under quite general assumptions. In particular, the random marks belong to a general normed space S and are not bounded. Moreover, we allow for interaction functionals that may be unbounded and whose range is finite but random. The entropy method relies on showing that a family of finite-volume Gibbs point processes belongs to sequentially compact entropy level sets, and is therefore tight. We then present infinite-dimensional Langevin diffusions, that we put in interaction via a Gibbsian description. In this setting, we are able to adapt the general result above to show the existence of the associated infinite-volume measure. We also study its correlation functions via cluster expansion techniques, and obtain the uniqueness of the Gibbs process for all inverse temperatures β and activities z below a certain threshold. This method relies in first showing that the correlation functions of the process satisfy a so-called Ruelle bound, and then using it to solve a fixed point problem in an appropriate Banach space. The uniqueness domain we obtain consists then of the model parameters z and β for which such a problem has exactly one solution. Finally, we explore further the question of uniqueness of infinite-volume Gibbs point processes on R^d, in the unmarked setting. We present, in the context of repulsive interactions with a hard-core component, a novel approach to uniqueness by applying the discrete Dobrushin criterion to the continuum framework. We first fix a discretisation parameter a>0 and then study the behaviour of the uniqueness domain as a goes to 0. With this technique we are able to obtain explicit thresholds for the parameters z and β, which we then compare to existing results coming from the different methods of cluster expansion and disagreement percolation. Throughout this thesis, we illustrate our theoretical results with various examples both from classical statistical mechanics and stochastic geometry. N2 - Diese Arbeit konzentriert sich auf die Untersuchung von markierten Gibbs-Punkt-Prozessen und stellt insbesondere einige Ergebnisse zu deren Existenz und Eindeutigkeit vor. Dabei werden Ideen und Techniken aus verschiedenen Bereichen der statistischen Mechanik verwendet: die Entropie-Methode aus der Theorie der großen Abweichungen, die Cluster-Expansion und die Kirkwood-Salsburg-Gleichungen, das Dobrushin-Kontraktionsprinzip und die Disagreement-Perkolation. Wir präsentieren zunächst ein Existenzergebnis für unendlich-volumige markierte Gibbs-Punkt-Prozesse. Genauer gesagt verwenden wir die sogenannte Entropie-Methode (und Werkzeuge der großen Abweichung), um markierte Gibbs-Punkt-Prozesse in R^d unter möglichst allgemeinen Annahmen zu konstruieren. Insbesondere gehören die zufälligen Markierungen zu einem allgemeinen normierten Raum und sind nicht beschränkt. Außerdem lassen wir Interaktionsfunktionale zu, die unbeschränkt sein können und deren Reichweite endlich, aber zufällig ist. Die Entropie-Methode beruht darauf, zu zeigen, dass eine Familie von endlich-volumigen Gibbs-Punkt-Prozessen zu sequentiell kompakten Entropie-Niveau-Mengen gehört, und daher dicht ist. Wir stellen dann unendlich-dimensionale Langevin-Diffusionen vor, die wir über eine Gibbssche Beschreibung in Wechselwirkung setzen. In dieser Umgebung sind wir in der Lage, das vorangehend vorgestellte allgemeine Ergebnis anzupassen, um die Existenz des zugehörigen unendlich-dimensionalen Maßes zu zeigen. Wir untersuchen auch seine Korrelationsfunktionen über Cluster-Expansions Techniken und erhalten die Eindeutigkeit des Gibbs-Prozesses für alle inversen Temperaturen β und Aktivitäten z unterhalb einer bestimmten Schwelle. Diese Methode beruht darauf, zunächst zu zeigen, dass die Korrelationsfunktionen des Prozesses eine so genannte Ruelle-Schranke erfüllen, um diese dann zur Lösung eines Fixpunktproblems in einem geeigneten Banach-Raum zu verwenden. Der Eindeutigkeitsbereich, den wir erhalten, wird dann aus den Modellparametern z und β definiert, für die ein solches Problem genau eine Lösung hat. Schließlich untersuchen wir die Frage nach der Eindeutigkeit von unendlich-volumigen Gibbs-Punkt-Prozessen auf R^d im unmarkierten Fall weiter. Im Zusammenhang mit repulsiven Wechselwirkungen basierend auf einer Hartkernkomponente stellen wir einen neuen Ansatz zur Eindeutigkeit vor, indem wir das diskrete Dobrushin-Kriterium im kontinuierlichen Rahmen anwenden. Wir legen zunächst einen Diskretisierungsparameter a>0 fest und untersuchen dann das Verhalten des Bereichs der Eindeutigkeit, wenn a gegen 0 geht. Mit dieser Technik sind wir in der Lage, explizite Schwellenwerte für die Parameter z und β zu erhalten, die wir dann mit bestehenden Ergebnissen aus den verschiedenen Methoden der Cluster-Expansion und der Disagreement-Perkolation vergleichen. In dieser Arbeit illustrieren wir unsere theoretischen Ergebnisse mit verschiedenen Beispielen sowohl aus der klassischen statistischen Mechanik als auch aus der stochastischen Geometrie. KW - marked Gibbs point processes KW - Langevin diffusions KW - Dobrushin criterion KW - Entropy method KW - Cluster expansion KW - Kirkwood--Salsburg equations KW - DLR equations KW - Markierte Gibbs-Punkt-Prozesse KW - Entropiemethode KW - Cluster-Expansion KW - DLR-Gleichungen KW - Dobrushin-Kriterium KW - Kirkwood-Salsburg-Gleichungen KW - Langevin-Diffusions Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512775 ER - TY - THES A1 - Thiede, Tobias T1 - A multiscale analysis of additively manufactured lattice structures T1 - Multiskalige Analyse von Additiv Gefertigten Gitterstrukturen N2 - Additive Manufacturing (AM) in terms of laser powder-bed fusion (L-PBF) offers new prospects regarding the design of parts and enables therefore the production of lattice structures. These lattice structures shall be implemented in various industrial applications (e.g. gas turbines) for reasons of material savings or cooling channels. However, internal defects, residual stress, and structural deviations from the nominal geometry are unavoidable. In this work, the structural integrity of lattice structures manufactured by means of L-PBF was non-destructively investigated on a multiscale approach. A workflow for quantitative 3D powder analysis in terms of particle size, particle shape, particle porosity, inter-particle distance and packing density was established. Synchrotron computed tomography (CT) was used to correlate the packing density with the particle size and particle shape. It was also observed that at least about 50% of the powder porosity was released during production of the struts. Struts are the component of lattice structures and were investigated by means of laboratory CT. The focus was on the influence of the build angle on part porosity and surface quality. The surface topography analysis was advanced by the quantitative characterisation of re-entrant surface features. This characterisation was compared with conventional surface parameters showing their complementary information, but also the need for AM specific surface parameters. The mechanical behaviour of the lattice structure was investigated with in-situ CT under compression and successive digital volume correlation (DVC). The deformation was found to be knot-dominated, and therefore the lattice folds unit cell layer wise. The residual stress was determined experimentally for the first time in such lattice structures. Neutron diffraction was used for the non-destructive 3D stress investigation. The principal stress directions and values were determined in dependence of the number of measured directions. While a significant uni-axial stress state was found in the strut, a more hydrostatic stress state was found in the knot. In both cases, strut and knot, seven directions were at least needed to find reliable principal stress directions. N2 - Das Laserstrahlschmelzen (L-PBF) als Prozess im Bereich der Additiven Fertigung (AM) ermöglicht ein neuartiges Bauteildesign und somit auch die Produktion von komplexen Gitterstrukturen, welche Materialeinsparungen und effizientere Kühlsysteme erlauben und daher für verschiedene industrielle Anwendungen (z.B. Gasturbinen) geeignet sind. Interne Defekte, Eigenspannungen und geometrische Abweichungen von der Soll-Geometrie sind jedoch unvermeidbar. Im Rahmen dieser Arbeit wird die strukturelle Integrität von L-PBF gefertigten Gitterstrukturen zerstörungsfrei auf verschiedenen Größenskalen untersucht. Eine Auswerteroutine für dreidimensionale quantitative Pulvercharakterisierung hinsichtlich der Partikelgröße, der -form, der -porosität, des Interpartikelabstands und der Packungsdichte wurde entwickelt. Synchrotron Computertomographie (CT) wurde für die Korrelation der Packungsdichte mit der Partikelgröße und -form genutzt. Darüber hinaus konnte festgestellt werden, dass mindestens 50% der Porosität aus den Pulverpartikel während der Herstellung der Streben mittels L-PBF gelöst wurde. Streben sind die Grundbausteine der Gitterstrukturen und wurden mit industrieller CT untersucht. Dabei lag der Fokus auf dem Einfluss des Bauwinkels auf die Strebenporosität und -oberflächenqualität. Die Analyse der Oberflächentopographie wurde hinsichtlich einer quantitativen Analyse von sogenannten re-entrant features erweitert. Der Vergleich dieser Auswertung mit konventionellen Oberflächenparametern offenbarte sowohl deren Komplementarität also auch den Bedarf an neuen AM-spezifischen Oberflächenparametern. In-situ CT Versuche mit anschließender digitaler Volumenkorrelation (DVC) erlaubte die Gitterstruktur bezüglich des mechanischen Verhaltens unter Druckspannung zu bewerten. Aufgrund einer schichtweisen Faltung der Einheitszellen konnte dabei das Versagensverhalten als knoten-dominiert identifiziert werden. Mittels Neutronenbeugung konnten Eigenspannungen in solchen Gitterstrukturen erstmalig experimentell bestimmt werden. Dabei wurden sowohl die Hauptspannungsrichtungen als auch die -beträge in Abhängigkeit von der Anzahl der gemessenen Spannungsrichtungen bestimmt. Während in der Strebe ein signifikanter uni-axialer Spannungszustand nachgewiesen wurde, zeigte der Knotenpunkt einen hydrostatischeren Spannungszustand. Sowohl im Falle der Strebe als auch des Knotenpunkts waren mindestens sieben gemessene Spannungsrichtungen nötig, um die Hauptspannungsrichtungen verlässlich zu ermitteln. KW - additive manufacturing KW - laser powder bed fusion KW - computed tomography KW - neutron diffraction KW - in-situ testing KW - residual stress KW - roughness KW - powder particle analysis KW - additive Fertigung KW - Laserstrahlschmelzen KW - Computertomographie KW - Neutronendiffraktion KW - In-situ Experimente KW - Eigenspannung KW - Rauheit KW - Pulverpartikelanalyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-470418 ER - TY - THES A1 - Ghasemzadeh, Mohammad T1 - A new algorithm for the quantified satisfiability problem, based on zero-suppressed binary decision diagrams and memoization T1 - Ein neuer Algorithmus für die quantifizierte Aussagenlogik, basierend auf Zero-suppressed BDDs und Memoization N2 - Quantified Boolean formulas (QBFs) play an important role in theoretical computer science. QBF extends propositional logic in such a way that many advanced forms of reasoning can be easily formulated and evaluated. In this dissertation we present our ZQSAT, which is an algorithm for evaluating quantified Boolean formulas. ZQSAT is based on ZBDD: Zero-Suppressed Binary Decision Diagram , which is a variant of BDD, and an adopted version of the DPLL algorithm. It has been implemented in C using the CUDD: Colorado University Decision Diagram package. The capability of ZBDDs in storing sets of subsets efficiently enabled us to store the clauses of a QBF very compactly and let us to embed the notion of memoization to the DPLL algorithm. These points led us to implement the search algorithm in such a way that we could store and reuse the results of all previously solved subformulas with a little overheads. ZQSAT can solve some sets of standard QBF benchmark problems (known to be hard for DPLL based algorithms) faster than the best existing solvers. In addition to prenex-CNF, ZQSAT accepts prenex-NNF formulas. We show and prove how this capability can be exponentially beneficial. N2 - In der Dissertation stellen wir einen neuen Algorithmus vor, welcher Formeln der quantifizierten Aussagenlogik (engl. Quantified Boolean formula, kurz QBF) löst. QBFs sind eine Erweiterung der klassischen Aussagenlogik um die Quantifizierung über aussagenlogische Variablen. Die quantifizierte Aussagenlogik ist dabei eine konservative Erweiterung der Aussagenlogik, d.h. es können nicht mehr Theoreme nachgewiesen werden als in der gewöhnlichen Aussagenlogik. Der Vorteil der Verwendung von QBFs ergibt sich durch die Möglichkeit, Sachverhalte kompakter zu repräsentieren. SAT (die Frage nach der Erfüllbarkeit einer Formel der Aussagenlogik) und QSAT (die Frage nach der Erfüllbarkeit einer QBF) sind zentrale Probleme in der Informatik mit einer Fülle von Anwendungen, wie zum Beispiel in der Graphentheorie, bei Planungsproblemen, nichtmonotonen Logiken oder bei der Verifikation. Insbesondere die Verifikation von Hard- und Software ist ein sehr aktuelles und wichtiges Forschungsgebiet in der Informatik. Unser Algorithmus zur Lösung von QBFs basiert auf sogenannten ZBDDs (engl. Zero-suppressed Binary decision Diagrams), welche eine Variante der BDDs (engl. Binary decision Diagrams) sind. BDDs sind eine kompakte Repräsentation von Formeln der Aussagenlogik. Der Algorithmus kombiniert nun bekannte Techniken zum Lösen von QBFs mit der ZBDD-Darstellung unter Verwendung geeigneter Heuristiken und Memoization. Memoization ermöglicht dabei das einfache Wiederverwenden bereits gelöster Teilprobleme. Der Algorithmus wurde unter Verwendung des CUDD-Paketes (Colorado University Decision Diagram) implementiert und unter dem Namen ZQSAT veröffentlicht. In Tests konnten wir nachweisen, dass ZQSAT konkurrenzfähig zu existierenden QBF-Beweisern ist, in einigen Fällen sogar bessere Resultate liefern kann. KW - Binäres Entscheidungsdiagramm KW - Erfüllbarkeitsproblem KW - DPLL KW - Zero-Suppressed Binary Decision Diagram (ZDD) KW - Formeln der quantifizierten Aussagenlogik KW - Erfüllbarkeit einer Formel der Aussagenlogik KW - ZQSA KW - DPLL KW - Zero-Suppressed Binary Decision Diagram (ZDD) KW - Quantified Boolean Formula (QBF) KW - Satisfiability KW - ZQSAT Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-6378 ER - TY - THES A1 - Falter, Daniela T1 - A novel approach for large-scale flood risk assessments T1 - Ein neuartiger Ansatz für großskalige Hochwasserrisikoanalysen BT - continuous and long-term simulation of the full flood risk chain BT - kontinuierliche Langzeitsimulation der gesamten Hochwasserrisikokette N2 - In the past, floods were basically managed by flood control mechanisms. The focus was set on the reduction of flood hazard. The potential consequences were of minor interest. Nowadays river flooding is increasingly seen from the risk perspective, including possible consequences. Moreover, the large-scale picture of flood risk became increasingly important for disaster management planning, national risk developments and the (re-) insurance industry. Therefore, it is widely accepted that risk-orientated flood management ap-proaches at the basin-scale are needed. However, large-scale flood risk assessment methods for areas of several 10,000 km² are still in early stages. Traditional flood risk assessments are performed reach wise, assuming constant probabilities for the entire reach or basin. This might be helpful on a local basis, but where large-scale patterns are important this approach is of limited use. Assuming a T-year flood (e.g. 100 years) for the entire river network is unrealistic and would lead to an overestimation of flood risk at the large scale. Due to the lack of damage data, additionally, the probability of peak discharge or rainfall is usually used as proxy for damage probability to derive flood risk. With a continuous and long term simulation of the entire flood risk chain, the spatial variability of probabilities could be consider and flood risk could be directly derived from damage data in a consistent way. The objective of this study is the development and application of a full flood risk chain, appropriate for the large scale and based on long term and continuous simulation. The novel approach of ‘derived flood risk based on continuous simulations’ is introduced, where the synthetic discharge time series is used as input into flood impact models and flood risk is directly derived from the resulting synthetic damage time series. The bottleneck at this scale is the hydrodynamic simu-lation. To find suitable hydrodynamic approaches for the large-scale a benchmark study with simplified 2D hydrodynamic models was performed. A raster-based approach with inertia formulation and a relatively high resolution of 100 m in combination with a fast 1D channel routing model was chosen. To investigate the suitability of the continuous simulation of a full flood risk chain for the large scale, all model parts were integrated into a new framework, the Regional Flood Model (RFM). RFM consists of the hydrological model SWIM, a 1D hydrodynamic river network model, a 2D raster based inundation model and the flood loss model FELMOps+r. Subsequently, the model chain was applied to the Elbe catchment, one of the largest catchments in Germany. For the proof-of-concept, a continuous simulation was per-formed for the period of 1990-2003. Results were evaluated / validated as far as possible with available observed data in this period. Although each model part introduced its own uncertainties, results and runtime were generally found to be adequate for the purpose of continuous simulation at the large catchment scale. Finally, RFM was applied to a meso-scale catchment in the east of Germany to firstly perform a flood risk assessment with the novel approach of ‘derived flood risk assessment based on continuous simulations’. Therefore, RFM was driven by long term synthetic meteorological input data generated by a weather generator. Thereby, a virtual time series of climate data of 100 x 100 years was generated and served as input to RFM providing subsequent 100 x 100 years of spatially consistent river discharge series, inundation patterns and damage values. On this basis, flood risk curves and expected annual damage could be derived directly from damage data, providing a large-scale picture of flood risk. In contrast to traditional flood risk analysis, where homogenous return periods are assumed for the entire basin, the presented approach provides a coherent large-scale picture of flood risk. The spatial variability of occurrence probability is respected. Additionally, data and methods are consistent. Catchment and floodplain processes are repre-sented in a holistic way. Antecedent catchment conditions are implicitly taken into account, as well as physical processes like storage effects, flood attenuation or channel–floodplain interactions and related damage influencing effects. Finally, the simulation of a virtual period of 100 x 100 years and consequently large data set on flood loss events enabled the calculation of flood risk directly from damage distributions. Problems associated with the transfer of probabilities in rainfall or peak runoff to probabilities in damage, as often used in traditional approaches, are bypassed. RFM and the ‘derived flood risk approach based on continuous simulations’ has the potential to provide flood risk statements for national planning, re-insurance aspects or other questions where spatially consistent, large-scale assessments are required. N2 - In der Vergangenheit standen bei der Betrachtung von Hochwasser insbesondere technische Schutzmaßnahmen und die Reduzierung der Hochwassergefahr im Mittelpunkt. Inzwischen wird Hochwasser zunehmend aus der Risikoperspektive betrachtet, d.h. neben der Gefährdung werden auch die Auswirkungen berücksichtigt. In diesem Zuge wurde auch die Notwendigkeit von großräumigen Hochwasserrisikoanalysen für das Management von Naturgefahren und als Planungsgrundlage auf nationaler Ebene sowie für die Rückversicherungsindustrie erkannt. Insbesondere durch die Einführung der Europäischen Hochwasserrisikomanagement Richtlinie sind risikoorientierte Managementpläne auf Einzugsgebietsebene obligatorisch. Allerdings befinden sich großräumige Hochwasserrisikoanalysen von mehreren 10.000 km², noch in den Anfängen. Traditionell werden Hochwasserrisikoanalysen für Gewässerabschnitte durchgeführt, wobei homogene Wiederkehrintervalle für das ganze Untersuchungsgebiet angenommen werden. Für lokale Fragestellungen ist diese Vorgehensweise sinnvoll, dies gilt allerdings nicht für die großräumige Analyse des Hochwasserrisikos. Die Annahme eines beispielsweise 100-jährigen Hochwassers im gesamten Gebiet ist unrealistisch und das Hochwasserrisiko würde dabei stark überschätzt werden. Aufgrund unzureichender Schadensdaten werden bei der Berechnung des Risikos oftmals die Wahrscheinlichkeiten des Niederschlags oder der Hochwasserscheitelabflüsse als Annäherung für die Wahrscheinlichkeit des Schadens angenommen. Durch eine kontinuierliche Langzeit-Simulation der gesamten Hochwasserrisikokette könnte sowohl die räumliche Verteilung der Wiederkehrintervalle berücksichtig werden, als auch das Hochwasserrisiko direkt aus Schadenszeitreihen abgeleitet werden. Die Zielsetzung dieser Arbeit ist die Entwicklung und Anwendung einer, für großräumige Gebiete geeigneten, kontinuierlichen Hochwasserrisikomodellkette. Damit wird ein neuartiger Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ eingeführt, der das Hochwasserrisiko direkt aus den simulierten Abflusszeitreichen und den daraus resultierenden Schadenzeitreihen ableitet. Die größte Herausforderung der Hochwasserrisikokette liegt bei den sehr rechenintensiven, detaillierten hydraulischen Simulationen. Um geeignete hydraulische Modelle für die großräumige Anwendung zu identifizieren, wurde eine Benchmark-Studie mit 2D Modellen unterschiedlicher Komplexität durchgeführt. Auf dieser Grundlage wurde für die Hochwasserrisikomodellkette ein rasterbasierter Ansatz mit einer relativ hohen Auflösung von 100 m in Kombination mit einem schnellen 1D Fließgewässermodell ausgewählt. Um die Eignung einer kontinuierlichen Simulation der gesamten Hochwasserrisikokette für großräumige Anwendungen zu prüfen, wurden zunächst alle Komponenten der Modellkette im ‚Regional Flood Model‘ (RFM) zusammengeführt. RFM besteht aus dem hydrologischen Modell SWIM, 1D und 2D hydraulischen Modellen, sowie dem Schadensmodell FELMOps+r. Nachfolgend wurde die Modellkette für das Elbe-Einzugsgebiet (>60.000 km²) angewendet. Es wurde eine kontinuierliche Simulation für den Zeitraum 1990-2003 durchgeführt. Die Ergebnisse wurden nach Möglichkeit mit vorhandenen Messdaten validiert/evaluiert. Auch wenn jede Komponente zu Unsicherheiten in den Ergebnissen der Modellkette beiträgt, sind die Ergebnisse und Rechenzeiten für die Anwendung auf großskaliger Einzugsgebietsebene als adäquat anzusehen. Schließlich wurde RFM in einem mesoskaligen Einzugsgebiet (6.000 km²) im Osten von Deutschland angewendet, um erstmals eine Hochwasserrisikoanalyse mit dem neuartigen Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ durchzuführen. Als Input wurde eine 100 x 100-jährige Zeitreihe meteorologischer Daten von einem Wettergenerator erzeugt. Die somit erzeugte 100 x 100-jährige konsistente Abflusszeitreihe, Überschwemmungsmuster und Schadenswerte dienten als Basis für die nachfolgende Erstellung von Hochwasserrisikokurven und Schadenserwartungswerten für das Untersuchungsgebiet. Diese ermöglichen eine großräumige Analyse des Hochwasserrisikos. Dabei wurde die räumliche Variation der Wahrscheinlichkeiten berücksichtigt. Die verwendeten Daten und Methoden waren außerdem im gesamten Untersuchungsgebiet einheitlich. Einzugsgebietsprozesse und Prozesse der Überschwemmungsflächen werden holistisch dargestellt. Die Vorbedingungen im Einzugsgebiet sowie physikalische Prozesse, wie Rückhalteeffekte, Überlagerungseffekte im Gewässernetz oder Interaktionen zwischen Fluss und Überschwemmungsflächen, werden implizit berücksichtigt. Die Simulation von 100 x 100 Jahren und die daraus resultierende große Anzahl an Schadensdaten ermöglichen die direkte Berechnung des Hochwasserrisikos aus Schadenswahrscheinlichkeiten. Die Probleme, die durch die Übertragung von Wahrscheinlichkeiten von Niederschlag oder Scheitelabfluss auf die Wahrscheinlichkeiten im Schaden resultieren, werden umgangen. RFM und der Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ haben das Potential Hochwasserrisikoaussagen für nationale Planungen, Rückversicherungsaspekte oder andere Fragestellungen, bei denen räumlich konsistente und großräumige Analysen nötig sind, zu treffen. KW - flood risk KW - hydraulic simulation KW - flood risk analysis KW - risk model chain KW - floodplain inundation KW - Hochwasserrisikoanalysen KW - Hochwasserrisikokette KW - Überschwemmungsflächen KW - kontinuierlicher Simulationsansatz Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90239 ER - TY - THES A1 - Rudolph-Mohr, Nicole T1 - A novel non-invasive optical method for quantitative visualization of pH and oxygen dynamics in soils T1 - Entwicklung einer neuen, nicht invasiven, optischen Methode für die quantitative Darstellung von pH und Sauerstoffdynamiken in Böden N2 - In soils and sediments there is a strong coupling between local biogeochemical processes and the distribution of water, electron acceptors, acids and nutrients. Both sides are closely related and affect each other from small scale to larger scales. Soil structures such as aggregates, roots, layers or macropores enhance the patchiness of these distributions. At the same time it is difficult to access the spatial distribution and temporal dynamics of these parameter. Noninvasive imaging techniques with high spatial and temporal resolution overcome these limitations. And new non-invasive techniques are needed to study the dynamic interaction of plant roots with the surrounding soil, but also the complex physical and chemical processes in structured soils. In this study we developed an efficient non-destructive in-situ method to determine biogeochemical parameters relevant to plant roots growing in soil. This is a quantitative fluorescence imaging method suitable for visualizing the spatial and temporal pH changes around roots. We adapted the fluorescence imaging set-up and coupled it with neutron radiography to study simultaneously root growth, oxygen depletion by respiration activity and root water uptake. The combined set up was subsequently applied to a structured soil system to map the patchy structure of oxic and anoxic zones induced by a chemical oxygen consumption reaction for spatially varying water contents. Moreover, results from a similar fluorescence imaging technique for nitrate detection were complemented by a numerical modeling study where we used imaging data, aiming to simulate biodegradation under anaerobic, nitrate reducing conditions. N2 - In Böden und Sedimenten sind biogeochemische Prozesse und die Verteilung von Größen wie Wasser, Elektronenakzeptoren, Säuregehalte und Nährstoffe in enger Weise miteinander gekoppelt. Diese wechselseitige Beeinflussung ist skalenübergreifend und reicht von sehr kleinen bis zu größeren Skalen. Die in realen Böden vorhandene Struktur z. Bsp. Aggregate, Pflanzenwurzeln, Schichten und Makroporen bedingen eine starke räumlich Heterogenität und zeitliche Dynamik dieser Größen. Gleichzeitig sind Verteilung und Dynamik sehr schwer zu beobachten, zumindest ohne ihre gleichzeitige Störung. Bildgebende Verfahren bieten eine sehr gute räumliche und zeitliche Auflösung und ermöglichen die Darstellung dieser Größen. Um die dynamische Wechselwirkung zwischen Pflanzenwurzeln und Boden, aber auch die komplexen physikalisch – chemischen Prozesse in Böden zu verstehen, sind neue bildgebende Verfahren notwendig. Ziel dieser Arbeit war es, eine neue nicht-invasive Methode zu entwickeln, die es ermöglicht biogeochemische Parameter in der Wurzelzone zu visualisieren. Innerhalb dieser Studie wurde ein quantitatives bildgebendes Verfahren entwickelt, dass die räumlichen und zeitlichen Dynamiken des pH Wertes in der Rhizosphäre erfasst. Diese auf Fluoreszenzemissionen basierende Methode wurde ebenso für Sauerstoffdetektion entwickelt und mit Neutronen Radiographie kombiniert um gleichzeitig Aussagen über Wurzelwachstum, Sauerstoffzehrung durch Wurzelatmung und Wurzelwasseraufnahme treffen zu können. Die kombinierte bildgebende Methode wurde dann in einem künstlichen Boden genutzt um Nischen und Übergangsbereiche von Sauerstoff bei variierenden Wassergehalten zu charakterisieren. Das große Potential von bildgebenden Verfahren zeigt sich bei Modellierungsstudien. In dieser Studie wurden Bilddaten als Eingabeparameter für die Simulierung von denitrifizierendem biologischem Schadstoffabbau genutzt. KW - Optische Sensoren KW - pH KW - Sauerstoff KW - Fluoreszenzbildgebung KW - Rhizosphere KW - Optical sensor KW - pH KW - oxygen KW - fluorescence imaging KW - rhizosphere Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66993 ER - TY - THES A1 - Gebauer, Denis T1 - A novel view on the early stage of crystallization T1 - Ein Neuartiges Bild der frühen Kristallisationsphase N2 - This thesis provides a novel view on the early stage of crystallization utilizing calcium carbonate as a model system. Calcium carbonate is of great economical, scientific and ecological importance, because it is a major part of water hardness, the most abundant Biomineral and forms huge amounts of geological sediments thus binding large amounts of carbon dioxide. The primary experiments base on the evolution of supersaturation via slow addition of dilute calcium chloride solution into dilute carbonate buffer. The time-dependent measurement of the Ca2+ potential and concurrent pH = constant titration facilitate the calculation of the amount of calcium and carbonate ions bound in pre-nucleation stage clusters, which have never been detected experimentally so far, and in the new phase after nucleation, respectively. Analytical Ultracentrifugation independently proves the existence of pre-nucleation stage clusters, and shows that the clusters forming at pH = 9.00 have a proximately time-averaged size of altogether 70 calcium and carbonate ions. Both experiments show that pre-nucleation stage cluster formation can be described by means of equilibrium thermodynamics. Effectively, the cluster formation equilibrium is physico-chemically characterized by means of a multiple-binding equilibrium of calcium ions to a ‘lattice’ of carbonate ions. The evaluation gives GIBBS standard energy for the formation of calcium/carbonate ion pairs in clusters, which exhibits a maximal value of approximately 17.2 kJ mol^-1 at pH = 9.75 and relates to a minimal binding strength in clusters at this pH-value. Nucleated calcium carbonate particles are amorphous at first and subsequently become crystalline. At high binding strength in clusters, only calcite (the thermodynamically stable polymorph) is finally obtained, while with decreasing binding strength in clusters, vaterite (the thermodynamically least stable polymorph) and presumably aragonite (the thermodynamically intermediate stable polymorph) are obtained additionally. Concurrently, two different solubility products of nucleated amorphous calcium carbonate (ACC) are detected at low binding strength and high binding strength in clusters (ACC I 3.1EE-8 M^2, ACC II 3.8EE-8 M^2), respectively, indicating the precipitation of at least two different ACC species, while the clusters provide the precursor species of ACC. It is proximate that ACC I may relate to calcitic ACC –i.e. ACC exhibiting short range order similar to the long range order of calcite and that ACC II may relate to vateritic ACC, which will subsequently transform into the particular crystalline polymorph as discussed in the literature, respectively. Detailed analysis of nucleated particles forming at minimal binding strength in clusters (pH = 9.75) by means of SEM, TEM, WAXS and light microscopy shows that predominantly vaterite with traces of calcite forms. The crystalline particles of early stages are composed of nano-crystallites of approximately 5 to 10 nm size, respectively, which are aligned in high mutual order as in mesocrystals. The analyses of precipitation at pH = 9.75 in presence of additives –polyacrylic acid (pAA) as a model compound for scale inhibitors and peptides exhibiting calcium carbonate binding affinity as model compounds for crystal modifiers- shows that ACC I and ACC II are precipitated in parallel: pAA stabilizes ACC II particles against crystallization leading to their dissolution for the benefit of crystals that form from ACC I and exclusively calcite is finally obtained. Concurrently, the peptide additives analogously inhibit the formation of calcite and exclusively vaterite is finally obtained in case of one of the peptide additives. These findings show that classical nucleation theory is hardly applicable for the nucleation of calcium carbonate. The metastable system is stabilized remarkably due to cluster formation, while clusters forming by means of equilibrium thermodynamics are the nucleation relevant species and not ions. Most likely, the concept of cluster formation is a common phenomenon occurring during the precipitation of hardly soluble compounds as qualitatively shown for calcium oxalate and calcium phosphate. This finding is important for the fundamental understanding of crystallization and nucleation-inhibition and modification by additives with impact on materials of huge scientific and industrial importance as well as for better understanding of the mass transport in crystallization. It can provide a novel basis for simulation and modelling approaches. New mechanisms of scale formation in Bio- and Geomineralization and also in scale inhibition on the basis of the newly reported reaction channel need to be considered. N2 - Die vorliegende Arbeit zeichnet ein neuartiges Bild der frühen Kristallisationsphase von Calciumcarbonat. Calciumcarbonat hat als Hauptbestandteil der Wasserhärte und als weit verbreitetes Biomineral und Geomineral, das als Sediment in den Ozeanen große Mengen Kohlendioxid bindet, große Bedeutung. Die grundlegenden Experimente basieren auf der sehr langsamen Einstellung von Übersättigung, die durch langsame Zugabe verdünnter Calciumlösung in verdünnten Carbonatpuffer erreicht wird. Zeitabhängige Messung des Ca2+ Potentials bei gleichzeitiger pH = konstant Titration zeigt, dass zeitgemittelt vor der Nukleation gleiche Stoffmengen von Calcium- und Carbonat Ionen in Clustern gebunden sind, die bis jetzt noch nicht experimentell nachgewiesen werden konnten. Analytische Ultrazentrifugation belegt unabhängig die Existenz der Cluster, und es zeigt sich, dass sich die bei pH = 9,00 bildenden Cluster zeitgemittelt aus insgesamt etwa 70 Calcium und Carbonat Ionen bestehen. Die Experimente weisen darauf hin, dass sich die Clusterbildung auf der Grundlage von Gleichgewichtsthermodynamik beschreiben lässt. Ein multiples Bindungsgleichgewichtsmodell ermöglicht die Bestimmung der freien Standard Reaktionsenthalpie für die Bildung von Calcium/Carbonat Ionenpaaren in den Clustern, die ein Maß für die Bindungsstärke in Clustern darstellt. Die Bindungsstärke weist ein Minimum bei pH = 9,75 auf, und es zeigt sich, dass außerhalb dieses Minimums amorphes Calciumcarbonat ausfällt, das sich letztendlich in Calcit (das thermodynamisch stabile Calciumcarbonat Polymorph) umwandelt, während im Minimum und in der Nähe des Minimums amorphes Calciumcarbonat ausfällt, das sich letztendlich hauptsächlich in Vaterit (das thermodynamisch am wenigsten stabile Polymorph), Calcit und möglicherweise Spuren von Aragonit (das Polymorph mittlerer Stabilität) umwandelt. Gleichzeitig treten zwei unterschiedliche Löslichkeitsprodukte für das bei hoher und niedriger Bindungsstärke in Clustern ausgefällte, amorphe Calciumcarbonat auf (ACC I 3,1EE-8 M^2, ACC II 3,8EE-8 M^2). Das zeigt, dass die sich vor der Nukleation bildenden Cluster Vorläuferspezies (Precursor) des ausgefällten, amorphen Calciumcarbonats darstellen, wobei ACC I in der Literatur diskutiertem, calcitischem ACC entsprechen und ACC II vateritischem Calcit entsprechen kann. Eine detaillierte SEM, TEM, WAXS und Lichtmikroskopie Untersuchung der bei minimaler Bindungsstärke in Clustern (pH = 9,75) ausgefällten Partikel zeigt, dass sich hauptsächlich Vaterit mit Spuren von Calcit und möglicherweise Aragonit bildet. Die sich früh bildenden, kristallinen Partikel sind jeweils aus nano-Kristalliten von etwa 5 bis 10 nm Größe aufgebaut, die wie in Mesokristallen eine hohe wechselseitige Ordnung aufweisen. Die Untersuchung der frühen Kristallisation in Gegenwart von Additiven wurde ebenfalls bei minimaler Bindungsstärke in Clustern durchgeführt. Als Additive wurden Polyacrylsäure (PAA) als Beispiel für einen Hemmstoff gegen die Bildung von Verkalkungen und drei Peptide, die Bindungsaffinität zu Calciumcarbonat zeigen, als Beispiel für Kristallisations-Modifikatoren untersucht. Die Analyse zeigt, dass ACC I und ACC II parallel ausfallen; pAA stabilisiert ACC II gegenüber Kristallisation und führt dazu, dass es sich zugunsten von Kristallen, die sich aus ACC I bilden, auflöst, wobei letztendlich reines Calcit erhalten wird. Die Peptide hingegen hemmen die Bildung von Calcit in analoger Weise, wobei in einem Fall letztendlich reines Vaterit entsteht. Die Ergebnisse zeigen, dass die klassische Nukleationstheorie auf die Nukleation von Calciumcarbonat kaum anwendbar ist. Das metastabile System wird durch die Clusterbildung deutlich stabilisiert, und nicht Ionen, sondern Cluster sind die relevanten Spezies in der Nukleation. Wahrscheinlich ist das gefundene Konzept der Clusterbildung ein allgemeines Phänomen, das während der Kristallisation aller schwer löslichen Substanzen auftritt, da es auch für Calciumoxalat und Calciumphosphat qualitativ gezeigt werden konnte. Das Ergebnis ist wichtig für das fundamentale Verständnis der Nukleation, von Nukleationshemmung und der Modifikation von Kristallen mit Auswirkungen auf Materialen von großer industrieller und auch wissenschaftlicher Bedeutung. Ferner gibt es einen Hinweis, wie Masse während der Kristallisation –auch in Lebewesen transportiert werden kann und es kann einen neuen Ansatz für Kristallisationssimulationen liefern. Auf der Basis dieses neuartigen Reaktionskanals müssen neue Kristallisations-Mechanismen in Bio- und Geomineralization in Betracht gezogen werden. KW - Calciumcarbonat KW - Kristallisation KW - Nukleation KW - Cluster KW - Additive KW - calcium carbonate KW - crystallization KW - nucleation KW - clusters KW - additives Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-19818 ER - TY - THES A1 - Tabares Jimenez, Ximena del Carmen T1 - A palaeoecological approach to savanna dynamics and shrub encroachment in Namibia N2 - The spread of shrubs in Namibian savannas raises questions about the resilience of these ecosystems to global change. This makes it necessary to understand the past dynamics of the vegetation, since there is no consensus on whether shrub encroachment is a new phenomenon, nor on its main drivers. However, a lack of long-term vegetation datasets for the region and the scarcity of suitable palaeoecological archives, makes reconstructing past vegetation and land cover of the savannas a challenge. To help meet this challenge, this study addresses three main research questions: 1) is pollen analysis a suitable tool to reflect the vegetation change associated with shrub encroachment in savanna environments? 2) Does the current encroached landscape correspond to an alternative stable state of savanna vegetation? 3) To what extent do pollen-based quantitative vegetation reconstructions reflect changes in past land cover? The research focuses on north-central Namibia, where despite being the region most affected by shrub invasion, particularly since the 21st century, little is known about the dynamics of this phenomenon. Field-based vegetation data were compared with modern pollen data to assess their correspondence in terms of composition and diversity along precipitation and grazing intensity gradients. In addition, two sediment cores from Lake Otjikoto were analysed to reveal changes in vegetation composition that have occurred in the region over the past 170 years and their possible drivers. For this, a multiproxy approach (fossil pollen, sedimentary ancient DNA (sedaDNA), biomarkers, compound specific carbon (δ13C) and deuterium (δD) isotopes, bulk carbon isotopes (δ13Corg), grain size, geochemical properties) was applied at high taxonomic and temporal resolution. REVEALS modelling of the fossil pollen record from Lake Otjikoto was run to quantitatively reconstruct past vegetation cover. For this, we first made pollen productivity estimates (PPE) of the most relevant savanna taxa in the region using the extended R-value model and two pollen dispersal options (Gaussian plume model and Lagrangian stochastic model). The REVEALS-based vegetation reconstruction was then validated using remote sensing-based regional vegetation data. The results show that modern pollen reflects the composition of the vegetation well, but diversity less well. Interestingly, precipitation and grazing explain a significant amount of the compositional change in the pollen and vegetation spectra. The multiproxy record shows that a state change from open Combretum woodland to encroached Terminalia shrubland can occur over a century, and that the transition between states spans around 80 years and is characterized by a unique vegetation composition. This transition is supported by gradual environmental changes induced by management (i.e. broad-scale logging for the mining industry, selective grazing and reduced fire activity associated with intensified farming) and related land-use change. Derived environmental changes (i.e. reduced soil moisture, reduced grass cover, changes in species composition and competitiveness, reduced fire intensity) may have affected the resilience of Combretum open woodlands, making them more susceptible to change to an encroached state by stochastic events such as consecutive years of precipitation and drought, and by high concentrations of pCO2. We assume that the resulting encroached state was further stabilized by feedback mechanisms that favour the establishment and competitiveness of woody vegetation. The REVEALS-based quantitative estimates of plant taxa indicate the predominance of a semi-open landscape throughout the 20th century and a reduction in grass cover below 50% since the 21st century associated with the spread of encroacher woody taxa. Cover estimates show a close match with regional vegetation data, providing support for the vegetation dynamics inferred from multiproxy analyses. Reasonable PPEs were made for all woody taxa, but not for Poaceae. In conclusion, pollen analysis is a suitable tool to reconstruct past vegetation dynamics in savannas. However, because pollen cannot identify grasses beyond family level, a multiproxy approach, particularly the use of sedaDNA, is required. I was able to separate stable encroached states from mere woodland phases, and could identify drivers and speculate about related feedbacks. In addition, the REVEALS-based quantitative vegetation reconstruction clearly reflects the magnitude of the changes in the vegetation cover that occurred during the last 130 years, despite the limitations of some PPEs. This research provides new insights into pollen-vegetation relationships in savannas and highlights the importance of multiproxy approaches when reconstructing past vegetation dynamics in semi-arid environments. It also provides the first time series with sufficient taxonomic resolution to show changes in vegetation composition during shrub encroachment, as well as the first quantitative reconstruction of past land cover in the region. These results help to identify the different stages in savanna dynamics and can be used to calibrate predictive models of vegetation change, which are highly relevant to land management. N2 - Die Ausbreitung von Sträuchern in der namibischen Savanne wirft Fragen nach der Resilienz dieser Ökosysteme gegenüber globalen Veränderungen auf. Dies macht es notwendig, die Vegetationsdynamik in der Vergangenheit zu verstehen, da kein Konsens darüber besteht, ob die Verbuschung ein neues Phänomen ist oder über ihre Haupttreiber. Aufgrund des Mangels an Langzeitvegetationsdatensätzen für die Region und des Mangels an geeigneten paläoökologischen Archiven bleibt die Rekonstruktion der früheren Vegetation und der früheren Landbedeckung der Savannen eine Herausforderung. In diesem Zusammenhang befasst sich diese Studie mit drei Hauptforschungsfragen: 1) Ist Pollenanalyse ein geeignetes Instrument, um die Veränderung der Vegetation widerzuspiegeln, die mit der Verbuschung von Savannen verbunden ist? 2) Entspricht die derzeitige verbuschte Landschaft einem stabilen Zustand der Savannenvegetation? 3) Inwieweit entspricht die quantitative Rekonstruktion der Vegetation auf der Grundlage fossiler Pollendaten der früheren Vegetationsbedeckung der Savanne? Um diese Fragen zu beantworten, konzentrierte sich diese Forschung auf Nord-Zentral-Namibia, da diese Region insbesondere seit dem 21. Jahrhundert am stärksten von Verbuschung betroffen ist, über die Dynamik dieses Phänomens in der Region ist jedoch wenig bekannt. Im Rahmen dieser Studie wurden feldbasierte Vegetationsdaten mit modernen Pollendaten verglichen, um das Potenzial moderner Pollen zu bewerten, die Vegetationszusammensetzung und -vielfalt entlang von Niederschlags- und Weideintensitätsgradienten widerzuspiegeln. Zusätzlich wurden zwei Sedimentkerne aus dem Otjikoto-See analysiert, um die Veränderungen der Vegetationszusammensetzung in der Region in den letzten 170 Jahren und ihre möglichen Treiber zu dokumentieren. Hierzu wurde ein Multiproxy-Ansatz (fossiler Pollen, sedimentäre alte DNA, Biomarker, verbindungsspezifische Kohlenstoff- (δ13C) und Deuterium- (δD) Isotope, Kohlenstoff-Isotope (δ13Corg), Korngröße, geochemische Eigenschaften) mit hoher taxonomischer und zeitlicher Auflösung angewendet. Schließlich wurde der REVEALS-Ansatz auf den fossilen Pollendata des Otjikoto-Sees angewendet, um die Vegetationsbedeckung der Vergangenheit quantitativ zu rekonstruieren. Dazu wurden zunächst die Pollenproduktivitätsschätzungen (PPE) der relevantesten Savannentaxa in der Region unter Verwendung des erweiterten R-Wert-Modells und zweier Pollenausbreitungsmodelle (Gaußsches Federmodell und Lagrange-Stochastikmodell) berechnet. Die auf REVEALS basierende Vegetationsrekonstruktion wurde dann unter Verwendung von auf Fernerkundung basierenden regionalen Vegetationsdaten validiert. Die Ergebnisse zeigen, dass moderner Pollen die Zusammensetzung der Vegetation gut widerspiegelt, jedoch weniger die Diversität. Interessanterweise machen Niederschlag und Beweidung einen signifikanten, aber geringen Anteil der Änderung der Zusammensetzung in den Pollen- und Vegetationsspektren aus. Die Multiproxy-Analyse zeigt, dass ein Zustandswechsel von der offenen Combretum Baumsavanne zum Terminalia Buschland über ein Jahrhundert stattfinden kann und dass der Übergang zwischen den beiden Zuständen etwa 80 Jahre dauert und durch eine einzigartige Vegetationszusammensetzung gekennzeichnet ist. Dieser Übergang wird durch allmähliche Umweltveränderungen unterstützt, die durch das Management (z.B. großflächige Abholzung für den Bergbau sowie selektive Beweidung und verringerte Feueraktivität verbunden mit intensivierter Landwirtschaft) und damit verbundene Landnutzungsänderungen hervorgerufen werden. Abgeleitete Umweltveränderungen (z.B. verringerte Bodenfeuchtigkeit, verringerte Grasbedeckung, Änderungen der Artenzusammensetzung und Konkurrenzfähigkeit, verringerte Feuerintensität) können die Resilienz der offenen Combretum Baumsavanne beeinträchtigt haben und sie anfälliger machen, durch stochastische Ereignisse wie aufeinanderfolgende niederschlagsreiche Jahre, Dürre, und durch hohe Konzentrationen von pCO2, in einen verbuschten Zustand zu wechseln. Der daraus resultierende verbuschte Zustand wird durch Rückkopplungsmechanismen aufrechterhalten, welche die Etablierung und Konkurrenzfähigkeit der Holzvegetation begünstigen. Schließlich deuten die auf REVEALS basierenden Deckungsschätzungen auf das Vorherrschen einer halboffenen Landschaft während des gesamten 20. Jahrhunderts und eine Verringerung der Grasbedeckung unter 50% seit dem 21. Jahrhundert hin, die mit der Verbreitung von Verbuschungstaxa verbunden ist. Deckungsschätzungen zeigen eine enge Übereinstimmung mit regionalen Vegetationsdaten, wodurch die aus der Multi-Proxy-Analyse abgeleitete Vegetationsdynamik bestätigt werden kann. Die PPE-Berechnung war für alle holzigen Taxa erfolgreich, für Poaceae jedoch fehlgeschlagen. Zusammenfassend ist die Pollenanalyse ein geeignetes Instrument zur Rekonstruktion der Vegetationsdynamik in Savannen. Aufgrund der geringen taxonomischen Auflösung von Pollen zur Identifizierung von Gräsern ermöglicht ein Multiproxy-Ansatz, insbesondere die Verwendung von sedaDNA, die Unterscheidung stabiler verbuschte Zustände von bloßen Waldphasen sowie die Identifizierung von Auslösern und Treibern von Zustandsänderungen. Darüber hinaus spiegelt die auf REVEALS basierende quantitative Vegetationsrekonstruktion trotz der Einschränkungen bei der Berechnung von PPEs deutlich das Ausmaß der Veränderungen in der Vegetationsbedeckung wider, die in den letzten 130 Jahren aufgetreten sind. Diese Forschung liefert neue Einblicke in die Pollen-Vegetations-Beziehungen in Savannen und unterstreicht die Bedeutung von Multiproxy-Ansätzen zur Rekonstruktion der Vegetationsdynamik in semi-ariden Landschaften. Es bietet auch die erste Zeitreihe mit ausreichender taxonomischer Auflösung, um die Veränderungen der Vegetationszusammensetzung im Verlauf der Verbuschung sowie die erste quantitative Rekonstruktion der früheren Landbedeckung in der Region aufzuzeigen. Diese Ergebnisse können dazu beitragen, die verschiedenen Stadien der Savannendynamik besser zu identifizieren, und können auch zur Kalibrierung von Vorhersagemodellen für Vegetationsänderungen verwendet werden, die für die Landbewirtschaftung von großem Wert sind. T2 - Ein paläoökologischer Ansatz zur Savannendynamik und Verbuschung in Namibia KW - savanna ecology KW - pollen KW - sedaDNA KW - REVEALS KW - state-transition models KW - Savannen-Ökologie KW - REVEALS KW - sedimentäre alte DNA KW - Pollen KW - Pollenproduktivitätsschätzungen KW - Zustands-Übergangs-Modelle Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-492815 ER - TY - THES A1 - D'Agata, Valeria Costanza T1 - A partire dalla Somaestetica di Shusterman T1 - Von der Somästhetik von Shusterman BT - una riflessione sul corpo BT - eine Reflexion über den Körper/Leib N2 - Con la sua proposta di una Somaestetica, articolata fondamentalmente in analitica, pragmatica e pratica, Richard Shusterman intende in primo luogo fornire e creare una cornice metodologica, un orientamento unitario che sia in grado di rintracciare, ricostruire e portare a manifestazione - all’interno di eterogenee riflessioni teoriche e pratiche somatiche - la comune esigenza di ridare luce alla dimensione corporea come modo primario di essere nel mondo. Recuperando l’accezione baumgarteniana di Aesthetica come gnoseologia inferiore, arte dell’analogo della ragione, scienza della conoscenza sensibile, la somaestetica intende dare nuovo impulso alla più profonda radice di estetica e filosofia che coglie la vita nel suo processo di metamorfosi e rigenerazione continua, in quel respiro vitale che, per quanto possa diventare cosciente, non è mai totalmente afferrabile dalla ragione discorsiva, situandosi piuttosto in quello spazio primordiale in cui coscienza e corpo si coappartengono, in cui il soggetto non è ancora individualizzabile perché fuso con l’ambiente, non è totalmente privatizzabile perché intrinsecamente plasmato dal tessuto sociale cui egli stesso conferisce dinamicamente forma. A partire dunque dalla rivalutazione del concetto di Aisthesis la disciplina somaestetica mira ad una intensificazione di sensorialità, percezione, emozione, commozione, rintracciando proprio nel Soma la fonte di quelle facoltà “inferiori” irriducibili a quelle puramente intellettuali, che permettono di accedere alle dimensioni qualitative dell’esperienza, di portare a manifestazione e far maturare l’essere umano come essere indivisibile che non si lascia incontrare da un pensiero che ne rinnega l’unitarietà in nome di fittizie e laceranti distinzioni dicotomiche. Nel corpo infatti si radicano in modo silente regole, convenzioni, norme e valori socioculturali che determinano e talvolta limitano la configurazione ed espressione di sensazioni, percezioni, cognizioni, pensieri, azioni, volizioni, disposizioni di un soggetto da sempre inserito in una Mitwelt (mondo comune), ed è allora proprio al corpo che bisogna rivolgersi per riconfigurare più autentiche modalità di espressione del soggetto che crea equilibri dinamici per mantenere una relazione di coerenza con il più ampio contesto sociale, culturale, ambientale. L’apertura al confronto con eterogenee posizioni filosofiche e l’intrinseca multidisciplinarietà spiegano la centralità nel contemporaneo dibattito estetologico internazionale della Somaestetica che, rivolgendosi tanto ad una formulazione teorica quanto ad una concreta applicazione pratica, intende rivalutare il soma come corporeità intelligente, senziente, intenzionale e attiva, non riducibile all’accezione peccaminosa di caro (mero corpo fisico privo di vita e sensazione). Attraverso la riflessione e la pratica di tecniche di coscienza somatica si portano in primo piano i modi in cui il sempre più consapevole rapporto con la propria corporeità come mediatamente esperita e immediatamente vissuta, sentita, offre occasioni autentiche di realizzazione progressiva di sé innanzitutto come persone, capaci di autocoltivazione, di riflessione cosciente sulle proprie abitudini incorporate, di ristrutturazione creativa di sé, di intensificata percezione e apprezzamento sensoriale sia nel concreto agire quotidiano, sia nella dimensione più propriamente estetologica di ricezione, fruizione e creazione artistica. L’indirizzo essenzialmente pragmatista della riflessione di Shusterman traccia così una concezione fondamentalmente relazionale dell’estetica in grado di porsi proprio nel movimento e nel rapporto continuamente diveniente di vera e propria trasformazione e passaggio tra le dimensioni fisiche, proprio-corporee, psichiche e spirituali del soggetto la cui interazione, ed il cui reciproco riversarsi le une nelle altre, può risultare profondamente arricchito attraverso una progressiva e sempre crescente consapevolizzazione della ricchezza della dimensione corporea in quanto intenzionale, percettiva, senziente, volitiva, tanto quanto vulnerabile, limitante, caduca, patica. Il presente lavoro intende ripercorrere ed approfondire alcuni dei principali referenti di Shusterman, focalizzandosi prevalentemente sulla radice pragmatista della sua proposta e sul confronto con il dibattito di area tedesca tra estetica, antropologia filosofica, neofenomenologia e antropologia medica, per riguadagnare una nozione di soma che proprio a partire dal contrasto, dall’impatto irriducibile con la potenza annullante delle situazioni limite, della crisi possa acquisire un più complesso e ricco valore armonizzante delle intrinseche e molteplici dimensioni che costituiscono il tessuto della soggettività incarnata. In particolare il primo capitolo (1. Somaestetica) chiarisce le radici essenzialmente pragmatiste della proposta shustermaniana e mostra come sia possibile destrutturare e dunque riconfigurare radicati modi di esperienza, rendendo coscienti abitudini e modi di vivere che si fissano a livello somatico in modo per lo più inavvertito. Il confronto con la nozione di Habitus, di cui Pierre Bourdieu mette brillantemente in luce l’invisibile e socialmente determinata matrice somatica, lascia scorgere come ogni manifestazione umana sia sostenuta dall’incorporazione di norme, credenze, valori che determinano e talvolta limitano l’espressione, lo sviluppo, persino le predisposizioni e le inclinazioni degli individui. Ed è proprio intervenendo a questo livello che si può restituire libertà alle scelte e aprirsi così alle dimensioni essenzialmente qualitative dell’esperienza che, nell’accezione deweyana è un insieme olistico unitario e coeso che fa da sfondo alle relazioni organismo-ambiente, un intreccio inestricabile di teoria e prassi, particolare e universale, psiche e soma, ragione ed emozione, percettivo e concettuale, insomma quell’immediata conoscenza corporea che struttura lo sfondo di manifestazione della coscienza. N2 - Mit seinem Vorschlag für eine Somästhetik, grundsätzlich in eine analytische, pragmatische und praktische unterteilt, beabsichtigt Richard Shusterman in erster Linie einen methodischen Rahmen zu bieten und zu schaffen, d. h. einen einheitlichen Ansatz, der in der Lage ist, das gemeinsame Bedürfnis zu verfolgen und ans Licht zu bringen - in heterogenen theoretischen Überlegungen und somatischen Praktiken - die Körper-Leiblichkeit als primäre Art des Seins in der Welt wiederherzustellen. Durch die Wiedergewinnung der Bedeutung der Aesthetica von Baumgarten als gnoseologia inferior, ars analogi rationis, scientia cognitionis sensitiuae1, will die Somaästhetik die tiefste Wurzel der Ästhetik und der Philosophie wieder erneuern, die das Leben in seinem Prozess der ununterbrochenen Metamorphose und Regeneration erfasst, in diesem Atem des Lebens, der, inwieweit er sich dessen bewusst ist, von der diskursiven Vernunft nie ganz begriffen wird, denn er befindet sich vielmehr im Ur- Raum, in dem Bewusstsein und Körperlichkeit zusammengehören, in dem das Subjekt noch nicht individualisierbar ist, weil es mit der Umwelt verschmolzen ist; es ist nicht vollständig privatisierbar, weil es untrennbar von der Sozialstruktur ist, der es selbst dynamisch Form gibt. Von der Neubewertung des Begriffes „Aisthesis“ sucht die somästhetische Disziplin eine Intensivierung der Sinne, der Wahrnehmung, der Emotionen, des Gefühls, um tatsächlich im Soma die Quelle der „minderwertigen“ Fähigkeiten (nicht reduzierbar auf rein intellektuelle) zu verfolgen, die es erlauben, mit den qualitativen Dimensionen der Erfahrung in Kontakt zu treten, den einheitlichen Menschen, der sich nicht dazu eignet, von einem dichotomen Gedanken trennen zu lassen, als unteilbares Wesen aufzudecken und reifen zu lassen. Im Körper schlagen unbewusst Regeln, Konventionen, Normen und sozio-kulturelle Werte Wurzeln, die die Konfiguration und den Ausdruck von Gefühlen, Wahrnehmungen, Wissen, Denken, Handeln, Willensakten, Bestimmungen von einem Subjekt, das seit jeher in eine Mitwelt eingefügt ist, bestimmen und manchmal begrenzen. Daraus folgt, dass wir unsere Aufmerksamkeit auf den Körper richten sollen, um die authentischste Ausdrucksweise des Subjekts, das ein dynamisches Gleichgewicht schafft, um eine Beziehung der Kohärenz mit der breiteren sozialen, kulturellen, ökologischen Kontext zu halten, neu zu konfigurieren. Die Öffnung für den Vergleich mit heterogenen philosophischen Positionen und dem inhärenten multidisziplinären Charakter2 erklärt die Zentralität der Somästhetik in der zeitgenössischen internationalen ästhetischen Debatte: durch eine theoretische Formulierung und eine konkrete praktische Anwendung beabsichtigt sie Soma neu zu bewerten, als intelligente, fühlende, vorsätzliche und aktive Körperlichkeit, nicht reduzierbar auf die sündige Bedeutung von caro (der bloße physische Körper, ohne Leben und Empfindungen). Durch Reflexion und Praxis der Techniken des Körperbewusstseins rücken die Modalitäten in den Vordergrund, in denen das stets bewusstere Verhältnis zu der eigenen Leiblichkeit, als mittelbar erlebt und unmittelbar gelebt, gefühlt wird, authentische Chancen für die progressive Realisierung des eigenen Ich bietet, d. h. zuallererst als Personen, die in der Lage sind, Selbst-Sorge zu tragen, die wissen, wie sie bewusst über ihre eigenen verkörperten Gewohnheiten reflektieren können, wie sie kreativ das Selbst umstrukturieren können, wie sie eine Intensivierung der Wahrnehmung und der sinnlichen Wertschätzung sowohl in konkreten täglichen Handlungen, als auch in der spezifischeren ästhetischen Dimension des künstlerischen Schaffens und Genießens erleben können3. Die wesentliche pragmatische Richtung der Reflexion von Shusterman umreißt eine grundlegend relationale Betrachtung der Ästhetik, die in der Lage ist, sich direkt in der Bewegung und in der sich ständig verändernden Beziehung der wirklichen Transformation und des Übergangs zwischen den körperlichen, leiblichen, mentalen und spirituellen Aspekten des Subjektes anzusiedeln. Die Interaktion zwischen diesen Dimensionen, die aufeinander verweisen, kann tief durch ein fortschreitendes und wachsendes Bewusstsein des Reichtums der leiblichen Dimension als absichtlich, wahrnehmend, fühlend, wollend, so wie vergänglich, verletzlich, einschränkend, pathisch angereichert werden. Die vorliegende Arbeit will auf einige der wichtigsten Themen, auf die sich Shusterman bezieht, eingehen und vertiefen, insbesondere die pragmatische Wurzel seines Vorschlags und der Vergleich mit der deutschen Debatte zur Ästhetik, philosophischen Anthropologie, medizinischen Anthropologie und neuen Phänomenologie, um wieder eine Vorstellung von Soma zu bekommen, beginnend von dem Kontrast, von der Wirkung mit der Kraft der unnachgiebigen Aufhebung und extremer Krisensituationen, eine komplexe und reiche Harmonisierung der inneren Werte und der vielfältigen Dimensionen, die das Gewebe der verkörperten Subjektivität bilden. Vor allem das erste Kapitel (1. Somaestetica - Somästhetik) verdeutlicht die Wurzeln des im wesentlichen pragmatischen Vorschlags von Shusterman und zeigt, wie es möglich ist, verwurzelte Erlebnisweisen zu dekonstruieren und neu zu konfigurieren, um Gewohnheiten und Lebensweisen, die sich auf der somatischen Ebene in den meisten Fällen unbemerkt ansiedeln, bewusst zu machen. Der Vergleich mit dem Begriff des Habitus, den Pierre Bourdieu brillant anstellt, beleuchtet den unsichtbaren und sozial bestimmten somatischen Ursprung; er lässt erkennen, wie jede menschliche Äußerung durch die Verkörperung von Normen, Überzeugungen und Werte unterstützt wird, wie diese Regeln den Ausdruck, die Entwicklung und auch die Veranlagungen und Neigungen des Einzelnen bestimmen und manchmal begrenzen. Und es ist durch ein Eingreifen eben auf dieser Ebene möglich, die Freiheit an Wahlen zurückzugeben und sich den wesentlich qualitativen Dimensionen der Erfahrung zu öffnen, die (im Sinne von Dewey) eine ganzheitliche und zusammenhängende Einheit als ein Hintergrund der Organismus-Umwelt-Beziehungen ist, d. h. eine unentwirrbare Verwicklung von Theorie und Praxis, im besonderen und im allgemeinen, Psyche und Soma, Vernunft und Gefühl, wahrnehmend und begriffsmäßig, kurz das unmittelbare körper-leibliche Wissen, das den Hintergrund für die Bewusstseinsäußerung bildet. KW - corpo fisico e corpo vissuto KW - avere ed essere corpo KW - Somaestetica KW - Somästhetik KW - Körper-Leib Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72650 ER - TY - THES A1 - Schönheit, Jörg T1 - A phagocyte-specific Irf8 gene enhancer establishes early conventional dendritic cell commitment T1 - Ein Phagozyten spezifischer Enhancer des Irf8 Gens steuert die Entwicklung konventioneller dendritischer Zellen N2 - Haematopoietic development is a complex process that is strictly hierarchically organized. Here, the phagocyte lineages are a very heterogeneous cell compartment with specialized functions in innate immunity and induction of adaptive immune responses. Their generation from a common precursor must be tightly controlled. Interference within lineage formation programs for example by mutation or change in expression levels of transcription factors (TF) is causative to leukaemia. However, the molecular mechanisms driving specification into distinct phagocytes remain poorly understood. In the present study I identify the transcription factor Interferon Regulatory Factor 8 (IRF8) as the specification factor of dendritic cell (DC) commitment in early phagocyte precursors. Employing an IRF8 reporter mouse, I showed the distinct Irf8 expression in haematopoietic lineage diversification and isolated a novel bone marrow resident progenitor which selectively differentiates into CD8α+ conventional dendritic cells (cDCs) in vivo. This progenitor strictly depends on Irf8 expression to properly establish its transcriptional DC program while suppressing a lineage-inappropriate neutrophile program. Moreover, I demonstrated that Irf8 expression during this cDC commitment-step depends on a newly discovered myeloid-specific cis-enhancer which is controlled by the haematopoietic transcription factors PU.1 and RUNX1. Interference with their binding leads to abrogation of Irf8 expression, subsequently to disturbed cell fate decisions, demonstrating the importance of these factors for proper phagocyte cell development. Collectively, these data delineate a transcriptional program establishing cDC fate choice with IRF8 in its center. N2 - Die Differenzierung von hämatopoietischen Zellen ist ein komplexer Prozess, der strikt hierarchisch organisiert ist. Dabei stellen die Phagozyten eine sehr heterogene Zellpopulation dar, mit hochspezialisierten Funktionen im angeborenen Immunsystem sowie während der Initialisierung der adaptiven Immunreaktion. Ihre Entwicklung, ausgehend von einer gemeinsamen Vorläuferzelle, unterliegt einer strikten Kontrolle. Die Beeinträchtigung dieser Linienentscheidungsprogramme, z.B. durch Mutationen oder Änderungen der Expressionslevel von Transkriptionsfaktoren kann Leukämie auslösen. Die molekularen Mechanismen, welche die linienspezifische Entwicklung steuern, sind allerdings noch nicht im Detail bekannt. In dieser Arbeit zeige ich den maßgeblichen Einfluss des Transkriptionsfaktors Interferon Regulierender Faktor 8 (IRF8) auf die Entwicklung von dendritischen Zellen (DC) innerhalb der Phagozyten. Mittels einer IRF8-Reporter Maus stellte ich die sehr differenziellen Expressionsmuster von Irf8 in der hämatopoietischen Entwicklung dar. Dabei konnte ich eine neue, im Knochenmark lokalisierte, Vorläuferpopulation isolieren, die in vivo spezifisch Differenzierung in CD8α+ konventionelle dendritische Zellen (cDC) steuert. Dieser Vorläufer ist dabei absolut von der Expression von Irf8 abhängig und etabliert auf transkriptioneller Ebene die dendritische Zellentwicklung, während gleichzeitig die Entwicklung neutrophiler Zellen unterdrückt wird. Darüber hinaus zeigte ich, dass Irf8 Expression während der cDC Entwicklung von einem neu charakterisierten cis-regulatorischen Enhancer abhängt, der spezifisch in myeloiden Zellen agiert. Ich konnte zeigen, dass die hämatopoietischen Transkriptionfaktoren PU.1 und RUNX1 mittels dieses Enhancers die Irf8 Expression steuern. Können diese beiden Faktoren nicht mit dem Enhancer interagieren, führt das zu stark verminderter Irf8 Expression, damit zu Veränderungen in den Differnzierungsprogrammen der Zellen, was die Bedeutung dieses regulatorischen Mechanismus unterstreicht. Zusammengefasst beschreiben diese Daten die Etablierung der frühen cDC Entwicklung, in der IRF8 die zentrale Rolle spielt. KW - Hämatopoiese KW - dendritische Zelle KW - Immunologie KW - Transkiptionsfaktor KW - Genregulation KW - haematopoiesis KW - dendritic cell KW - immunology KW - transcription factor KW - gene regulation Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55482 ER - TY - THES A1 - Sánchez-Barriga, Jaime T1 - A photoemission study of quasiparticle excitations, electron-correlation effects and magnetization dynamics in thin magnetic systems T1 - Eine Photoemissionsstudie zu Quasiteilchenanregungen, Elektronenkorrelationseffekten und der Magnetisierungsdynamik in dünnen magnetischen Systemen N2 - This thesis is focused on the electronic, spin-dependent and dynamical properties of thin magnetic systems. Photoemission-related techniques are combined with synchrotron radiation to study the spin-dependent properties of these systems in the energy and time domains. In the first part of this thesis, the strength of electron correlation effects in the spin-dependent electronic structure of ferromagnetic bcc Fe(110) and hcp Co(0001) is investigated by means of spin- and angle-resolved photoemission spectroscopy. The experimental results are compared to theoretical calculations within the three-body scattering approximation and within the dynamical mean-field theory, together with one-step model calculations of the photoemission process. From this comparison it is demonstrated that the present state of the art many-body calculations, although improving the description of correlation effects in Fe and Co, give too small mass renormalizations and scattering rates thus demanding more refined many-body theories including nonlocal fluctuations. In the second part, it is shown in detail monitoring by photoelectron spectroscopy how graphene can be grown by chemical vapour deposition on the transition-metal surfaces Ni(111) and Co(0001) and intercalated by a monoatomic layer of Au. For both systems, a linear E(k) dispersion of massless Dirac fermions is observed in the graphene pi-band in the vicinity of the Fermi energy. Spin-resolved photoemission from the graphene pi-band shows that the ferromagnetic polarization of graphene/Ni(111) and graphene/Co(0001) is negligible and that graphene on Ni(111) is after intercalation of Au spin-orbit split by the Rashba effect. In the last part, a time-resolved x-ray magnetic circular dichroic-photoelectron emission microscopy study of a permalloy platelet comprising three cross-tie domain walls is presented. It is shown how a fast picosecond magnetic response in the precessional motion of the magnetization can be induced by means of a laser-excited photoswitch. From a comparision to micromagnetic calculations it is demonstrated that the relatively high precessional frequency observed in the experiments is directly linked to the nature of the vortex/antivortex dynamics and its response to the magnetic perturbation. This includes the time-dependent reversal of the vortex core polarization, a process which is beyond the limit of detection in the present experiments. N2 - Diese Dissertation beschäftigt sich mit den elektronischen, spinabhängigen und dynamischen Eigenschaften dünner magnetischer Systeme. Auf dem Photoeffekt basierende Untersuchungsmethoden werden zusammen mit Synchrotronstrahlung eingesetzt, um die spinabhängigen Eigenschaften dieser Systeme im Energie- und Zeitbereich zu untersuchen. Im ersten Teil dieser Arbeit wird mit spin- und winkelaufgelöster Photoemission die Stärke von Elektronenkorrelationseffekten in der spinabhängigen elektonischen Struktur von ferromagnetischerm bcc Fe(110) und hcp Co(0001) untersucht. Die experimentellen Ergebnisse werden verglichen mit theoreteischen Berechnungen im Rahmen der Näherung der Drei-Körper-Streuung und der dynamischen Molekularfeldtheorie, zusammen mit Berechnungen des Photoemissionsprozesses im Rahmen des Ein-Stufen-Modells. Ausgehend von diesem Vergleich wird gezeigt, dass die gegenwärtig fortgeschrittensten Rechnung, obgleich sie die Beschreibung von Korrelationseffekten in Fe und Co verbessern, zu kleine Massenrenormalisierungen und Streuraten ergeben, was zu der Forderung nach verfeinerten Vielteilchentheorien unter Einbeziehung von nichtlokalen Fluktuationen führt. Im zweiten Teil wird unter Kontrolle durch die Photoelektronenspektroskopie im Detail gezeigt, wie Graphen durch chemische Gasphasenabscheidung auf den Übergangsmetall-Oberflächen Ni(111) und Co(0001) aufgebracht und mit einer Monolage Au interkaliert werden kann. Für beide Systeme wird eine lineare E(k)-Dispersion masseloser Dirac-Fermionen im Graphen-pi-Band in der Nähe der Fermi-Energie beobachtet. Spinaufgelöste Photoemission des Graphen-pi-Bandes zeigt, dass die ferromagnetische Polarisation von Graphen/Ni(111) und Graphen/Co(0001) vernachlässigbar ist und dass Graphen/Ni(111) nach Interkalation mit Au eine Spin-Bahn-Aufspaltung aufgrund des Rashba-Effekts zeigt. Im letzten Teil wird eine zeitaufgelöste Studie des Röntgenzirkulardichroismus mit Photoelektronenmikroskopie präsentiert, die an einer Permalloy-Probe durchgeführt wurde, die drei als Stachelwände ausgebildete Domänenwände enthält. Es wird gezeigt, wie eine schnelle magnetische Antwort auf der Pikosekundenskala in der Präzessionsbewegung der Magnetisierung durch einen laserangesteuerten Photoschalter erzeugt werden kann. Durch Vergleich mit einer mikromagnetischen Rechnung wird gezeigt, dass die relativ hohe Präzessionsfrequenz, die im Experiment beobachtet wird, in unmittelbarer Beziehung steht zu den Eigenschaften der Vortex/Antivortex-Dynamik und ihrer Antwort auf die magnetische Störung. Das schließt die zeitabhängige Umkehr der Vortexkernpolarisation ein, einem Vorgang der jenseits der Nachweisgrenze der gegenwärtigen Experimente liegt. KW - Spin- und winkelaufgelöste Photoemission KW - Photoelektronenmikroskopie KW - Eisen KW - Kobalt KW - Graphen KW - Rashba-Effekt KW - Spinwellen KW - Synchrotronstrahlung KW - spin- and angle-resolved photoemission KW - photoelectron microscopy KW - iron KW - cobalt KW - graphene KW - Rashba effect KW - spin waves KW - synchrotron radiation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48499 ER - TY - THES A1 - Chen, Junchao T1 - A self-adaptive resilient method for implementing and managing the high-reliability processing system T1 - Eine selbstadaptive belastbare Methode zum Implementieren und Verwalten von hochzuverlässigen Verarbeitungssysteme N2 - As a result of CMOS scaling, radiation-induced Single-Event Effects (SEEs) in electronic circuits became a critical reliability issue for modern Integrated Circuits (ICs) operating under harsh radiation conditions. SEEs can be triggered in combinational or sequential logic by the impact of high-energy particles, leading to destructive or non-destructive faults, resulting in data corruption or even system failure. Typically, the SEE mitigation methods are deployed statically in processing architectures based on the worst-case radiation conditions, which is most of the time unnecessary and results in a resource overhead. Moreover, the space radiation conditions are dynamically changing, especially during Solar Particle Events (SPEs). The intensity of space radiation can differ over five orders of magnitude within a few hours or days, resulting in several orders of magnitude fault probability variation in ICs during SPEs. This thesis introduces a comprehensive approach for designing a self-adaptive fault resilient multiprocessing system to overcome the static mitigation overhead issue. This work mainly addresses the following topics: (1) Design of on-chip radiation particle monitor for real-time radiation environment detection, (2) Investigation of space environment predictor, as support for solar particle events forecast, (3) Dynamic mode configuration in the resilient multiprocessing system. Therefore, according to detected and predicted in-flight space radiation conditions, the target system can be configured to use no mitigation or low-overhead mitigation during non-critical periods of time. The redundant resources can be used to improve system performance or save power. On the other hand, during increased radiation activity periods, such as SPEs, the mitigation methods can be dynamically configured appropriately depending on the real-time space radiation environment, resulting in higher system reliability. Thus, a dynamic trade-off in the target system between reliability, performance and power consumption in real-time can be achieved. All results of this work are evaluated in a highly reliable quad-core multiprocessing system that allows the self-adaptive setting of optimal radiation mitigation mechanisms during run-time. Proposed methods can serve as a basis for establishing a comprehensive self-adaptive resilient system design process. Successful implementation of the proposed design in the quad-core multiprocessor shows its application perspective also in the other designs. N2 - Infolge der CMOS-Skalierung wurden strahleninduzierte Einzelereignis-Effekte (SEEs) in elektronischen Schaltungen zu einem kritischen Zuverlässigkeitsproblem für moderne integrierte Schaltungen (ICs), die unter rauen Strahlungsbedingungen arbeiten. SEEs können in der kombinatorischen oder sequentiellen Logik durch den Aufprall hochenergetischer Teilchen ausgelöst werden, was zu destruktiven oder nicht-destruktiven Fehlern und damit zu Datenverfälschungen oder sogar Systemausfällen führt. Normalerweise werden die Methoden zur Abschwächung von SEEs statisch in Verarbeitungsarchitekturen auf der Grundlage der ungünstigsten Strahlungsbedingungen eingesetzt, was in den meisten Fällen unnötig ist und zu einem Ressourcen-Overhead führt. Darüber hinaus ändern sich die Strahlungsbedingungen im Weltraum dynamisch, insbesondere während Solar Particle Events (SPEs). Die Intensität der Weltraumstrahlung kann sich innerhalb weniger Stunden oder Tage um mehr als fünf Größenordnungen ändern, was zu einer Variation der Fehlerwahrscheinlichkeit in ICs während SPEs um mehrere Größenordnungen führt. In dieser Arbeit wird ein umfassender Ansatz für den Entwurf eines selbstanpassenden, fehlerresistenten Multiprozessorsystems vorgestellt, um das Problem des statischen Mitigation-Overheads zu überwinden. Diese Arbeit befasst sich hauptsächlich mit den folgenden Themen: (1) Entwurf eines On-Chip-Strahlungsteilchen Monitors zur Echtzeit-Erkennung von Strahlung Umgebungen, (2) Untersuchung von Weltraumumgebungsprognosen zur Unterstützung der Vorhersage von solaren Teilchen Ereignissen, (3) Konfiguration des dynamischen Modus in einem belastbaren Multiprozessorsystem. Daher kann das Zielsystem je nach den erkannten und vorhergesagten Strahlungsbedingungen während des Fluges so konfiguriert werden, dass es während unkritischer Zeiträume keine oder nur eine geringe Strahlungsminderung vornimmt. Die redundanten Ressourcen können genutzt werden, um die Systemleistung zu verbessern oder Energie zu sparen. In Zeiten erhöhter Strahlungsaktivität, wie z. B. während SPEs, können die Abschwächungsmethoden dynamisch und in Abhängigkeit von der Echtzeit-Strahlungsumgebung im Weltraum konfiguriert werden, was zu einer höheren Systemzuverlässigkeit führt. Auf diese Weise kann im Zielsystem ein dynamischer Kompromiss zwischen Zuverlässigkeit, Leistung und Stromverbrauch in Echtzeit erreicht werden. Alle Ergebnisse dieser Arbeit wurden in einem hochzuverlässigen Quad-Core-Multiprozessorsystem evaluiert, das die selbstanpassende Einstellung optimaler Strahlungsschutzmechanismen während der Laufzeit ermöglicht. Die vorgeschlagenen Methoden können als Grundlage für die Entwicklung eines umfassenden, selbstanpassenden und belastbaren Systementwurfsprozesses dienen. Die erfolgreiche Implementierung des vorgeschlagenen Entwurfs in einem Quad-Core-Multiprozessor zeigt, dass er auch für andere Entwürfe geeignet ist. KW - single event upset KW - solar particle event KW - machine learning KW - self-adaptive multiprocessing system KW - maschinelles Lernen KW - selbstanpassendes Multiprozessorsystem KW - strahleninduzierte Einzelereignis-Effekte KW - Sonnenteilchen-Ereignis Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-583139 ER - TY - THES A1 - Buschmann, Stefan T1 - A software framework for GPU-based geo-temporal visualization techniques T1 - Ein Software-Framework für GPU-basierte räumlich-zeitliche Visualisierungstechniken N2 - Räumlich-zeitliche Daten sind Daten, welche sowohl einen Raum- als auch einen Zeitbezug aufweisen. So können beispielsweise Zeitreihen von Geodaten, thematische Karten die sich über die Zeit verändern, oder Bewegungsaufzeichnungen von sich bewegenden Objekten als räumlich-zeitliche Daten aufgefasst werden. In der heutigen automatisierten Welt gibt es eine wachsende Anzahl von Datenquellen, die beständig räumlich-zeitliche Daten generieren. Hierzu gehören beispielsweise Verkehrsüberwachungssysteme, die Bewegungsdaten von Menschen oder Fahrzeugen aufzeichnen, Fernerkundungssysteme, welche regelmäßig unsere Umgebung scannen und digitale Abbilder wie z.B. Stadt- und Landschaftsmodelle erzeugen, sowie Sensornetzwerke in unterschiedlichsten Anwendungsgebieten, wie z.B. der Logistik, der Verhaltensforschung von Tieren, oder der Klimaforschung. Zur Analyse räumlich-zeitlicher Daten werden neben der automatischen Analyse mittels statistischer Methoden und Data-Mining auch explorative Methoden angewendet, welche auf der interaktiven Visualisierung der Daten beruhen. Diese Methode der Analyse basiert darauf, dass Anwender in Form interaktiver Visualisierung die Daten explorieren können, wodurch die menschliche Wahrnehmung sowie das Wissen der User genutzt werden, um Muster zu erkennen und dadurch einen Einblick in die Daten zu erlangen. Diese Arbeit beschreibt ein Software-Framework für die Visualisierung räumlich-zeitlicher Daten, welches GPU-basierte Techniken beinhaltet, um eine interaktive Visualisierung und Exploration großer räumlich-zeitlicher Datensätze zu ermöglichen. Die entwickelten Techniken umfassen Datenhaltung, Prozessierung und Rendering und ermöglichen es, große Datenmengen in Echtzeit zu prozessieren und zu visualisieren. Die Hauptbeiträge der Arbeit umfassen: - Konzept und Implementierung einer GPU-zentrierten Visualisierungspipeline. Die beschriebenen Techniken basieren auf dem Konzept einer GPU-zentrierten Visualisierungspipeline, in welcher alle Stufen -- Prozessierung,Mapping, Rendering -- auf der GPU ausgeführt werden. Bei diesem Konzept werden die räumlich-zeitlichen Daten direkt im GPU-Speicher abgelegt. Während des Rendering-Prozesses werden dann mittels Shader-Programmen die Daten prozessiert, gefiltert, ein Mapping auf visuelle Attribute vorgenommen, und schließlich die Geometrien für die Visualisierung erzeugt. Datenprozessierung, Filtering und Mapping können daher in Echtzeit ausgeführt werden. Dies ermöglicht es Usern, die Mapping-Parameter sowie den gesamten Visualisierungsprozess interaktiv zu steuern und zu kontrollieren. - Interaktive Visualisierung attributierter 3D-Trajektorien. Es wurde eine Visualisierungsmethode für die interaktive Exploration einer großen Anzahl von 3D Bewegungstrajektorien entwickelt. Die Trajektorien werden dabei innerhalb einer virtuellen geographischen Umgebung in Form von einfachen Geometrien, wie Linien, Bändern, Kugeln oder Röhren dargestellt. Durch interaktives Mapping können Attributwerte der Trajektorien oder einzelner Messpunkte auf visuelle Eigenschaften abgebildet werden. Hierzu stehen Form, Höhe, Größe, Farbe, Textur, sowie Animation zur Verfügung. Mithilfe dieses dynamischen Mappings wurden außerdem verschiedene Visualisierungsmethoden implementiert, wie z.B. eine Focus+Context-Visualisierung von Trajektorien mithilfe von interaktiven Dichtekarten, sowie einer Space-Time-Cube-Visualisierung zur Darstellung des zeitlichen Ablaufs einzelner Bewegungen. - Interaktive Visualisierung geographischer Netzwerke. Es wurde eine Visualisierungsmethode zur interaktiven Exploration geo-referenzierter Netzwerke entwickelt, welche die Visualisierung von Netzwerken mit einer großen Anzahl von Knoten und Kanten ermöglicht. Um die Analyse von Netzwerken verschiedener Größen und in unterschiedlichen Kontexten zu ermöglichen, stehen mehrere virtuelle geographische Umgebungen zur Verfügung, wie bspw. ein virtueller 3D-Globus, als auch 2D-Karten mit unterschiedlichen geographischen Projektionen. Zur interaktiven Analyse dieser Netzwerke stehen interaktive Tools wie Filterung, Mapping und Selektion zur Verfügung. Des weiteren wurden Visualisierungsmethoden für verschiedene Arten von Netzwerken, wie z.B. 3D-Netzwerke und zeitlich veränderliche Netzwerke, implementiert. Zur Demonstration des Konzeptes wurden interaktive Tools für zwei unterschiedliche Anwendungsfälle entwickelt. Das erste beinhaltet die Visualisierung attributierter 3D-Trajektorien, welche die Bewegungen von Flugzeugen um einen Flughafen beschreiben. Es ermöglicht Nutzern, die Trajektorien von ankommenden und startenden Flugzeugen über den Zeitraum eines Monats interaktiv zu explorieren und zu analysieren. Durch Verwendung der interaktiven Visualisierungsmethoden für 3D-Trajektorien und interaktiven Dichtekarten können Einblicke in die Daten gewonnen werden, wie beispielsweise häufig genutzte Flugkorridore, typische sowie untypische Bewegungsmuster, oder ungewöhnliche Vorkommnisse wie Fehlanflüge. Der zweite Anwendungsfall beinhaltet die Visualisierung von Klimanetzwerken, welche geographischen Netzwerken in der Klimaforschung darstellen. Klimanetzwerke repräsentieren die Dynamiken im Klimasystem durch eine Netzwerkstruktur, die die statistische Beziehungen zwischen Orten beschreiben. Das entwickelte Tool ermöglicht es Analysten, diese großen Netzwerke interaktiv zu explorieren und dadurch die Struktur des Netzwerks zu analysieren und mit den geographischen Daten in Beziehung zu setzen. Interaktive Filterung und Selektion ermöglichen es, Muster in den Daten zu identifizieren, und so bspw. Cluster in der Netzwerkstruktur oder Strömungsmuster zu erkennen. N2 - Spatio-temporal data denotes a category of data that contains spatial as well as temporal components. For example, time-series of geo-data, thematic maps that change over time, or tracking data of moving entities can be interpreted as spatio-temporal data. In today's automated world, an increasing number of data sources exist, which constantly generate spatio-temporal data. This includes for example traffic surveillance systems, which gather movement data about human or vehicle movements, remote-sensing systems, which frequently scan our surroundings and produce digital representations of cities and landscapes, as well as sensor networks in different domains, such as logistics, animal behavior study, or climate research. For the analysis of spatio-temporal data, in addition to automatic statistical and data mining methods, exploratory analysis methods are employed, which are based on interactive visualization. These analysis methods let users explore a data set by interactively manipulating a visualization, thereby employing the human cognitive system and knowledge of the users to find patterns and gain insight into the data. This thesis describes a software framework for the visualization of spatio-temporal data, which consists of GPU-based techniques to enable the interactive visualization and exploration of large spatio-temporal data sets. The developed techniques include data management, processing, and rendering, facilitating real-time processing and visualization of large geo-temporal data sets. It includes three main contributions: - Concept and Implementation of a GPU-Based Visualization Pipeline. The developed visualization methods are based on the concept of a GPU-based visualization pipeline, in which all steps -- processing, mapping, and rendering -- are implemented on the GPU. With this concept, spatio-temporal data is represented directly in GPU memory, using shader programs to process and filter the data, apply mappings to visual properties, and finally generate the geometric representations for a visualization during the rendering process. Data processing, filtering, and mapping are thereby executed in real-time, enabling dynamic control over the mapping and a visualization process which can be controlled interactively by a user. - Attributed 3D Trajectory Visualization. A visualization method has been developed for the interactive exploration of large numbers of 3D movement trajectories. The trajectories are visualized in a virtual geographic environment, supporting basic geometries such as lines, ribbons, spheres, or tubes. Interactive mapping can be applied to visualize the values of per-node or per-trajectory attributes, supporting shape, height, size, color, texturing, and animation as visual properties. Using the dynamic mapping system, several kind of visualization methods have been implemented, such as focus+context visualization of trajectories using interactive density maps, and space-time cube visualization to focus on the temporal aspects of individual movements. - Geographic Network Visualization. A method for the interactive exploration of geo-referenced networks has been developed, which enables the visualization of large numbers of nodes and edges in a geographic context. Several geographic environments are supported, such as a 3D globe, as well as 2D maps using different map projections, to enable the analysis of networks in different contexts and scales. Interactive filtering, mapping, and selection can be applied to analyze these geographic networks, and visualization methods for specific types of networks, such as coupled 3D networks or temporal networks have been implemented. As a demonstration of the developed visualization concepts, interactive visualization tools for two distinct use cases have been developed. The first contains the visualization of attributed 3D movement trajectories of airplanes around an airport. It allows users to explore and analyze the trajectories of approaching and departing aircrafts, which have been recorded over the period of a month. By applying the interactive visualization methods for trajectory visualization and interactive density maps, analysts can derive insight from the data, such as common flight paths, regular and irregular patterns, or uncommon incidents such as missed approaches on the airport. The second use case involves the visualization of climate networks, which are geographic networks in the climate research domain. They represent the dynamics of the climate system using a network structure that expresses statistical interrelationships between different regions. The interactive tool allows climate analysts to explore these large networks, analyzing the network's structure and relating it to the geographic background. Interactive filtering and selection enables them to find patterns in the climate data and identify e.g. clusters in the networks or flow patterns. KW - computer graphics KW - visualization KW - visual analytics KW - Computergrafik KW - Visualisierung KW - Visual Analytics Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-443406 ER - TY - THES A1 - Herenz, Peter T1 - A study of the absorption characteristics of gaseous galaxy halos in the local Universe T1 - Untersuchung von Absorptionsstrukturen in den gasförmigen Halos von Galaxien im lokalen Universum. N2 - Today, it is well known that galaxies like the Milky Way consist not only of stars but also of gas and dust. The galactic halo, a sphere of gas that surrounds the stellar disk of a galaxy, is especially interesting. It provides a wealth of information about in and outflowing gaseous material towards and away from galaxies and their hierarchical evolution. For the Milky Way, the so-called high-velocity clouds (HVCs), fast moving neutral gas complexes in the halo that can be traced by absorption-line measurements, are believed to play a crucial role in the overall matter cycle in our Galaxy. Over the last decades, the properties of these halo structures and their connection to the local circumgalactic and intergalactic medium (CGM and IGM, respectively) have been investigated in great detail by many different groups. So far it remains unclear, however, to what extent the results of these studies can be transferred to other galaxies in the local Universe. In this thesis, we study the absorption properties of Galactic HVCs and compare the HVC absorption characteristics with those of intervening QSO absorption-line systems at low redshift. The goal of this project is to improve our understanding of the spatial extent and physical conditions of gaseous galaxy halos in the local Universe. In the first part of the thesis we use HST /STIS ultraviolet spectra of more than 40 extragalactic background sources to statistically analyze the absorption properties of the HVCs in the Galactic halo. We determine fundamental absorption line parameters including covering fractions of different weakly/intermediately/highly ionized metals with a particular focus on SiII and MgII. Due to the similarity in the ionization properties of SiII and MgII, we are able to estimate the contribution of HVC-like halo structures to the cross section of intervening strong MgII absorbers at z = 0. Our study implies that only the most massive HVCs would be regarded as strong MgII absorbers, if the Milky Way halo would be seen as a QSO absorption line system from an exterior vantage point. Combining the observed absorption-cross section of Galactic HVCs with the well-known number density of intervening strong MgII absorbers at z = 0, we conclude that the contribution of infalling gas clouds (i.e., HVC analogs) in the halos of Milky Way-type galaxies to the cross section of strong MgII absorbers is 34%. This result indicates that only about one third of the strong MgII absorption can be associated with HVC analogs around other galaxies, while the majority of the strong MgII systems possibly is related to galaxy outflows and winds. The second part of this thesis focuses on the properties of intervening metal absorbers at low redshift. The analysis of the frequency and physical conditions of intervening metal systems in QSO spectra and their relation to nearby galaxies offers new insights into the typical conditions of gaseous galaxy halos. One major aspect in our study was to regard intervening metal systems as possible HVC analogs. We perform a detailed analysis of absorption line properties and line statistics for 57 metal absorbers along 78 QSO sightlines using newly-obtained ultraviolet spectra obtained with HST /COS. We find clear evidence for bimodal distribution in the HI column density in the absorbers, a trend that we interpret as sign for two different classes of absorption systems (with HVC analogs at the high-column density end). With the help of the strong transitions of SiII λ1260, SiIII λ1206, and CIII λ977 we have set up Cloudy photoionization models to estimate the local ionization conditions, gas densities, and metallicities. We find that the intervening absorption systems studied by us have, on average, similar physical conditions as Galactic HVC absorbers, providing evidence that many of them represent HVC analogs in the vicinity of other galaxies. We therefore determine typical halo sizes for SiII, SiIII, and CIII for L = 0.01L∗ and L = 0.05L∗ galaxies. Based on the covering fractions of the different ions in the Galactic halo, we find that, for example, the typical halo size for SiIII is ∼ 160 kpc for L = 0.05L∗ galaxies. We test the plausibility of this result by searching for known galaxies close to the QSO sightlines and at similar redshifts as the absorbers. We find that more than 34% of the measured SiIII absorbers have galaxies associated with them, with the majority of the absorbers indeed being at impact parameters ρ ≤160 kpc. N2 - Galaxien bestehen nicht nur aus Planeten und Sternen, sondern sind u.a. auch von einer Hülle aus Gas und Staub, dem Halo, umgeben. Dieser Halo spielt für die Entwicklung der Galaxie eine zentrale Rolle, da er mit der galaktischen Scheibe wechselwirken kann. Für das Verständnis des galaktischen Materiekreislaufs ist es daher entscheidend, die Prozesse und Vorgänge sowie das Zusammenspiel der verschiedenen Gasphasen in diesem Übergangsbereich zum intergalaktischen Medium charakterisieren und verstehen zu können. In der vorliegenden Arbeit werden lokale Phänomene, die sogenannten Hochgeschwindigkeitswolken (HVCs), im Halo der Milchstraße mit Hilfe des Hubble-Weltraumteleskops analysiert und ausgewertet. Im Gegensatz zu dem normalen Halo Gas bewegen sich diese HVCs mit ungewöhnlich hohen Geschwindigkeiten durch die ̈ äußeren Bereiche der Milchstraße. Sie passen daher nicht in das Galaktische Ge- schwindigkeitsmodell und stellen eine eigene, wichtige Klasse von Objekten dar, welche mit der Galaxie wechselwirken und diese beeinflussen. Für die Analyse dieser HVCs werden mehr als 40 Spektren von extragalaktischen Hintergrundquellen statistisch untersucht, um u.a. den Bedeckungsanteil von verschiedenen niedrig-/mittel- und hochionisierten Metallen zu ermitteln. Wegen der Ähnlichkeit der Ionisationsparameter von einfach ionisiertem Silizium, SiII, und einfach ionisiertem Magnesium, MgII, ist es möglich, den Beitrag von HVCs zum Wirkungsquerschnitt von starken MgII Absorbern im lokalen Universum zu bestimmen. Es stellt sich heraus, dass, würde man von außen auf die Milchstraße schauen, Galaktische HVCs etwa 52 % zum totalen Wirkungsquerschnitt von starken MgII Absorptionssystemen in der Milchstraße beitragen. Weiterhin ergibt sich, dass nur etwa ein Drittel der starken MgII Absorptionssysteme in der Umgebung von Milchstraßen-ähnlichen Galaxien als HVC Gegenstücke identifziert werden kann. Betrachtet man die große Anzahl an bekannten MgII Absorptionssystemen folgt daraus, dass das HVC-Phänomen nicht alleine auf unsere Galaxie beschränkt ist, sondern im Gegenteil, weit verbreitet zu sein scheint. Weiterhin werden die Eigenschaften von Metallsystemen bei niedriger Rotverschiebung in Quasarspektren analysiert. Die Suche nach extragalaktischen Metallsystemen in einer Vielzahl von Spektren und deren statistische Auswertung bezogen auf ihre Ursprungsgalaxien ermöglicht es, neue Erkenntnisse über die typische Struktur von Halos Milchstraßen-ähnlicher Galaxien zu erlangen. Eine der Hauptfragestellungen ist die Identifizierung von entfernten Metallsystemen als HVC-Analoga. Dazu wurden weitere Quasarspektren des Hubble-Teleskops ausgewertet und mit den Ergebnissen über Galaktische HVCs verglichen. Es zeigt sich hierbei, dass z.B. in der Säulendichteverteilung von neutralem Wasserstoff eine deutliche zweikomponentige Struktur zu erkennen ist. Diese könnte das Resultat von zwei verschiedenen Absorber Populationen sein, wobei eine HVC-ähnliche Eigenschaften aufweist. Diese Absorptionssysteme besitzen im Mittel sehr ähnliche Eigenschaften wie Galaktische Absorber, z.B. in Bezug auf die Eigenschaften des Gases oder dessen Zusammensetzung. Das impliziert u.a., dass sich auch dazugehörige Galaxien innerhalb eines bestimmten Abstandes um diese Absorber befinden sollten. Diese Vermutung wird anhand der Daten exemplarisch für zweichfach ionisiertes Silizium, SiII, untersucht. Es stellt sich heraus, dass sich in mehr als 34 % der Fälle zugehörige Galaxien bei SiIII Absorbern befinden, wobei die Mehrheit sogar innerhalb des von uns ermittelten mittleren Detektionsradius von 160 kpc zu finden ist. Allgemein können wir viele Hinweise darauf finden, dass das HVC-Phänomen nicht nur auf die Milchstraße beschränkt, sondern weit verbreitet ist. Zusätzlich scheinen Metallsysteme in Quasarspektren gute Indikatoren für HVC-Analoga in der Umgebung von anderen entfernten Galaxien zu sein. KW - Halo KW - Hochgeschwindigkeitswolken KW - Galaxien KW - Spektroskopie KW - halo KW - high-velocity-clouds KW - galaxies KW - spectroscopy Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70513 ER - TY - THES A1 - Stange, Maike T1 - A study on Coronin-A and Aip1 function in motility of Dictyostelium discoideum and on Aip1 interchangeability between Dictyostelium discoideum and Arabidopsis thaliana T1 - Studie über die Funktion von Coronin-A und Aip1 bei der Motilität von Dictyostelium discoideum und zur Aip1-Austauschbarkeit zwischen Dictyostelium discoideum und Arabidopsis thaliana N2 - Actin is one of the most highly conserved proteins in eukaryotes and distinct actin-related proteins with filament-forming properties are even found in prokaryotes. Due to these commonalities, actin-modulating proteins of many species share similar structural properties and proposed functions. The polymerization and depolymerization of actin are critical processes for a cell as they can contribute to shape changes to adapt to its environment and to move and distribute nutrients and cellular components within the cell. However, to what extent functions of actin-binding proteins are conserved between distantly related species, has only been addressed in a few cases. In this work, functions of Coronin-A (CorA) and Actin-interacting protein 1 (Aip1), two proteins involved in actin dynamics, were characterized. In addition, the interchangeability and function of Aip1 were investigated in two phylogenetically distant model organisms. The flowering plant Arabidopsis thaliana (encoding two homologs, AIP1-1 and AIP1-2) and in the amoeba Dictyostelium discoideum (encoding one homolog, DdAip1) were chosen because the functions of their actin cytoskeletons may differ in many aspects. Functional analyses between species were conducted for AIP1 homologs as flowering plants do not harbor a CorA gene. In the first part of the study, the effect of four different mutation methods on the function of Coronin-A protein and the resulting phenotype in D. discoideum was revealed in two genetic knockouts, one RNAi knockdown and a sudden loss-of-function mutant created by chemical-induced dislocation (CID). The advantages and disadvantages of the different mutation methods on the motility, appearance and development of the amoebae were investigated, and the results showed that not all observed properties were affected with the same intensity. Remarkably, a new combination of Selection-Linked Integration and CID could be established. In the second and third parts of the thesis, the exchange of Aip1 between plant and amoeba was carried out. For A. thaliana, the two homologs (AIP1-1 and AIP1-2) were analyzed for functionality as well as in D. discoideum. In the Aip1-deficient amoeba, rescue with AIP1-1 was more effective than with AIP1-2. The main results in the plant showed that in the aip1-2 mutant background, reintroduced AIP1-2 displayed the most efficient rescue and A. thaliana AIP1-1 rescued better than DdAip1. The choice of the tagging site was important for the function of Aip1 as steric hindrance is a problem. The DdAip1 was less effective when tagged at the C-terminus, while the plant AIP1s showed mixed results depending on the tag position. In conclusion, the foreign proteins partially rescued phenotypes of mutant plants and mutant amoebae, despite the organisms only being very distantly related in evolutionary terms. N2 - Actin ist eines der am stärksten konservierten Proteine in Eukaryoten und sogar Prokaryoten weisen Aktin-ähnliche Proteine mit filamentbildenden Eigenschaften auf. Aufgrund dieser Gemeinsamkeiten teilen Aktin-modulierte Proteine vieler Arten ähnliche strukturelle Eigenschaften und vermutlich auch Funktionen. Die Polymerisierung und Depolymerisation von Aktin sind kritische Prozesse für eine Zelle, da sie zu Zellformänderungen beitragen können, um sich an die Umgebung anzupassen und Nährstoffe sowie zelluläre Komponenten innerhalb der Zelle zu bewegen und zu verteilen. Inwieweit die Funktionen von Aktin-bindenden Proteinen zwischen entfernt verwandten Arten funktionell konserviert sind, wurde jedoch nur in wenigen Fällen untersucht. In dieser Arbeit wurden Funktionen von Coronin-A (CorA) und Actin-interagierendem Protein 1 (AIP1), zweier an der Aktindynamik beteiligter Proteine, charakterisiert. Darüber hinaus wurde die Austauschbarkeit und Funktion von AIP1 in zwei phylogenetisch entfernten Modellorganismen untersucht. Die Blütenpflanze Arabidopsis thaliana (kodiert für zwei Homologe: AIP1-1 und AIP1-2) und die Amöbe Dictyostelium discoideum (kodiert für ein Homolog: DdAip1) wurden ausgewählt, weil die Funktionen ihrer Aktin-Zytoskelette in mehreren Aspekten verschieden sein könnten. Funktionelle Analysen zwischen Arten wurden für AIP1-Homologe durchgeführt, da Blütenpflanzen kein CorA Gen tragen. Im ersten Teil der Arbeit wurde die Wirkung von vier verschiedenen Mutationsmethoden auf die Funktion des CorA-Proteins und des resultierenden Phänotyps in D. discoideum in zwei genetischen Knockouts, einem RNAi Knockdown und einem durch chemisch induzierte Delokalisierung (CID) erzeugten Mutanten geprüft. Die Vor- und Nachteile der Methoden zur Motilität, des Aussehens und der Entwicklung der Amöben wurden untersucht. Die Ergebnisse zeigten, dass nicht alle beobachteten Eigenschaften mit der gleichen Intensität beeinflusst wurden. Hierbei wurde eine neue Methodenkombination aus selektionsgebundener Integration und CID etabliert. Im zweiten und im dritten Teil der Arbeit wurde der Austausch von AIP1 zwischen Pflanze und Amöben durchgeführt. Die zwei A. thaliana-Homologe AIP1-1 und AIP1-2 wurden auf Funktionalität in D. discoideum geprüft. In Aip1-defizienten Amöben war die Rettung mit AIP1-1 effektiver als bei AIP1-2. Die Hauptergebnisse der Arbeit wiesen darauf hin, dass AIP1-2 im aip1.2-1 act7 Mutantenhintergrund die effizienteste Rettung zeigte, während A. thaliana AIP1-1 effizienter rettete als DdAip1. Die Auswahl der Tagging-Site war für die AIP1-Funktion bedeutend, da sterische Hinderung eine Rolle spielen könnte. DdAip1 war weniger effektiv, wenn es am C-Terminus fusioniert war, während die Proteinfusionen der A. thaliana AIP1s je nach Position der „tags“ unterschiedliche Ergebnisse zeigten. Zusammenfassend retteten die fremden Proteine teilweise Phänotypen von mutierten Pflanzen und mutierten Amöben, obwohl die Organismen evolutionär weit entfernt verwandt sind. KW - actin KW - cell motility KW - plant growth KW - selection-linked integration KW - chemically induced dislocation KW - interspecies interchange KW - Aktin KW - Zellmotilität KW - Pflanzenwachstum KW - Selection-Linked Integration KW - chemisch-induzierte Dislokation KW - Austausch zwischen zwei Spezies Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-628569 ER - TY - THES A1 - Andorf, Sandra T1 - A systems biological approach towards the molecular basis of heterosis in Arabidopsis thaliana T1 - Ein systembiologischer Ansatz für das Verständnis der molekularen Grundlagen von Heterosis in Arabidopsis thaliana N2 - Heterosis is defined as the superiority in performance of heterozygous genotypes compared to their corresponding genetically different homozygous parents. This phenomenon is already known since the beginning of the last century and it has been widely used in plant breeding, but the underlying genetic and molecular mechanisms are not well understood. In this work, a systems biological approach based on molecular network structures is proposed to contribute to the understanding of heterosis. Hybrids are likely to contain additional regulatory possibilities compared to their homozygous parents and, therefore, they may be able to correctly respond to a higher number of environmental challenges, which leads to a higher adaptability and, thus, the heterosis phenomenon. In the network hypothesis for heterosis, presented in this work, more regulatory interactions are expected in the molecular networks of the hybrids compared to the homozygous parents. Partial correlations were used to assess this difference in the global interaction structure of regulatory networks between the hybrids and the homozygous genotypes. This network hypothesis for heterosis was tested on metabolite profiles as well as gene expression data of the two parental Arabidopsis thaliana accessions C24 and Col-0 and their reciprocal crosses. These plants are known to show a heterosis effect in their biomass phenotype. The hypothesis was confirmed for mid-parent and best-parent heterosis for either hybrid of our experimental metabolite as well as gene expression data. It was shown that this result is influenced by the used cutoffs during the analyses. Too strict filtering resulted in sets of metabolites and genes for which the network hypothesis for heterosis does not hold true for either hybrid regarding mid-parent as well as best-parent heterosis. In an over-representation analysis, the genes that show the largest heterosis effects according to our network hypothesis were compared to genes of heterotic quantitative trait loci (QTL) regions. Separately for either hybrid regarding mid-parent as well as best-parent heterosis, a significantly larger overlap between the resulting gene lists of the two different approaches towards biomass heterosis was detected than expected by chance. This suggests that each heterotic QTL region contains many genes influencing biomass heterosis in the early development of Arabidopsis thaliana. Furthermore, this integrative analysis led to a confinement and an increased confidence in the group of candidate genes for biomass heterosis in Arabidopsis thaliana identified by both approaches. N2 - Als Heterosis-Effekt wird die Überlegenheit in einem oder mehreren Leistungsmerkmalen (z.B. Blattgröße von Pflanzen) von heterozygoten (mischerbigen) Nachkommen über deren unterschiedlich homozygoten (reinerbigen) Eltern bezeichnet. Dieses Phänomen ist schon seit Beginn des letzten Jahrhunderts bekannt und wird weit verbreitet in der Pflanzenzucht genutzt. Trotzdem sind die genetischen und molekularen Grundlagen von Heterosis noch weitestgehend unbekannt. Es wird angenommen, dass heterozygote Individuen mehr regulatorische Möglichkeiten aufweisen als ihre homozygoten Eltern und sie somit auf eine größere Anzahl an wechselnden Umweltbedingungen richtig reagieren können. Diese erhöhte Anpassungsfähigkeit führt zum Heterosis-Effekt. In dieser Arbeit wird ein systembiologischer Ansatz, basierend auf molekularen Netzwerkstrukturen verfolgt, um zu einem besseren Verständnis von Heterosis beizutragen. Dazu wird eine Netzwerkhypothese für Heterosis vorgestellt, die vorhersagt, dass die heterozygoten Individuen, die Heterosis zeigen, mehr regulatorische Interaktionen in ihren molekularen Netzwerken aufweisen als die homozygoten Eltern. Partielle Korrelationen wurden verwendet, um diesen Unterschied in den globalen Interaktionsstrukturen zwischen den Heterozygoten und ihren homozygoten Eltern zu untersuchen. Die Netzwerkhypothese wurde anhand von Metabolit- und Genexpressionsdaten der beiden homozygoten Arabidopsis thaliana Pflanzenlinien C24 und Col-0 und deren wechselseitigen Kreuzungen getestet. Arabidopsis thaliana Pflanzen sind bekannt dafür, dass sie einen Heterosis-Effekt im Bezug auf ihre Biomasse zeigen. Die heterozygoten Pflanzen weisen bei gleichem Alter eine höhere Biomasse auf als die homozygoten Pflanzen. Die Netzwerkhypothese für Heterosis konnte sowohl im Bezug auf mid-parent Heterosis (Unterschied in der Leistung des Heterozygoten im Vergleich zum Mittelwert der Eltern) als auch auf best-parent Heterosis (Unterschied in der Leistung des Heterozygoten im Vergleich zum Besseren der Eltern) für beide Kreuzungen für die Metabolit- und Genexpressionsdaten bestätigt werden. In einer Überrepräsentations-Analyse wurden die Gene, für die die größte Veränderung in der Anzahl der regulatorischen Interaktionen, an denen sie vermutlich beteiligt sind, festgestellt wurde, mit den Genen aus einer quantitativ genetischen (QTL) Analyse von Biomasse-Heterosis in Arabidopsis thaliana verglichen. Die ermittelten Gene aus beiden Studien zeigen eine größere Überschneidung als durch Zufall erwartet. Das deutet darauf hin, dass jede identifizierte QTL-Region viele Gene, die den Biomasse-Heterosis-Effekt in Arabidopsis thaliana beeinflussen, enthält. Die Gene, die in den Ergebnislisten beider Analyseverfahren überlappen, können mit größerer Zuversicht als Kandidatengene für Biomasse-Heterosis in Arabidopsis thaliana betrachtet werden als die Ergebnisse von nur einer Studie. KW - Systembiologie KW - Heterosis KW - Molekulare Profildaten KW - Integrative Analyse KW - Systems biology KW - Heterosis KW - Molecular profile data KW - Integrative analysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51173 ER - TY - THES A1 - Kraus, Sara Milena T1 - A Systems Medicine approach for heart valve diseases BT - addressing the proteomic landscape and differential expression software N2 - In Systems Medicine, in addition to high-throughput molecular data (*omics), the wealth of clinical characterization plays a major role in the overall understanding of a disease. Unique problems and challenges arise from the heterogeneity of data and require new solutions to software and analysis methods. The SMART and EurValve studies establish a Systems Medicine approach to valvular heart disease -- the primary cause of subsequent heart failure. With the aim to ascertain a holistic understanding, different *omics as well as the clinical picture of patients with aortic stenosis (AS) and mitral regurgitation (MR) are collected. Our task within the SMART consortium was to develop an IT platform for Systems Medicine as a basis for data storage, processing, and analysis as a prerequisite for collaborative research. Based on this platform, this thesis deals on the one hand with the transfer of the used Systems Biology methods to their use in the Systems Medicine context and on the other hand with the clinical and biomolecular differences of the two heart valve diseases. To advance differential expression/abundance (DE/DA) analysis software for use in Systems Medicine, we state 21 general software requirements and features of automated DE/DA software, including a novel concept for the simple formulation of experimental designs that can represent complex hypotheses, such as comparison of multiple experimental groups, and demonstrate our handling of the wealth of clinical data in two research applications DEAME and Eatomics. In user interviews, we show that novice users are empowered to formulate and test their multiple DE hypotheses based on clinical phenotype. Furthermore, we describe insights into users' general impression and expectation of the software's performance and show their intention to continue using the software for their work in the future. Both research applications cover most of the features of existing tools or even extend them, especially with respect to complex experimental designs. Eatomics is freely available to the research community as a user-friendly R Shiny application. Eatomics continued to help drive the collaborative analysis and interpretation of the proteomic profile of 75 human left myocardial tissue samples from the SMART and EurValve studies. Here, we investigate molecular changes within the two most common types of valvular heart disease: aortic valve stenosis (AS) and mitral valve regurgitation (MR). Through DE/DA analyses, we explore shared and disease-specific protein alterations, particularly signatures that could only be found in the sex-stratified analysis. In addition, we relate changes in the myocardial proteome to parameters from clinical imaging. We find comparable cardiac hypertrophy but differences in ventricular size, the extent of fibrosis, and cardiac function. We find that AS and MR show many shared remodeling effects, the most prominent of which is an increase in the extracellular matrix and a decrease in metabolism. Both effects are stronger in AS. In muscle and cytoskeletal adaptations, we see a greater increase in mechanotransduction in AS and an increase in cortical cytoskeleton in MR. The decrease in proteostasis proteins is mainly attributable to the signature of female patients with AS. We also find relevant therapeutic targets. In addition to the new findings, our work confirms several concepts from animal and heart failure studies by providing the largest collection of human tissue from in vivo collected biopsies to date. Our dataset contributing a resource for isoform-specific protein expression in two of the most common valvular heart diseases. Apart from the general proteomic landscape, we demonstrate the added value of the dataset by showing proteomic and transcriptomic evidence for increased expression of the SARS-CoV-2- receptor at pressure load but not at volume load in the left ventricle and also provide the basis of a newly developed metabolic model of the heart. N2 - In der Systemmedizin spielt zusätzlich zu den molekularen Hochdurchsatzdaten (*omics) die Fülle an klinischer Charakterisierung eine große Rolle im Gesamtverständnis einer Krankheit. Hieraus ergeben sich Probleme und Herausforderungen unter anderem in Bezug auf Softwarelösungen und Analysemethoden. Die SMART- und EurValve-Studien etablieren einen systemmedizinischen Ansatz für Herzklappenerkrankungen -- die Hauptursache für eine spätere Herzinsuffizienz. Mit dem Ziel ein ganzheitliches Verständnis zu etablieren, werden verschiedene *omics sowie das klinische Bild von Patienten mit Aortenstenosen (AS) und Mitralklappeninsuffizienz (MR) erhoben. Unsere Aufgabe innerhalb des SMART Konsortiums bestand in der Entwicklung einer IT-Plattform für Systemmedizin als Grundlage für die Speicherung, Verarbeitung und Analyse von Daten als Voraussetzung für gemeinsame Forschung. Ausgehend von dieser Plattform beschäftigt sich diese Arbeit einerseits mit dem Transfer der genutzten systembiologischen Methoden hin zu einer Nutzung im systemmedizinischen Kontext und andererseits mit den klinischen und biomolekularen Unterschieden der beiden Herzklappenerkrankungen. Um die Analysesoftware für differenzielle Expression/Abundanz, eine häufig genutzte Methode der System Biologie, für die Nutzung in der Systemmedizin voranzutreiben, erarbeiten wir 21 allgemeine Softwareanforderungen und Funktionen einer automatisierten DE/DA Software. Darunter ist ein neuartiges Konzept für die einfache Formulierung experimenteller Designs, die auch komplexe Hypothesen wie den Vergleich mehrerer experimenteller Gruppen abbilden können und demonstrieren unseren Umgang mit der Fülle klinischer Daten in zwei Forschungsanwendungen -- DEAME und Eatomics. In Nutzertests zeigen wir, dass Nutzer befähigt werden, ihre vielfältigen Hypothesen zur differenziellen Expression basierend auf dem klinischen Phänotyp zu formulieren und zu testen, auch ohne einen dedizierten Hintergrund in Bioinformatik. Darüber hinaus beschreiben wir Einblicke in den allgemeinen Eindruck der Nutzer, ihrer Erwartung an die Leistung der Software und zeigen ihre Absicht, die Software auch in der Zukunft für ihre Arbeit zu nutzen. Beide Forschungsanwendungen decken die meisten Funktionen bestehender Tools ab oder erweitern sie sogar, insbesondere im Hinblick auf komplexe experimentelle Designs. Eatomics steht der Forschungsgemeinschaft als benutzerfreundliche R Shiny-Anwendung frei zur Verfügung. \textit{Eatomics} hat weiterhin dazu beigetragen, die gemeinsame Analyse und Interpretation des Proteomprofils von 75 menschlichen linken Myokardgewebeproben aus den SMART- und EurValve-Studien voran zu treiben. Hier untersuchen wir die molekularen Veränderungen innerhalb der beiden häufigsten Arten von Herzklappenerkrankungen: AS und MR. Durch DE/DA Analysen erarbeiten wir gemeinsame und krankheitsspezifische Proteinveränderungen, insbesondere Signaturen, die nur in einer geschlechtsstratifizierten Analyse gefunden werden konnten. Darüber hinaus beziehen wir Veränderungen des Myokardproteoms auf Parameter aus der klinischen Bildgebung. Wir finden eine vergleichbare kardiale Hypertrophie, aber Unterschiede in der Ventrikelgröße, dem Ausmaß der Fibrose und der kardialen Funktion. Wir stellen fest, dass AS und MR viele gemeinsame Remodelling-Effekte zeigen, von denen die wichtigsten die Zunahme der extrazellulären Matrix und eine Abnahme des Metabolismus sind. Beide Effekte sind bei AS stärker. Zusätzlich zeigt sich eine größere Variabilität zwischen den einzelnen Patienten mit AS. Bei Muskel- und Zytoskelettanpassungen sehen wir einen stärkeren Anstieg der Mechanotransduktion bei AS und einen Anstieg des kortikalen Zytoskeletts bei MR. Die Abnahme von Proteinen der Proteostase ist vor allem der Signatur von weiblichen Patienten mit AS zuzuschreiben. Außerdem finden wir therapierelevante Proteinveränderungen. Zusätzlich zu den neuen Erkenntnissen bestätigt unsere Arbeit mehrere Konzepte aus Tierstudien und Studien zu Herzversagen durch die bislang größte Kollektion von humanem Gewebe aus in vivo Biopsien. Mit unserem Datensatz stellen wir eine Ressource für die isoformspezifische Proteinexpression bei zwei der häufigsten Herzklappenerkrankungen zur Verfügung. Abgesehen von der allgemeinen Proteomlandschaft zeigen wir den Mehrwert des Datensatzes, indem wir proteomische und transkriptomische Beweise für eine erhöhte Expression des SARS-CoV-2- Rezeptors bei Drucklast, jedoch nicht bei Volumenlast im linken Ventrikel aufzeigen und außerdem die Grundlage eines neu entwickelten metabolischen Modells des Herzens liefern. KW - Systems Medicine KW - Systemmedizin KW - Proteomics KW - Proteom KW - Heart Valve Diseases KW - Herzklappenerkrankungen KW - Differential Expression Analysis KW - Software KW - Software Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-522266 ER - TY - THES A1 - Vu, Nils Leif T1 - A task-based parallel elliptic solver for numerical relativity with discontinuous Galerkin methods N2 - Elliptic partial differential equations are ubiquitous in physics. In numerical relativity---the study of computational solutions to the Einstein field equations of general relativity---elliptic equations govern the initial data that seed every simulation of merging black holes and neutron stars. In the quest to produce detailed numerical simulations of these most cataclysmic astrophysical events in our Universe, numerical relativists resort to the vast computing power offered by current and future supercomputers. To leverage these computational resources, numerical codes for the time evolution of general-relativistic initial value problems are being developed with a renewed focus on parallelization and computational efficiency. Their capability to solve elliptic problems for accurate initial data must keep pace with the increasing detail of the simulations, but elliptic problems are traditionally hard to parallelize effectively. In this thesis, I develop new numerical methods to solve elliptic partial differential equations on computing clusters, with a focus on initial data for orbiting black holes and neutron stars. I develop a discontinuous Galerkin scheme for a wide range of elliptic equations, and a stack of task-based parallel algorithms for their iterative solution. The resulting multigrid-Schwarz preconditioned Newton-Krylov elliptic solver proves capable of parallelizing over 200 million degrees of freedom to at least a few thousand cores, and already solves initial data for a black hole binary about ten times faster than the numerical relativity code SpEC. I also demonstrate the applicability of the new elliptic solver across physical disciplines, simulating the thermal noise in thin mirror coatings of interferometric gravitational-wave detectors to unprecedented accuracy. The elliptic solver is implemented in the new open-source SpECTRE numerical relativity code, and set up to support simulations of astrophysical scenarios for the emerging era of gravitational-wave and multimessenger astronomy. N2 - Elliptische partielle Differentialgleichungen sind in der Physik allgegenwärtig. Das elektrische Feld einer Ladung, die Gravitation der Erde, die Statik einer Brücke, oder die Temperaturverteilung auf einer heißen Herdplatte folgen trotz verschiedenster zugrundeliegender Physik elliptischen Gleichungen ähnlicher Struktur, denn es sind statische, also zeitunabhängige Effekte. Elliptische Gleichungen beschreiben auch astrophysikalische Szenarien von kataklysmischen Ausmaßen, die jegliche Gegebenheiten auf der Erde weit überschreiten. So werden Schwarze Löcher und Neutronensterne -- zwei mögliche Endstadien von massereichen Sternen -- ebenfalls von elliptischen Gleichungen beschrieben. In diesem Fall sind es Einstein's Feldgleichungen von Raum, Zeit, Gravitation und Materie. Da Schwarze Löcher und Neutronensterne mehr Masse als unsere Sonne auf die Größe einer Stadt wie Potsdam komprimieren übernimmt die Gravitation, und damit Einstein's allgemeine Relativitätstheorie, die Kontrolle. Es ist die Aufgabe der numerischen Relativität, Szenarien wie die Kollision solcher gewaltigen Objekte mithilfe von Supercomputern zu simulieren und damit die Gravitationswellensignale vorherzusagen, die von Detektoren auf der Erde gemessen werden können. Jede dieser Simulationen beginnt mit Anfangsdaten, die elliptische Gleichungen erfüllen müssen. In dieser Dissertation entwickle ich neue numerische Methoden um elliptische partielle Differentialgleichungen auf Supercomputern zu lösen, mit besonderem Augenmerk auf Anfangsdaten für Simulationen von Schwarzen Löchern und Neutronensternen. Ich entwickle dafür eine sogenannte discontinuous Galerkin Methode um elliptische Gleichungen auf Computern zu repräsentieren, sowie eine Reihe von Algorithmen um diese Gleichungen anschließend schrittweise numerisch zu lösen bis sie die notwendige Präzision erfüllen. Die Besonderheit dieser Algorithmen liegt in ihrer Eigenschaft, in viele Teilprobleme zerlegt auf einer großen Zahl von Rechenkernen parallel arbeiten zu können. Dieses task-based parallelism ermöglicht die effektive Verwendung von Supercomputern. Ich demonstriere die Fähigkeit meiner Algorithmen, Berechnungen von über 200 Millionen Unbekannten mit hoher Effizienz auf mindestens einige Tausend Rechenkerne verteilen zu können, und Anfangsdaten zweier sich umkreisender Schwarzer Löcher bereits etwa zehnmal schneller zu lösen als der langjährig verwendete Computercode SpEC. Außerdem zeige ich, dass mein neuer Code auch außerhalb der Relativitätstheorie anwendbar ist. Dazu simuliere ich thermisches Rauschen in den Beschichtungen von Spiegeln, das ebenfalls von elliptischen Gleichungen beschrieben wird. Solche Spiegel sind Objekt großen Forschungsinteresses, da sie ein zentrales Element von Gravitationswellendetektoren darstellen. Mein Code zur numerischen Lösung elliptischer Gleichungen ist Teil des kollaborativen und quelloffenen SpECTRE Forschungsprojekts zur Simulation astrophysikalischer Szenarien für die aufstrebende Ära der Gravitationswellen- und Multimessenger-Astronomie. KW - numerical relativity KW - task-based parallelism KW - discontinuous Galerkin methods KW - elliptic partial differential equations KW - black holes KW - initial data KW - high-performance computing KW - iterative methods for sparse linear systems KW - gravitational waves KW - thermal noise in mirror coatings KW - numerische Relativität KW - elliptische partielle Differentialgleichungen KW - schwarze Löcher KW - Anfangsdaten KW - Hochleistungscomputer KW - iterative Methoden zur Lösung linearer Systeme KW - Gravitationswellen KW - thermisches Rauschen in Spiegelbeschichtungen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-562265 ER - TY - THES A1 - Hu, Ji T1 - A virtual machine architecture for IT-security laboratories T1 - Eine virtuelle maschinenbasierte Architektur für IT-Sicherheitslabore N2 - This thesis discusses challenges in IT security education, points out a gap between e-learning and practical education, and presents a work to fill the gap. E-learning is a flexible and personalized alternative to traditional education. Nonetheless, existing e-learning systems for IT security education have difficulties in delivering hands-on experience because of the lack of proximity. Laboratory environments and practical exercises are indispensable instruction tools to IT security education, but security education in conventional computer laboratories poses particular problems such as immobility as well as high creation and maintenance costs. Hence, there is a need to effectively transform security laboratories and practical exercises into e-learning forms. In this thesis, we introduce the Tele-Lab IT-Security architecture that allows students not only to learn IT security principles, but also to gain hands-on security experience by exercises in an online laboratory environment. In this architecture, virtual machines are used to provide safe user work environments instead of real computers. Thus, traditional laboratory environments can be cloned onto the Internet by software, which increases accessibility to laboratory resources and greatly reduces investment and maintenance costs. Under the Tele-Lab IT-Security framework, a set of technical solutions is also proposed to provide effective functionalities, reliability, security, and performance. The virtual machines with appropriate resource allocation, software installation, and system configurations are used to build lightweight security laboratories on a hosting computer. Reliability and availability of laboratory platforms are covered by a virtual machine management framework. This management framework provides necessary monitoring and administration services to detect and recover critical failures of virtual machines at run time. Considering the risk that virtual machines can be misused for compromising production networks, we present a security management solution to prevent the misuse of laboratory resources by security isolation at the system and network levels. This work is an attempt to bridge the gap between e-learning/tele-teaching and practical IT security education. It is not to substitute conventional teaching in laboratories but to add practical features to e-learning. This thesis demonstrates the possibility to implement hands-on security laboratories on the Internet reliably, securely, and economically. N2 - Diese Dissertation beschreibt die Herausforderungen in der IT Sicherheitsausbildung und weist auf die noch vorhandene Lücke zwischen E-Learning und praktischer Ausbildung hin. Sie erklärt einen Ansatz sowie ein System, um diese Lücke zwischen Theorie und Praxis in der elektronischen Ausbildung zu schließen. E-Learning ist eine flexible und personalisierte Alternative zu traditionellen Lernmethoden. Heutigen E-Learning Systemen mangelt es jedoch an der Fähigkeit, praktische Erfahrungen über große Distanzen zu ermöglichen. Labor- bzw. Testumgebungen sowie praktische Übungen sind jedoch unverzichtbar, wenn es um die Ausbildung von Sicherheitsfachkräften geht. Konventionelle Laborumgebungen besitzen allerdings einige Nachteile wie bspw. hoher Erstellungsaufwand, keine Mobilität, hohe Wartungskosten, etc. Die Herausforderung heutiger IT Sicherheitsausbildung ist es daher, praktische Sicherheitslaborumgebungen und Übungen effektiv mittels E-Learning zu unterstützen. In dieser Dissertation wird die Architektur von Tele-Lab IT-Security vorgestellt, die Studenten nicht nur erlaubt theoretische Sicherheitskonzepte zu erlernen, sondern darüber hinaus Sicherheitsübungen in einer Online-Laborumgebung praktisch zu absolvieren. Die Teilnehmer können auf diese Weise wichtige praktische Erfahrungen im Umgang mit Sicherheitsprogrammen sammeln. Zur Realisierung einer sicheren Übungsumgebung, werden virtuelle Maschinen anstatt reale Rechner im Tele-Lab System verwendet. Mittels virtueller Maschinen können leicht Laborumgebungen geklont, verwaltet und über das Internet zugänglich gemacht werden. Im Vergleich zu herkömmlichen Offline-Laboren können somit erhebliche Investitions- und Wartungskosten gespart werden. Das Tele-Lab System bietet eine Reihe von technischen Funktionen, die den effektiven, zuverlässigen und sicheren Betrieb dieses Trainingssystems gewährleistet. Unter Beachtung angemessener Ressourcennutzung, Softwareinstallationen und Systemkonfigurationen wurden virtuelle Maschinen als Übungsstationen erstellt, die auf einem einzelnen Rechner betrieben werden. Für ihre Zuverlässigkeit und Verfügbarkeit ist das Managementsystem der virtuellen Maschinen verantwortlich. Diese Komponente besitzt die notwendigen Überwachungs- und Verwaltungsfunktionen, um kritische Fehler der virtuellen Maschinen während der Laufzeit zu erkennen und zu beheben. Damit die Übungsstationen nicht bspw. zur Kompromittierung von Produktivnetzwerken genutzt werden, beschreibt die Dissertation Sicherheits-Managementlösungen, die mittels Isolation auf System und Netzwerk Ebene genau dieses Risiko verhindern sollen. Diese Arbeit ist der Versuch, die Lücke zwischen E-Learning/Tele-Teaching und praktischer Sicherheitsausbildung zu schließen. Sie verfolgt nicht das Ziel, konventionelle Ausbildung in Offline Laboren zu ersetzen, sondern auch praktische Erfahrungen via E-Learning zu unterstützen. Die Dissertation zeigt die Möglichkeit, praktische Erfahrungen mittels Sicherheitsübungsumgebungen über das Internet auf zuverlässige, sichere und wirtschaftliche Weise zu vermitteln. KW - Computersicherheit KW - VM KW - E-Learning KW - IT security KW - virtual machine KW - E-Learning Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7818 ER - TY - THES A1 - Kneis, David T1 - A water quality model for shallow river-lake systems and its application in river basin management T1 - Ein Wassergütemodell für flache See-Fluss-Systeme und dessen Anwendung in der Einzugsgebietsbewirtschaftung N2 - This work documents the development and application of a new model for simulating mass transport and turnover in rivers and shallow lakes. The simulation tool called 'TRAM' is intended to complement mesoscale eco-hydrological catchment models in studies on river basin management. TRAM aims at describing the water quality of individual water bodies, using problem- and scale-adequate approaches for representing their hydrological and ecological characteristics. The need for such flexible water quality analysis and prediction tools is expected to further increase during the implementation of the European Water Framework Directive (WFD) as well as in the context of climate change research. The developed simulation tool consists of a transport and a reaction module with the latter being highly flexible with respect to the description of turnover processes in the aquatic environment. Therefore, simulation approaches of different complexity can easily be tested and model formulations can be chosen in consideration of the problem at hand, knowledge of process functioning, and data availability. Consequently, TRAM is suitable for both heavily simplified engineering applications as well as scientific ecosystem studies involving a large number of state variables, interactions, and boundary conditions. TRAM can easily be linked to catchment models off-line and it requires the use of external hydrodynamic simulation software. Parametrization of the model and visualization of simulation results are facilitated by the use of geographical information systems as well as specific pre- and post-processors. TRAM has been developed within the research project 'Management Options for the Havel River Basin' funded by the German Ministry of Education and Research. The project focused on the analysis of different options for reducing the nutrient load of surface waters. It was intended to support the implementation of the WFD in the lowland catchment of the Havel River located in North-East Germany. Within the above-mentioned study TRAM was applied with two goals in mind. In a first step, the model was used for identifying the magnitude as well as spatial and temporal patterns of nitrogen retention and sediment phosphorus release in a 100~km stretch of the highly eutrophic Lower Havel River. From the system analysis, strongly simplified conceptual approaches for modeling N-retention and P-remobilization in the studied river-lake system were obtained. In a second step, the impact of reduced external nutrient loading on the nitrogen and phosphorus concentrations of the Havel River was simulated (scenario analysis) taking into account internal retention/release. The boundary conditions for the scenario analysis such as runoff and nutrient emissions from river basins were computed by project partners using the catchment models SWIM and ArcEGMO-Urban. Based on the output of TRAM, the considered options of emission control could finally be evaluated using a site-specific assessment scale which is compatible with the requirements of the WFD. Uncertainties in the model predictions were also examined. According to simulation results, the target of the WFD -- with respect to total phosphorus concentrations in the Lower Havel River -- could be achieved in the medium-term, if the full potential for reducing point and non-point emissions was tapped. Furthermore, model results suggest that internal phosphorus loading will ease off noticeably until 2015 due to a declining pool of sedimentary mobile phosphate. Mass balance calculations revealed that the lakes of the Lower Havel River are an important nitrogen sink. This natural retention effect contributes significantly to the efforts aimed at reducing the river's nitrogen load. If a sustainable improvement of the river system's water quality is to be achieved, enhanced measures to further reduce the immissions of both phosphorus and nitrogen are required. N2 - Die vorliegende Arbeit dokumentiert Konzept und Anwendung eines Modells zur Simulation von Stofftransport und -umsatz in Flüssen und Flachseen. Das Simulationswerkzeug TRAM wurde als Ergänzung zu mesoskaligen Wasser- und Stoffhaushaltsmodellen konzipiert, um die Beschaffenheit einzelner Wasserkörper auf dieser räumlichen Skala in adequater Weise abbilden zu können. Dieser Aufgabenstellung kommt im Zuge der Umsetzung der EU-Wasserrahmenrichtlinie (WRRL) besondere Bedeutung zu. Das entwickelte Simulationsmodell TRAM setzt sich aus einem Transport- und einem Reaktionsmodell zusammen. Letzteres zeichnet sich durch eine hohe Flexibilität hinsichtlich der Beschreibung gewässerinterner Stoffumsatzprozesse aus. Es können mit geringem Aufwand unterschiedlich komplexe Ansätze der Prozessbeschreibung getestet und die - je nach Problemstellung, Systemverständnis und Datenverfügbarkeit - angemessene Modellformulierung gewählt werden. TRAM eignet sich somit gleichermaßen für stark vereinfachende Ingenieur-Anwendungen wie für wissenschaftliche Analysen, die komplexe aquatische Ökosystemmodelle mit einer Vielzahl an Zustandsvariablen, Interaktionen und Randbedingungen erfordern. Weitere Charakteristika von TRAM sind die Koppelbarkeit mit öko-hydrologischen Einzugsgebietsmodellen sowie einem hydrodynamischen Modell, die Unterstützung von Modellparametrisierung und Visualisierungen durch Geografische Informationssysteme (GIS) und ein klar strukturiertes Daten-Management. TRAM wurde im Rahmen des BMBF-geförderten Forschungsprojekts 'Bewirtschaftungsmöglichkeiten im Einzugsgebiet der Havel' entwickelt. Gegenstand dieses Projektes war die Analyse von Handlungsoptionen zur Verminderung von Nährstoffeinträgen in die Oberflächengewässer des Havel-Einzugsgebiets als Beitrag zur Erreichung der Ziele der WRRL. Mit dem Einsatz von TRAM wurden zwei Zielstellungen verfolgt: In einem ersten Schritt wurden Bedeutung und Muster der gewässerinternen Stickstoff-Retention sowie der Phosphor-Freisetzung aus See-Sedimenten quantifiziert (Systemanalyse). Auf dieser Basis konnten vereinfachte, konzeptionelle Ansätze zur Beschreibung von N-Retention und P-Remobilisierung abgeleitet werden. In einem zweiten Schritt wurden, unter Nutzung dieser Ansätze, die Auswirkungen verringerter externer Nährstoffeinträge auf gewässerinterne N- und P-Konzentrationen simuliert (Szenario-Analysen) und die Unsicherheiten der Modellrechnungen untersucht. Als Randbedingungen für die Szenario-Analysen dienten Simulationsergebnisse der öko-hydrologischen Einzugsgebietsmodelle SWIM und ArcEGMO, welche durch Projektpartner zur Verfügung gestellt wurden. Die mittels TRAM berechneten Nährstoffkonzentrationen bildeten schließlich die Grundlage für eine Evaluierung der Handlungsoptionen anhand einer gewässertypspezifischen, WRRL-konformen Bewertungsskala. Die Simulationsergebnisse zeigen, dass die Zielvorgabe der WRRL bezüglich Gesamt-Phosphor im Falle der Unteren Havel mittelfristig erreicht werden kann, wenn das Potential zur Senkung der Einträge aus punktförmigen und diffusen Quellen voll ausgeschöpft wird. Weiterhin kann im Zeitraum bis 2015 bereits mit einem merklichen Nachlassen der internen Phosphat-Freisetzung aufgrund einer Aushagerung der Sedimente gerechnet werden. Mit Hilfe von Massenbilanzierungen ließ sich zeigen, dass die Havelseen eine bedeutende Stickstoff-Senke darstellen. Dieser natürliche Retentionseffekt unterstützt wesentlich die Bemühungen zur Verminderung der Stickstoff-Belastung. Im Sinne einer nachhaltigen Verbesserung der Wassergüte der Unteren Havel erscheinen verstärkte Anstrengungen zur weiteren Reduzierung sowohl der Phosphor- als auch der Stickstoff-Emissionen geboten. KW - Wassergüte KW - Modellierung KW - Nährstoffe KW - Fluss-Seen KW - Management KW - water quality KW - modeling KW - nutrients KW - river-lake systems KW - management Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-14647 ER - TY - THES A1 - Amaechi, Mary Chimaobi T1 - A'-movement dependencies and their reflexes in Igbo N2 - In this thesis, I examine different A-bar movement dependencies in Igbo, a Benue-Congo language spoken in southern Nigeria. Movement dependencies are found in constructions where an element is moved to the left edge of the clause to express information-structural categories such as in questions, relativization and focus. I show that these constructions in Igbo are very uniform from a syntactic point of view. The constructions are built on two basic fronting operations: relativization and focus movement, and are biclausal. I further investigate several morphophonological effects that are found in these A-bar constructions. I propose that these effects are reflexes of movement that are triggered when an element is moved overtly in relativization or focus. This proposal helps to explain the tone patterns that have previously been assumed to be a property of relative clauses. The thesis adds to the growing body of tonal reflexes of A-bar movement reported for a few African languages. The thesis also provides an insight into the complementizer domain (C-domain) of Igbo. N2 - In dieser Dissertation untersuche ich verschiedene syntaktische A-quer-Bewegungsabhängigkeiten in Igbo, einer Benue-Kongo-Sprache, die im Süden Nigerias gesprochen wird. Bewegungsabhängigkeiten finden sich in Konstruktionen, in denen ein Element an den linken Satzrand bewegt wird, um informationsstrukturelle Kategorien auszudrücken, etwa in Fragen, Relativsatzbildung und Fokussierung. Ich zeige, dass diese Konstruktionen in Igbo in Hinblick auf die Syntax sehr einheitlich sind. Die Konstruktionen bauen auf zwei grundlegenden Voranstellungsoperationen auf – Relativierung und Fokusbewegung – und sind biklausal. Außerdem untersuche ich verschiedene morphophonologische Effekte, die in diesen A-quer-Konstruktionen vorkommen. Ich schlage vor, dass die Effekte Ausdruck von Bewegung sind und dadurch ausgelöst werden, dass ein Element zum Zweck der Relativsatzbildung oder Fokussierung bewegt wird. Die Dissertation liefert einen weiteren Beleg für tonale Effekte von A-quer-Bewegung, die bereits für einige afrikanische Sprachen berichtet wurden. Die Arbeit gibt auch Aufschluss über die Komplementierer-Domäne (C-domain) in Igbo. T2 - A'-Bewegungsabhängigkeiten und ihre Reflexe im Igbo KW - A-bar movement KW - clefts KW - focus KW - relativization KW - Igbo KW - A-quer-Bewegung KW - Spaltsätze KW - Fokus KW - Relativsätze KW - Igbo Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471524 ER - TY - THES A1 - Hasnat, Muhammad Abrar T1 - A-Type Carrier Proteins are involved in [4Fe-4S] Cluster insertion into the Radical S-adenosylmethionine (SAM) Protein MoaA and other molybdoenzymes N2 - Iron-sulfur clusters are essential enzyme cofactors. The most common and stable clusters are [2Fe-2S] and [4Fe-4S] that are found in nature. They are involved in crucial biological processes like respiration, gene regulation, protein translation, replication and DNA repair in prokaryotes and eukaryotes. In Escherichia coli, Fe-S clusters are essential for molybdenum cofactor (Moco) biosynthesis, which is a ubiquitous and highly conserved pathway. The first step of Moco biosynthesis is catalyzed by the MoaA protein to produce cyclic pyranopterin monophosphate (cPMP) from 5’GTP. MoaA is a [4Fe-4S] cluster containing radical S-adenosyl-L-methionine (SAM) enzyme. The focus of this study was to investigate Fe-S cluster insertion into MoaA under nitrate and TMAO respiratory conditions using E. coli as a model organism. Nitrate and TMAO respiration usually occur under anaerobic conditions, where oxygen is depleted. Under these conditions, E. coli uses nitrate and TMAO as terminal electron. Previous studies revealed that Fe-S cluster insertion is performed by Fe-S cluster carrier proteins. In E. coli, these proteins are known as A-type carrier proteins (ATC) by phylogenomic and genetic studies. So far, three of them have been characterized in detail in E. coli, namely IscA, SufA, and ErpA. This study shows that ErpA and IscA are involved in Fe-S cluster insertion into MoaA under nitrate and TMAO respiratory conditions. ErpA and IscA can partially replace each other in their role to provide [4Fe-4S] clusters for MoaA. SufA is not able to replace the functions of IscA or ErpA under nitrate respiratory conditions. Nitrate reductase is a molybdoenzyme that coordinates Moco and Fe-S clusters. Under nitrate respiratory conditions, the expression of nitrate reductase is significantly increased in E. coli. Nitrate reductase is encoded in narGHJI genes, the expression of which is regulated by the transcriptional regulator, fumarate and nitrate reduction (FNR). The activation of FNR under conditions of nitrate respiration requires one [4Fe-4S] cluster. In this part of the study, we analyzed the insertion of Fe-S cluster into FNR for the expression of narGHJI genes in E. coli. The results indicate that ErpA is essential for the FNR-dependent expression of the narGHJI genes, a role that can be replaced partially by IscA and SufA when they are produced sufficiently under the conditions tested. This observation suggests that ErpA is indirectly regulating nitrate reductase expression via inserting Fe-S clusters into FNR. Most molybdoenzymes are complex multi-subunit and multi-cofactor-containing enzymes that coordinate Fe-S clusters, which are functioning as electron transfer chains for catalysis. In E. coli, periplasmic aldehyde oxidoreductase (PaoAC) is a heterotrimeric molybdoenzyme that consists of flavin, two [2Fe-2S], one [4Fe-4S] cluster and Moco. In the last part of this study, we investigated the insertion of Fe-S clusters into E. coli periplasmic aldehyde oxidoreductase (PaoAC). The results show that SufA and ErpA are involved in inserting [4Fe-4S] and [2Fe-2S] clusters into PaoABC, respectively under aerobic respiratory conditions. KW - enzyme KW - gene KW - iron sulfur clusters KW - Enzyme KW - Gen KW - Eisen-Schwefel-Cluster Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-530791 ER - TY - THES A1 - Schwandt, Daniel T1 - Abflußentwicklung in Teileinzugsgebieten des Rheins : Simulationen für den Ist-Zustand und für Klimaszenarien T1 - Development of runoff in subcatchments of the River Rhine : simulations of the current state and for climate change scenarios N2 - Die vorliegende Arbeit 'Abflußentwicklung in Teileinzugsgebieten des Rheins - Simulationen für den Ist-Zustand und für Klimaszenarien' untersucht Auswirkungen möglicher zukünftiger Klimaänderungen auf das Abflußgeschehen in ausgewählten, durch Mittelgebirge geprägten Teileinzugsgebieten des Rheins: Mosel (bis Pegel Cochem); Sieg (bis Pegel Menden 1) und Main (bis Pegel Kemmern).In einem ersten Schritt werden unter Verwendung des hydrologischen Modells HBV-D wichtige Modellprozesse entsprechend der Einzugsgebietscharakteristik parametrisiert und ein Abbild der Gebietshydrologie erzeugt, das mit Zeitreihen gemessener Tageswerte (Temperatur, Niederschlag) eine Zeitreihe der Pegeldurchflüsse simulieren kann. Die Güte der Simulation des Ist-Zustandes (Standard-Meßzeitraum 1.1.1961-31.12.1999) ist für die Kalibrierungs- und Validierungszeiträume in allen Untersuchungsgebieten gut bis sehr gut.Zur Erleichterung der umfangreichen, zeitaufwendigen einzugsgebietsbezogenen Datenaufbereitung für das hydrologische Modell HBV-D wurde eine Arbeitsumgebung auf Basis von Programmerweiterungen des Geoinformationssystems ArcView und zusätzlichen Hilfsprogrammen entwickelt. Die Arbeitsumgebung HBV-Params enthält eine graphische Benutzeroberfläche und räumt sowohl erfahrenen Hydrologen als auch hydrologisch geschulten Anwendern, z.B. Studenten der Vertiefungsrichtung Hydrologie, Flexibilität und vollständige Kontrolle bei der Ableitung von Parameterwerten und der Editierung von Parameter- und Steuerdateien ein. Somit ist HBV-D im Gegensatz zu Vorläuferversionen mit rudimentären Arbeitsumgebungen auch außerhalb der Forschung für Lehr- und Übungszwecke einsetzbar.In einem zweiten Schritt werden Gebietsniederschlagssummen, Gebietstemperaturen und simulierte Mittelwerte des Durchflusses (MQ) des Ist-Zustandes mit den Zuständen zweier Klimaszenarien für den Szenarienzeitraum 100 Jahre später (2061-2099) verglichen. Die Klimaszenarien beruhen auf simulierten Zirkulationsmustern je eines Modellaufes zweier Globaler Zirkulationsmodelle (GCM), die mit einem statistischen Regionalisierungsverfahren in Tageswertszenarien (Temperatur, Niederschlag) an Meßstationen in den Untersuchungsgebieten überführt wurden und als Eingangsdaten des hydrologischen Modells verwendet werden.Für die zweite Hälfte des 21. Jahrhunderts weisen beide regionalisierten Klimaszenarien eine Zunahme der Jahresmittel der Gebietstemperatur sowie eine Zunahme der Jahressummen der Gebietsniederschläge auf, die mit einer hohen Variabilität einhergeht. Eine Betrachtung der saisonalen (monatlichen) Änderungsbeträge von Temperatur, Niederschlag und mittlerem Durchfluß zwischen Szenarienzeitraum (2061-2099) und Ist-Zustand ergibt in allen Untersuchungsgebieten eine Temperaturzunahme (höher im Sommer als im Winter) und eine generelle Zunahme der Niederschlagssummen (mit starken Schwankungen zwischen den Einzelmonaten), die bei der hydrologischen Simulation zu deutlich höheren mittleren Durchflüssen von November bis März und leicht erhöhten mittleren Durchflüssen in den restlichen Monaten führen. Die Stärke der Durchflußerhöhung ist nach den individuellen Klimaszenarien unterschiedlich und im Sommer- bzw. Winterhalbjahr gegenläufig ausgeprägt. Hauptursache für die simulierte starke Zunahme der mittleren Durchflüsse im Winterhalbjahr ist die trotz Temperaturerhöhung der Klimaszenarien winterlich niedrige Evapotranspiration, so daß erhöhte Niederschläge direkt in erhöhten Durchfluß transformiert werden können.Der Vergleich der Untersuchungsgebiete zeigt in Einzelmonaten von West nach Ost abnehmende Änderungsbeträge der Niederschlagssummen, die als Hinweis auf die Bedeutung der Kontinentalitätseinflüsse auch unter geänderten klimatischen Bedingungen in Südwestdeutschland aufgefaßt werden könnten.Aus den regionalisierten Klimaszenarien werden Änderungsbeträge für die Modulation gemessener Zeitreihen mittels synthetischer Szenarien abgeleitet, die mit einem geringen Rechenaufwand in hydrologische Modellantworten überführt werden können. Die direkte Ableitung synthetischer Szenarien aus GCM-Ergebniswerten (bodennahe Temperatur und Gesamtniederschlag) an einzelnen GCM-Gitterpunkten erbrachte unbefriedigende Ergebnisse.Ob, in welcher Höhe und zeitlichen Verteilung die in den (synthetischen) Szenarien verwendeten Niederschlags- und Temperaturänderungen eintreten werden, kann nur die Zukunft zeigen. Eine Abschätzung, wie sich die Abflußverhältnisse und insbesondere die mittleren Durchflüsse der Untersuchungsgebiete bei möglichen Änderungen entwickeln würden, kann jedoch heute schon vorgenommen werden. Simulationen auf Szenariogrundlagen sind ein Weg, unbekannte zukünftige Randbedingungen sowie regionale Auswirkungen möglicher Änderungen des Klimasystems ausschnittsweise abzuschätzen und entsprechende Risikominderungsstrategien zu entwickeln. Jegliche Modellierung und Simulation natürlicher Systeme ist jedoch mit beträchtlichen Unsicherheiten verknüpft. Vergleichsweise große Unsicherheiten sind mit der zukünftigen Entwicklung des sozioökonomischen Systems und der Komplexität des Klimasystems verbunden. Weiterhin haben Unsicherheiten der einzelnen Modellbausteine der Modellkette Emissionsszenarien/Gaszyklusmodelle - Globale Zirkulationsmodelle/Regionalisierung - hydrologisches Modell, die eine Kaskade der Unsicherheiten ergeben, neben Datenunsicherheiten bei der Erfassung hydrometeorologischer Meßgrößen einen erheblichen Einfluß auf die Vertrauenswürdigkeit der Simulationsergebnisse, die als ein dargestellter Wert eines Ergebnisbandes zu interpretieren sind.Der Einsatz (1) robuster hydrologischer Modelle, die insbesondere temperaturbeeinflußte Prozesse adäquat beschreiben,(2) die Verwendung langer Zeitreihen (wenigsten 30 Jahre) von Meßwerten und(3) die gleichzeitige vergleichende Betrachtung von Klimaszenarien, die auf unterschiedlichen GCMs beruhen (und wenn möglich, verschiedene Emissionsszenarien berücksichtigen),sollte aus Gründen der wissenschaftlichen Sorgfalt, aber auch der besseren Vergleichbarkeit der Ergebnisse von Regionalstudien im noch jungen Forschungsfeld der Klimafolgenforschung beachtet werden. N2 - This thesis 'Development of runoff in subcatchments of the River Rhine - simulations of the current state and for climate change scenarios' investigates the impacts of possible future climate changes on runoff and runoff regime in selected subcatchments of the River Rhine. The regional climate in the selected subcatchments Mosel (up to gauge Cochem), Sieg (gauge Menden 1) and Main (gauge Kemmern) is affected by the middle mountain ranges.In a first step, important model processes are parameterized according to catchment characteristics. A representation of the regional hydrology is then produced by using the hydrological model HBV-D. Based on time series of daily measurements (temperature, precipitation) at stations within the catchment, this representation can be used to realistically simulate time series of runoff and discharge. In all examined areas, the quality of simulations of the calibration and validation periods for the current state (standard period of measurements 01/01/1961-12/31/1999) can be regarded as good to excellent. To aid the catchment-specific, extensive and time-consuming data processing, a working environment for the hydrological model HBV-D has been developed. It is based on program extensions of the geographical information system ArcView and further programs. The working environment HBV-Params contains a graphical interface that gives both experienced hydrologists and students full control and enables them to flexibly derive parameter values and edit parameter and control files. In contrast to previous versions with only rudimentary working environments, HBV-D can therefore be utilized for research as well as for educational purposes. In a second step, the current states of areal precipitation, areal temperature and simulated mean discharge (MQ) are compared to the corresponding states for two scenarios of future climate changes (100 years later, 2061-2099). These scenarios are based on simulated global circulations of one model run for each of two global circulation models (GCM). These global circulations are regionalized (downscaled) using a statistical approach into scenario time series of daily values (temperature, precipitation - input for the hydrological model) at control stations within the individual catchments. For the second half of the 21st century, both regionalized climate change scenarios indicate increases in the mean annual areal temperature and mean annual sum of precipitation, along with a high variability of the latter. The seasonal (monthly) changes in temperature, precipitation and mean discharge between scenario state (2061-2099) and current state indicate increases in temperature (higher in summer than in winter) as well as a general increase in precipitation sums (strong fluctuations between individual months). In the hydrological simulations for all investigated catchments, this results in considerably higher mean discharges from November to March and small increases in mean discharge for the other months. The magnitude of the increases in discharge depends on the individual climate change scenario, one showing higher increases than the other during the summer half-year and vice versa for the winter half-year. The main reason for the simulated strong increase in mean discharge during winter half-year is, in spite of higher temperatures, the still relatively low evapotranspiration which allows higher precipitation to be directly transformed into higher discharges. The comparison of the investigated catchments shows decreasing amounts of changes in the sum of precipitation from West to East in individual months. This indicates the importance of continentality under changed climatic conditions in Southwest Germany. For the modification of measured time series (temperature, precipitation), which can be easily converted as synthetic scenarios into simulated hydrological results, amounts of change are derived from regionalized (downscaled) climate change scenarios. The derivation of synthetic scenarios directly from GCM output at individual GCM gridpoints yielded unsatisfactory results. Only the future itself can show whether the timing and amount of changes in temperature and precipitation used in (synthetic) climate change scenarios come close to reality. An assessment of possible developments in runoff regime and specifically mean discharge under possible changed climatic conditions in the investigated catchments is already feasible today. Simulations based on scenarios are one way to establish unknown future boundary conditions for the estimation of regional impacts of possible changes of the climate system. Nevertheless, all types of modeling and simulation of natural systems are linked with uncertainties. Rather large uncertainties persist regarding the future development of the socio-economic system and the complexity of the climate system and earth system. Furthermore, besides data uncertainties associated with the measurement of hydro-meteorological values, uncertainties associated with individual components of the model chain emission scenarios/gas cycle model - GCM/regionalization - hydrological model, which form a cascade of uncertainty, have a great influence on the trustworthiness of the simulation results (which are understood as one shown value within a range of results). In the young field of climate impact research the use of (1) robust hydrological models that adequately describe temperature-dependent processes,(2) long time series (at least 30 years long) of measurements, (3) concurrent comparisons of climate change scenarios, based on different GCMs (and, if possible, different emission scenarios)should be considered for reasons of scientific thoroughness and to improve comparability of regional impact studies. KW - Abflußentwicklung KW - hydrologische Modellierung KW - HBV-D KW - Klimaszenarien KW - regionale Auswirkungen von Klimaänderungen KW - synthetische Klimaszenarien KW - Kaska KW - runoff development KW - hydrological modeling KW - HBV-D KW - climate change scenarios KW - regional climate change impacts KW - synthetic climate change scenarios KW - casca Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001001 ER - TY - THES A1 - Klisch, Anja T1 - Ableitung von Blattflächenindex und Bedeckungsgrad aus Fernerkundungsdaten für das Erosionsmodell EROSION 3D N2 - In den letzten Jahren wurden relativ komplexe Erosionsmodelle entwickelt, deren Teilprozesse immer mehr auf physikalisch begründeten Ansätzen beruhen. Damit verbunden ist eine höhere Anzahl aktueller Eingangsparameter, deren Bestimmung im Feld arbeits- und kostenaufwendig ist. Zudem werden die Parameter punktuell, also an bestimmten Stellen und nicht flächenhaft wie bei der Fernerkundung, erfasst. Im Rahmen dieser Arbeit wird gezeigt, wie Satellitendaten als relativ kostengünstige Ergänzung oder Alternative zur konventionellen Parametererhebung genutzt werden können. Dazu werden beispielhaft der Blattflächenindex (LAI) und der Bedeckungsgrad für das physikalisch begründete Erosionsmodell EROSION 3D abgeleitet. Im Mittelpunkt des Interesses steht dabei das Aufzeigen von existierenden Methoden, die die Basis für eine operationelle Bereitstellung solcher Größen nicht nur für Erosions- sondern allgemein für Prozessmodelle darstellen. Als Untersuchungsgebiet dient das primär landwirtschaftlich genutzte Einzugsgebiet des Mehltheuer Baches, das sich im Sächsischen Lößgefilde befindet und für das Simulationsrechnungen mit konventionell erhobenen Eingangsparametern für 29 Niederschlagsereignisse im Jahr 1999 vorliegen [MICHAEL et al. 2000]. Die Fernerkundungsdatengrundlage bilden Landsat-5-TM-Daten vom 13.03.1999, 30.04.1999 und 19.07.1999. Da die Vegetationsparameter für alle Niederschlagsereignisse vorliegen sollen, werden sie basierend auf der Entwicklung des LAI zeitlich interpoliert. Dazu erfolgt zunächst die Ableitung des LAI für alle vorhandenen Fruchtarten nach den semi-empirischen Modellen von CLEVERS [1986] und BARET & GUYOT [1991] mit aus der Literatur entnommenen Koeffizienten. Des Weiteren wird eine Methode untersucht, nach der die Koeffizienten für das Clevers-Modell aus den TM-Daten und einem vereinfachten Wachstumsmodell bestimmt werden. Der Bedeckungsgrad wird nach ROSS [1981] aus dem LAI ermittelt. Die zeitliche Interpolation des LAI wird durch die schlagbezogene Anpassung eines vereinfachten Wachstumsmodells umgesetzt, das dem hydrologischen Modell SWIM [KRYSANOVA et al. 1999] entstammt und in das durchschnittliche Tagestemperaturen eingehen. Mit den genannten Methoden bleiben abgestorbene Pflanzenteile unberücksichtigt. Im Vergleich zur konventionellen terrestrischen Parametererhebung ermöglichen sie eine differenziertere Abbildung räumlicher Variabilitäten und des zeitlichen Verlaufes der Vegetationsparameter. Die Simulationsrechnungen werden sowohl mit den direkten Bedeckungsgraden aus den TM-Daten (pixelbezogen) als auch mit den zeitlich interpolierten Bedeckungsgraden für alle Ereignisse (schlagbezogen) durchgeführt. Bei beiden Vorgehensweisen wird im Vergleich zur bisherigen Abschätzung eine Verbesserung der räumlichen Verteilung der Parameter und somit eine räumliche Umverteilung von Erosions- und Depositionsflächen erreicht. Für die im Untersuchungsgebiet vorliegende räumliche Heterogenität (z. B. Schlaggröße) bieten Landsat-TM-Daten eine ausreichend genaue räumliche Auflösung. Damit wird nachgewiesen, dass die satellitengestützte Fernerkundung im Rahmen dieser Untersuchungen sinnvoll einsetzbar ist. Für eine operationelle Bereitstellung der Parameter mit einem vertretbaren Aufwand ist es erforderlich, die Methoden weiter zu validieren und möglichst weitestgehend zu automatisieren. N2 - Soil erosion models become increasingly more complex and contain physically based components, resulting in changing requirements for their input parameters. The spatial and temporal dynamics of erosions forcing parameters thus produce high requirements on data availability (costs and manpower). Due to this fact, the use of complex erosion models for extensive regions is strongly limited by the high in-situ expense. Moreover, conventional measurement procedures provide parameters at certain points, while remote sensing is a two-dimensional retrieval method. This thesis demonstrates, how satellite data can be used as a cost-effective supplementation or alternative to conventional measurement procedures. Leaf area index (LAI) and soil cover percentage are examplarily derived for the EROSION 3D physically based soil erosion model. The main objective of this study is to summarise existing retrieval methods in order to operationally provide such paramaters for soil erosion models or for process models in general. The methods are applied to a catchment in the loess region in Saxony (Germany), that predominantly is agriculturally used. For comparison, simulations based on conventionally estimated parameters for 29 rainstorm events are available [MICHAEL et al. 2000]. The remote sensing parameters are derived from Landsat 5 TM data on the following dates: 13.03.1999, 30.04.1999, 19.07.1999. To get temporally continuous data for all events, they are interpolated between the acquisition dates based on the LAI development. Therefore, LAI is firstly calculated for all occurring crops by means of the semi-empirical models of CLEVERS [1986] and BARET & GUYOT [1991]. The coefficients appropriated to these models are taken from literature. Furthermore, a method is investigated that enables coefficient estimation for the Clevers model from Landsat data combined with a simplified growth model. Next, soil cover percentage is derived from LAI after ROSS [1981]. The LAI interpolation is performed by the simplified crop growth model from the SWIM hydrological model [Krysanova et al. 1999]. It has to be mentioned, that plant residue remains unconsidered by the used methods. In comparison to conventional measurement procedures, these methods supply a differentiated mapping of the spatial variability and temporal behaviour regarding the vegetation parameters. The simulations with EROSION 3D are carried out for the remotely sensed soil cover percentages, that are retrieved in two ways. Soil cover is directly derived from the remote sensing data for each pixel at the acquisition dates as well as estimated by means of the interpolation for each field on all rainstorm events. In comparison to conventionally determined soil cover, both methods provide an improved spatial allocation of this parameter and thus, a spatial reallocation of erosion and deposition areas. The used Landsat Data provide an adequate spatial resolution suitable for the spatial heterogeneity given in the test area (e. g. field size). These results show that satellite based remote sensing can be reasonably used within the scope of these investigations. In the future, operational retrieval of such remotely sensed parameters necessitates the validation of the proposed methods and in general the automation of involved sub-processes to the greatest possible extent KW - Fernerkundung KW - Blattflächenindex KW - Bedeckungsgrad KW - Bodenerosion KW - EROSION 3D KW - remote sensing KW - leaf area index KW - soil cover percentage KW - soil erosion KW - EROSION 3D Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001455 ER - TY - THES A1 - Katzmann, Maximilian T1 - About the analysis of algorithms on networks with underlying hyperbolic geometry T1 - Über die Analyse von Algorithmen auf Netzwerken mit zugrundeliegender hyperbolischer Geometrie N2 - Many complex systems that we encounter in the world can be formalized using networks. Consequently, they have been in the focus of computer science for decades, where algorithms are developed to understand and utilize these systems. Surprisingly, our theoretical understanding of these algorithms and their behavior in practice often diverge significantly. In fact, they tend to perform much better on real-world networks than one would expect when considering the theoretical worst-case bounds. One way of capturing this discrepancy is the average-case analysis, where the idea is to acknowledge the differences between practical and worst-case instances by focusing on networks whose properties match those of real graphs. Recent observations indicate that good representations of real-world networks are obtained by assuming that a network has an underlying hyperbolic geometry. In this thesis, we demonstrate that the connection between networks and hyperbolic space can be utilized as a powerful tool for average-case analysis. To this end, we first introduce strongly hyperbolic unit disk graphs and identify the famous hyperbolic random graph model as a special case of them. We then consider four problems where recent empirical results highlight a gap between theory and practice and use hyperbolic graph models to explain these phenomena theoretically. First, we develop a routing scheme, used to forward information in a network, and analyze its efficiency on strongly hyperbolic unit disk graphs. For the special case of hyperbolic random graphs, our algorithm beats existing performance lower bounds. Afterwards, we use the hyperbolic random graph model to theoretically explain empirical observations about the performance of the bidirectional breadth-first search. Finally, we develop algorithms for computing optimal and nearly optimal vertex covers (problems known to be NP-hard) and show that, on hyperbolic random graphs, they run in polynomial and quasi-linear time, respectively. Our theoretical analyses reveal interesting properties of hyperbolic random graphs and our empirical studies present evidence that these properties, as well as our algorithmic improvements translate back into practice. N2 - Viele komplexe Systeme mit denen wir tagtäglich zu tun haben, können mit Hilfe von Netzwerken beschrieben werden, welche daher schon jahrzehntelang im Fokus der Informatik stehen. Dort werden Algorithmen entwickelt, um diese Systeme besser verstehen und nutzen zu können. Überraschenderweise unterscheidet sich unsere theoretische Vorstellung dieser Algorithmen jedoch oft immens von derem praktischen Verhalten. Tatsächlich neigen sie dazu auf echten Netzwerken viel effizienter zu sein, als man im schlimmsten Fall erwarten würde. Eine Möglichkeit diese Diskrepanz zu erfassen ist die Average-Case Analyse bei der man die Unterschiede zwischen echten Instanzen und dem schlimmsten Fall ausnutzt, indem ausschließlich Netzwerke betrachtet werden, deren Eigenschaften die von echten Graphen gut abbilden. Jüngste Beobachtungen zeigen, dass gute Abbildungen entstehen, wenn man annimmt, dass einem Netzwerk eine hyperbolische Geometrie zugrunde liegt. In dieser Arbeit wird demonstriert, dass hyperbolische Netzwerke als mächtiges Werkzeug der Average-Case Analyse dienen können. Dazu werden stark-hyperbolische Unit-Disk-Graphen eingeführt und die bekannten hyperbolischen Zufallsgraphen als ein Sonderfall dieser identifiziert. Anschließend werden auf diesen Modellen vier Probleme analysiert, um Resultate vorangegangener Experimente theoretisch zu erklären, die eine Diskrepanz zwischen Theorie und Praxis aufzeigten. Zuerst wird ein Routing Schema zum Transport von Nachrichten entwickelt und dessen Effizienz auf stark-hyperbolischen Unit-Disk-Graphen untersucht. Allgemeingültige Effizienzschranken können so auf hyperbolischen Zufallsgraphen unterboten werden. Anschließend wird das hyperbolische Zufallsgraphenmodell verwendet, um praktische Beobachtungen der bidirektionalen Breitensuche theoretisch zu erklären und es werden Algorithmen entwickelt, um optimale und nahezu optimale Knotenüberdeckungen zu berechnen (NP-schwer), deren Laufzeit auf diesen Graphen jeweils polynomiell und quasi-linear ist. In den Analysen werden neue Eigenschaften von hyperbolischen Zufallsgraphen aufgedeckt und empirisch gezeigt, dass sich diese sowie die algorithmischen Verbesserungen auch auf echten Netzwerken nachweisen lassen. KW - graph theory KW - hyperbolic geometry KW - average-case analysis KW - Average-Case Analyse KW - Graphentheorie KW - hyperbolische Geometrie Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-582965 ER - TY - THES A1 - Poltrock, Silvana T1 - About the relation between implicit Theory of Mind & the comprehension of complement sentences T1 - Über den Zusammenhang zwischen impliziter Theory of Mind und dem Verstehen von Komplementsatzstrukturen N2 - Previous studies on the relation between language and social cognition have shown that children’s mastery of embedded sentential complements plays a causal role for the development of a Theory of Mind (ToM). Children start to succeed on complementation tasks in which they are required to report the content of an embedded clause in the second half of the fourth year. Traditional ToM tasks test the child’s ability to predict that a person who is holding a false belief (FB) about a situation will act "falsely". In these task, children do not represent FBs until the age of 4 years. According the linguistic determinism hypothesis, only the unique syntax of complement sentences provides the format for representing FBs. However, experiments measuring children’s looking behavior instead of their explicit predictions provided evidence that already 2-year olds possess an implicit ToM. This dissertation examined the question of whether there is an interrelation also between implicit ToM and the comprehension of complement sentences in typically developing German preschoolers. Two studies were conducted. In a correlational study (Study 1 ), 3-year-old children’s performance on a traditional (explicit) FB task, on an implicit FB task and on language tasks measuring children’s comprehension of tensed sentential complements were collected and tested for their interdependence. Eye-tracking methodology was used to assess implicit ToM by measuring participants’ spontaneous anticipatory eye movements while they were watching FB movies. Two central findings emerged. First, predictive looking (implicit ToM) was not correlated with complement mastery, although both measures were associated with explicit FB task performance. This pattern of results suggests that explicit, but not implicit ToM is language dependent. Second, as a group, 3-year-olds did not display implicit FB understanding. That is, previous findings on a precocious reasoning ability could not be replicated. This indicates that the characteristics of predictive looking tasks play a role for the elicitation of implicit FB understanding as the current task was completely nonverbal and as complex as traditional FB tasks. Study 2 took a methodological approach by investigating whether children display an earlier comprehension of sentential complements when using the same means of measurement as used in experimental tasks tapping implicit ToM, namely anticipatory looking. Two experiments were conducted. 3-year-olds were confronted either with a complement sentence expressing the protagonist’s FB (Exp. 1) or with a complex sentence expressing the protagonist’s belief without giving any information about the truth/ falsity of the belief (Exp. 2). Afterwards, their expectations about the protagonist’s future behavior were measured. Overall, implicit measures reveal no considerably earlier understanding of sentential complementation. Whereas 3-year-olds did not display a comprehension of complex sentences if these embedded a false proposition, children from 3;9 years on were proficient in processing complement sentences if the truth value of the embedded proposition could not be evaluated. This pattern of results suggests that (1) the linguistic expression of a person’s FB does not elicit implicit FB understanding and that (2) the assessment of the purely syntactic understanding of complement sentences is affected by competing reality information. In conclusion, this dissertation found no evidence that the implicit ToM is related to the comprehension of sentential complementation. The findings suggest that implicit ToM might be based on nonlinguistic processes. Results are discussed in the light of recently proposed dual-process models that assume two cognitive mechanisms that account for different levels of ToM task performance. N2 - Zahlreiche Studien legen nahe, dass der Erwerb finiter Komplementsatzstrukturen eine Voraussetzung für die Entwicklung einer Theory of Mind (ToM) ist. Kinder beginnen in circa der zweiten Hälfte ihres 4. Lebensjahres Komplementsatzverständnisaufgaben zu lösen, die eine Wiedergabe des Komplementsatzes erfordern. Die ToM wird klassischerweise als erworben bezeichnet, wenn ein Kind korrekt vorhersagen kann, dass eine Person, die eine falsche Überzeugung hat, entsprechend "falsch" handeln wird. Es ist bekannt, dass sich diese Fähigkeit bei Kindern mit circa 4 Jahren entwickelt. Gemäß der Hypothese des linguistischen Determinismus liefert die syntaktische Komplexität von Komplementsatzstrukturen das Format, um falsche Überzeugungen mental zu repräsentieren. In ToM Aufgaben, die erfassen, wo Kinder eine zukünfige Handlung einer fehlinformierten Person antizipieren, konnte allerdings bereits schon bei 2-Jährigen das Verstehen falscher Überzeugungen nachgewiesen werden. Diese frühe Fähigkeit wird auch implizite ToM genannt, da diese Art der Aufgabe keine bewusste Entscheidung verlangt. Die vorliegende Dissertation untersucht erstmalig im Deutschen, ob der Zusammenhang zwischen dem Verstehen von Komplementsatzstrukturen und ToM auch für diese implizite Fähigkeit gilt. Zwei Studien wurden durchgeführt. In Studie 1 wurden die Leistungen von 3-Jährigen in einer klassischen (expliziten) ToM Aufgabe, einer impliziten ToM Aufgabe und in Komplementsatzverständnisaufgaben erhoben und auf korrelative Zusammenhänge hin getestet. Dabei wurde mittels eines Eye-Trackers das antizipative Blickverhalten gemessen und somit auf das Vorhandensein einer impliziten ToM geschlossen. Die Leistungen in den Sprachaufgaben korrelierten nicht mit den Blickdaten, obwohl beide Maße mit den Leistungen in der expliziten ToM Aufgabe in Beziehung standen. Unerwarteterweise konnte jedoch generell kein implizites Verstehen falscher Überzeugungen bei 3-jährigen nachgewiesen werden. Da die implizite ToM Aufgabe nichtsprachlich war, wird der Einfluss von Aufgabeneigenschaften auf die Elizitierung von impliziter ToM diskutiert. Studie 2 untersuchte, ob 3-Jährige ein früheres, implizites Verstehen von Komplementsatzstrukturen in Aufgaben zeigen, in denen antizipatorische Blicke anstelle von expliziten Antworten gemessen werden und damit das gleiche Maß verwendet wird wie in impliziten ToM Aufgaben. Zwei Experimente wurden durchgeführt. Der präsentierte Komplementsatz drückte entweder eine falsche Überzeugung des Protagonisten aus (Exp. 1) oder eine Überzeugung, deren Wahrheitsgehalt nicht bestimmt wurde (Exp. 2). Während bei 3-Jährigen kein Verstehen von Komplementsatzstrukturen, die eine falsche Proposition enthielten, nachgewiesen werden konnte, zeigten Kinder ab einem Alter von 3;9 Jahren, dass sie den komplexen Satz verarbeiten, wenn dieser keine falsche Proposition beinhaltet. Dieses Ergebnismuster spricht dafür, dass (1) der sprachliche Ausdruck einer falschen Überzeugung die implizite ToM nicht elizitieren kann und dass (2) das Erfassen des rein syntaktischen Verstehens durch zusätzliche Realitätsinformation beeinträchtigt wird. Zusammenfassend konnte in der vorliegenden Arbeit kein Hinweis dafür gefunden werden, dass die implizite ToM in gleicher Weise wie die explizite ToM mit dem Verstehen von Komplementsatzstrukturen einhergeht. Die Ergebnisse legen nahe, dass vielmehr nonlinguistische Faktoren bei der Entwicklung einer impliziten ToM eine Rolle spielen könnten. Die Resultate werden mit Blick auf aktuelle Zwei-Prozess-Modelle diskutiert. KW - Theory of Mind KW - Komplementsatzverstehen KW - linguistische Determinismushypothese KW - implizit KW - Blickbewegungsmessung KW - theory of mind KW - comprehension of complement sentences KW - linguistic determinism KW - implicit KW - eye tracking Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52293 ER - TY - THES A1 - Jehannin, Marie T1 - About the role of physico-chemical properties and hydrodynamics on the progress of a precipitation reaction T1 - Über die Rolle physikalisch-chemischer Eigenschaften und Hydrodynamiken auf den Fortschritt einer Fällungsreaktion BT - the case of cerium oxalate particles produced during coalescence of drops BT - Ceroxalat-Partikel, entstanden während der Koaleszenz von Tropfen N2 - The size and morphology control of precipitated solid particles is a major economic issue for numerous industries. For instance, it is interesting for the nuclear industry, concerning the recovery of radioactive species from used nuclear fuel. The precipitates features, which are a key parameter from the post-precipitate processing, depend on the process local mixing conditions. So far, the relationship between precipitation features and hydrodynamic conditions have not been investigated. In this study, a new experimental configuration consisting of coalescing drops is set to investigate the link between reactive crystallization and hydrodynamics. Two configurations of aqueous drops are examined. The first one corresponds to high contact angle drops (>90°) in oil, as a model system for flowing drops, the second one correspond to sessile drops in air with low contact angle (<25°). In both cases, one reactive is dissolved in each drop, namely oxalic acid and cerium nitrate. When both drops get into contact, they may coalesce; the dissolved species mix and react to produce insoluble cerium oxalate. The precipitates features and effect on hydrodynamics are investigated depending on the solvent. In the case of sessile drops in air, the surface tension difference between the drops generates a gradient which induces a Marangoni flow from the low surface tension drop over the high surface tension drop. By setting the surface tension difference between the two drops and thus the Marangoni flow, the hydrodynamics conditions during the drop coalescence could be modified. Diols/water mixtures are used as solvent, in order to fix the surface tension difference between the liquids of both drops regardless from the reactant concentration. More precisely, the used diols, 1,2-propanediol and 1,3-propanediol, are isomer with identical density and close viscosity. By keeping the water volume fraction constant and playing with the 1,2-propanediol and 1,3-propanediol volume fractions of the solvents, the mixtures surface tensions differ up to 10 mN/m for identical/constant reactant concentration, density and viscosity. 3 precipitation behaviors were identified for the coalescence of water/diols/recatants drops depending on the oxalic excess. The corresponding precipitates patterns are visualized by optical microscopy and the precipitates are characterized by confocal microscopy SEM, XRD and SAXS measurements. In the intermediate oxalic excess regime, formation of periodic patterns can be observed. These patterns consist in alternating cerium oxalate precipitates with distinct morphologies, namely needles and “microflowers”. Such periodic fringes can be explained by a feedback mechanism between convection, reaction and the diffusion. N2 - Die Kontrolle der Morphologie und Größe fester durch Fällung erzeugter Partikel ist eine wichtige Herausforderung in Industrie und Forschung. Insbesondere gilt dies für die Wiederaufbereitung verbrauchter Brennstäber in der Atomindustrie. Die Eigenschaften der Ausfällungen hängen von den Mischbedingungen der Flüssigkeiten in den Prozessen ab. Dennoch sind die Beziehungen zwischen den physischen Charakteristiken der erzeugten Partikeln und den hydrodynamischen Bedingungen ungewiss. In dieser Arbeit werden Zwei-Tropfen-Koalezenz-Experiment genutzt, um die Verbindungen zwischen Hydrodynamik und Fällungsreaktion besser zu verstehen. Zwei Konfigurationen von ruhenden wässrigen Tropfen wurden untersucht: Zum einen Tropfen mit hohem Kontaktwinkel (> 90°) in Öl und zum anderen Tropfen mit kleinem Kontaktwinkel (< 25°) in Luft. In beiden Fällen wurde Oxalsäure und Ceriumnitrat jeweils in einem Tropfen gelöst. Wenn beide Tropfen einander in Kontakt treten, können sie sich vereinigen. Dabei mischen sich die Reagenzien und erzeugen Ceriumoxalat. In Abhängigkeit von Lösungsmitteln werden die Eigenschaften der Fällung sowie ihr Einfluss auf die Hydrodynamik untersucht. In Experimenten Tropfen in Luft ist es außerdem möglich, mittels Wasser/Diol-Mischungen den Oberflächenspannungsgradienten zwischen beiden Tropfenflüssigkeiten zu ändern. Damit ist es möglich den resultierenden Marangoni-Fluss zu kontrollieren. So werden die hydrodynamischen Bedingungen unabhängig von dem Oxalsäureüberschuss verwirklicht. In diesem Fall werden drei Fällungsverhalten abhängig er Oxalsäure-Konzentration beobachtet. Das Zwischenverhalten zeigt überraschende periodische Strukturen, welche verschiedenen Morphologien bilden, nämlich Nägeln und „Microflower“. Die Strukturen wurden über Optische Mikroskopie Identifiziert und charakterisiert mit Hilfe von Konfokaler Mikroskopie, SEM, XRD und SAXS. Die Entstehung solcher Strukturen könnte durch eine Konvektion- Diffusion- Reaktion-Rückkopplung erklärt werden. N2 - Réussir à contrôler la morphologie et la taille de particules solides obtenues par précipitation est un enjeu industriel majeur. C’est notamment le cas dans l’industrie nucléaire pour le recyclage du combustible usé. Les caractéristiques des précipités sont liées aux conditions de mélange des phases liquides dans les procédés. Les corrélations entre les paramètres physiques des particules obtenues et les conditions hydrodynamiques n’ont pas été examinées jusqu’à présent. Dans cette étude, des systèmes expérimentaux originaux, basés sur la coalescence de deux gouttes, sont utilisés afin de mieux comprendre les liens entre hydrodynamique et réaction de précipitation. Deux configurations de gouttes aqueuses ont été investiguées, la première consiste en deux goutes posées à fort angle de contact (>90°) dans l’huile, il s’agit d’un système modèle pour les gouttes en émulsion, la second configuration correspond à deux gouttes posées à faible angle de contact (>25°) dans l’air. Dans chaque cas, une espèce réactive est dissoute dans chaque goutte, à savoir de l’acide oxalique ou du nitrate de cérium dans la seconde. Lorsque les deux gouttes se touchent, elles peuvent éventuellement coalescer, alors les espèces chimiques se mélangent et réagissent pour produire un précipité d’oxalate de cérium. Les caractéristiques de ce précipité et ses effets sur l’hydrodynamique sont examinés en fonction du solvant utilisé. De plus, dans le cas des gouttes posées sur une surface de silice dans l’air, une différence de tension de surface entre deux gouttes crée un gradient qui génère un flux de Marangoni dirigé de la goutte de faible tension de surface au-dessus de la goutte de forte tension de surface. En jouant sur la différence de tension de surface entre les deux gouttes, et ainsi sur le flux de Marangoni, il est possible de modifier les conditions hydrodynamiques lors de la coalescence des gouttes. Des mélanges eau/diols ont été utilisés comme solvant afin de pouvoir modifier la différence de tension de surface entre les liquides des deux gouttes indépendamment de leur concentration en réactif. Les diols utilisés, le 1,2-propanediol et le 1,3-propanediol sont des isomères, ils sont la même densité, des viscosités semblables mais des tensions de surface différentes. En fixant la fraction volumique d’eau dans le solvant, et en jouant sur les fractions volumiques de chaque diols, il est possible de contrôler la tension de surface des mélanges sur une gamme de 10 mN/m pour une concentration en réactifs donnée, et en conservant la densité et viscosité des solvants. Trois régimes de précipitation ont été identifiés dans le cas de la coalescence de gouttes d’eau/diols/réactifs en fonction de l’excès oxalique. Les motifs de précipitation en découlant ont été imagés par microscopie optique et les différents précipités ont été caractérisés à l’aide de microscopie confocale, MEB, DRX et SAXS. Le régime intermédiaire présente des motifs périodiques surprenants. Ces motifs correspondent à des domaines nettement délimités d’oxalate de cérium de différentes morphologies, à savoir des aiguilles et des « microflowers ». L’obtention de tels motifs peut s’expliquer par un mécanisme de rétroaction entre convection, réaction et diffusion. KW - Marangoni flow KW - coalescence KW - periodic pattern KW - oxalic precipitation KW - drop KW - Marangoni-Fluss KW - Koaleszenz KW - Tropfen KW - Fällungsreaktion KW - periodisches Muster KW - Oxalat-Fällung KW - flux de Marangoni KW - coalescence KW - gouttes KW - précipitation KW - motif périodique KW - précipitation oxalique Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88364 ER - TY - THES A1 - Müller, Daniela T1 - Abrupt climate changes and extreme events in two different varved lake sediment records T1 - Abrupte Klimaveränderungen und Extremevents in Sedimentprofilen zweier verschiedener warvierter Seen N2 - Different lake systems might reflect different climate elements of climate changes, while the responses of lake systems are also divers, and are not completely understood so far. Therefore, a comparison of lakes in different climate zones, during the high-amplitude and abrupt climate fluctuations of the Last Glacial to Holocene transition provides an exceptional opportunity to investigate distinct natural lake system responses to different abrupt climate changes. The aim of this doctoral thesis was to reconstruct climatic and environmental fluctuations down to (sub-) annual resolution from two different lake systems during the Last Glacial-Interglacial transition (~17 and 11 ka). Lake Gościąż, situated in the temperate central Poland, developed in the Allerød after recession of the Last Glacial ice sheets. The Dead Sea is located in the Levant (eastern Mediterranean) within a steep gradient from sub-humid to hyper-arid climate, and formed in the mid-Miocene. Despite their differences in sedimentation processes, both lakes form annual laminations (varves), which are crucial for studies of abrupt climate fluctuations. This doctoral thesis was carried out within the DFG project PALEX-II (Paleohydrology and Extreme Floods from the Dead Sea ICDP Core) that investigates extreme hydro-meteorological events in the ICDP core in relation to climate changes, and ICLEA (Virtual Institute of Integrated Climate and Landscape Evolution Analyses) that intends to better the understanding of climate dynamics and landscape evolutions in north-central Europe since the Last Glacial. Further, it contributes to the Helmholtz Climate Initiative REKLIM (Regional Climate Change and Humans) Research Theme 3 “Extreme events across temporal and spatial scales” that investigates extreme events using climate data, paleo-records and model-based simulations. The three main aims were to (1) establish robust chronologies of the lakes, (2) investigate how major and abrupt climate changes affect the lake systems, and (3) to compare the responses of the two varved lakes to these hemispheric-scale climate changes. Robust chronologies are a prerequisite for high-resolved climate and environmental reconstructions, as well as for archive comparisons. Thus, addressing the first aim, the novel chronology of Lake Gościąż was established by microscopic varve counting and Bayesian age-depth modelling in Bacon for a non-varved section, and was corroborated by independent age constrains from 137Cs activity concentration measurements, AMS radiocarbon dating and pollen analysis. The varve chronology reaches from the late Allerød until AD 2015, revealing more Holocene varves than a previous study of Lake Gościąż suggested. Varve formation throughout the complete Younger Dryas (YD) even allowed the identification of annually- to decadal-resolved leads and lags in proxy responses at the YD transitions. The lateglacial chronology of the Dead Sea (DS) was thus far mainly based on radiocarbon and U/Th-dating. In the unique ICDP core from the deep lake centre, continuous search for cryptotephra has been carried out in lateglacial sediments between two prominent gypsum deposits – the Upper and Additional Gypsum Units (UGU and AGU, respectively). Two cryptotephras were identified with glass analyses that correlate with tephra deposits from the Süphan and Nemrut volcanoes indicating that the AGU is ~1000 years younger than previously assumed, shifting it into the YD, and the underlying varved interval into the Bølling/Allerød, contradicting previous assumptions. Using microfacies analyses, stable isotopes and temperature reconstructions, the second aim was achieved at Lake Gościąż. The YD lake system was dynamic, characterized by higher aquatic bioproductivity, more re-suspended material and less anoxia than during the Allerød and Early Holocene, mainly influenced by stronger water circulation and catchment erosion due to stronger westerly winds and less lake sheltering. Cooling at the YD onset was ~100 years longer than the final warming, while environmental proxies lagged the onset of cooling by ~90 years, but occurred contemporaneously during the termination of the YD. Chironomid-based temperature reconstructions support recent studies indicating mild YD summer temperatures. Such a comparison of annually-resolved proxy responses to both abrupt YD transitions is rare, because most European lake archives do not preserve varves during the YD. To accomplish the second aim at the DS, microfacies analyses were performed between the UGU (~17 ka) and Holocene onset (~11 ka) in shallow- (Masada) and deep-water (ICDP core) environments. This time interval is marked by a huge but fluctuating lake level drop and therefore the complete transition into the Holocene is only recorded in the deep-basin ICDP core. In this thesis, this transition was investigated for the first time continuously and in detail. The final two pronounced lake level drops recorded by deposition of the UGU and AGU, were interrupted by one millennium of relative depositional stability and a positive water budget as recorded by aragonite varve deposition interrupted by only a few event layers. Further, intercalation of aragonite varves between the gypsum beds of the UGU and AGU shows that these generally dry intervals were also marked by decadal- to centennial-long rises in lake level. While continuous aragonite varves indicate decadal-long stable phases, the occurrence of thicker and more frequent event layers suggests general more instability during the gypsum units. These results suggest a pattern of complex and variable hydroclimate at different time scales during the Lateglacial at the DS. The third aim was accomplished based on the individual studies above that jointly provide an integrated picture of different lake responses to different climate elements of hemispheric-scale abrupt climate changes during the Last Glacial-Interglacial transition. In general, climatically-driven facies changes are more dramatic in the DS than at Lake Gościąż. Further, Lake Gościąż is characterized by continuous varve formation nearly throughout the complete profile, whereas the DS record is widely characterized by extreme event layers, hampering the establishment of a continuous varve chronology. The lateglacial sedimentation in Lake Gościąż is mainly influenced by westerly winds and minor by changes in catchment vegetation, whereas the DS is primarily influenced by changes in winter precipitation, which are caused by temperature variations in the Mediterranean. Interestingly, sedimentation in both archives is more stable during the Bølling/Allerød and more dynamic during the YD, even when sedimentation processes are different. In summary, this doctoral thesis presents seasonally-resolved records from two lake archives during the Lateglacial (ca 17-11 ka) to investigate the impact of abrupt climate changes in different lake systems. New age constrains from the identification of volcanic glass shards in the lateglacial sediments of the DS allowed the first lithology-based interpretation of the YD in the DS record and its comparison to Lake Gościąż. This highlights the importance of the construction of a robust chronology, and provides a first step for synchronization of the DS with other eastern Mediterranean archives. Further, climate reconstructions from the lake sediments showed variability on different time scales in the different archives, i.e. decadal- to millennial fluctuations in the lateglacial DS, and even annual variations and sub-decadal leads and lags in proxy responses during the rapid YD transitions in Lake Gościąż. This showed the importance of a comparison of different lake archives to better understand the regional and local impacts of hemispheric-scale climate variability. An unprecedented example is demonstrated here of how different lake systems show different lake responses and also react to different climate elements of abrupt climate changes. This further highlights the importance of the understanding of the respective lake system for climate reconstructions. N2 - Verschiedene Seesysteme können unterschiedliche Klimaelemente während Klimaveränderungen wiederspiegeln und auch diverse Seesystemreaktionen aufweisen, wobei letztere bislang noch nicht vollständig verstanden sind. Ein Vergleich von Seesystemen in verschiedenen Klimazonen während der hoch-amplituden und abrupten Klimaveränderung innerhalb des Übergangs vom Letzten Glazial zum Holozän, ermöglicht die Untersuchung deutlicher natürlicher Seesystemreaktionen in Bezug zu abrupten Klimaänderungen. Das Ziel dieser Doktorarbeit war die Rekonstruktion von Klima- und Umweltschwankungen von zwei verschiedenen Seesystemen während des Letzten Glazial-Interglazial-Übergangs (~17.000-11.000 BP) bis hinunter zu saisonaler Auflösung. Der Gościąż See liegt in der gemäßigten Klimazone in Zentralpolen und entwickelte sich im Allerød nach dem Rückgang der Eisschilde des letzten Glazials. Das Tote Meer liegt in der Levante (östlicher Mittelmeerraum) innerhalb eines steilen Gradienten von subhumidem zu hyperaridem Klima und entstand im mittleren Miozän. Trotz ihrer unterschiedlichen Sedimentationsprozesse bilden beide Seen jährliche Laminierungen (Warven) aus. Dies ist essentiell für Studien abrupter Klimaveränderungen. Diese Doktorarbeit wurde innerhalb des DFG-Projektes PALEX-II (Paläohydrologie und Sturzfluten vom ICDP-Kern des Toten Meeres) und ICELA (Virtuelles Institut zur Integrierten Klima- und Landschaftsentwicklungsanalyse) durchgeführt. PALEX-II untersucht hydrometeorologische Extremereignisse im ICDP-Kern in Bezug zu Klimaveränderungen, während ICLEA beabsichtig das Verständnis von Klimadynamiken und Landschaftsevolution in Nord- und Zentraleuropa seit dem letzten Glazial zu verbessern. Zudem, trägt diese Doktorarbeit auch zum Forschungsthema 3 „Extremevents auf unterschiedlichen zeitlichen und räumlichen Skalen“ der Helmholtz-Klimainitiative REKLIM (Regionale Klimaänderungen und Mensch) bei, das basierend auf Klimadaten, Paläoarchiven und modelbasierten Simulationen Extremevents untersucht. Robuste Chronologien sind Voraussetzung für hochaufgelöste Klima- und Umweltstudien, sowie für den Vergleich von Archiven. Um das erste Ziel zu erreichen, wurde für den Gościąż See mithilfe von mikroskopischer Warvenzählung und einer bayesschen Alters-Tiefen-Modellierung eine neue Chronologie erstellt. Diese wurde durch unabhängige Altersinformationen von 137Cs Konzentrationsmessungen, AMS Radiokarbondatierung und Pollenanalyse bestätigt. Die Warvenchronologie beginnt im späten Allerød und endet AD 2015. Sie offenbart mehr Warven im Holozän als in einer früheren Studie vom Gościąż See gezeigt wurde. Warvenbildung durch die gesamte Jüngere Dryaszeit (JD) hindurch ermöglicht sogar die Identifizierung von jährlich bis dekadisch aufgelösten Abfolgen in Proxyreaktion während der Übergangszonen der JD. Die spätglaziale Chronologie des Toten Meeres basierte bisher auf Radiokarbon- und U/Th-Datierungen. In den spätglazialen Sedimenten des einzigartigen ICDP-Kern vom tiefen Seezentrum wurde zwischen zwei markanten Gipseinheiten – den Oberen und Zusätzlichen Gipseinheiten (UGU bzw. AGU) – kontinuierlich nach Kryptotephra gesucht. Gläser zweier Kryptotephren korrelieren mit Aschenablagerungen der Süphan und Nemrut Vulkane. Dies deutet darauf hin, dass die AGU ~1000 Jahre jünger ist als bisher angenommen, was sie komplett in die JD verlagert und das darunterliegende warvierte Intervall in das Bølling/Allerød. Diese Ergebnisse widersprechen bisherigen Annahmen. Unter Verwendung von Mikrofaziesanalysen, stabiler Isotope und Temperaturrekonstruktionen, wurde das zweite Ziel am Gościąż See erreicht. Das Seesystem war während der JD dynamisch und durch höhere aquatische Bioproduktivität, Resuspension und geringere anoxische Bedingungen als das Allerød und frühe Holozän gekennzeichnet. Dies wurde hauptsächlich durch eine verstärkte Wasserzirkulation und Erosion im Einzugsgebiet hervorgerufen, die wiederum durch stärkere Westwinde und geringeren Schutz vor Wind im Einzugsgebiet verursacht wurden. Die Abkühlung am Beginn der JD war etwa 100 Jahre länger als die finale Erwärmung an ihrem Ende, während die Umweltproxies ca. 90 Jahre nach Beginn der Abkühlung, aber gleichzeitig mit der Erwärmung auftraten. Auf Chironomiden basierende Temperatur-rekonstruktionen unterstützen neueste Studien, die milde Sommertemperaturen während der JD anzeigen. Da die meisten europäischen Seearchive keine Warven während der JD erhalten, ist ein solcher Vergleich von jährlich aufgelösten Proxyreaktionen während beiden JD Übergangszonen sehr selten. Um das zweite Ziel auch am Toten Meer zu realisieren, wurden Mikrofaziesanalysen zwischen der UGU (~17.000 BP) und dem Beginn des Holozäns (~11.000 BP) in Sedimenten aus dem Flachwasserbereich (Masada) und aus dem tiefen Becken (ICDP-Kern) durchgeführt. In diesem Intervall sinkt der Seespiegel gewaltig ab, wobei er von Schwankungen betroffen ist. Daher ist der komplette Übergang in das Holozän nur im ICDP-Kern enthalten, der im tiefen Becken gezogen wurde. In dieser Doktorarbeit wurde dieser Übergang zum ersten Mal kontinuierlich und im Detail untersucht. Während der beiden finalen Seespiegelabfälle wurden die UGU und AGU abgelagert. Zwischen den beiden Gipseinheiten zeugen jedoch Aragonitwarven und nur wenige Extremevents von sedimentärer Stabilität und einem positiven Wasserbudget für beinahe ein Jahrtausend. Selbst innerhalb der UGU und AGU deutet die Ablagerung von Aragonitwarven zwischen Gipslagen auf Dekaden bis Jahrhunderte andauernde Anstiege im Seespiegel hin, was zeigt, dass UGU und AGU nicht kontinuierlich von Trockenheit gekennzeichnet waren. Die kontinuierliche Bildung von Aragonitwarven zeigt hier stabile Phasen über Dekaden, wohingegen mächtigere und häufigere Extremevents generell auf eine erhöhte Instabilität während der Gipseinheiten hindeuten. Diese Ergebnisse zeigen, dass ein komplexes und variables Hydroklima auf unterschiedlichen Zeitskalen während des Spätglazials am Toten Meer operierte. Das dritte Ziel wurde basierend auf den individuellen Studien erreicht, die zusammen ein ganzheitliches Bild zu verschiedenen Seesystemreaktionen liefern, die während des Übergangs vom letzten Glazial zum Holozän durch diverse Klimaelemente während abrupter Klimaveränderungen mit hemisphärischen Ausmaßen beeinflusst sind. Grundsätzlich sind die durch Klimaänderungen ausgelösten Faziesänderungen ausgeprägter am Toten Meer als im Gościąż See. Zudem ist der Gościąż See beinahe durchgängig warviert, während die Sedimente des Toten Meeres weithin durch Ablagerungen von Extremevents geprägt sind, welche die Konstruktion einer kontinuierlichen Warvenchronologie verhindern. Die spätglaziale Sedimentation im Gościąż See ist hauptsächlich durch Westwinde beeinflusst und untergeordnet auch durch Vegetationsänderungen im Einzugsgebiet. Im Gegensatz dazu ist die spätglaziale Sedimentation im Toten Meer überwiegend von Schwankungen im Niederschlag während des Winters beeinflusst. Diese wiederum werden durch Temperaturschwankungen im Mittelmeer verursacht. Obwohl die Sedimentationsprozesse so verschieden sind, ist die Sedimentation interessanterweise in beiden Archiven stabiler im Bølling/Allerød und dynamischer in der JD. Kurz zusammengefasst, präsentiert diese Doktorarbeit saisonal-aufgelöste Sedimentprofile zweier Seearchive während des Spätglazials (ca. 17.000-11.000 BP), um die Auswirkungen abrupter Klimaveränderungen in verschiedenen Seesystemen zu untersuchen. Neue Altersinformationen anhand der Identifizierung von vulkanischen Aschen in den spätglazialen Sedimenten des Toten Meeres erlaubten die erste Lithologie-basierte Interpretation der JD im Sedimentprofil des Toten Meeres und den Vergleich mit dem Gościąż See. Dies hebt die Bedeutung der Erstellung einer robusten Chronologie hervor und liefert einen ersten Schritt für die Synchronisierung des Toten Meeres mit anderen Archiven im östlichen Mittelmeerraum. Des Weiteren haben die Klimarekonstruktionen anhand der Seesedimente Variabilität auf verschiedenen Zeitskalen in den Archiven gezeigt. Diese umfassen dekadische bis tausendjährige Schwankungen im Toten Meer und sogar jährliche und sub-dekadische Schwankungen in Proxys während der rapiden Übergangszonen der JD im Gościąż See. Dies zeigt wie bedeutend es ist verschiedene Seearchive zu vergleichen um die regionalen und lokalen Auswirkungen von hemisphärischen Klimaschwankungen besser zu verstehen. Hier wurde eine beispiellose Fallstudie gezeigt, die die diversen Reaktionen unterschiedlicher Seen beleuchtet und aufzeigt wie diese von verschiedenen Klimaelementen abrupter Klimaveränderungen beeinflusst werden können. Dies hebt auch hervor, wie bedeutsam es für Klimarekonstruktionen ist das jeweilige Seesystem zu verstehen. KW - paleoclimatology KW - Paläoklimatologie KW - varved lake sediments KW - warvierte Seesedimente KW - extreme events KW - Extremereignisse KW - lake system responses KW - Seesystemreaktionen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558331 ER - TY - THES A1 - Regenstein, Wolfgang T1 - Absorptionsspektroskopische Untersuchungen zum Einfluß des Mediums und des Aggregatzustandes auf die Gestalt und Lage der Charge-Transfer-Bande N2 - An einigen CT-Modellkomplexen in verschiedenen Lösungsmitteln und bei Temperaturen von 113-300 K sollte der Einfluß der Umgebung auf die Form und Lage der Absorption von CT-Komplexen unterschiedlicher Bindungsfestigkeit untersucht werden. Dazu wurden bekannte Bandenprofilfunktionen auf ihre Anwendbar-keit geprüft. Da eine optimale Anpassung nicht möglich war, wurde eine neue Profilfunktion entwickelt, die eine bessere Beschreibung ergab. Nach der Bestimmung der Gleichgewichtskonstante und des Extink-tionskoeffizienten konnte mit der Profilfläche das Übergangsmoment berechnet werden. Die Lösungsmittelabhängigkeit wurde bei verschiedenen Brechzahlen und Dielektrizitätskonstanten untersucht. Für feste Komplexe wurde eine spezielle Präparationstechnik gewählt. Die beobachteten Feinstrukturen und der auftretende Streuuntergrund werden diskutiert. N2 - At some CT model complexes in various solvents and temperatures between 113- 300 K should investigate the influence of envirenment on the shape and position of CT complexes at various binding forces. Thereto known band profile functions were checked for their applicability. Because it was impossible to get an optimal accomodation a new profile function was developed, that results in a better description. After determination of equilibrium constant and extinction coefficient it was possible to calculate the transition moment with profiled area. The solvent dependence was investigated with various refractive indexes and dielectric constants. For solid complexes were selected a special preparation technique. The observed fine structures and the appered scattering underground were discussed. T2 - Absorption spectroscopic investigations on the influence of medium and aggregate state on the shape and position of CT bands KW - CT Komplex KW - Bandenprofil KW - Übergangsmoment KW - Lösungsmittelabhängigkeit KW - Präparation fester Komplexe KW - CT complex KW - band profile KW - transition moment KW - solvent dependence KW - solid complex preparation Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-496702 ER - TY - THES A1 - Lemke, Karina T1 - Abtrennung und Charakterisierung von Polyelektrolyt-modifizierten Nanopartikeln T1 - Separation and characterization of polyelectrolyte-modified nanoparticles N2 - Gegenstand der Dissertation ist die größen- und eigenschaftsoptimierte Synthese und Charakterisierung von anorganischen Nanopartikeln in einer geeigneten Polyelektrolytmodifizierten Mikroemulsion. Das Hauptziel bildet dabei die Auswahl einer geeigneten Mikroemulsion, zur Synthese von kleinen, stabilen, reproduzierbaren Nanopartikeln mit besonderen Eigenschaften. Die vorliegende Arbeit wurde in zwei Haupteile gegliedert. Der erste Teil befasst sich mit der Einmischung von unterschiedlichen Polykationen (lineares Poly (diallyldimethylammoniumchlorid) (PDADMAC) und verzweigtes Poly (ethylenimin) (PEI)) in verschiedene, auf unterschiedlichen Tensiden (CTAB - kationisch, SDS - anionisch, SB - zwitterionisch) basierenden, Mikroemulsionssysteme. Dabei zeigt sich, dass das Einmischen der Polykationen in die Wassertröpfchen der Wasser-in-Öl (W/O) Mikroemulsion prinzipiell möglich ist. Der Einfluss der verschiedenen Polykationen auf das Phasenverhalten der W/O Mikroemulsion ist jedoch sehr unterschiedlich. In Gegenwart des kationischen Tensids führen die repulsiven Wechselwirkungen mit den Polykationen zu einer Destabilisierung des Systems, während die ausgeprägten Wechselwirkungen mit dem anionischen Tensid in einer deutlichen Stabilisierung des Systems resultieren. Für das zwitterionische Tensid führen die moderaten Wechselwirkungen mit den Polykationen zu einer partiellen Stabilisierung. Der zweite Teil der Arbeit beschäftigt sich mit dem Einsatz der unterschiedlichen, Polyelektrolyt- modifizierten Mikroemulsionen als Templatphase für die Herstellung verschiedener, anorganischer Nanopartikel. Die CTAB-basierte Mikroemulsion erweist sich dabei als ungeeignet für die Herstellung von CdS Nanopartikeln, da zum einen nur eine geringe Toleranz gegenüber den Reaktanden vorhanden ist (Destabilisierungseffekt) und zum anderen das Partikelwachstum durch den Polyelektrolyt-Tensid-Film nicht ausreichend begrenzt wird. Zudem zeigt sich, dass eine Abtrennung der Partikel aus der Mikroemulsion nicht möglich ist. Die SDS-basierten Mikroemulsionen, erweisen sich als geeignete Templatphase zur Synthese kleiner anorganischer Nanopartikel (3 – 20 nm). Sowohl CdS Quantum Dots, als auch Gold Nanopartikel konnten erfolgreich in der Mikroemulsion synthetisiert werden, wobei das verzweigte PEI einen interessanten Templat-Effekt in der Mikroemulsion hervorruft. Als deutlicher Nachteil der SDS-basierten Mikroemulsionen offenbaren sich die starken Wechselwirkungen zwischen dem Tensid und den Polyelektrolyten während der Aufarbeitung der Nanopartikel aus der Mikroemulsion. Dabei erweist sich die Polyelektrolyt-Tensid-Komplexbildung als hinderlich für die Redispergierung der CdS Quantum Dots in Wasser, so dass Partikelaggregation einsetzt. Die SB-basierten Mikroemulsionen erweisen sich als günstige Templatphase für die Bildung von größen- und eigenschaftenoptimierten Nanopartikeln (< 4 nm), wobei insbesondere eine Modifizierung mit PEI als ideal betrachtet werden kann. In Gegenwart des verzweigten PEI gelang es erstmals ultrakleine, fluoreszierende Gold Cluster (< 2 nm) in einer SB-basierten Mikroemulsion als Templatphase herzustellen. Als besonderer Vorteil der SB-basierten Mikroemulsion zeigen sich die moderaten Wechselwirkungen zwischen dem zwitterionischen Tensid und den Polyelektrolyten, welche eine anschließende Abtrennung der Partikel aus der Mikroemulsion unter Erhalt der Größe und ihrer optischen Eigenschaften ermöglichen. In der redispergierten wässrigen Lösung gelang somit eine Auftrennung der PEI-modifizierten Partikel mit Hilfe der asymmetrischer Fluss Feldflussfraktionierung (aF FFF). Die gebildeten Nanopartikel zeigen interessante optische Eigenschaften und können zum Beispiel erfolgreich zur Modifizierung von Biosensoren eingesetzt werden. N2 - This work is focused on the formation, recovery and characterisation of inorganic nanoparticles in a tailor-made polycation-modified reverse microemulsion. The main aim is the choice of an adequate microemulsion for the synthesis of small, uniform, reproducible nanoparticles with specialn characteristics. The first part is focused on the incorporation of two different polycations, low molecular weight linear poly(diallyldimethylammonium chloride) (PDADMAC) and low molecular weight branched poly(ethyleneimine) (PEI) in different surfactant-based (CTAB – cationic, SDS – anionic, SB - zwitterionic) w/o microemulsions. In principle the incorporation of the polycations in the small water droplets is possible, but the influence of the polycations on the phase behaviour is different. Repulsive interactions induce a destabilisation of the w/o microemulsion for cationic surfactant CTAB, while the distinctive interactions between the anionic surfactant SDS and the polycations induce an extension of the phase range and a considerable stabilisation. In case of zwitterionic surfactant SB a partial destabilisation can be observed, according to the lower interactions with the polycations. The second part is focused on the formation of different, inorganic nanoparticles in these polyelectrolyte-modified reverse microemulsions as a template phase. The CTAB-based microemulsion is not adequate for the formation of CdS nanoparticles, according to the low tolerance towards the reactants (destabilisation effect). Furthermore the particle growth cannot be limited by the surfactant-polycation-film and a recovery of the nanoparticles from the microemulsion is not possible. The results show that the SDS-based quaternary template phase consisting of water, toluene-pentanol (1:1), and the anionic surfactant SDS in presence of PEI or PDADMAC can be successfully used for the synthesis of polymer capped inorganic nanoparticles (3 – 20 nm). CdS quantum dots, as well as gold nanoparticles are successfully synthesised in the microemulsion droplets. Especially PEI acts as a reducing and stabilizing agent and shows an additional, interesting template effect in the microemulsion. Unfortunately a recovery of the nanoparticles without a particle aggregation is not possible due to the strong surfactant polycation interactions, which lead to polycation-surfactant complexes. The SB-based microemulsion can be successfully used as a tailor-made polycation-modifiedreverse microemulsion for the formation of small, uniform nanoparticles (< 4 nm) with special characteristics. Especially a modification with PEI is optimal and for the first time small, fluorescent gold cluster (< 2 nm) can be synthesised in a SB-based microemulsion as template phase. The results show that the electrostatic interactions between the polycation and the surfactant are of high relevance especially in the solvent evaporation and redispersion process. That means only in the case of moderate polycation-surfactant interactions a redispersion of the polymer capped particles without problems of aggregation is possible and the size and characteristics are unchanged in the redispersed solution. By means of asymmetric flow field flow fractionation (af-fff) it becomes possible to separate the two cluster fractions from each other as well as from the nanoparticle fraction with diameter > 5 nm. This opens a way to use the nanoparticles with their interesting, optical characteristics in different new fields of application for example for modification of biosensors. KW - Mikroemulsion KW - Gold Cluster KW - Quantum Dots KW - Feldflussfraktionierung KW - Nanopartikel KW - Microemulsion KW - Gold Cluster KW - Quantum Dots KW - Field Flow Fractionation KW - Nanoparticles Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68133 ER - TY - THES A1 - Gunold, Sascha T1 - Abzug unter Beobachtung T1 - Withdrawal under observation BT - Kooperation und Konkurrenz von Bundeswehr und Bundesnachrichtendienst beim Abzug der sowjetischen/russischen Truppen aus Deutschland bis 1994 BT - competition and cooperation of German Armed Forces and Federal Foreign Intelligence Service during withdrawal of Soviet/Russian forces from Germany until 1994 N2 - Mehr als vier Jahrzehnte lang beobachteten die Streitkräfte und Militärnachrichtendienste der NATO-Staaten die sowjetischen Truppen in der DDR. Hierfür übernahm in der Bundesrepublik Deutschland der Bundesnachrichtendienst (BND) die militärische Auslandsaufklärung unter Anwendung nachrichtendienstlicher Mittel und Methoden. Die Bundeswehr betrieb dagegen taktische Fernmelde- und elektronische Aufklärung und hörte vor allem den Funkverkehr der „Gruppe der sowjetischen Streitkräfte in Deutschland“ (GSSD) ab. Mit der Aufstellung einer zentralen Dienststelle für das militärische Nachrichtenwesen, dem Amt für Nachrichtenwesen der Bundeswehr, bündelte und erweiterte zugleich das Bundesministerium für Verteidigung in den 1980er Jahren seine analytischen Kapazitäten. Das Monopol des BND in der militärischen Auslandsaufklärung wurde von der Bundeswehr dadurch zunehmend infrage gestellt. Nach der deutschen Wiedervereinigung am 3. Oktober 1990 befanden sich immer noch mehr als 300.000 sowjetische Soldaten auf deutschem Territorium. Die 1989 in Westgruppe der Truppen (WGT) umbenannte GSSD sollte – so der Zwei-plus-Vier-Vertrag – bis 1994 vollständig abziehen. Der Vertrag verbot auch den drei Westmächten, in den neuen Bundesländern militärisch tätig zu sein. Die für die Militäraufklärung bis dahin unverzichtbaren Militärverbindungsmissionen der Westmächte mussten ihre Dienste einstellen. Doch was geschah mit diesem „alliierten Erbe“? Wer übernahm auf deutscher Seite die Aufklärung der sowjetischen Truppen und wer kontrollierte den Truppenabzug?  Die Studie untersucht die Rolle von Bundeswehr und BND beim Abzug der WGT zwischen 1990 und 1994 und fragt dabei nach Kooperation und Konkurrenz zwischen Streitkräften und Nachrichtendiensten. Welche militärischen und nachrichtendienstlichen Mittel und Fähigkeiten stellte die Bundesregierung zur Bewältigung des Truppenabzugs zur Verfügung, nachdem die westlichen Militärverbindungsmissionen aufgelöst wurden? Wie veränderten sich die Anforderungen an die militärische Auslandsaufklärung des BND? Inwieweit setzten sich Konkurrenz und Kooperation von Bundeswehr und BNDbeim Truppenabzug fort? Welche Rolle spielten dabei die einstigen Westmächte? Die Arbeit versteht sich nicht nur als Beitrag zur Militärgeschichte, sondern auch zur deutschen Nachrichtendienstgeschichte. N2 - The study examines the cooperation and competition between the Federal Defence Forces of Germany (Bundeswehr) and the German Foreign Intelligence Service (Bundesnachichtendienst, BND) during the withdrawal of Soviet Group of Western Forces from Germany 1990-1994. It is a common approach of military and intelligence history also reflecting the decommissioning of Military Liaison Missions of USA, United Kingdom and France (USMLM, BRIXMIS, MMFL). KW - Bundeswehr KW - Bundesnachrichtendienst KW - Gruppe der Sowjetischen Streitkräfte in Deutschland KW - Westgruppe der Truppen KW - Alliierte Militärverbindungsmissionen KW - Nachrichtendienstgeschichte KW - Militärgeschichte KW - Kalter Krieg KW - Wiedervereinigung KW - Bundeswehrkommando Ost KW - Nuklearwaffen KW - Atomwaffen KW - Spionage KW - Truppenabzug KW - allied military liaison missions KW - nuclear weapons KW - Federal Foreign Intelligence Service KW - Federal Armed Forces of Germany KW - Bundeswehrkommando Ost KW - group of Soviet forces in Germany KW - Cold War KW - military history KW - Intelligence history KW - espionage, Intelligence KW - withdrawal of troops KW - western group of forces KW - German reunification Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571977 ER - TY - THES A1 - Stanke, Sandra T1 - AC electrokinetic immobilization of influenza viruses and antibodies on nanoelectrode arrays for on-chip immunoassays T1 - AC elektrokinetische Immobilisierung von Influenzaviren und Antikörpern auf Nanoelektrodenarrays für on-Chip Immunoassays N2 - In the present thesis, AC electrokinetic forces, like dielectrophoresis and AC electroosmosis, were demonstrated as a simple and fast method to functionalize the surface of nanoelectrodes with submicrometer sized biological objects. These nanoelectrodes have a cylindrical shape with a diameter of 500 nm arranged in an array of 6256 electrodes. Due to its medical relevance influenza virus as well as anti-influenza antibodies were chosen as a model organism. Common methods to bring antibodies or proteins to biosensor surfaces are complex and time-consuming. In the present work, it was demonstrated that by applying AC electric fields influenza viruses and antibodies can be immobilized onto the nanoelectrodes within seconds without any prior chemical modification of neither the surface nor the immobilized biological object. The distribution of these immobilized objects is not uniform over the entire array, it exhibits a decreasing gradient from the outer row to the inner ones. Different causes for this gradient have been discussed, such as the vortex-shaped fluid motion above the nanoelectrodes generated by, among others, electrothermal fluid flow. It was demonstrated that parts of the accumulated material are permanently immobilized to the electrodes. This is a unique characteristic of the presented system since in the literature the AC electrokinetic immobilization is almost entirely presented as a method just for temporary immobilization. The spatial distribution of the immobilized viral material or the anti-influenza antibodies at the electrodes was observed by either the combination of fluorescence microscopy and deconvolution or by super-resolution microscopy (STED). On-chip immunoassays were performed to examine the suitability of the functionalized electrodes as a potential affinity-based biosensor. Two approaches were pursued: A) the influenza virus as the bio-receptor or B) the influenza virus as the analyte. Different sources of error were eliminated by ELISA and passivation experiments. Hence, the activity of the immobilized object was inspected by incubation with the analyte. This resulted in the successful detection of anti-influenza antibodies by the immobilized viral material. On the other hand, a detection of influenza virus particles by the immobilized anti-influenza antibodies was not possible. The latter might be due to lost activity or wrong orientation of the antibodies. Thus, further examinations on the activity of by AC electric fields immobilized antibodies should follow. When combined with microfluidics and an electrical read-out system, the functionalized chips possess the potential to serve as a rapid, portable, and cost-effective point-of-care (POC) device. This device can be utilized as a basis for diverse applications in diagnosing and treating influenza, as well as various other pathogens. N2 - In der vorliegenden Arbeit wurden AC elektrokinetische Kräfte, wie die Dielektrophorese und die AC Elektroosmose, als einfache und schnelle Methode zur Funktionalisierung der Oberfläche von Nanoelektroden mit biologischen Objekten in Submikrometergröße demonstriert. Diese Nanoelektroden haben eine zylindrische Form mit einem Durchmesser von 500 nm und sind in einem Array aus 6256 Elektroden angeordnet. Aufgrund ihrer medizinischen Relevanz wurden Influenzaviren sowie anti-Influenza Antikörper als Modellorganismus ausgewählt. Gängige Methoden, um Antikörper oder Proteine auf Biosensoroberflächen zu bringen, sind komplex und zeitaufwändig. In der vorliegenden Arbeit wurde gezeigt, dass durch die Anwendung elektrischer Wechselfelder Influenzaviren und Antikörper innerhalb von Sekunden auf den Nanoelektroden immobilisiert werden können, ohne dass zuvor eine chemische Modifikation der Oberfläche noch des immobilisierten biologischen Objekts erforderlich ist. Die Verteilung dieser immobilisierten Objekte ist über das gesamte Array ungleichmäßig. Es kommt zur Ausbildung eines Gradienten, welcher von der äußeren zur den inneren Reihen hin abnimmt. Verschiedene Ursachen für diesen Gradienten wurden diskutiert, beispielsweise der Vortex-förmige Flüssigkeitsstrom über den Nanoelektroden, der unter anderem durch elektrothermische Flüssigkeitsbewegung erzeugt wird. Es wurde gezeigt, dass Teile des akkumulierten Materials dauerhaft an den Elektroden immobilisiert sind. Dies ist ein Alleinstellungsmerkmal des vorgestellten Systems, da in der Literatur die AC elektrokinetische Immobilisierung fast ausschließlich als Methode nur zur temporären Immobilisierung dargestellt wird. Die räumliche Verteilung des immobilisierten Virusmaterials bzw. der anti-Influenza Antikörper an den Elektroden wurde entweder durch die Kombination aus Fluoreszenzmikroskopie und Dekonvolution oder durch super-resolution Mikroskopie (STED) betrachtet. Es wurden On-Chip-Immunoassays durchgeführt, um die Eignung der funktionalisierten Elektroden für einen potenziellen affinitätsbasierten Biosensor zu untersuchen. Dabei wurden zwei Ansätze verfolgt: A) Influenzaviren als Biorezeptor oder B) Influenzavirus als Analyt. Verschiedene Fehlerquellen wurden mittels ELISA und Passivierungsexperimente eliminiert. Infolgedessen wurde die Aktivität der immobilisierten Objekte durch Inkubation mit dem Analyten überprüft. Dies führte zum erfolgreichen Nachweis von anti-Influenza Antikörpern mittels immobilisiertem Virusmaterial. Andererseits war ein Nachweis von Influenzaviruspartikeln durch die immobilisierten anti-Influenza Antikörper nicht möglich. Letzteres könnte auf einen Aktivitätsverlust oder eine falsche Ausrichtung der Antikörper zurückzuführen sein. Daher sollten weitere Untersuchungen zur Aktivität von durch elektrische Wechselfelder immobilisierte Antikörper folgen. In Kombination mit Mikrofluidik und einem elektrischen Auslesesystem besitzen die funktionalisierten Chips das Potenzial, als schnelle, tragbare und kostengünstige Point-of-Care-Einheit (POC) zu dienen. Dieses Einheit kann als Grundlage für vielfältige Anwendungen bei der Diagnose und Behandlung von Influenza und verschiedenen anderen Krankheitserregern genutzt werden. KW - AC electrokinetics KW - AC Elektrokinetik KW - AC electroosmosis KW - AC Elektroosmosis KW - dielectrophoresis KW - Dielektrophorese KW - virus KW - Virus KW - influenza KW - Influenza KW - antibody KW - Antikörper KW - nanoelectrodes KW - Nanoelektroden KW - lab-on-chip KW - lab-on-chip KW - LOC KW - LOC KW - point-of-care KW - point-of-care KW - POC KW - POC KW - immunoassay KW - Immunoassay Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-617165 ER - TY - THES A1 - Kellermann, Thorsten T1 - Accurate numerical relativity simulations of non-vacuumspace-times in two dimensions and applications to critical collapse T1 - Exakte numerisch relativistische Simulationen der Nicht-Vakuum-Raum-Zeit in zwei Dimensionen und deren Anwendung zu Problemen des kritischen Kollaps N2 - This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse. N2 - Diese Arbeit legt seinen Schwerpunkt auf die Physik von Neutronensternen und deren Beschreibung mit Methoden der numerischen Relativitätstheorie. Im ersten Schritt wird eine neue numerische Umgebung, der Whisky2D Code entwickelt, dieser löst die relativistischen Gleichungen der Hydrodynamik in Axialymmetrie. Hierzu betrachten wir eine verbesserte Formulierung der sog. "flux conserved formulation" der Gleichungen. Im zweiten Teil wird der neue Code verwendet , um das kritische Verhalten zweier kollidierenden Neutronensternen zu untersuchen. In Anbetracht der Analogie, um Übergänge in der statistischen Physik Phase werden wir die Entwicklung der Entropie der Neutronensterne während des gesamten Prozesses betrachten. Ein besseres Verständnis der Evolution von thermodynamischen Größen, wie der Entropie in kritischer Prozess, sollte zu einem tieferen Verständnis der relativistischen Thermodynamik führen. Der Whisky2D Code, zur Lösung Gleichungen relativistischer Hydrodynamik wurde in einer „flux conserved form“ und in zylindrischen Koordinaten geschrieben. Hierdurch entstehen 1 / r singuläre Terme, wobei r der ist, die entsprechend behandelt werden müssen. In früheren Arbeiten, wird der Operator expandiert und die 1 / r spezifisch Therme auf die rechte Seite geschrieben, so dass die linke Seite eine Form annimmt, die identisch ist mit der kartesischen Formulierung. Wir nennen dies die Standard-Formulierung. Eine andere Möglichkeit ist, die Terme nicht zu expandieren, den und den 1/r Term in die Gleichung hinein zu ziehen. Wir nennen dies die Neue-Formulierung. Die neuen Gleichungen werden mit den gleichen Verfahren wie im kartesischen Fall gelöst. Aus mathematischer Sicht ist keine Unterschiede zwischen den beiden Formulierungen zu erwarten, erst die numerische Sicht zeigt die Unterschiede auf. Versuche zeigen, dass die Neue-Formulierung numerische Fehler um mehrere Größenordnungen reduziert. Der zweite Teil der Dissertation verwendet den neuen Code für die Untersuchung kritischer Phänomene in der allgemeinen Relativitätstheorie. Insbesondere betrachten wir die Kopf-auf-Kollision zweier Neutronensterne in einem Bereich des Parameter Raums, deren zwei mögliche Endzustände entweder einen neuen stabilen Neutronenstern oder ein Schwarzes Loch darstellen. Im Jahr 1993, betrachtete Choptuik Ein-Parameter-Familien von Lösungen, S [P], der Einstein-Klein-Gordon-Gleichung für ein masseloses Skalarfeld in sphärischer Symmetrie, so dass für jedes P> P ⋆, S[P] ein Schwarzes Loch enthalten ist und jedes P