TY - THES A1 - Jovanovic, Nenad T1 - The comprehension of the passive voice by different populations and the effects of structural priming on this process N2 - This thesis investigates the comprehension of the passive voice in three distinct populations. First, the comprehension of passives by adult German speakers was studied, followed by an examination of how German-speaking children comprehend the structure. Finally, bilingual Mandarin-English speakers were tested on their comprehension of the passive voice in English, which is their L2. An integral part of testing the comprehension in all three populations is the use of structural priming. In each of the three distinct parts of the research, structural priming was used for a specific reason. In the study involving adult German speakers, productive and receptive structural priming was directly compared. The goal was to see the effect the two priming modalities have on language comprehension. In the study on German-acquiring children, structural priming was an important tool in answering the question regarding the delayed acquisition of the passive voice. Finally, in the study on the bilingual population, cross-linguistic priming was used to investigate the importance of word order in the priming effect, since Mandarin and English have different word orders in passive voice sentences. N2 - Diese Doktorarbeit untersucht das Verständnis von Passivsätzen in drei spezifischen Populationen. Zunächst wurde das Passivverständnis von erwachsenen deutschen Muttersprachlern erforscht, gefolgt von einer Untersuchung des Verständnisses von Passivsätzen deutschsprachiger Kinder. Schließlich wurden bilinguale Mandarin-Sprecher hinsichtlich ihres Verständnisses von Passivsätzen in der englischen Sprache, welche ihre Zweitsprache darstellt, getestet. Ein wesentlicher Bestandteil der Untersuchung des Sprachverständnisses in allen drei Populationen ist der Gebrauch des Structural Priming. In jedem der drei verschiedenen Teile der Untersuchung gab es spezifische Gründe, die Methode des Structural Priming anzuwenden. So wurden in der Studie mit deutschen erwachsenen Muttersprachlern Productive und Receptive Structural Priming unmittelbar mit einander verglichen. Das Ziel war es, die Wirkung von zwei verschiedenen Priming-Modalitäten auf das Sprachverständnis herauszufinden. In der Studie mit deutschsprachigen Kindern war Structural Priming ein wichtiges Hilfsmittel, um die Frage nach dem verzögerten Erwerb des Passivverständnisses zu beantworten. In der Studie der bilingualen Population schließlich wurde Cross-Linguistik (sprachübergreifendes) Priming genutzt um die Bedeutung des Satzbaus auf den Priming-Effekt zu untersuchen, da Mandarin und Englisch in Passivsätzen einen unterschiedlichen Satzbau verwenden. T2 - Das Verständnis von Passivkonstruktionen in verschiedenen Populationen unter Einfluss von strukturellem Priming KW - priming KW - eye-tracing KW - syntax KW - comprehension KW - cross-linguistic KW - passive voice KW - acquisition KW - children KW - bilingual KW - Erwerb KW - cross-linguistisch KW - Augenblickmessung KW - Passive KW - Priming KW - Syntax KW - Verständnis KW - Kinder KW - bilingual Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-475900 ER - TY - THES A1 - Holl, Anna Katharina T1 - Deficits in theory of mind and executive function as risk factors for conduct problems from middle childhood to early adolescence – a longitudinal perspective T1 - Defizite in Theory of Mind und exekutiven Funktionen als Risikofaktoren für Verhaltensprobleme von der mittleren Kindheit bis zur frühen Adoleszenz - eine längsschnittliche Perspektive N2 - In this thesis, deficits in theory of mind (ToM) and executive function (EF) were examined in tandem and separately as risk factors for conduct problems, including different forms and functions of aggressive behavior. All three reported studies and the additional analyses were based on a large community sample of N = 1,657 children, including three waves of a longitudinal study covering middle childhood and the transition to early adolescence (range 6 to 13 years) over a total of about three years. All data were analyzed with structural equation modeling. Altogether, the results of all the conducted studies in this thesis extend previous research and confirm the propositions of the SIP model (Crick & Dodge, 1994) and of the amygdala theory of violent behavior (e.g., Blair et al., 2014) besides other accounts. Considering the three main research questions, the results of the thesis suggest first that deficits in ToM are a risk factor for relational and physical aggression from a mean age of 8 to 11 years under the control of stable between-person differences in aggression. In addition, earlier relationally aggressive behavior predicts later deficits in ToM in this age range, which confirms transactional relations between deficits in ToM and aggressive behavior in children (Crick & Dodge, 1994). Further, deficits in ToM seem to be a risk factor for parent-rated conduct problems cross-sectionally in an age range from 9 to 13 years. Second, deficits in cool EF are a risk factor for later physical, relational, and reactive aggression but not for proactive aggression over a course of three years from middle childhood to early adolescence. Habitual anger seems to mediate the relation between cool EF and physical, and as a trend also relational, aggression. Deficits in emotional and inhibitory control and planning have a direct effect on the individual level of conduct problems under the control of interindividual differences in conduct problems at a mean age of 8 years, but not on the trajectory of conduct problems over the course from age 8 to 11. Third, when deficits in cool EF and ToM are studied in tandem cross-sectionally at the transition from middle childhood to early adolescence, deficits in cool EF seem to play only an indirect role through deficits in ToM as a risk factor for conduct problems. Finally, all results hold equal for females and males in the conducted studies. The results of this thesis emphasize the need to intervene in the transactional processes between deficits in ToM and in EF and conduct problems, including different forms and functions of aggression, particularly in the socially sensible period from middle and late childhood to early adolescence. N2 - In dieser Arbeit wurden Defizite in Theory of Mind (ToM) und Exekutiven Funktionen (EF) als Risikofaktoren für Verhaltensprobleme, einschließlich verschiedener Formen und Funktionen aggressiven Verhaltens, gemeinsam und getrennt untersucht. Als theoretischer Hintergrund diente neben anderen Theorien die SIP-Theorie von Crick und Dodge (1994). Alle drei berichteten Studien und die zusätzlichen Analysen basierten auf einer großen Bevölkerungsstichprobe von N = 1.657 Kindern, und schlossen drei Wellen einer Längsschnittstudie ein, die einen Zeitraum von insgesamt etwa drei Jahren von der mittleren Kindheit bis zum Übergang zur frühen Adoleszenz (6 bis 13 Jahre) abdeckte. Alle Daten wurden mit Strukturgleichungsmodellen analysiert. Zusammenfassend bestätigen und erweitern die Ergebnisse der durchgeführten Studien bisherige Forschung und bestätigen die Annahmen des SIP-Modells (Crick & Dodge, 1994) und der Amygdala-Theorie gewaltsamen Verhaltens (z.B., Blair et al., 2014), neben anderen Theorien. In Bezug auf die drei hauptsächlichen Forschungsfragen deuten die Ergebnisse der Studien erstens darauf hin, dass Defizite in ToM Risikofaktoren für relationale und physische Aggression von einem durchschnittlichen Alter von 8 bis 11 Jahren sind unter der Kontrolle von stabilen interindividuellen Unterschieden in Aggression. Darüber hinaus sagt früheres relational aggressives Verhalten spätere Defizite in ToM in diesem Altersbereich voraus, was die transaktionalen Beziehungen zwischen Defiziten in ToM und aggressivem Verhalten bei Kindern bestätigt (Crick & Dodge, 1994). Weiterhin zeigen sich Defizite in ToM als Risikofaktor für durch die Eltern eingeschätzte Verhaltensprobleme in einem Altersbereich von 9 bis 13 Jahren im Querschnitt. Zweitens sind Defizite in kalten EF ein Risikofaktor für spätere physische, relationale und reaktive Aggression, nicht aber für proaktive Aggression, über einen Zeitraum von drei Jahren von der mittleren Kindheit bis zur frühen Adoleszenz. Habitueller Ärger scheint die Beziehung zwischen kalten EF und phyischer, und als Trend auch relationaler Aggression zu vermitteln. Defizite in der emotionalen und inhibitorischen Kontrolle und Planung wirken sich unter der Kontrolle interindividueller Unterschiede in Verhaltensproblemen im durchschnittlichen Alter von 8 Jahren direkt auf die individuelle Höhe der Verhaltensprobleme aus, nicht aber auf den Verlauf der Verhaltensprobleme im Zeitraum von 8 bis 11 Jahren. Drittens, wenn Defizite in kalten EF und ToM am Übergang von der mittleren Kindheit zur frühen Adoleszenz gemeinsam im Querschnitt untersucht werden, scheinen Defizite in kalten EF nur eine indirekte Rolle vermittelt durch Defizite in ToM als Risikofaktor für Verhaltensprobleme zu spielen. Schließlich gelten alle Ergebnisse in den durchgeführten Studien für Mädchen und Jungen gleichermaßen. Die Ergebnisse dieser Arbeit betonen die Notwendigkeit, in die transaktionalen Prozesse zwischen Defiziten in ToM und EF und Verhaltensproblemen einzugreifen, einschließlich verschiedener Formen und Funktionen von Aggression, v.a. in der sozial sensiblen Altersspanne von der mittleren und späten Kindheit bis zur frühen Adoleszenz. KW - Theory of Mind KW - executive function KW - conduct problems KW - middle childhood KW - early adolescence KW - Theory of Mind KW - exekutive Funktionen KW - Verhaltensprobleme KW - mittlere Kindheit KW - frühe Adoleszenz Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459915 ER - TY - THES A1 - Buschmann, Stefan T1 - A software framework for GPU-based geo-temporal visualization techniques T1 - Ein Software-Framework für GPU-basierte räumlich-zeitliche Visualisierungstechniken N2 - Räumlich-zeitliche Daten sind Daten, welche sowohl einen Raum- als auch einen Zeitbezug aufweisen. So können beispielsweise Zeitreihen von Geodaten, thematische Karten die sich über die Zeit verändern, oder Bewegungsaufzeichnungen von sich bewegenden Objekten als räumlich-zeitliche Daten aufgefasst werden. In der heutigen automatisierten Welt gibt es eine wachsende Anzahl von Datenquellen, die beständig räumlich-zeitliche Daten generieren. Hierzu gehören beispielsweise Verkehrsüberwachungssysteme, die Bewegungsdaten von Menschen oder Fahrzeugen aufzeichnen, Fernerkundungssysteme, welche regelmäßig unsere Umgebung scannen und digitale Abbilder wie z.B. Stadt- und Landschaftsmodelle erzeugen, sowie Sensornetzwerke in unterschiedlichsten Anwendungsgebieten, wie z.B. der Logistik, der Verhaltensforschung von Tieren, oder der Klimaforschung. Zur Analyse räumlich-zeitlicher Daten werden neben der automatischen Analyse mittels statistischer Methoden und Data-Mining auch explorative Methoden angewendet, welche auf der interaktiven Visualisierung der Daten beruhen. Diese Methode der Analyse basiert darauf, dass Anwender in Form interaktiver Visualisierung die Daten explorieren können, wodurch die menschliche Wahrnehmung sowie das Wissen der User genutzt werden, um Muster zu erkennen und dadurch einen Einblick in die Daten zu erlangen. Diese Arbeit beschreibt ein Software-Framework für die Visualisierung räumlich-zeitlicher Daten, welches GPU-basierte Techniken beinhaltet, um eine interaktive Visualisierung und Exploration großer räumlich-zeitlicher Datensätze zu ermöglichen. Die entwickelten Techniken umfassen Datenhaltung, Prozessierung und Rendering und ermöglichen es, große Datenmengen in Echtzeit zu prozessieren und zu visualisieren. Die Hauptbeiträge der Arbeit umfassen: - Konzept und Implementierung einer GPU-zentrierten Visualisierungspipeline. Die beschriebenen Techniken basieren auf dem Konzept einer GPU-zentrierten Visualisierungspipeline, in welcher alle Stufen -- Prozessierung,Mapping, Rendering -- auf der GPU ausgeführt werden. Bei diesem Konzept werden die räumlich-zeitlichen Daten direkt im GPU-Speicher abgelegt. Während des Rendering-Prozesses werden dann mittels Shader-Programmen die Daten prozessiert, gefiltert, ein Mapping auf visuelle Attribute vorgenommen, und schließlich die Geometrien für die Visualisierung erzeugt. Datenprozessierung, Filtering und Mapping können daher in Echtzeit ausgeführt werden. Dies ermöglicht es Usern, die Mapping-Parameter sowie den gesamten Visualisierungsprozess interaktiv zu steuern und zu kontrollieren. - Interaktive Visualisierung attributierter 3D-Trajektorien. Es wurde eine Visualisierungsmethode für die interaktive Exploration einer großen Anzahl von 3D Bewegungstrajektorien entwickelt. Die Trajektorien werden dabei innerhalb einer virtuellen geographischen Umgebung in Form von einfachen Geometrien, wie Linien, Bändern, Kugeln oder Röhren dargestellt. Durch interaktives Mapping können Attributwerte der Trajektorien oder einzelner Messpunkte auf visuelle Eigenschaften abgebildet werden. Hierzu stehen Form, Höhe, Größe, Farbe, Textur, sowie Animation zur Verfügung. Mithilfe dieses dynamischen Mappings wurden außerdem verschiedene Visualisierungsmethoden implementiert, wie z.B. eine Focus+Context-Visualisierung von Trajektorien mithilfe von interaktiven Dichtekarten, sowie einer Space-Time-Cube-Visualisierung zur Darstellung des zeitlichen Ablaufs einzelner Bewegungen. - Interaktive Visualisierung geographischer Netzwerke. Es wurde eine Visualisierungsmethode zur interaktiven Exploration geo-referenzierter Netzwerke entwickelt, welche die Visualisierung von Netzwerken mit einer großen Anzahl von Knoten und Kanten ermöglicht. Um die Analyse von Netzwerken verschiedener Größen und in unterschiedlichen Kontexten zu ermöglichen, stehen mehrere virtuelle geographische Umgebungen zur Verfügung, wie bspw. ein virtueller 3D-Globus, als auch 2D-Karten mit unterschiedlichen geographischen Projektionen. Zur interaktiven Analyse dieser Netzwerke stehen interaktive Tools wie Filterung, Mapping und Selektion zur Verfügung. Des weiteren wurden Visualisierungsmethoden für verschiedene Arten von Netzwerken, wie z.B. 3D-Netzwerke und zeitlich veränderliche Netzwerke, implementiert. Zur Demonstration des Konzeptes wurden interaktive Tools für zwei unterschiedliche Anwendungsfälle entwickelt. Das erste beinhaltet die Visualisierung attributierter 3D-Trajektorien, welche die Bewegungen von Flugzeugen um einen Flughafen beschreiben. Es ermöglicht Nutzern, die Trajektorien von ankommenden und startenden Flugzeugen über den Zeitraum eines Monats interaktiv zu explorieren und zu analysieren. Durch Verwendung der interaktiven Visualisierungsmethoden für 3D-Trajektorien und interaktiven Dichtekarten können Einblicke in die Daten gewonnen werden, wie beispielsweise häufig genutzte Flugkorridore, typische sowie untypische Bewegungsmuster, oder ungewöhnliche Vorkommnisse wie Fehlanflüge. Der zweite Anwendungsfall beinhaltet die Visualisierung von Klimanetzwerken, welche geographischen Netzwerken in der Klimaforschung darstellen. Klimanetzwerke repräsentieren die Dynamiken im Klimasystem durch eine Netzwerkstruktur, die die statistische Beziehungen zwischen Orten beschreiben. Das entwickelte Tool ermöglicht es Analysten, diese großen Netzwerke interaktiv zu explorieren und dadurch die Struktur des Netzwerks zu analysieren und mit den geographischen Daten in Beziehung zu setzen. Interaktive Filterung und Selektion ermöglichen es, Muster in den Daten zu identifizieren, und so bspw. Cluster in der Netzwerkstruktur oder Strömungsmuster zu erkennen. N2 - Spatio-temporal data denotes a category of data that contains spatial as well as temporal components. For example, time-series of geo-data, thematic maps that change over time, or tracking data of moving entities can be interpreted as spatio-temporal data. In today's automated world, an increasing number of data sources exist, which constantly generate spatio-temporal data. This includes for example traffic surveillance systems, which gather movement data about human or vehicle movements, remote-sensing systems, which frequently scan our surroundings and produce digital representations of cities and landscapes, as well as sensor networks in different domains, such as logistics, animal behavior study, or climate research. For the analysis of spatio-temporal data, in addition to automatic statistical and data mining methods, exploratory analysis methods are employed, which are based on interactive visualization. These analysis methods let users explore a data set by interactively manipulating a visualization, thereby employing the human cognitive system and knowledge of the users to find patterns and gain insight into the data. This thesis describes a software framework for the visualization of spatio-temporal data, which consists of GPU-based techniques to enable the interactive visualization and exploration of large spatio-temporal data sets. The developed techniques include data management, processing, and rendering, facilitating real-time processing and visualization of large geo-temporal data sets. It includes three main contributions: - Concept and Implementation of a GPU-Based Visualization Pipeline. The developed visualization methods are based on the concept of a GPU-based visualization pipeline, in which all steps -- processing, mapping, and rendering -- are implemented on the GPU. With this concept, spatio-temporal data is represented directly in GPU memory, using shader programs to process and filter the data, apply mappings to visual properties, and finally generate the geometric representations for a visualization during the rendering process. Data processing, filtering, and mapping are thereby executed in real-time, enabling dynamic control over the mapping and a visualization process which can be controlled interactively by a user. - Attributed 3D Trajectory Visualization. A visualization method has been developed for the interactive exploration of large numbers of 3D movement trajectories. The trajectories are visualized in a virtual geographic environment, supporting basic geometries such as lines, ribbons, spheres, or tubes. Interactive mapping can be applied to visualize the values of per-node or per-trajectory attributes, supporting shape, height, size, color, texturing, and animation as visual properties. Using the dynamic mapping system, several kind of visualization methods have been implemented, such as focus+context visualization of trajectories using interactive density maps, and space-time cube visualization to focus on the temporal aspects of individual movements. - Geographic Network Visualization. A method for the interactive exploration of geo-referenced networks has been developed, which enables the visualization of large numbers of nodes and edges in a geographic context. Several geographic environments are supported, such as a 3D globe, as well as 2D maps using different map projections, to enable the analysis of networks in different contexts and scales. Interactive filtering, mapping, and selection can be applied to analyze these geographic networks, and visualization methods for specific types of networks, such as coupled 3D networks or temporal networks have been implemented. As a demonstration of the developed visualization concepts, interactive visualization tools for two distinct use cases have been developed. The first contains the visualization of attributed 3D movement trajectories of airplanes around an airport. It allows users to explore and analyze the trajectories of approaching and departing aircrafts, which have been recorded over the period of a month. By applying the interactive visualization methods for trajectory visualization and interactive density maps, analysts can derive insight from the data, such as common flight paths, regular and irregular patterns, or uncommon incidents such as missed approaches on the airport. The second use case involves the visualization of climate networks, which are geographic networks in the climate research domain. They represent the dynamics of the climate system using a network structure that expresses statistical interrelationships between different regions. The interactive tool allows climate analysts to explore these large networks, analyzing the network's structure and relating it to the geographic background. Interactive filtering and selection enables them to find patterns in the climate data and identify e.g. clusters in the networks or flow patterns. KW - computer graphics KW - visualization KW - visual analytics KW - Computergrafik KW - Visualisierung KW - Visual Analytics Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-443406 ER - TY - THES A1 - Jaeger, David T1 - Enabling Big Data security analytics for advanced network attack detection T1 - Ermöglichung von Big Data Sicherheitsanalysen für erweiterte Angriffserkennung in Netzwerken N2 - The last years have shown an increasing sophistication of attacks against enterprises. Traditional security solutions like firewalls, anti-virus systems and generally Intrusion Detection Systems (IDSs) are no longer sufficient to protect an enterprise against these advanced attacks. One popular approach to tackle this issue is to collect and analyze events generated across the IT landscape of an enterprise. This task is achieved by the utilization of Security Information and Event Management (SIEM) systems. However, the majority of the currently existing SIEM solutions is not capable of handling the massive volume of data and the diversity of event representations. Even if these solutions can collect the data at a central place, they are neither able to extract all relevant information from the events nor correlate events across various sources. Hence, only rather simple attacks are detected, whereas complex attacks, consisting of multiple stages, remain undetected. Undoubtedly, security operators of large enterprises are faced with a typical Big Data problem. In this thesis, we propose and implement a prototypical SIEM system named Real-Time Event Analysis and Monitoring System (REAMS) that addresses the Big Data challenges of event data with common paradigms, such as data normalization, multi-threading, in-memory storage, and distributed processing. In particular, a mostly stream-based event processing workflow is proposed that collects, normalizes, persists and analyzes events in near real-time. In this regard, we have made various contributions in the SIEM context. First, we propose a high-performance normalization algorithm that is highly parallelized across threads and distributed across nodes. Second, we are persisting into an in-memory database for fast querying and correlation in the context of attack detection. Third, we propose various analysis layers, such as anomaly- and signature-based detection, that run on top of the normalized and correlated events. As a result, we demonstrate our capabilities to detect previously known as well as unknown attack patterns. Lastly, we have investigated the integration of cyber threat intelligence (CTI) into the analytical process, for instance, for correlating monitored user accounts with previously collected public identity leaks to identify possible compromised user accounts. In summary, we show that a SIEM system can indeed monitor a large enterprise environment with a massive load of incoming events. As a result, complex attacks spanning across the whole network can be uncovered and mitigated, which is an advancement in comparison to existing SIEM systems on the market. N2 - Die letzten Jahre haben gezeigt, dass die Komplexität von Angriffen auf Unternehmensnetzwerke stetig zunimmt. Herkömmliche Sicherheitslösungen, wie Firewalls, Antivirus-Programme oder generell Intrusion Detection Systeme (IDS), sind nicht mehr ausreichend, um Unternehmen vor solch ausgefeilten Angriffen zu schützen. Ein verbreiteter Lösungsansatz für dieses Problem ist das Sammeln und Analysieren von Ereignissen innerhalb des betroffenen Unternehmensnetzwerks mittels Security Information and Event Management (SIEM) Systemen. Die Mehrheit der derzeitigen SIEM-Lösungen auf dem Markt ist allerdings nicht in er Lage, das riesige Datenvolumen und die Vielfalt der Ereignisdarstellungen zu bewältigen. Auch wenn diese Lösungen die Daten an einem zentralen Ort sammeln können, können sie weder alle relevanten Informationen aus den Ereignissen extrahieren noch diese über verschiedene Quellen hinweg korrelieren. Aktuell werden daher nur relativ einfache Angriffe erkannt, während komplexe mehrstufige Angriffe unentdeckt bleiben. Zweifellos stehen Sicherheitsverantwortliche großer Unternehmen einem typischen Big Data-Problem gegenüber. In dieser Arbeit wird ein prototypisches SIEM-System vorgeschlagen und implementiert, welches den Big Data-Anforderungen von Ereignisdaten mit gängigen Paradigmen, wie Datennormalisierung, Multithreading, In-Memory/Speicherung und verteilter Verarbeitung begegnet. Insbesondere wird ein größtenteils stream-basierter Workflow für die Ereignisverarbeitung vorgeschlagen, der Ereignisse in nahezu Echtzeit erfasst, normalisiert, persistiert und analysiert. In diesem Zusammenhang haben wir verschiedene Beiträge im SIEM-Kontext geleistet. Erstens schlagen wir einen Algorithmus für die Hochleistungsnormalisierung vor, der, über Threads hinweg, hochgradig parallelisiert und auf Knoten verteilt ist. Zweitens persistieren wir in eine In-Memory-Datenbank, um im Rahmen der Angriffserkennung eine schnelle Abfrage und Korrelation von Ereignissen zu ermöglichen. Drittens schlagen wir verschiedene Analyseansätze, wie beispielsweise die anomalie- und musterbasierte Erkennung, vor, die auf normalisierten und korrelierten Ereignissen basieren. Damit können wir bereits bekannte als auch bisher unbekannte Arten von Angriffen erkennen. Zuletzt haben wir die Integration von sogenannter Cyber Threat Intelligence (CTI) in den Analyseprozess untersucht. Als Beispiel erfassen wir veröffentlichte Identitätsdiebstähle von großen Dienstanbietern, um Nutzerkonten zu identifizieren, die möglicherweise in nächster Zeit durch den Missbrauch verloren gegangener Zugangsdaten kompromittiert werden könnten. Zusammenfassend zeigen wir, dass ein SIEM-System tatsächlich ein großes Unternehmensnetzwerk mit einer massiven Menge an eingehenden Ereignissen überwachen kann. Dadurch können komplexe Angriffe, die sich über das gesamte Netzwerk erstrecken, aufgedeckt und abgewehrt werden. Dies ist ein Fortschritt gegenüber den auf dem Markt vorhandenen SIEM-Systemen. KW - intrusion detection KW - Angriffserkennung KW - network security KW - Netzwerksicherheit KW - Big Data KW - Big Data KW - event normalization KW - Ereignisnormalisierung KW - SIEM KW - SIEM KW - IDS KW - IDS KW - multi-step attack KW - mehrstufiger Angriff Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-435713 ER - TY - THES A1 - Wendi, Dadiyorto T1 - Recurrence Plots and Quantification Analysis of Flood Runoff Dynamics T1 - Rekurrenzplot und quantitativen Analyse von Hochwasserabflüssen Dynamik N2 - This paper introduces a novel measure to assess similarity between event hydrographs. It is based on Cross Recurrence Plots and Recurrence Quantification Analysis which have recently gained attention in a range of disciplines when dealing with complex systems. The method attempts to quantify the event runoff dynamics and is based on the time delay embedded phase space representation of discharge hydrographs. A phase space trajectory is reconstructed from the event hydrograph, and pairs of hydrographs are compared to each other based on the distance of their phase space trajectories. Time delay embedding allows considering the multi-dimensional relationships between different points in time within the event. Hence, the temporal succession of discharge values is taken into account, such as the impact of the initial conditions on the runoff event. We provide an introduction to Cross Recurrence Plots and discuss their parameterization. An application example based on flood time series demonstrates how the method can be used to measure the similarity or dissimilarity of events, and how it can be used to detect events with rare runoff dynamics. It is argued that this methods provides a more comprehensive approach to quantify hydrograph similarity compared to conventional hydrological signatures. N2 - Ziel dieser Arbeit ist es, eine Methode und einen umfassenden Index, die die Quantifizierung von Veränderungen in Hochwasserabflüssen über die Zeit ermöglichen, zu entwickeln. Als Proxydaten zur Detektion von Veränderungen dienen Abflusszeitreihen, da diese räumlich-zeitliche Änderungen von Prozessen im Einzugsgebiet integrieren. Einhergehend mit Veränderungen in den Rahmenbedingungen hydrologischer Systeme, beispielsweise Klimaänderungen, Veränderungen im Flussnetzwerk oder der Bodenbedeckung, sind Veränderungen in der Abflussdynamik zu erwarten. Urbanisierung, Klimawandel und veränderte wasserwirtschaftliche Nutzung können erheblichen Einfluss auf Hochwassercharakteristika haben, sodass die auf die abflussverursachenden Prozesse bezogene Hochwassertypologie obsolet wird. Außerdem kann es zur Überlagerung verschiedener Prozesse und der Bildung präzedenzloser Hochwasserdynamiken kommen. Üblicherweise wird seltenen Hochwasserereignissen eine über einen langen Zeitraum bestimmte Wiederkehrwahrscheinlichkeit zugewiesen. Allerdings wird die assoziierte Wiederkehrdauer häufig nur auf der Grundlage des Höchstwasserstandes ermittelt und ist nicht umfassend genug, um die unterschiedlichen Prozesstypen zu erfassen. Um umfassendere Abflussmerkmale in die Hochwassercharakterisierung aufzunehmen, wird die Charakterisierung der Abflussdynamik mittels der kontinuierlichen Gestalt des Hydrographen und als Kurve im Phasenraum empfohlen. Durch die Berücksichtigung des Taken‘schen Satzes zur Einbettung der Zeitverzögerung können ereignisbasierte Hydrographen weiter unterschieden werden. Dieser Ansatz nutzt die zeitliche Abfolge gemessener Abflusswerte, sodass der Einfluss der anfänglichen Werte auf das Hochwasserereignis als charakteristischer Vektor im multidimensionalen Phasenraum interpretiert werden kann. Im Rahmen dieser Arbeit wurden, erstmals im Bereich der Hydrologie, ‚Recurrence Plot‘ (RP) und ‚Recurrence Quantification Analysis‘ RQA eingesetzt, um die Seltenheit bzw. Ähnlichkeit von Abflussdynamiken zu visualisieren und identifizieren. Ebenso werden Anwendungsbeispiele im Bereich der Hydrologie, die das Konzept der Charakterisierung von Abflussdynamiken und den Nutzen des eingeführten Ähnlichkeitsindex verdeutlichen, vorgestellt. Außerdem wurde die Methodik weiterentwickelt und zeichnet sich nun durch erhöhte Robustheit gegenüber Störeinflüssen und eine bessere Anpassung an Abflussmessungen aus. Ein abschließendes Anwendungsbeispiel untersucht den in Dresden gemessenen Abfluss des ostdeutschen Elbe-Einzugsgebietes im Zeitraum von 1901 bis 2010. In dieser Studie werden Beispiele seltener und saisonunabhängiger Hochwasserereignisse, die durch ihre ungewöhnliche Abflussdynamik herausstechen, gezeigt und mit zugrundeliegenden abflussbildenden Prozessen in Verbindung gebracht. KW - Hydrograph Analysis KW - Time Embedded Phase Space KW - Rare and Unseasonal Flood KW - Non-stationary Flood Risk KW - Chaos Theory KW - Recurrence Plots KW - Flood Risk Big Data Mining KW - Flood Change KW - Non-linear Geoscience KW - Chaostheorie KW - Änderungen des Hochwassers KW - Big data mining zu Hochwasserrisiken KW - Analyse von Abflussganglinien KW - nichtlineare Geowissenschaften KW - nichtstationäres Hochwasserrisiko KW - seltenes und saisonunübliches Hochwasser KW - Rekurrenzplot KW - Phasenraum des Time Delay Embedding Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431915 ER - TY - THES A1 - Knospe, Gloria-Mona T1 - Processing of pronouns and reflexives in Turkish-German bilinguals T1 - Die Verarbeitung von Personal- und Reflexivpronomen bei Deutsch-Türkisch-Bilingualen N2 - Previous studies on native language (L1) anaphor resolution have found that monolingual native speakers are sensitive to syntactic, pragmatic, and semantic constraints on pronouns and reflexive resolution. However, most studies have focused on English and other Germanic languages, and little is currently known about the online (i.e., real-time) processing of anaphors in languages with syntactically less restricted anaphors, such as Turkish. We also know relatively little about how 'non-standard' populations such as non-native (L2) speakers and heritage speakers (HSs) resolve anaphors. This thesis investigates the interpretation and real-time processing of anaphors in German and in a typologically different and as yet understudied language, Turkish. It compares hypotheses about differences between native speakers' (L1ers) and L2 speakers' (L2ers) sentence processing, looking into differences in processing mechanisms as well as the possibility of cross-linguistic influence. To help fill the current research gap regarding HS sentence comprehension, it compares findings for this group with those for L2ers. To investigate the representation and processing of anaphors in these three populations, I carried out a series of offline questionnaires and Visual-World eye-tracking experiments on the resolution of reflexives and pronouns in both German and Turkish. In the German experiments, native German speakers as well as L2ers of German were tested, while in the Turkish experiments, non-bilingual native Turkish speakers as well as HSs of Turkish with L2 German were tested. This allowed me to observe both cross-linguistic differences as well as population differences between monolinguals' and different types of bilinguals' resolution of anaphors. Regarding the comprehension of Turkish anaphors by L1ers, contrary to what has been previously assumed, I found that Turkish has no reflexive that follows Condition A of Binding theory (Chomsky, 1981). Furthermore, I propose more general cross-linguistic differences between Turkish and German, in the form of a stronger reliance on pragmatic information in anaphor resolution overall in Turkish compared to German. As for the processing differences between L1ers and L2ers of a language, I found evidence in support of hypotheses which propose that L2ers of German rely more strongly on non-syntactic information compared to L1ers (Clahsen & Felser, 2006, 2017; Cunnings, 2016, 2017) independent of a potential influence of their L1. HSs, on the other hand, showed a tendency to overemphasize interpretational contrasts between different Turkish anaphors compared to monolingual native speakers. However, lower-proficiency HSs were likely to merge different forms for simplified representation and processing. Overall, L2ers and HSs showed differences from monolingual native speakers both in their final interpretation of anaphors and during online processing. However, these differences were not parallel between the two types of bilingual and thus do not support a unified model of L2 and HS processing (cf. Montrul, 2012). The findings of this thesis contribute to the field of anaphor resolution by providing data from a previously unexplored language, Turkish, as well as contributing to research on native and non-native processing differences. My results also illustrate the importance of considering individual differences in the acquisition process when studying bilingual language comprehension. Factors such as age of acquisition, language proficiency and the type of input a language learner receives may influence the processing mechanisms they develop and employ, both between and within different bilingual populations. N2 - Bisherige Studien zur Auflösung von Anaphern in der Muttersprache (L1) zeigten, dass einsprachig aufgewachsene MuttersprachlerInnen syntaktische, pragmatische und semantische Beschränkungen berücksichtigen. Die meisten dieser Studien haben sich jedoch auf Englisch und andere germanische Sprachen konzentriert, und über die “Online”-Verarbeitung (d.h. Echtzeitverarbeitung) von Anaphern in Sprachen mit syntaktisch weniger eingeschränkten Anaphern, wie beispielsweise Türkisch, ist derzeit wenig bekannt. Wir wissen auch relativ wenig darüber, wie untypischere Populationen wie nicht-muttersprachliche (L2-) SprecherInnen und “Heritage"-SprecherInnen (HSer) Anaphern auflösen. Diese Arbeit untersucht die Interpretation und Echtzeitverarbeitung von Anaphern im Deutschen und in einer typologisch anderen und noch wenig untersuchten Sprache, dem Türkischen. Sie vergleicht Hypothesen über Unterschiede zwischen der Satzverarbeitung von MuttersprachlerInnen (L1er) und von L2-SprecherInnen (L2er), genauer Unterschiede in den Verarbeitungsmechanismen sowie die Möglichkeit eines Einflusses von einer Sprache auf die Verarbeitung in der anderen Sprache. Um die aktuelle Forschungslücke bezüglich des HSer-Satzverständnisses zu schließen, werden die Ergebnisse für diese Gruppe mit denen für L2er verglichen. Um die Repräsentation und Verarbeitung von Anaphern in diesen drei Populationen zu untersuchen, habe ich eine Reihe von Offline-Fragebögen und Visual-World Eye-Tracking-Experimenten zur Auflösung von Reflexivpronomen und Personalpronomen im Deutschen und Türkischen durchgeführt. In den deutschen Experimenten wurden sowohl deutsche MuttersprachlerInnen als auch L2er getestet, während in den türkischen Experimenten einsprachig aufgewachsene türkische MuttersprachlerInnen sowie HSer des Türkischen mit Deutsch als L2 getestet wurden. Dies ermöglichte es mir, sowohl Unterschiede zwischen den Sprachen als auch Populationsunterschiede zwischen monolingualen und verschiedenen Arten von bilingualen SprecherInnen bei der Verarbeitung von Anaphern zu beobachten. Was das Verständnis der türkischen Anaphern durch L1er betrifft, so habe ich im Gegensatz zu früheren Annahmen festgestellt, dass das Türkische kein Reflexivpronomen hat, das dem Prinzip A der Bindungstheorie folgt (Chomsky, 1981). Darüber hinaus schlage ich allgemeinere Unterschiede zwischen Türkisch und Deutsch vor, und zwar in Form eines stärkeren Einflusses pragmatischer Informationen in der Anapherauflösung im Türkischen im Vergleich zum Deutschen. Was die Verarbeitungsunterschiede zwischen L1ern und L2ern einer Sprache betrifft, so fand ich Belege für Hypothesen, die vorschlagen, dass L2er des Deutschen sich stärker auf nichtsyntaktische Informationen verlassen als L1er (Clahsen & Felser, 2006, 2017; Cunnings, 2016, 2017), unabhängig von einem möglichen Einfluss ihrer L1. HSer hingegen zeigten eine Tendenz zur Überbetonung von Interpretationskontrasten zwischen verschiedenen türkischen Anaphern im Vergleich zu einsprachigen Muttersprachlern. Allerdings neigten HSer mit geringeren Sprachkenntnissen dazu, die Unterschiede zwischen Formen zu vereinfachen, indem sie die unterschiedlichen Anaphern sowohl in der Interpretation und in der Verarbeitung gleichbehandelten. Insgesamt zeigten L2er und HSer sowohl in der endgültigen Interpretation von Anaphern als auch bei der Online-Verarbeitung Unterschiede zu monolingualen MuttersprachlerInnen. Diese Unterschiede waren jedoch nicht gleichförmig zwischen den beiden Arten von Bilingualen und unterstützen daher kein einheitliches Modell der L2- und HS-Verarbeitung (vgl. Montrul, 2012). Die Ergebnisse dieser Arbeit tragen durch die Bereitstellung von Daten aus einer bisher unerforschten Sprache, Türkisch, zum Forschungsfeld der Anapherauflösung bei, und leisten außerdem einen Beitrag zur Forschung über Unterschiede in der Verarbeitung zwischen MuttersprachlerInnen und Nicht-MuttersprachlerInnen. Meine Ergebnisse verdeutlichen auch die Bedeutung der Berücksichtigung individueller Unterschiede im Erwerbsprozess bei der Erforschung des bilingualen Sprachverständnisses. Faktoren wie das Erwerbsalter, die Sprachkenntnisse und die Art des Inputs, den SprachlernerInnen erhalten, können die Verarbeitungsmechanismen beeinflussen, die sie entwickeln und anwenden, und somit zu Unterschieden sowohl zwischen als auch innerhalb verschiedener bilingualer Bevölkerungsgruppen führen. KW - language processing KW - bilingualism KW - anaphors KW - eye-tracking KW - visual world KW - pronouns KW - reflexives KW - Sprachverarbeitung KW - Bilingualismus KW - Anaphern KW - Eye-Tracking KW - Visual World KW - Pronomen KW - Reflexivpronomen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436442 ER - TY - THES A1 - Wulff, Alexander T1 - Essays in macroeconomics and financial market imperfections N2 - This dissertation consists of four self-contained papers that deal with the implications of financial market imperfections and heterogeneity. The analysis mainly relates to the class of incomplete-markets models but covers different research topics. The first paper deals with the distributional effects of financial integration for developing countries. Based on a simple heterogeneous-agent approach, it is shown that capital owners experience large welfare losses while only workers moderately gain due to higher wages. The large welfare losses for capital owners contrast with the small average welfare gains from representative-agent economies and indicate that a strong opposition against capital market opening has to be expected. The second paper considers the puzzling observation of capital flows from poor to rich countries and the accompanying changes in domestic economic development. Motivated by the mixed results from the literature, we employ an incomplete-markets model with different types of idiosyncratic risk and borrowing constraints. Based on different scenarios, we analyze under what conditions the presence of financial market imperfections contributes to explain the empirical findings and how the conditions may change with different model assumptions. The third paper deals with the interplay of incomplete information and financial market imperfections in an incomplete-markets economy. In particular, it analyzes the impact of incomplete information about idiosyncratic income shocks on aggregate saving. The results show that the effect of incomplete information is not only quantitatively substantial but also qualitatively ambiguous and varies with the influence of the income risk and the borrowing constraint. Finally, the fourth paper analyzes the influence of different types of fiscal rules on the response of key macroeconomic variables to a government spending shock. We find that a strong temporary increase in public debt contributes to stabilizing consumption and leisure in the first periods following the change in government spending, whereas a non-debt-intensive fiscal rule leads to a faster recovery of consumption, leisure, capital and output in later periods. Regarding optimal debt policy, we find that a debt-intensive fiscal rule leads to the largest aggregate welfare benefit and that the individual welfare gain is particularly high for wealth-poor agents. N2 - Die vorliegende Dissertation besteht aus vier eigenständigen Papieren, die sich mit den Auswirkungen von Finanzmarktunvollkommenheiten und Heterogenität beschäftigen. Die Analyse bezieht sich dabei vorwiegend auf die Klasse heterogener-Agenten Modelle mit Finanzmarktunvollkommenheiten, greift aber verschiedene Fragestellungen auf. Das erste Papier beschäftigt sich mit den Verteilungseffekten finanzieller Integration in sich entwickelnden Volkswirtschaften. Mit Hilfe eines einfachen heterogene-Agenten Ansatzes wird gezeigt, dass inländische Kapitalbesitzer massiv durch finanzielle Integration verlieren, während ausschließlich Arbeitnehmer moderat durch Lohnanstiege gewinnen. Die erheblichen Wohlfahrtsverluste für Kapitalbesitzer stehen dabei im Kontrast zu den geringen durchschnittlichen Wohlfahrtseffekten und zeigen, dass eine starke Opposition gegenüber der Öffnung von Kapitalmärkten in sich entwickelnde Länder zu erwarten ist. Der zweite Aufsatz beschäftigt sich mit dem neueren Phänomen von Kapitalflüssen von armen zu reichen Ländern sowie mit den einhergehenden inländischen Entwicklungen. Ausgehend von den stark divergierenden Ergebnissen der Literatur wird ein umfassendes heterogene-Agenten Modell mit nicht versicherbaren idiosynkratischen Risiken und Verschuldungsrestriktionen betrachtet. Anhand verschiedener Szenarien wird gezeigt, unter welchen Bedingungen Finanzmarktunvollkommenheiten zur Klärung der empirischen Befunde beitragen können und inwiefern sich die Parameterrestriktionen unter verschiedenen Modellannahmen ändern. Der dritte Aufsatz beschäftigt sich mit den Auswirkungen unvollständiger Informationen im Rahmen eines heterogene-Agenten Modells. Insbesondere werden die Auswirkungen unvollständiger Informationen bezüglich idiosynkratischer Einkommensschocks auf die aggregierte Ersparnisbildung untersucht. Die Ergebnisse zeigen, dass der Einfluss unvollständiger Information nicht nur quantitativ bedeutsam, sondern auch qualitativ verschieden ist und stark mit der konkreten Ausprägung der Finanzmarktunvollkommenheiten variiert. Der vierte Aufsatz beschäftigt sich mit der Ausgestaltung staatlicher Verschuldungspolitik. Insbesondere wird die Finanzierung einer vorübergehenden Erhöhung von Staatsausgaben unter verschiedenen Fiskalregeln analysiert. Die Ergebnisse zeigen, dass eine verschuldungsintensive Fiskalregel einen kurzfristig stabilisierenden Effekt auf Konsum und Freizeit aufweist, von dem insbesondere vermögensarme Haushalte profitieren, die besonders stark von den Verschuldungsrestriktionen betroffen sind. KW - incomplete markets KW - heterogeneous agents KW - financial integration KW - incomplete information KW - fiscal policy KW - unvollständige Märkte KW - heterogene Agenten KW - finanzielle Integration KW - unvollständige Information KW - Fiskalpolitik Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429956 ER - TY - THES A1 - Ion, Alexandra T1 - Metamaterial devices T1 - Metamaterial-Geräte N2 - Digital fabrication machines such as 3D printers excel at producing arbitrary shapes, such as for decorative objects. In recent years, researchers started to engineer not only the outer shape of objects, but also their internal microstructure. Such objects, typically based on 3D cell grids, are known as metamaterials. Metamaterials have been used to create materials that, e.g., change their volume, or have variable compliance. While metamaterials were initially understood as materials, we propose to think of them as devices. We argue that thinking of metamaterials as devices enables us to create internal structures that offer functionalities to implement an input-process-output model without electronics, but purely within the material’s internal structure. In this thesis, we investigate three aspects of such metamaterial devices that implement parts of the input-process-output model: (1) materials that process analog inputs by implementing mechanisms based on their microstructure, (2) that process digital signals by embedding mechanical computation into the object’s microstructure, and (3) interactive metamaterial objects that output to the user by changing their outside to interact with their environment. The input to our metamaterial devices is provided directly by the users interacting with the device by means of physically pushing the metamaterial, e.g., turning a handle, pushing a button, etc. The design of such intricate microstructures, which enable the functionality of metamaterial devices, is not obvious. The complexity of the design arises from the fact that not only a suitable cell geometry is necessary, but that additionally cells need to play together in a well-defined way. To support users in creating such microstructures, we research and implement interactive design tools. These tools allow experts to freely edit their materials, while supporting novice users by auto-generating cells assemblies from high-level input. Our tools implement easy-to-use interactions like brushing, interactively simulate the cell structures’ deformation directly in the editor, and export the geometry as a 3D-printable file. Our goal is to foster more research and innovation on metamaterial devices by allowing the broader public to contribute. N2 - Digitale Fabrikationsmaschinen, wie 3D-Drucker, eignen sich hervorragend um beliebige Formen zu produzieren. Daher sind sie bei Endnutzern für die Erstellung von dekorativen Elementen sehr beliebt. Forscher hingegen haben in den letzten Jahren damit begonnen, nicht nur die äußere Form zu betrachten, sondern auch Mikrostrukturen im Inneren. Solche Strukturen, die meist auf einem 3-dimensionalen Gitter angeordnet sind, sind als "Metamaterialien" bekannt. Metamaterialien wurden entwickelt, um Eigenschaften wie Volumenänderung oder lokalisiert die Steifheit des Materials zu steuern. Traditionell werden Metamaterialien als Materialien betrachtet, wir hingegen betrachten sie als Geräte. In dieser Arbeit zeigen wir, dass die Betrachtung von Metamaterialien als Geräte es erlaubt Strukturen zu kreieren, die Geräte nach dem Eingabe-Verarbeitung-Ausgabe Prinzip realisieren -- und das gänzlich ohne Elektronik. Wir untersuchen 3 Aspekte von solchen funktionsfähigen Metamaterial-Geräten die jeweils Teile des EVA Prinzips implementieren: (1) Materialien, die analoge Eingabe als Mechanismen, die durch ihre Mikrostruktur bestimmt sind, verarbeiten, (2) Materialien, die digitale Eingabe verarbeiten und mechanische Berechnungen in ihrer Mikrostruktur durchführen und (3) Materialien, die ihre äußere Textur dynamisch verändern können um mit dem Nutzer zu kommunizieren. Die Eingabe für Metamaterial-Geräte ist in dieser Arbeit direkt durch den Nutzer gegeben, der mit dem Gerät interagiert, zum Beispiel durch Drücken eines Griffs, eines Knopfes, etc. Das Design von solchen filigranen Mikrostrukturen, die die Funktionalität der Metamaterial-Geräte definieren, ist nicht offensichtlich oder einfach. Der Designprozess ist komplex, weil nicht nur eine Zellstruktur gefunden werden muss, die die gewünschte Deformation durchführt, sondern die Zellstrukturen zusätzlich auf wohldefinierte Weise zusammenspielen müssen. Um Nutzern die Erstellung von diesen Mikrostrukturen zu ermöglichen, unterstützen wir sie durch interaktive Computerprogramme, die wir in dieser Arbeit untersuchen und implementieren. Wir haben Software entwickelt, die es Experten erlaubt die Mikrostrukturen frei zu platzieren und zu editieren, während Laien durch automatisch generierte Strukturen geholfen wird. Unsere Software beinhaltet einfach zu bedienende Interaktionskonzepte, wie zum Beispiel das aufmalen von funktionalen Eigenschaften auf Objekte, eine integrierte Vorschau der Deformation, oder der 3D-druckfähige Export der erstellten Geometrie. Das Ziel dieser Arbeit ist es langfristig Forschung und Innovation von Metamaterial-Geräten zu fördern, so dass sich sogar die breite Masse in das Thema einbringen kann. KW - metamaterials KW - computational design KW - fabrication KW - 3D printing KW - programmable matter KW - Metamaterialien KW - computergestützte Gestaltung KW - Fabrikation KW - 3D-Druck KW - programmierbare Materie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429861 ER - TY - THES A1 - Rözer, Viktor T1 - Pluvial flood loss to private households T1 - Schäden durch urbane Sturzfluten in Privathaushalten N2 - Today, more than half of the world’s population lives in urban areas. With a high density of population and assets, urban areas are not only the economic, cultural and social hubs of every society, they are also highly susceptible to natural disasters. As a consequence of rising sea levels and an expected increase in extreme weather events caused by a changing climate in combination with growing cities, flooding is an increasing threat to many urban agglomerations around the globe. To mitigate the destructive consequences of flooding, appropriate risk management and adaptation strategies are required. So far, flood risk management in urban areas is almost exclusively focused on managing river and coastal flooding. Often overlooked is the risk from small-scale rainfall-triggered flooding, where the rainfall intensity of rainstorms exceeds the capacity of urban drainage systems, leading to immediate flooding. Referred to as pluvial flooding, this flood type exclusive to urban areas has caused severe losses in cities around the world. Without further intervention, losses from pluvial flooding are expected to increase in many urban areas due to an increase of impervious surfaces compounded with an aging drainage infrastructure and a projected increase in heavy precipitation events. While this requires the integration of pluvial flood risk into risk management plans, so far little is known about the adverse consequences of pluvial flooding due to a lack of both detailed data sets and studies on pluvial flood impacts. As a consequence, methods for reliably estimating pluvial flood losses, needed for pluvial flood risk assessment, are still missing. Therefore, this thesis investigates how pluvial flood losses to private households can be reliably estimated, based on an improved understanding of the drivers of pluvial flood loss. For this purpose, detailed data from pluvial flood-affected households was collected through structured telephone- and web-surveys following pluvial flood events in Germany and the Netherlands. Pluvial flood losses to households are the result of complex interactions between impact characteristics such as the water depth and a household’s resistance as determined by its risk awareness, preparedness, emergency response, building properties and other influencing factors. Both exploratory analysis and machine-learning approaches were used to analyze differences in resistance and impacts between households and their effects on the resulting losses. The comparison of case studies showed that the awareness around pluvial flooding among private households is quite low. Low awareness not only challenges the effective dissemination of early warnings, but was also found to influence the implementation of private precautionary measures. The latter were predominately implemented by households with previous experience of pluvial flooding. Even cases where previous flood events affected a different part of the same city did not lead to an increase in preparedness of the surveyed households, highlighting the need to account for small-scale variability in both impact and resistance parameters when assessing pluvial flood risk. While it was concluded that the combination of low awareness, ineffective early warning and the fact that only a minority of buildings were adapted to pluvial flooding impaired the coping capacities of private households, the often low water levels still enabled households to mitigate or even prevent losses through a timely and effective emergency response. These findings were confirmed by the detection of loss-influencing variables, showing that cases in which households were able to prevent any loss to the building structure are predominately explained by resistance variables such as the household’s risk awareness, while the degree of loss is mainly explained by impact variables. Based on the important loss-influencing variables detected, different flood loss models were developed. Similar to flood loss models for river floods, the empirical data from the preceding data collection was used to train flood loss models describing the relationship between impact and resistance parameters and the resulting loss to building structures. Different approaches were adapted from river flood loss models using both models with the water depth as only predictor for building structure loss and models incorporating additional variables from the preceding variable detection routine. The high predictive errors of all compared models showed that point predictions are not suitable for estimating losses on the building level, as they severely impair the reliability of the estimates. For that reason, a new probabilistic framework based on Bayesian inference was introduced that is able to provide predictive distributions instead of single loss estimates. These distributions not only give a range of probable losses, they also provide information on how likely a specific loss value is, representing the uncertainty in the loss estimate. Using probabilistic loss models, it was found that the certainty and reliability of a loss estimate on the building level is not only determined by the use of additional predictors as shown in previous studies, but also by the choice of response distribution defining the shape of the predictive distribution. Here, a mix between a beta and a Bernoulli distribution to account for households that are able to prevent losses to their building’s structure was found to provide significantly more certain and reliable estimates than previous approaches using Gaussian or non-parametric response distributions. The successful model transfer and post-event application to estimate building structure loss in Houston, TX, caused by pluvial flooding during Hurricane Harvey confirmed previous findings, and demonstrated the potential of the newly developed multi-variable beta model for future risk assessments. The highly detailed input data set constructed from openly available data sources containing over 304,000 affected buildings in Harris County further showed the potential of data-driven, building-level loss models for pluvial flood risk assessment. In conclusion, pluvial flood losses to private households are the result of complex interactions between impact and resistance variables, which should be represented in loss models. The local occurrence of pluvial floods requires loss estimates on high spatial resolutions, i.e. on the building level, where losses are variable and uncertainties are high. Therefore, probabilistic loss estimates describing the uncertainty of the estimate should be used instead of point predictions. While the performance of probabilistic models on the building level are mainly driven by the choice of response distribution, multi-variable models are recommended for two reasons: First, additional resistance variables improve the detection of cases in which households were able to prevent structural losses. Second, the added variability of additional predictors provides a better representation of the uncertainties when loss estimates from multiple buildings are aggregated. This leads to the conclusion that data-driven probabilistic loss models on the building level allow for a reliable loss estimation at an unprecedented level of detail, with a consistent quantification of uncertainties on all aggregation levels. This makes the presented approach suitable for a wide range of applications, from decision support in spatial planning to impact- based early warning systems. N2 - Über die Hälfte der Weltbevölkerung lebt heute in Städten. Mit einer hohen Dichte an Menschen, Gütern und Gebäuden sind Städte nicht nur die wirtschaftlichen, politischen und kulturellen Zentren einer Gesellschaft, sondern auch besonders anfällig gegenüber Naturkatastrophen. Insbesondere Hochwasser und Überflutungen stellen in Folge von steigenden Meeresspiegeln und einer erwarteten Zunahme von Extremwettereignissen eine wachsende Bedrohung in vielen Regionen dar. Um die möglichen Folgen dieser Entwicklung zu vermeiden bzw. zu reduzieren, ist es notwendig sich der steigenden Gefahr durch geeignete Maßnahmen anzupassen. Bisher ist der Hochwasserschutz in Städten beinahe ausschließlich auf Überflutungen durch Flusshochwasser oder Sturmfluten fokussiert. Dabei werden sogenannte urbane Sturzfluten, die in den letzten Jahren vermehrt zu hohen Schäden in Städten geführt haben, nicht berücksichtigt. Bei urbanen Sturzfluten führen lokale Starkniederschläge mit hohen Regenmengen zu einer Überlastung des städtischen Abwassersystems und damit zu einer direkten, oft kleinräumigen Überflutung innerhalb eines bebauten Gebiets. Mit einer prognostizierten Zunahme von Starkniederschlägen, sowie einer baulichen Verdichtung und damit einhergehender Flächenversiegelung in vielen Städten, ist mit einer Zunahme von urbanen Sturzfluten zu rechnen. Dies verlangt die Einbindung des Risikos durch urbane Sturzfluten in bestehende Hochwasserschutzkonzepte. Bisher fehlen allerdings sowohl detaillierte Daten als auch Methoden um das Risiko durch urbane Sturzfluten und die dadurch verursachten Schäden, etwa an Wohngebäuden, zuverlässig abzuschätzen. Aus diesem Grund beschäftigt sich diese Arbeit hauptsächlich mit der Entwicklung von Verfahren und Modellen zur Abschätzung von Schäden an Privathaushalten durch urbane Sturzfluten. Dazu wurden detaillierte Daten durch Telefon- und Online-Umfragen nach urbanen Sturzflutereignissen in Deutschland und in den Niederlanden erhoben und ausgewertet. Die Erkenntnisse aus den detaillierten Analysen zu Vorsorge, Notmaßnahmen und Wiederherstellung, vor, während und nach urbanen Sturzflutereignissen, wurden genutzt um eine neue Methode zur Schätzung von Schäden an Wohngebäuden zu entwickeln. Dabei werden neben Angaben wie Dauer und Höhe der Überflutung, auch Eigenschaften von Haushalten, wie etwa deren Risikobewusstsein, in die Schätzung miteinbezogen. Nach lokaler Validierung wurde die neuentwickelte Methode beispielhaft zur Schätzung von Wohngebäudeschäden nach einem urbanen Sturzflutereignis im Großraum Houston (Texas, USA) erfolgreich angewendet. Anders als bei bisherigen Ansätzen wird der geschätzte Schaden eines Wohngebäudes nicht als einzelner Wert angegeben, sondern als Verteilung, welche die Bandbreite möglicher Schäden und deren Wahrscheinlichkeit angibt. Damit konnte die Zuverlässigkeit von Schadensschätzungen im Vergleich zu bisherigen Verfahren erheblich verbessert werden. Durch die erfolgreiche Anwendung sowohl auf der Ebene einzelner Gebäude als auch für gesamte Städte, ergibt sich ein breites Spektrum an Nutzungsmöglichkeiten, etwa als Entscheidungsunterstützung in der Stadtplanung oder für eine verbesserte Frühwarnung vor urbanen Sturzfluten. KW - Schadensmodellierung KW - Unsicherheiten KW - Starkregen KW - Privathaushalte KW - damage modeling KW - economic impacts KW - uncertainty KW - private households KW - probabilistic KW - pluvial flooding Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429910 ER - TY - THES A1 - Naseri, Gita T1 - Plant-derived transcription factors and their application for synthetic biology approaches in Saccharomyces cerevisiae T1 - Pflanzenbasierte Transkriptionsfaktoren und ihre Anwendungen in der synthetischen Biologie in Saccharomyces cerevisiae N2 - Bereits seit 9000 Jahren verwendet die Menschheit die Bäckerhefe Saccharomyces cerevisiae für das Brauen von Bier, aber erst seit 150 Jahren wissen wir, dass es sich bei diesem unermüdlichen Helfer im Brauprozess um einzellige, lebende Organismen handelt. Und die Bäckerhefe kann noch viel mehr. Im Rahmen des Forschungsgebietes der Synthetischen Biologie soll unter anderem die Bäckerhefe als innovatives Werkzeug für die biobasierte Herstellung verschiedenster Substanzen etabliert werden. Zu diesen Substanzen zählen unter anderem Feinchemikalien, Biokraftstoffe und Biopolymere sowie pharmakologisch und medizinisch interessante Pflanzenstoffe. Damit diese verschiedensten Substanzen in der Bäckerhefe hergestellt werden können, müssen große Mengen an Produktionsinformationen zum Beispiel aus Pflanzen in die Hefezellen übertragen werden. Darüber hinaus müssen die neu eingebrachten Biosynthesewege reguliert und kontrolliert in den Zellen ablaufen. Auch Optimierungsprozesse zur Erhöhung der Produktivität sind notwendig. Für alle diese Arbeitsschritte mangelt es bis heute an anwendungsbereiten Technologien und umfassenden Plattformen. Daher wurden im Rahmen dieser Doktorarbeit verschiedene Technologien und Plattformen zur Informationsübertragung, Regulation und Prozessoptimierung geplant und erzeugt. Für die Konstruktion von Biosynthesewegen in der Bäckerhefe wurde als erstes eine Plattform aus neuartigen Regulatoren und Kontrollelementen auf der Basis pflanzlicher Kontrollelemente generiert und charakterisiert. Im zweiten Schritt erfolgte die Entwicklung einer Technologie zur kombinatorischen Verwendung der Regulatoren in der Planung und Optimierung von Biosynthesewegen (COMPASS). Abschließend wurde eine Technologie für die Prozessoptimierung der veränderten Hefezellen entwickelt (CapRedit). Die Leistungsfähigkeit der entwickelten Plattformen und Technologien wurde durch eine Optimierung der Produktion von Carotenoiden (Beta-Carotin und Beta-Ionon) und Flavonoiden (Naringenin) in Hefezellen nachgewiesen. Die im Rahmen der Arbeit etablierten neuartigen Plattformen und innovativen Technologien sind ein wertvoller Grundbaustein für die Erweiterung der Nutzbarkeit der Bäckerhefe. Sie ermöglichen den Einsatz der Hefezellen in kosteneffizienten Produktionswegen und alternativen chemischen Wertschöpfungsketten. Dadurch können zum Beispiel Biokraftstoffe und pharmakologisch interessante Pflanzenstoffe unter Verwendung von nachwachsenden Rohstoffen, Reststoffen und Nebenprodukten hergestellt werden. Darüber hinaus ergeben sich Anwendungsmöglichkeiten zur Bodensanierung und Wasseraufbereitung. N2 - Plant-derived Transcription Factors for Orthologous Regulation of Gene Expression in the Yeast Saccharomyces cerevisiae Control of gene expression by transcription factors (TFs) is central in many synthetic biology projects where tailored expression of one or multiple genes is often needed. As TFs from evolutionary distant organisms are unlikely to affect gene expression in a host of choice, they represent excellent candidates for establishing orthogonal control systems. To establish orthogonal regulators for use in yeast (Saccharomyces cerevisiae), we chose TFs from the plant Arabidopsis thaliana. We established a library of 106 different combinations of chromosomally integrated TFs, activation domains (yeast GAL4 AD, herpes simplex virus VP64, and plant EDLL) and synthetic promoters harbouring cognate cis-regulatory motifs driving a yEGFP reporter. Transcriptional output of the different driver / reporter combinations varied over a wide spectrum, with EDLL being a considerably stronger transcription activation domain in yeast, than the GAL4 activation domain, in particular when fused to Arabidopsis NAC TFs. Notably, the strength of several NAC - EDLL fusions exceeded that of the strong yeast TDH3 promoter by 6- to 10-fold. We furthermore show that plant TFs can be used to build regulatory systems encoded by centromeric or episomal plasmids. Our library of TF – DNA-binding site combinations offers an excellent tool for diverse synthetic biology applications in yeast. COMPASS: Rapid combinatorial optimization of biochemical pathways based on artificial transcription factors We established a high-throughput cloning method, called COMPASS for COMbinatorial Pathway ASSembly, for the balanced expression of multiple genes in Saccharomyces cerevisiae. COMPASS employs orthogonal, plant-derived artificial transcription factors (ATFs) for controlling the expression of pathway genes, and homologous recombination-based cloning for the generation of thousands of individual DNA constructs in parallel. The method relies on a positive selection of correctly assembled pathway variants from both, in vivo and in vitro cloning procedures. To decrease the turnaround time in genomic engineering, we equipped COMPASS with multi-locus CRISPR/Cas9-mediated modification capacity. In its current realization, COMPASS allows combinatorial optimization of up to ten pathway genes, each transcriptionally controlled by nine different ATFs spanning a 10-fold difference in expression strength. The application of COMPASS was demonstrated by generating cell libraries producing beta-carotene and co-producing beta-ionone and biosensor-responsive naringenin. COMPASS will have many applications in other synthetic biology projects that require gene expression balancing. CaPRedit: Genome editing using CRISPR-Cas9 and plant-derived transcriptional regulators for the redirection of flux through the FPP branch-point in yeast. Technologies developed over the past decade have made Saccharomyces cerevisiae a promising platform for production of different natural products. We developed CRISPR/Ca9- and plant derived regulator-mediated genome editing approach (CaPRedit) to greatly accelerate strain modification and to facilitate very low to very high expression of key enzymes using inducible regulators. CaPRedit can be implemented to enhance the production of yeast endogenous or heterologous metabolites in the yeast S. cerevisiae. The CaPRedit system aims to faciltiate modification of multiple targets within a complex metabolic pathway through providing new tools for increased expression of genes encoding rate-limiting enzymes, decreased expression of essential genes, and removed expression of competing pathways. This approach is based on CRISPR/Cas9-mediated one-step double-strand breaks to integrate modules containing IPTG-inducible plant-derived artificial transcription factor and promoter pair(s) in a desired locus or loci. Here, we used CaPRedit to redirect the yeast endogenous metabolic flux toward production of farnesyl diphosphate (FPP), a central precursor of nearly all yeast isoprenoid products, by overexpression of the enzymes lead to produce FPP from glutamate. We found significantly higher beta-carotene accumulation in the CaPRedit-mediated modified strain than in the wild type (WT) strain. More specifically, CaPRedit_FPP 1.0 strain was generated, in which three genes involved in FPP synthesis, tHMG1, ERG20, and GDH2, were inducibly overexpressed under the control of strong plant-derived ATFPs. The beta–carotene accumulated in CaPRedit_FPP 1.0 strain to a level 1.3-fold higher than the previously reported optimized strain that carries the same overexpressed genes (as well as additional genetic modifications to redirect yeast endogenous metabolism toward FPP production). Furthermore, the genetic modifications implemented in CaPRedit_FPP 1.0 strain resulted in only a very small growth defect (growth rate relative to the WT is ~ -0.03). KW - synthetic biology KW - Saccharomyces cerevisiae KW - artificial transcription factor KW - combinatorial optimization KW - biosensor KW - DNA assembly KW - pathway engineering KW - artifizielle Transkriptionsfaktoren KW - Biosensor KW - kombinatorische Optimierung KW - DNA assembly KW - Saccharomyces cerevisiae KW - synthetische Biologie KW - pathway engineering Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421514 ER -