TY - THES A1 - Reiners, Nina T1 - Transnational lawmaking coalitions for human rights Y1 - 2017 ER - TY - THES A1 - Dribbisch, Katrin T1 - Translating innovation T1 - Translating Innovation BT - the adoption of Design Thinking in a Singaporean ministry BT - die Adoption von Design Thinking in einem Singapurer Ministerium N2 - This doctoral thesis studies the process of innovation adoption in public administrations, addressing the research question of how an innovation is translated to a local context. The study empirically explores Design Thinking as a new problem-solving approach introduced by a federal government organisation in Singapore. With a focus on user-centeredness, collaboration and iteration Design Thinking seems to offer a new way to engage recipients and other stakeholders of public services as well as to re-think the policy design process from a user’s point of view. Pioneered in the private sector, early adopters of the methodology include civil services in Australia, Denmark, the United Kingdom, the United States as well as Singapore. Hitherto, there is not much evidence on how and for which purposes Design Thinking is used in the public sector. For the purpose of this study, innovation adoption is framed in an institutionalist perspective addressing how concepts are translated to local contexts. The study rejects simplistic views of the innovation adoption process, in which an idea diffuses to another setting without adaptation. The translation perspective is fruitful because it captures the multidimensionality and ‘messiness’ of innovation adoption. More specifically, the overall research question addressed in this study is: How has Design Thinking been translated to the local context of the public sector organisation under investigation? And from a theoretical point of view: What can we learn from translation theory about innovation adoption processes? Moreover, there are only few empirical studies of organisations adopting Design Thinking and most of them focus on private organisations. We know very little about how Design Thinking is embedded in public sector organisations. This study therefore provides further empirical evidence of how Design Thinking is used in a public sector organisation, especially with regards to its application to policy work which has so far been under-researched. An exploratory single case study approach was chosen to provide an in-depth analysis of the innovation adoption process. Based on a purposive, theory-driven sampling approach, a Singaporean Ministry was selected because it represented an organisational setting in which Design Thinking had been embedded for several years, making it a relevant case with regard to the research question. Following a qualitative research design, 28 semi-structured interviews (45-100 minutes) with employees and managers were conducted. The interview data was triangulated with observations and documents, collected during a field research research stay in Singapore. The empirical study of innovation adoption in a single organisation focused on the intra-organisational perspective, with the aim to capture the variations of translation that occur during the adoption process. In so doing, this study opened the black box often assumed in implementation studies. Second, this research advances translation studies not only by showing variance, but also by deriving explanatory factors. The main differences in the translation of Design Thinking occurred between service delivery and policy divisions, as well as between the first adopter and the rest of the organisation. For the intra-organisational translation of Design Thinking in the Singaporean Ministry the following five factors played a role: task type, mode of adoption, type of expertise, sequence of adoption, and the adoption of similar practices. N2 - Die Dissertation untersucht den Prozess der Innovationsadoption in Verwaltungen, ausgehend von der Forschungsfrage, wie eine Innovation in den lokalen Kontext einer Organisation übersetzt wird. Empirisch untersucht die Arbeit, wie Design Thinking als neuer Problemlösungsansatz von einem Singapurer Ministerium eingeführt wurde. Mit einer am Nutzer orientierten, kollaborativen und iterativen Arbeitsweise verspricht Design Thinking eine neue Möglichkeit, Leistungsempfänger/innen und andere Stakeholder öffentlicher Dienstleistungen einzubinden sowie den Gesetzgebungsprozess ausgehend von der Nutzerperspektive neu zu gestalten. Dieser zunächst in Unternehmen eingeführte Innovationsansatz wurde in den vergangenen Jahren verstärkt von Verwaltungen weltweit aufgegriffen, zum Beispiel in Australien, Dänemark, Großbritannien, den USA und Singapur. Es existieren jedoch bisher nur wenige empirische Studien darüber, wie und für welche Zwecke Design Thinking im Verwaltungskontext zum Einsatz kommt. Die vorliegende Arbeit wählt eine Translationsperspektive zur Analyse des Innovation-Adoption-Prozesses. Der Translationsansatz im Sinne des skandinavischen Neo-Institutionalismus untersucht, wie Ideen in lokale Kontexte übersetzt werden. Die Studie grenzt sich damit von einem vereinfachten Verständnis des Innovation-Adoption-Prozesses ab und somit von der Vorstellung, dass eine Idee ohne Anpassung in einen neuen Kontext aufgenommen wird. Die Translationstheorie ermöglicht eine differenzierte Betrachtung des Innovation-Adoption-Prozesses, indem sie den Blick auf die Anpassungen und Veränderungen richtet. Die zentralen Forschungsfragen der Studie lauten: Erstens, wie wurde Design Thinking in den lokalen Kontext eines Singapurer Ministeriums übersetzt? Zweitens, was können wir von einem Translation-Theorieansatz über Innovation-Adoption-Prozesse lernen? Es gibt bisher wenige empirische Studien zur organisationalen Adoption von Design Thinking, von denen die meisten sich auf Unternehmen beziehen. Wir wissen wenig darüber, wie Design Thinking in öffentlichen Verwaltungen und Regierungsorganisationen eingebettet wird. Diese Untersuchung liefert deshalb empirische Evidenz, wie Design Thinking in einer öffentlichen Verwaltung eingesetzt wird, insbesondere in Bezug auf die Anwendung im Gesetzgebungsbereich, der in der bisherigen Forschung vernachlässigt wurde. Für die Analyse des Innovation-Adoption-Prozesses wurde ein exploratives Einzelfallstudiendesign gewählt. Basierend auf einem theoriegeleiteten Sampling-Ansatz wurde ein Singapurer Ministerium ausgewählt, das einen Organisationskontext bot, in dem Design Thinking vor einigen Jahren eingeführt und seitdem praktiziert wurde. Das Singapurer Ministerium stellt damit einen relevanten Fall für die Beantwortung der Forschungsfrage dar. Im Rahmen eines qualitativen Forschungsdesigns, wurden 28 semi-strukturierte Interviews (45 bis 100 Minuten) mit Mitarbeiter/innen und Führungskräften durchgeführt. Die Interviewdaten wurden mit Beobachtungen und Dokumenten trianguliert, die während eines mehrwöchigen Forschungsaufenthaltes in Singapur gesammelt wurden. Die empirische Untersuchung der Innovationsadoption in einer Einzelorganisation konzentriert sich auf eine intraorganisatorische Perspektive mit dem Ziel, die Variationen der Translation während des Adoptionsprozesses festzuhalten. Die Studie leistet damit einen Beitrag zur Öffnung der oft in Implementierungsstudien angenommenen Blackbox, weil sie den Blick darauf richtet, was nach der Einführungsentscheidung in der Organisation mit der Innovation geschieht. Zweitens, erweitert die vorliegende Studie die Translationsforschung, weil sie intraorganisatorische Varianz der Übersetzung nicht nur nachweisen, sondern auch erklären kann. Aus dem empirischen Material werden fünf Einflussfaktoren identifiziert, die die Unterschiede in der Übersetzung von Design Thinking innerhalb des Singapurer Ministeriums erklären können: 1) die Art der Aufgabe, 2) der Adoptionsmodus, 3) die Art der Expertise, 4) die zeitliche Abfolge der Adoption und 5) die Integration in die Organisation durch die Kombination mit komplementären Praktiken. Die Hauptunterschiede traten zwischen Service-Delivery- und Policy-Abteilungen auf sowie zwischen der der Abteilung, die Design Thinking zuerst einführte, und dem Rest der Organisation. KW - Design Thinking KW - innovation adoption KW - translation theory KW - public sector innovation KW - public management KW - Design Thinking KW - Innovation KW - Verwaltungsmodernisierung KW - Organizational innovation KW - Neo-institutionalismus Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104719 ER - TY - THES A1 - Nagel, Rebecca T1 - Genetic and behavioral investigations into African weakly electric fish (Osteoglossomorpha: Mormyridae) speciation Y1 - 2017 ER - TY - THES A1 - Shenar, Tomer T1 - Comprehensive analyses of massive binaries and implications on stellar evolution T1 - Umfassende Analysen massereicher Doppelsterne und Implikationen für die Sternentwicklung N2 - Via their powerful radiation, stellar winds, and supernova explosions, massive stars (Mini & 8 M☉) bear a tremendous impact on galactic evolution. It became clear in recent decades that the majority of massive stars reside in binary systems. This thesis sets as a goal to quantify the impact of binarity (i.e., the presence of a companion star) on massive stars. For this purpose, massive binary systems in the Local Group, including OB-type binaries, high mass X-ray binaries (HMXBs), and Wolf-Rayet (WR) binaries, were investigated by means of spectral, orbital, and evolutionary analyses. The spectral analyses were performed with the non-local thermodynamic equillibrium (non-LTE) Potsdam Wolf-Rayet (PoWR) model atmosphere code. Thanks to critical updates in the calculation of the hydrostatic layers, the code became a state-of-the-art tool applicable for all types of hot massive stars (Chapter 2). The eclipsing OB-type triple system δ Ori served as an intriguing test-case for the new version of the PoWR code, and provided key insights regarding the formation of X-rays in massive stars (Chapter 3). We further analyzed two prototypical HMXBs, Vela X-1 and IGR J17544-2619, and obtained fundamental conclusions regarding the dichotomy of two basic classes of HMXBs (Chapter 4). We performed an exhaustive analysis of the binary R 145 in the Large Magellanic Cloud (LMC), which was claimed to host the most massive stars known. We were able to disentangle the spectrum of the system, and performed an orbital, polarimetric, and spectral analysis, as well as an analysis of the wind-wind collision region. The true masses of the binary components turned out to be significantly lower than suggested, impacting our understanding of the initial mass function and stellar evolution at low metallicity (Chapter 5). Finally, all known WR binaries in the Small Magellanic Cloud (SMC) were analyzed. Although it was theoretical predicted that virtually all WR stars in the SMC should be formed via mass-transfer in binaries, we find that binarity was not important for the formation of the known WR stars in the SMC, implying a strong discrepancy between theory and observations (Chapter 6). N2 - Durch ihre intensive Strahlung, Sternwinde und Supernovaexplosionen tragen massereiche Sterne (Minitial & 8 M☉) erheblich zur Entwicklung von Galaxien bei. In den letzten Jahren wurde es immer klarer, dass sich die Mehrheit der massereichen Sterne in Doppelsternsystemen befindet. Die vorliegende Doktorarbeit hat das Ziel, den Einfluss dieser Tatsache auf die Entwicklung massereicher Sterne quantitativ zu untersuchen. Um dies zu erreichen, haben wir eine Analyse der Umläufe, Spektren und Entwicklung verschiedener Doppelsternsysteme in der lokalen Gruppe durchgeführt, die OB-Sterne, massereicher Röntgendoppelsterne (HMXBs) und Wolf-Rayet-(WR)-Doppelsterne einschließt. Die Spektralanalyse wurde mithilfe des Potsdam-Wolf-Rayet-(PoWR)-Modellatmosphären-Programms für Strahlungstransport in Abwesenheit von lokalem thermodynamischen Gleichgewicht (non-LTE) durchgeführt. Das PoWR-Programm wurde im Laufe der Arbeit aktualisiert, sodass die Berechnung der hydrostatischen Schichten des Sternes nun wesentlich genauer erfolgt, was die Verwendung dieses Programms für alle Typen heißer massereicher Sterne erlaubte (Kapitel 2). Das bedeckungsveränderliche Dreifachsternsystem δ Ori diente als Test für diese neue Version von PoWR, und lieferte wesentliche Informationen bezüglich der Entstehung von Röntgenstrahlung in massereichen Sternen (Kapitel 3). Die Analyse zweier prototypischer massereicher Röntgendoppelsterne, Vela X-1 und IGR J17544-2619, machte den Ursprung der Dichotomie der zwei Hauptklassen der Röntgendoppelsterne deutlich (Kapitel 4). Eine umfassende Analyse des Doppelsterns R145 in der Großen Magellanschen Wolke (LMC), der angeblich aus den massereichsten uns bekannten Sternen besteht, wurde durchgeführt. Mithilfe einer Dekomposition des Spektrums, einer Orbital- und Spektralanalyse, sowie einer Analyse der Kollision von Sternwinden in diesem System konnten wir zeigen, dass die Massen der Komponenten wesentlich kleiner sind als bisher angenommen. Dies ist ein wichtiger Beitrag zu unserem Verständnis der Anfangsmassenfunktion und der Entwicklung massereicher Sterne in Umgebungen geringer Metalizität (Kapitel 5). Schließlich wurde die Gesamtpopulation der WR-Doppelsterne in der Kleinen Magellanschen Wolke (SMC) analysiert. Im Widerspruch zur theoretischen Vorhersage, alle WR-Doppelsterne in der SMC seien dank Massentransfer in Doppelsternsystemen entstanden, finden wir, dass Massentransfer unerheblich für die Entstehung der uns bekannten WR-Sterne in der SMC war (Kapitel 6). KW - massive stars KW - Wolf-Rayet KW - stellar evolution KW - stellar winds KW - binary stars KW - massereiche Sterne KW - Wolf-Rayet KW - Sternentwicklung KW - Sternwinde KW - Doppelsterne Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104857 ER - TY - THES A1 - Müller, Juliane T1 - Trunk loading and back pain T1 - Rumpfbelastungen und Rückenschmerzen BT - three-dimensional motion analysis and evaluation of neuromuscular reflex activity in response to sudden and continuous loading BT - dreidimensionale Bewegungsanalyse und Erfassung der neuromuskulären Aktivität des Rumpfes als Antwort auf plötzliche und kontinuierliche Belastungen N2 - An essential function of the trunk is the compensation of external forces and loads in order to guarantee stability. Stabilising the trunk during sudden, repetitive loading in everyday tasks, as well as during performance is important in order to protect against injury. Hence, reduced trunk stability is accepted as a risk factor for the development of back pain (BP). An altered activity pattern including extended response and activation times as well as increased co-contraction of the trunk muscles as well as a reduced range of motion and increased movement variability of the trunk are evident in back pain patients (BPP). These differences to healthy controls (H) have been evaluated primarily in quasi-static test situations involving isolated loading directly to the trunk. Nevertheless, transferability to everyday, dynamic situations is under debate. Therefore, the aim of this project is to analyse 3-dimensional motion and neuromuscular reflex activity of the trunk as response to dynamic trunk loading in healthy (H) and back pain patients (BPP). A measurement tool was developed to assess trunk stability, consisting of dynamic test situations. During these tests, loading of the trunk is generated by the upper and lower limbs with and without additional perturbation. Therefore, lifting of objects and stumbling while walking are adequate represents. With the help of a 12-lead EMG, neuromuscular activity of the muscles encompassing the trunk was assessed. In addition, three-dimensional trunk motion was analysed using a newly developed multi-segmental trunk model. The set-up was checked for reproducibility as well as validity. Afterwards, the defined measurement set-up was applied to assess trunk stability in comparisons of healthy and back pain patients. Clinically acceptable to excellent reliability could be shown for the methods (EMG/kinematics) used in the test situations. No changes in trunk motion pattern could be observed in healthy adults during continuous loading (lifting of objects) of different weights. In contrast, sudden loading of the trunk through perturbations to the lower limbs during walking led to an increased neuromuscular activity and ROM of the trunk. Moreover, BPP showed a delayed muscle response time and extended duration until maximum neuromuscular activity in response to sudden walking perturbations compared to healthy controls. In addition, a reduced lateral flexion of the trunk during perturbation could be shown in BPP. It is concluded that perturbed gait seems suitable to provoke higher demands on trunk stability in adults. The altered neuromuscular and kinematic compensation pattern in back pain patients (BPP) can be interpreted as increased spine loading and reduced trunk stability in patients. Therefore, this novel assessment of trunk stability is suitable to identify deficits in BPP. Assignment of affected BPP to therapy interventions with focus on stabilisation of the trunk aiming to improve neuromuscular control in dynamic situations is implied. Hence, sensorimotor training (SMT) to enhance trunk stability and compensation of unexpected sudden loading should be preferred. N2 - Eine ausgeprägte Rumpfstabilität gilt als vorteilhaft, um den Rumpf bei repetitiven und plötzlich auftretenden hohen Lasten sowohl in Alltagssituationen, am Arbeitsplatz als auch während Training- oder Wettkampfbelastungen im Sport zu stabilisieren und vor Beschwerden bzw. Verletzungen zu schützen. Eine reduzierte Rumpfstabilität wird daher als Risikofaktor für die Entwicklung von Rückenschmerzen angenommen. Eine veränderte Aktivität (verlängerte Reaktionszeit, verlängerte Aktivierungszeiten, erhöhte Ko-Kontraktion) der rumpfumgreifenden Muskulatur sowie ein reduziertes Bewegungsausmaß und eine erhöhte -variabilität des Rumpfes bei Rückenschmerzpatienten sind evident. Diese Unterschiede sind hauptsächlich in quasi-statischen Belastungssituationen mit isolierter Lasteinwirkung direkt am Rumpf nachgewiesen. Eine Übertragbarkeit auf alltagsnahe und dynamische Belastungssituationen ist jedoch kritisch zu hinterfragen. Ziel des Dissertationsprojektes ist die Entwicklung und Validierung eines Diagnostiktools zur Erhebung der Rumpfstabilität in dynamischen Belastungssituationen bei Gesunden und Rückenschmerzpatienten. Für die Erfassung der Rumpfstabilität wurde ein Mess-Verfahren bestehend aus dynamischen Belastungssituationen, in denen die Lasten über die Extremitäten generiert werden (Heben von Lasten, Perturbation im Gang), mit und ohne Perturbation entwickelt. Mit Hilfe eines 12-Kanal-EMGs wurde die neuromuskuläre Aktivität der rumpfumgreifenden Muskulatur erfasst. Zusätzlich wurde die 3-dimensonale Rumpfbewegung über ein neu entwickeltes multi-segmentales Rückenmodell analysiert. Dieses Methodensetup wurde auf Reproduzierbarkeit sowie Validität überprüft. Im Anschluss erfolgte eine Anwendung des definierten Diagnostiktools zur Erfassung der Rumpfstabilität im Vergleich von Probanden mit und ohne Rückenschmerzen. Eine klinisch akzeptable bis hervorragende Reliabilität konnte für die verwendeten Messvariablen (EMG/Kinematik) in den beschriebenen Belastungssituationen (Heben/Gang mit Perturbation) nachgewiesen werden. Gesunde Erwachsene zeigen bei einer kontinuierlichen Belastung des Rumpfes mit unterschiedlichen Gewichten (Heben von Lasten) keine Veränderung der Rumpfbewegung. Die plötzliche Belastung des Rumpfes durch Hinzunahme von Perturbationen der unteren Extremitäten im Gang konnte dagegen bei gesunden Probanden eine messbare Auslenkung des Rumpfes auf kinematischer als auch neuromuskulärer Ebene hervorrufen. Rückenschmerzpatienten zeigten ein verändertes neuromuskuläres und kinematisches Kompensationsmuster bei externen Perturbationen im Gang im Vergleich zu Gesunden. Dies ist charakterisiert durch eine verzögerte Reaktionszeit sowie verlängerte Dauer zum Erreichen der maximalen neuromuskulären Aktivität in Kombination mit einer reduzierten Lateralflexion des Rumpfes während Perturbation. Die gewählte Testsituation - Perturbation im Gang - scheint, trotz Applikation der Perturbation über die Extremitäten und fehlender Fixierung des Beckens, geeignet zur Provokation erhöhter Anforderungen an die Stabilisierung des Rumpfes bei erwachsenen Probanden. Das veränderte neuromuskuläre und kinematische Kompensationsmuster bei Rückenschmerzpatienten kann als Surrogat einer erhöhten Belastung sowie einer reduzierten Rumpfstabilität bei Patienten bewertet werden. Das neu entwickelte Verfahren zur Erfassung der Rumpfstabilität ist geeignet, um Defizite bei Rückenschmerzpatienten zu identifizieren und folglich individuelle Zuordnungen zu Trainingsmaßnahmen vorzunehmen. Der Fokus in der Prävention bzw. Therapie von Rückenschmerzen sollte dem Folgend auf der Stabilisierung des Rumpfes mit dem Ziel der Verbesserung der neuromuskulären Kontrolle des Rumpfes in dynamischen Situationen liegen. Ein sensomotorischer Trainingsansatz (SMT) zur Optimierung der Rumpfstabilität und Kompensationsfähigkeit von unerwarteten externen Lasten ist zu präferieren. KW - electromyography KW - trunk kinematics KW - spine KW - Wirbelsäule KW - Elektromyographie KW - Rumpfkinematik Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102428 ER - TY - THES A1 - Schunack, Silke T1 - Processing of non-canonical word orders in an L2 T1 - Verarbeitung von nichtkanonischen Wortfolgen in der L2 BT - when small changes make no big difference BT - wenn kleine Änderungen keine große Unterschiede machen N2 - This thesis investigates the processing of non-canonical word orders and whether non-canonical orders involving object topicalizations, midfield scrambling and particle verbs are treated the same by native (L1) and non-native (L2) speakers. The two languages investigated are Norwegian and German. 32 L1 Norwegian and 32 L1 German advanced learners of Norwegian were tested in two experiments on object topicalization in Norwegian. The results from the online self-paced reading task and the offline agent identification task show that both groups are able to identify the non-canonical word order and show a facilitatory effect of animate subjects in their reanalysis. Similarly high error rates in the agent identification task suggest that globally unambiguous object topicalizations are a challenging structure for L1 and L2 speakers alike. The same participants were also tested in two experiments on particle placement in Norwegian, again using a self-paced reading task, this time combined with an acceptability rating task. In the acceptability rating L1 and L2 speakers show the same preference for the verb-adjacent placement of the particle over the non-adjacent placement after the direct object. However, this preference for adjacency is only found in the L1 group during online processing, whereas the L2 group shows no preference for either order. Another set of experiments tested 33 L1 German and 39 L1 Slavic advanced learners of German on object scrambling in ditransitive clauses in German. Non-native speakers accept both object orders and show neither a preference for either order nor a processing advantage for the canonical order. The L1 group, in contrast, shows a small, but significant preference for the canonical dative-first order in the judgment and the reading task. The same participants were also tested in two experiments on the application of the split rule in German particle verbs. Advanced L2 speakers of German are able to identify particle verbs and can apply the split rule in V2 contexts in an acceptability judgment task in the same way as L1 speakers. However, unlike the L1 group, the L2 group is not sensitive to the grammaticality manipulation during online processing. They seem to be sensitive to the additional lexical information provided by the particle, but are unable to relate the split particle to the preceding verb and recognize the ungrammaticality in non-V2 contexts. Taken together, my findings suggest that non-canonical word orders are not per se more difficult to identify for L2 speakers than L1 speakers and can trigger the same reanalysis processes as in L1 speakers. I argue that L2 speakers’ ability to identify a non-canonical word order depends on how the non-canonicity is signaled (case marking vs. surface word order), on the constituents involved (identical vs. different word types), and on the impact of the word order change on sentence meaning. Non-canonical word orders that are signaled by morphological case marking and cause no change to the sentence’s content are hard to detect for L2 speakers. N2 - Diese Arbeit untersucht die Verarbeitung nichtkanonischer Wortfolgen und ob nichtkanonische Wortfolgen, die Objekttopikalisierung, Mittelfeldscrambling und Partikelverben beinhalten, von Muttersprachlern (L1) und Fremdsprachenlernern (L2) gleichermaßen verarbeitet werden. Die untersuchten Sprachen sind Norwegisch und Deutsch. 32 norwegische Muttersprachler und 32 fortgeschrittene deutsche Norwegischlerner wurden in zwei Experimenten zur Objekttopikalisierung im Norwegischen getestet. Die Resultate des Leseexperiments und der Agensidentifikation zeigen, dass beide Gruppen in der Lage sind die nichtkanonische Wortfolge zu identifizieren und einen fördernden Effekt von belebten Subjekten auf ihre Reanalyse zeigen. Ähnlich hohe Fehlerrate in der Agensidentifikation suggerieren, dass global unambige Objekttopikalisierungen eine anspruchsvolle Struktur für L1- und L2-Sprecher sind. Dieselben Teilnehmer wurden auch in zwei Experimenten zur Platzierung von Partikeln im Norwegischen getestet. Es wurde wieder ein Leseexperiment durchgeführt, diesmal zusammen mit einem Akzeptabilitätsrating. In diesem Rating zeigen L1- und L2-Sprecher die gleiche Präferenz für die verbnahe Platzierung der Partikel gegenüber der Platzierung nach dem direkten Objekt. Diese Präferenz findet sich im Leseexperiment nur in den Daten der L1-Gruppe, die L2-Gruppe zeigt dort keine Präferenz für eine der beiden Reihenfolgen. Eine weitere Gruppe Experimente testete 33 deutsche Muttersprachler und 39 fortgeschrittene slawische Deutschlerner zum Objektscrambling in deutschen ditransitiven Sätzen. Fremdsprachenlerner akzeptieren beide möglichen Reihenfolgen und zeigen keine Präferenz oder schnellere Verarbeitung für die kanonische Reihenfolge. Die L1-Gruppe zeigt eine numerisch kleine, aber signifikante Präferenz für die kanonische Dativ-Akkusativ-Folge im Akzeptabilitätsrating und dem Leseexperiment. Dieselben Teilnehmer wurden auch in zwei Experimenten zur Anwendung der Trennungsregel bei trennbaren Verben im Deutschen getestet. Fortgeschrittenen L2-Sprecher des Deutschen können trennbare Verben identifizieren und die Trennregel in V2-Kontexten wie dem Akzeptabilitätsrating genauso anwenden wie Muttersprachler. Allerdings zeigt die L2-Gruppe keine Sensibilität gegenüber der Grammatikalitätsmanipulation in der Leseaufgabe. Sie scheinen die zusätzliche lexikalische Information der Partikel wahrzunehmen, können jedoch getrennte Partikel nicht mit dem vorhergehenden Verb verbinden und die Ungrammatikalität der Trennung in Nicht-V2-Kontexten erkennen. Hierin unterscheiden sie sich von Mutterprachlern. Auf der Basis meiner Ergebnisse scheinen nichtkanonische Wortfolgen nicht per se schwieriger zu identifizieren zu sein für Fremdsprachlerner als für Muttersprachler und können dieselben Reanalyseprozesse auslösen. Ich argumentiere, dass die Fähigkeit von L2-Sprechern nichtkanonische Wortfolgen zu identifizieren davon abhängt, wie diese signalisiert werden (morphologische Kasusmarkierung vs. Oberflächenwordfolge), von den involvierten Konstituenten (gleiche vs. verschiedene Wortarten) und dem Einfluss der Änderung der Wortfolge auf die Satzbedeutung. Nichtkanonische Wortfolgen, die durch morphologische Kasusmarkierung signalisiert werden und keine Änderung der Satzbedeutung verursachen sind schwer zu identifizieren für Fremdsprachenlerner. KW - L2 sentence processing KW - object topicalization KW - scrambling KW - particle verbs KW - Norwegian KW - German KW - self-paced reading KW - acceptability judgments KW - Satzverarbeitung KW - Objekttopikalisierung KW - Scrambling KW - Partikelverben KW - Norwegisch KW - Leseexperiment KW - Akzeptabilitätsbewertung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103750 ER - TY - THES A1 - Weitkunat, Karolin T1 - Dietary fibers and short-chain fatty acids in the development of diet-induced obesity Y1 - 2017 ER - TY - THES A1 - You, Zewang T1 - Conformational transition of peptide-functionalized cryogels enabling shape-memory capability Y1 - 2017 ER - TY - THES A1 - Janowski, Marcin Andrzej T1 - Investigating role of the essential GTPase - AtRsgA in the assembly of the small ribosomal subunit in Arabidopsis thaliana chloroplast Y1 - 2017 ER - TY - THES A1 - Fichtner, Franziska T1 - The role of Trehalose 6-Phosphate synthase 1 and trehalose 6-phosphate in plant metabolism and development Y1 - 2017 ER - TY - THES A1 - Moraes, Thiago Alexandre T1 - Exploring the role of the circadian clock in the regulation of starch turnover in changing light conditions in Arabidopsis Y1 - 2017 ER - TY - THES A1 - Marusch, Tina T1 - Language production of inflectional verb morphology in healthy and impaired adult speakers of German and English. N2 - This thesis investigates the processing and representation of (ir-)regularity in inflectional verb morphology in German and English. The focus lies on the predictions from models of morphological processing about the production of subtypes of irregular verbs which are usually subsumed under the category `irregular verbs'. Thus, this dissertation presents three journal articles investigating the language production of healthy speakers and speakers with agrammatic aphasia in order to fill a gap both for the availability of language production data and systematically tested patterns of irregularity. The second Chapter set out to investigate whether regularity of a verb or its phonological complexity (measured in number of phonemes) better predict the production accuracies of German speakers with agrammatic aphasia. While regular verbs were significantly more often correct than mixed and irregular verbs, production accuracies of irregular and mixed verbs for impaired participants did not differ. Thus, no influence of phonological complexity was observed. Chapter 3 aimed at teasing apart the influence of stem changes and affix type on the production accuracies of English speaking individuals with agrammatic aphasia. The analyses revealed that the presence of stem changes but not the type of affix had a significant effect on the production accuracies. Moreover, as four different verb types were tested, results showed that production accuracies did not conform to a regular-irregular distinction but that accuracies differed by the degree of regularity. In Chapter 4, long-lag primed picture naming design was used to study if the differences found in the production accuracies of Chapter 3 were also associated with differences in production latencies of non-brain damaged speakers. A morphological priming effect was found, however, in neither experiment the effect differed of the three verb types tested. In addition to standard frequentist analysis, Bayesian analysis were performed. In this way the absence of a difference of the morphological priming effect between verb types was interpreted as actual evidence for the lack of such a difference. Hence, this thesis presents diverging results on the production of subtypes of irregular verbs in healthy and impaired adult speakers. However, at the same time these results provided evidence that the conventional regular-irregular distinction is not adequate for testing models of morphological processing. KW - inflectional morphology KW - regularity KW - primed picture naming KW - agrammatic aphasia KW - language production Y1 - 2017 ER - TY - THES A1 - Osei Tutu, Anthony T1 - Linking global mantle dynamics with lithosphere dynamics using the geoid, plate velocities and lithosphere stress state as constraints T1 - Verknüpfung der globalen Manteldynamik mit der Lithosphärendynamik, unter Berücksichtigung des Geoids, der Plattengeschwindigkeiten und des Spannungszustandes der Lithosphäre als Einschränkungen BT - lithosphere and mantle dynamics coupling N2 - Lithospheric plates move over the low viscosity asthenosphere balancing several forces. The driving forces include basal shear stress exerted by mantle convection and plate boundary forces such as slab pull and ridge push, whereas the resisting forces include inter-plate friction, trench resistance, and cratonic root resistance. These generate plate motions, the lithospheric stress field and dynamic topography which are observed with different geophysical methods. The orientation and tectonic regime of the observed crustal/lithospheric stress field further contribute to our knowledge of different deformation processes occurring within the Earth's crust and lithosphere. Using numerical models previous studies were able to identify major forces generating stresses in the crust and lithosphere which also contribute to the formation of topography as well as driving lithospheric plates. They showed that the first-order stress pattern explaining about 80\,\% of the stress field originates from a balance of forces acting at the base of the moving lithospheric plates due to convective flow in the underlying mantle. The remaining second-order stress pattern is due to lateral density variations in the crust and lithosphere in regions of pronounced topography and high gravitational potential, such as the Himalayas and mid-ocean ridges. By linking global lithosphere dynamics to deep mantle flow this study seeks to evaluate the influence of shallow and deep density heterogenities on plate motions, lithospheric stress field and dynamic topography using the geoid as a major constraint for mantle rheology. We use the global 3D lithosphere-asthenosphere model SLIM3D with visco-elasto-plastic rheology coupled at 300 km depth to a spectral model of mantle flow. The complexity of the lithosphere-asthenosphere component allows for the simulation of power-law rheology with creep parameters accounting for both diffusion and dislocation creep within the uppermost 300 km. First we investigate the influence of intra-plate friction and asthenospheric viscosity on present-day plate motions. Previous modelling studies have suggested that small friction coefficients (µ < 0.1, yield stress ~ 100 MPa) can lead to plate tectonics in models of mantle convection. Here we show that, in order to match present-day plate motions and net rotation, the frictional parameter must be less than 0.05. We are able to obtain a good fit with the magnitude and orientation of observed plate velocities (NUVEL-1A) in a no-net-rotation (NNR) reference frame with µ < 0.04 and minimum asthenosphere viscosity ~ 5*10e19 Pas to 10e20 Pas. Our estimates of net rotation (NR) of the lithosphere suggest that amplitudes ~ 0.1-0.2 °/Ma, similar to most observation-based estimates, can be obtained with asthenosphere viscosity cutoff values of ~ 10e19 Pas to 5*10e19 Pas and friction coefficient µ < 0.05. The second part of the study investigates further constraints on shallow and deep mantle heterogeneities causing plate motion by predicting lithosphere stress field and topography and validating with observations. Lithosphere stresses and dynamic topography are computed using the modelling setup and rheological parameters for prescribed plate motions. We validate our results with the World Stress Map 2016 (WSM2016) and the observed residual topography. Here we tested a number of upper mantle thermal-density structures. The one used to calculate plate motions is considered the reference thermal-density structure. This model is derived from a heat flow model combined with a sea floor age model. In addition we used three different thermal-density structures derived from global S-wave velocity models to show the influence of lateral density heterogeneities in the upper 300 km on model predictions. A large portion of the total dynamic force generating stresses in the crust/lithosphere has its origin in the deep mantle, while topography is largely influenced by shallow heterogeneities. For example, there is hardly any difference between the stress orientation patterns predicted with and without consideration of the heterogeneities in the upper mantle density structure across North America, Australia, and North Africa. However, the crust is dominant in areas of high altitude for the stress orientation compared to the all deep mantle contribution. This study explores the sensitivity of all the considered surface observables with regards to model parameters providing insights into the influence of the asthenosphere and plate boundary rheology on plate motion as we test various thermal-density structures to predict stresses and topography. N2 - Lithosphärenplatten bewegen sich über die niederviskose Asthenosphäre, wobei mehrere Kräfte im Gleichgewicht stehen. Die antreibenden Kräfte umfassen eine basale Schubspannung, die durch Mantelkonvektion verursacht wird, und Plattengrenzkräfte, wie z.B. slab pull und ridge push, während die widerstehenden Kräfte die Reibung zwischen Platten, Widerstand an Tiefseegräben sowie an den kratonischen Wurzeln umfassen. Diese Kräfte erzeugen Plattenbewegungen, das lithosphärische Spannungsfeld und die dynamische Topographie, die mit verschiedenen geophysikalischen Methoden beobachtet werden. Die Orientierung und das tektonische Regime des beobachteten Krusten- und lithosphärischen Spannungsfeldes tragen weiter zu unserem Wissen über unterschiedliche Deformationsprozesse in der Erdkruste und Lithosphäre bei. Mit Hilfe von numerischen Modellen konnten frühere Studien die wichtigsten Kräfte identifizieren, die Spannungen in der Kruste und in der Lithosphäre erzeugen, und die auch zur Bildung von Topographie sowie zum Antrieb der lithosphärischen Platten beitragen. Sie zeigten, dass das Spannungsmuster erster Ordnung, das etwa 80% des Spannungsfeldes erklärt, aus einem Gleichgewicht der Kräfte stammt, die an der Basis der sich bewegenden lithosphärischen Platten aufgrund der konvektiven Strömung in dem darunter liegenden Mantel wirken. Das verbleibende Spannungsmuster der zweiten Ordnung ist auf laterale Dichtevariationen in der Kruste und der Lithosphäre in Regionen mit ausgeprägter Topographie und hohem Gravitationspotential zurückzuführen, wie im Himalaya und an den Mittelozeanischen Rücken. Durch die Verknüpfung der globalen Lithosphären-Dynamik mit den tiefen Mantelströmungen versucht diese Studie, den Einfluss von flachen und tiefen Dichte-Heterogenitäten auf die Plattenbewegungen, das lithosphärische Spannungsfeld und die dynamische Topographie mit dem Geoid als einer wesentlichen Randbedingung für die Mantel-Rheologie zu untersuchen. Ich verwende das globale 3D-Lithosphären-Asthenosphären-Modell SLIM3D mit viskoelasto-plastischer Rheologie, gekoppelt in 300 km Tiefe an ein spektrales Modell der Mantelströmung. Die Komplexität der Lithosphären-Asthenosphären- Komponente ermöglicht die Simulation der Power-law-Rheologie mit Kriechparametern, die sowohl Diffusions-als auch Dislokationskriechen in den obersten 300km einschließen. Zuerst untersuche ich den Einfluss der Intra-Platten-Reibung und der asthenosphärischen Viskosität auf heutige Plattenbewegungen. Bisherige Modellierungsstudien haben vorgeschlagen, dass kleine Reibungskoeffizienten ( u < 0,1, FlieSSspannung ~ 100 MPa) zu Plattentektonik in Modellen der Mantelkonvektion führen können. Hier zeigen wir, dass der Reibungsparameter, um den heutigen Plattenbewegungen und der Netto-Rotation zu entsprechen, kleiner als 0,05 sein muss. Wir können eine gute Übereinstimmung mit der Größe und Orientierung der beobachteten Plattengeschwindigkeiten (NUVEL-1A) in einem No-Net- Rotation- (NNR) Bezug system mit < 0,04 und minimaler Asthenosphärenviskosität ~ 510^19 Pas bis 10^20 Pas erreichen. Unsere Schätzungen der Netto-Rotation (NR) der Lithosphäre deuten darauf hin, dass Amplituden ~ 0:1 - 0:2 (◦/Ma), ähnlich den meisten Beobachtungs-basierten Schätzungen, mit Asthenosphären- Viskositäts-Cutoff-Werten von ~ 10^19 Pas bis 5 10^19 Pas und Reibungskoeffizient u < 0,05 erreicht werden können. Der zweite Teil der Studie untersucht weitere Einschränkungen auf flache und tiefe Mantelheterogenitäten, welche Plattenbewegungen verursachen, durch die Vorhersage des Lithosphärenspannungsfeldes und der Topographie und deren Validierung mit Beobachtungen. Lithosphärenspannungen und dynamische Topographie werden mit dem Modellaufbau und den rheologischen Parametern für vorgeschriebene Plattenbewegungen berechnet.Wir validieren unsere Ergebnisse mit der Weltspannungskarte 2016 (WSM2016) und der beobachteten Residualtopographie. Hier haben wir eine Anzahl von thermischen Dichte-Strukturen für den oberen Mantel getestet. Diejenige, die verwendet wurde, um Plattenbewegungen zu berechnen, wird als Referenz- thermische Dichte-Struktur betrachtet. Dieses Modell ist abgeleitet aus einem Wärmestrommodell, kombiniert mit einem Ozeanbodenalter-Modell. Darüber hinaus haben wir drei verschiedene thermische Dichtestrukturen abgeleitet aus globalen S-Wellengeschwindigkeits modellen verwendet, um den Einfluss von Heterogenitäten der lateralen Dichte in den oberen 300 km auf Modellvorhersagen zu zeigen. Ein großer Teil der gesamten dynamischen Kraft, die Spannungen in der Kruste / Lithosphäre erzeugt, hat ihren Ursprung im tiefen Mantel, während die Topographie weitgehend durch flache Heterogenitäten beeinflusst wird. Zum Beispiel gibt es kaum einen Unterschied zwischen den Spannungsorientierungsmustern, die mit und ohne Berücksichtigung der Heterogenitäten in der Dichtestruktur des oberen Mantels in Nordamerika, Australien und Nordafrika vorhergesagt wurden. Allerdings dominiert die Kruste in Gebieten von großer Höhe für die Spannungorientierung im Vergleich zu allen tiefen Mantelbeiträgen. Diese Studieerforschen die Empfindlichkeit aller betrachteten Oberflächen-Observablen in Bezug auf Modellparameter und gibt Einblicke über den Einfluss der Asthenosphäre und Plattengrenzen-Rheologie auf Plattenbewegung, wobei wir verschiedene thermische Dichte Strukturen zur Vorhersage von Spannungen und Topographie testen. KW - plate motions KW - plate boundary friction KW - upper mantle viscosity structure KW - lithosphere stress field KW - dynamic topography KW - lithosphere net rotation KW - upper mantle density heterogeneities KW - Plattenbewegungen KW - Reibung an Plattengrenzen KW - Viskositätsstruktur im oberen Mantel KW - lithosphärisches Spannungsfeld KW - dynamische Topographie KW - Nettorotation der Lithosphäre KW - Dichteheterogenitäten im oberen Mantel Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407057 ER - TY - THES A1 - Bredow, Eva T1 - Geodynamic models of plume-ridge interaction T1 - Geodynamische Modelle der Interaktion von Plumes und Mittelozeanischen Rücken BT - case studies of the Réunion, Iceland and Kerguelen mantle plumes BT - Fallstudien der Réunion-, Island- und Kerguelen-Mantleplumes N2 - According to the classical plume hypothesis, mantle plumes are localized upwellings of hot, buoyant material in the Earth’s mantle. They have a typical mushroom shape, consisting of a large plume head, which is associated with the formation of voluminous flood basalts (a Large Igneous Province) and a narrow plume tail, which generates a linear, age-progressive chain of volcanic edifices (a hotspot track) as the tectonic plate migrates over the relatively stationary plume. Both plume heads and tails reshape large areas of the Earth’s surface over many tens of millions of years. However, not every plume has left an exemplary record that supports the classical hypothesis. The main objective of this thesis is therefore to study how specific hotspots have created the crustal thickness pattern attributed to their volcanic activities. Using regional geodynamic models, the main chapters of this thesis address the challenge of deciphering the three individual (and increasingly complex) Réunion, Iceland, and Kerguelen hotspot histories, especially focussing on the interactions between the respective plume and nearby spreading ridges. For this purpose, the mantle convection code ASPECT is used to set up three-dimensional numerical models, which consider the specific local surroundings of each plume by prescribing time-dependent boundary conditions for temperature and mantle flow. Combining reconstructed plate boundaries and plate motions, large-scale global flow velocities and an inhomogeneous lithosphere thickness distribution together with a dehydration rheology represents a novel setup for regional convection models. The model results show the crustal thickness pattern produced by the plume, which is compared to present-day topographic structures, crustal thickness estimates and age determinations of volcanic provinces associated with hotspot activity. Altogether, the model results agree well with surface observations. Moreover, the dynamic development of the plumes in the models provide explanations for the generation of smaller, yet characteristic volcanic features that were previously unexplained. Considering the present-day state of a model as a prediction for the current temperature distribution in the mantle, it cannot only be compared to observations on the surface, but also to structures in the Earth’s interior as imaged by seismic tomography. More precisely, in the case of the Réunion hotspot, the model demonstrates how the distinctive gap between the Maldives and Chagos is generated due to the combination of the ridge geometry and plume-ridge interaction. Further, the Rodrigues Ridge is formed as the surface expression of a long-distance sublithospheric flow channel between the upwelling plume and the closest ridge segment, confirming the long-standing hypothesis of Morgan (1978) for the first time in a dynamic context. The Réunion plume has been studied in connection with the seismological RHUM-RUM project, which has recently provided new seismic tomography images that yield an excellent match with the geodynamic model. Regarding the Iceland plume, the numerical model shows how plume material may have accumulated in an east-west trending corridor of thin lithosphere across Greenland and resulted in simultaneous melt generation west and east of Greenland. This provides an explanation for the extremely widespread volcanic material attributed to magma production of the Iceland hotspot and demonstrates that the model setup is also able to explain more complicated hotspot histories. The Iceland model results also agree well with newly derived seismic tomographic images. The Kerguelen hotspot has an extremely complex history and previous studies concluded that the plume might be dismembered or influenced by solitary waves in its conduit to produce the reconstructed variable melt production rate. The geodynamic model, however, shows that a constant plume influx can result in a variable magma production rate if the plume interacts with nearby mid-ocean ridges. Moreover, the Ninetyeast Ridge in the model is created by on-ridge activities, while the Kerguelen plume was located beneath the Australian plate. This is also a contrast to earlier studies, which described the Ninetyeast Ridge as the result of the Indian plate passing over the plume. Furthermore, the Amsterdam-Saint Paul Plateau in the model is the result of plume material flowing from the upwelling toward the Southeast Indian Ridge, whereas previous geochemical studies attributed that volcanic province to a separate deep plume. In summary, the three case studies presented in this thesis consistently highlight the importance of plume-ridge interaction in order to reconstruct the overall volcanic hotspot record as well as specific smaller features attributed to a certain hotspot. They also demonstrate that it is not necessary to attribute highly complicated properties to a specific plume in order to account for complex observations. Thus, this thesis contributes to the general understanding of plume dynamics and extends the very specific knowledge about the Réunion, Iceland, and Kerguelen mantle plumes. N2 - Nach der klassischen Plume-Hypothese sind Mantelplumes lokalisierte Aufströme aus heißem, aufsteigenden Material im Erdmantel und haben eine typische pilzförmige Struktur. Sie bestehen aus einem großen Plume-Kopf, der mit der Bildung von voluminösen Flutbasalten (einer Magmatischen Großprovinz) assoziiert wird und einem engen Plume-Schlauch, der eine lineare Kette von Vulkanen mit aufsteigendem Alter (einen Hotspot-Track) erzeugt, indem die tektonische Platte über den relativ stationären Plume wandert. Sowohl Plume-Köpfe als auch Plume-Schläuche formen große Gebiete der Erdoberfläche über viele zehn Millionen Jahre um. Allerdings hat nicht jeder Plume mustergültige Spuren hinterlassen, die die klassische Hypothese unterstützen. Das Hauptziel dieser Arbeit ist daher zu untersuchen, wie ein spezifischer Hotspot den ihm zugeordneten Hotspot-Track erzeugt hat. Mit Hilfe regionaler geodynamischer Modelle stellen sich die Hauptkapitel dieser Arbeit der Herausforderung, die drei individuellen (und zunehmend komplexen) Geschichten des Réunion-, Island- und Kerguelen-Hotspots zu entschlüsseln, wobei insbesondere die Wechselwirkungen zwischen dem jeweiligen Plume und nahegelegenen Mittelozeanischen Rücken im Mittelpunkt stehen. Zu diesem Zweck wird der Mantelkonvektions-Code ASPECT verwendet, um dreidimensionale numerische Modelle zu erstellen, die die spezielle lokale Umgebung jedes Plumes berücksichtigen, indem zeitabhängige Randbedingungen für Temperatur und Mantelströmung vorgeschrieben werden. Die Kombination von rekonstruierten Plattengrenzen und Plattenbewegungen, großräumigen globalen Strömungsgeschwindigkeiten und einer inhomogenen Lithosphärendickenverteilung zusammen mit einer Dehydrierungs-Rheologie stellt eine neue Konfiguration für regionale Konvektionsmodelle dar. Die Modellergebnisse zeigen die vom Plume produzierte Verteilung von vulkanischem Material, die mit heutigen topographischen Strukturen, Schätzungen der Krustendicke und Altersbestimmungen vulkanischer Provinzen verglichen wird. Insgesamt stimmen die Modellergebnisse gut mit den Oberflächenbeobachtungen überein. Darüber hinaus liefert die dynamische Entwicklung der Plumes in den Modellen Erklärungen für die Erzeugung kleinerer, aber charakteristischer vulkanischer Strukturen, deren Herkunft bisher unerklärt war. Betrachtet man den heutigen Zustand eines Modells als Vorhersage für die aktuelle Temperaturverteilung im Mantel, kann man ihn nicht nur mit Beobachtungen an der Oberfläche vergleichen, sondern auch mit Strukturen im Erdinneren, wie sie durch seismische Tomographie abgebildet werden. Genauer gesagt zeigt das Modell im Falle des Réunion-Hotspots, wie die charakteristische Lücke zwischen den Malediven und Chagos aufgrund der Kombination der Geometrie des Mittelozeanischen Rückens und der Interaktion zwischen Plume und Rücken erzeugt wird. Des Weiteren wird der Rodrigues-Rücken als Oberflächenerscheinung eines sublithosphärischen Strömungskanals zwischen dem aufsteigenden Plume und dem nächstgelegenen Segment des Mittelozeanischen Rückens gebildet, was die langjährige Hypothese von Morgan (1978) zum ersten Mal in einem dynamischen Kontext bestätigt. Der Réunion-Plume wurde im Rahmen des seismo- logischen RHUM-RUM-Projektes untersucht, das kürzlich neue seismische Tomographiebilder ergeben hat, die eine exzellente Übereinstimmung mit dem geodynamischen Modell aufweisen. Was den Island-Plume betrifft, so zeigt das numerische Modell, wie sich Plume-Material in einem von Ost nach West verlaufenden Korridor dünner Lithosphäre in Grönland angesammelt haben könnte und zu einer gleichzeitigen Schmelzerzeugung westlich und östlich von Grönland geführt hat. Dies erklärt das extrem weit verbreitete vulkanische Material, das der Magmaproduktion des Island-Hotspots zugeschrieben wird, und demonstriert, dass der Modell-Aufbau auch kompliziertere Hotspot-Geschichten erklären kann. Die Ergebnisse des Island-Modells stimmen ebenfalls gut mit neu erzeugten seismischen Tomographiebildern überein. Der Kerguelen-Hotspot hat eine äußerst komplexe Geschichte und frühere Studien kamen zu dem Schluss, dass der Plume eine zerrissene Struktur oder durch einzelne Wellen im Schlauch beeinflusst sein könnte, um die rekonstruierte variable Schmelzproduktionsrate zu erzeugen. Das geodynamische Modell zeigt jedoch, dass ein konstanter Plume-Einstrom zu einer variablen Magmaproduktionsrate führen kann, wenn der Plume mit nahegelegenen mittelozeanischen Rücken interagiert. Darüber hinaus wird der Neunzig-Grad-Ost-Rücken im Modell am Mittelozeanischen Rücken erschaffen, während der Kerguelen-Plume unter der australischen Platte lag. Dies steht auch im Gegensatz zu früheren Studien, die den Neunzig-Grad-Ost-Rücken als Ergebnis der über den Plume wandernden indischen Platte beschrieben haben. Darüber hinaus ist das Amsterdam-Saint Paul-Plateau im Modell das Ergebnis von Plume-Material, das von der Aufstiegsregion in Richtung des Südostindischen Rückens fließt, wohingegen frühere geochemische Studien diese vulkanische Provinz einem separaten tiefen Plume zugeschrieben haben. Zusammenfassend verdeutlichen die drei in dieser Arbeit präsentierten Fallstudien die Bedeutung der Interaktion zwischen Plume und Mittelozeanischen Rücken für die Rekonstruktion der Verteilung des gesamten vom Hotspot erzeugten vulkanischen Materials sowie von spezifischen kleineren Strukturen, die einem bestimmten Hotspot zugeordnet sind. Es wird auch gezeigt, dass es nicht notwendig ist, einem bestimmten Plume hochkomplizierte Eigenschaften zuzuschreiben, um komplexe Beobachtungen zu erklären. Somit trägt diese Arbeit zum allgemeinen Verständnis der Dynamik von Plumes bei und erweitert das sehr spezifische Wissen über die Réunion-, Island-, und Kerguelen-Mantelplumes. KW - geodynamic models KW - plume-ridge interaction KW - Réunion KW - Iceland KW - Kerguelen KW - mantle plumes KW - geodynamische Modelle KW - Plume-Rücken Interaktion KW - Réunion KW - Island KW - Kerguelen KW - Mantleplumes Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411732 ER - TY - THES A1 - Zuo, Zhe T1 - From unstructured to structured: Context-based named entity mining from text T1 - Von unstrukturiert zu strukturiert: Kontextbasierte Gewinnung benannter Entitäten von Text N2 - With recent advances in the area of information extraction, automatically extracting structured information from a vast amount of unstructured textual data becomes an important task, which is infeasible for humans to capture all information manually. Named entities (e.g., persons, organizations, and locations), which are crucial components in texts, are usually the subjects of structured information from textual documents. Therefore, the task of named entity mining receives much attention. It consists of three major subtasks, which are named entity recognition, named entity linking, and relation extraction. These three tasks build up an entire pipeline of a named entity mining system, where each of them has its challenges and can be employed for further applications. As a fundamental task in the natural language processing domain, studies on named entity recognition have a long history, and many existing approaches produce reliable results. The task is aiming to extract mentions of named entities in text and identify their types. Named entity linking recently received much attention with the development of knowledge bases that contain rich information about entities. The goal is to disambiguate mentions of named entities and to link them to the corresponding entries in a knowledge base. Relation extraction, as the final step of named entity mining, is a highly challenging task, which is to extract semantic relations between named entities, e.g., the ownership relation between two companies. In this thesis, we review the state-of-the-art of named entity mining domain in detail, including valuable features, techniques, evaluation methodologies, and so on. Furthermore, we present two of our approaches that focus on the named entity linking and relation extraction tasks separately. To solve the named entity linking task, we propose the entity linking technique, BEL, which operates on a textual range of relevant terms and aggregates decisions from an ensemble of simple classifiers. Each of the classifiers operates on a randomly sampled subset of the above range. In extensive experiments on hand-labeled and benchmark datasets, our approach outperformed state-of-the-art entity linking techniques, both in terms of quality and efficiency. For the task of relation extraction, we focus on extracting a specific group of difficult relation types, business relations between companies. These relations can be used to gain valuable insight into the interactions between companies and perform complex analytics, such as predicting risk or valuating companies. Our semi-supervised strategy can extract business relations between companies based on only a few user-provided seed company pairs. By doing so, we also provide a solution for the problem of determining the direction of asymmetric relations, such as the ownership_of relation. We improve the reliability of the extraction process by using a holistic pattern identification method, which classifies the generated extraction patterns. Our experiments show that we can accurately and reliably extract new entity pairs occurring in the target relation by using as few as five labeled seed pairs. N2 - Mit den jüngsten Fortschritten in den Gebieten der Informationsextraktion wird die automatisierte Extrahierung strukturierter Informationen aus einer unüberschaubaren Menge unstrukturierter Textdaten eine wichtige Aufgabe, deren manuelle Ausführung unzumutbar ist. Benannte Entitäten, (z.B. Personen, Organisationen oder Orte), essentielle Bestandteile in Texten, sind normalerweise der Gegenstand strukturierter Informationen aus Textdokumenten. Daher erhält die Aufgabe der Gewinnung benannter Entitäten viel Aufmerksamkeit. Sie besteht aus drei groen Unteraufgaben, nämlich Erkennung benannter Entitäten, Verbindung benannter Entitäten und Extraktion von Beziehungen. Diese drei Aufgaben zusammen sind der Grundprozess eines Systems zur Gewinnung benannter Entitäten, wobei jede ihre eigene Herausforderung hat und für weitere Anwendungen eingesetzt werden kann. Als ein fundamentaler Aspekt in der Verarbeitung natürlicher Sprache haben Studien zur Erkennung benannter Entitäten eine lange Geschichte, und viele bestehenden Ansätze erbringen verlässliche Ergebnisse. Die Aufgabe zielt darauf ab, Nennungen benannter Entitäten zu extrahieren und ihre Typen zu bestimmen. Verbindung benannter Entitäten hat in letzter Zeit durch die Entwicklung von Wissensdatenbanken, welche reiche Informationen über Entitäten enthalten, viel Aufmerksamkeit erhalten. Das Ziel ist es, Nennungen benannter Entitäten zu unterscheiden und diese mit dazugehörigen Einträgen in einer Wissensdatenbank zu verknüpfen. Der letzte Schritt der Gewinnung benannter Entitäten, die Extraktion von Beziehungen, ist eine stark anspruchsvolle Aufgabe, nämlich die Extraktion semantischer Beziehungen zwischen Entitäten, z.B. die Eigentümerschaft zwischen zwei Firmen. In dieser Doktorarbeit arbeiten wir den aktuellen Stand der Wissenschaft in den Domäne der Gewinnung benannter Entitäten auf, unter anderem wertvolle Eigenschaften und Evaluationsmethoden. Darüberhinaus präsentieren wir zwei Ansätze von uns, die jeweils ihren Fokus auf die Verbindung benannter Entitäten sowie der Aufgaben der Extraktion von Beziehungen legen. Um die Aufgabe der Verbindung benannter Entitäten zu lösen schlagen wir hier die Verbindungstechnik BEL vor, welche auf einer textuellen Bandbreite relevanter Begriffe agiert und Entscheidungen einer Kombination von einfacher Klassifizierer aggregiert. Jeder dieser Klassifizierer arbeitet auf einer zufällig ausgewählten Teilmenge der obigen Bandbreite. In umfangreichen Experimenten mit handannotierten sowie Vergleichsdatensätzen hat unser Ansatz andere Lösungen zur Verbindung benannter Entitäten, die auf dem Stand der aktuellen Technik beruhen, sowie in Bezug auf Qualität als auch Effizienz geschlagen. Für die Aufgabe der Extraktion von Beziehungen fokussieren wir uns auf eine bestimmte Gruppe schwieriger Beziehungstypen, nämlich die Geschäftsbeziehungen zwischen Firmen. Diese Beziehungen können benutzt werden, um wertvolle Erkenntnisse in das Zusammenspiel von Firmen zu gelangen und komplexe Analysen ausführen, beispielsweise die Risikovorhersage oder Bewertung von Firmen. Unsere teilbeaufsichtigte Strategie kann Geschäftsbeziehungen zwischen Firmen anhand nur weniger nutzergegebener Startwerte von Firmenpaaren extrahieren. Dadurch bieten wir auch eine Lösung für das Problem der Richtungserkennung asymmetrischer Beziehungen, beispielsweise der Eigentumsbeziehung. Wir verbessern die Verlässlichkeit des Extraktionsprozesses, indem wir holistische Musteridentifikationsmethoden verwenden, welche die erstellten Extraktionsmuster klassifizieren. Unsere Experimente zeigen, dass wir neue Entitätenpaare akkurat und verlässlich in der Zielbeziehung mit bereits fünf bezeichneten Startpaaren extrahieren können. KW - named entity mining KW - information extraction KW - natural language processing KW - Gewinnung benannter Entitäten KW - Informationsextraktion KW - maschinelle Verarbeitung natürlicher Sprache Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412576 ER - TY - THES A1 - Beyhl, Thomas T1 - A framework for incremental view graph maintenance T1 - Ein Framework für die inkrementelle Wartung von Sichten auf Graphen N2 - Nowadays, graph data models are employed, when relationships between entities have to be stored and are in the scope of queries. For each entity, this graph data model locally stores relationships to adjacent entities. Users employ graph queries to query and modify these entities and relationships. These graph queries employ graph patterns to lookup all subgraphs in the graph data that satisfy certain graph structures. These subgraphs are called graph pattern matches. However, this graph pattern matching is NP-complete for subgraph isomorphism. Thus, graph queries can suffer a long response time, when the number of entities and relationships in the graph data or the graph patterns increases. One possibility to improve the graph query performance is to employ graph views that keep ready graph pattern matches for complex graph queries for later retrieval. However, these graph views must be maintained by means of an incremental graph pattern matching to keep them consistent with the graph data from which they are derived, when the graph data changes. This maintenance adds subgraphs that satisfy a graph pattern to the graph views and removes subgraphs that do not satisfy a graph pattern anymore from the graph views. Current approaches for incremental graph pattern matching employ Rete networks. Rete networks are discrimination networks that enumerate and maintain all graph pattern matches of certain graph queries by employing a network of condition tests, which implement partial graph patterns that together constitute the overall graph query. Each condition test stores all subgraphs that satisfy the partial graph pattern. Thus, Rete networks suffer high memory consumptions, because they store a large number of partial graph pattern matches. But, especially these partial graph pattern matches enable Rete networks to update the stored graph pattern matches efficiently, because the network maintenance exploits the already stored partial graph pattern matches to find new graph pattern matches. However, other kinds of discrimination networks exist that can perform better in time and space than Rete networks. Currently, these other kinds of networks are not used for incremental graph pattern matching. This thesis employs generalized discrimination networks for incremental graph pattern matching. These discrimination networks permit a generalized network structure of condition tests to enable users to steer the trade-off between memory consumption and execution time for the incremental graph pattern matching. For that purpose, this thesis contributes a modeling language for the effective definition of generalized discrimination networks. Furthermore, this thesis contributes an efficient and scalable incremental maintenance algorithm, which updates the (partial) graph pattern matches that are stored by each condition test. Moreover, this thesis provides a modeling evaluation, which shows that the proposed modeling language enables the effective modeling of generalized discrimination networks. Furthermore, this thesis provides a performance evaluation, which shows that a) the incremental maintenance algorithm scales, when the graph data becomes large, and b) the generalized discrimination network structures can outperform Rete network structures in time and space at the same time for incremental graph pattern matching. N2 - Heutzutage werden Graphdatenmodelle verwendet um Beziehungen zwischen Entitäten zu speichern und diese Beziehungen später abzufragen. Jede Entität im Graphdatenmodell speichert lokal die Beziehungen zu anderen verknüpften Entitäten. Benutzer stellen Suchanfragen um diese Entitäten und Beziehungen abzufragen und zu modifizieren. Dafür machen Suchanfragen Gebrauch von Graphmustern um alle Teilgraphen in den Graphdaten zu finden, die über bestimmte Graphstrukturen verfügen. Diese Teilgraphen werden Graphmusterübereinstimmung (Match) genannt. Allerdings ist diese Suche nach Matches NP-vollständig für Teilgraphisomorphie. Daher können Suchanfragen einer langen Antwortzeit unterliegen, wenn die Anzahl von Entitäten und Beziehungen in den Graphdaten oder -mustern ansteigt. Eine Möglichkeit die Antwortzeiten von Suchanfragen zu verbessern ist Matches für komplexe Suchanfragen in sogenannten Sichten über die Graphdaten für spätere Suchanfragen bereitzuhalten. Allerdings müssen diese Sichten mittels einer inkrementellen Suche nach Matches gewartete werden um sie konsistent zu den sich ändernden Graphdaten zu halten. Diese Wartung ergänzt Teilgraphen, die Graphmuster erfüllen, in den Sichten und entfernt Teilgraphen, die Graphmuster nicht mehr erfüllen, aus den Sichten. Aktuelle Ansätze für die inkrementelle Suche nach Matches verwenden Rete Netzwerke. Rete Netzwerke sind sogenannte Discrimination Networks, die alle Matches für bestimmte Suchanfragen aufzählen und warten, indem sie ein Netzwerk aus einzelnen Teilgraphmustern anwenden, die zusammen eine vollständige Suchanfrage ergeben. Das Netzwerk speichert für jedes Teilgraphmuster welche Teilgraphen das Teilgraphmuster erfüllen. Daher haben Rete Netzwerke einen hohen Speicherverbrauch, da sie alle Zwischenergebnisse speichern müssen. Jedoch sind es gerade diese gespeicherten Zwischenergebnisse, die es dem Rete Netzwerk ermöglichen die gespeicherten Zwischenergebnisse effizient zu warten, da diese Zwischenergebnisse für das Auffinden neuer Matches ausgenutzt werden. Allerdings existieren andere Arten von Discrimination Networks, die hinsichtlich Speicher- und Zeitverbrauch effizienter sind, aber derzeit nicht für die inkrementelle Suche nach Matches verwendet werden. Diese Doktorarbeit wendet eine verallgemeinerte Art von Discrimination Networks an. Diese verallgemeinerte Art ermöglicht es die Balance zwischen Speicher- und Zeitverbrauch für die inkrementelle Suche nach Matches zu steuern. Dafür stellt diese Arbeit eine Modellierungssprache vor, die es ermöglicht verallgemeinerte Arten von Discrimination Networks effektiv zu spezifizieren. Darauf aufbauend stellt diese Arbeit einen inkrementellen Algorithmus vor, der die gespeicherten Matches effizient und skalierbar wartet. Abschließend stellt diese Arbeit eine Evaluierung vor, die aufzeigt dass die Modellierungssprache eine effektive Spezifikation von verallgemeinerten Discrimination Networks erlaubt. Außerdem zeigt die Evaluierung, dass a) der inkrementelle Wartungsalgorithmus für große Graphdaten skaliert und b) die Netzwerkstrukturen von verallgemeinerten Discrimination Networks im Vergleich zu den Netzwerkstrukturen von Rete Netzwerken im Speicher- und Zeitverbrauch für die inkrementelle Suche nach Matches effizienter sein können. KW - incremental graph pattern matching KW - discrimination networks KW - Rete networks KW - Gator networks KW - model-driven software engineering KW - inkrementelle Graphmustersuche KW - Discrimination Networks KW - Rete Netzwerk KW - Gator Netzwerk KW - modellgetriebene Softwareentwicklung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405929 ER - TY - THES A1 - Papenbrock, Thorsten T1 - Data profiling - efficient discovery of dependencies T1 - Profilerstellung für Daten - Effiziente Entdeckung von Abhängigkeiten N2 - Data profiling is the computer science discipline of analyzing a given dataset for its metadata. The types of metadata range from basic statistics, such as tuple counts, column aggregations, and value distributions, to much more complex structures, in particular inclusion dependencies (INDs), unique column combinations (UCCs), and functional dependencies (FDs). If present, these statistics and structures serve to efficiently store, query, change, and understand the data. Most datasets, however, do not provide their metadata explicitly so that data scientists need to profile them. While basic statistics are relatively easy to calculate, more complex structures present difficult, mostly NP-complete discovery tasks; even with good domain knowledge, it is hardly possible to detect them manually. Therefore, various profiling algorithms have been developed to automate the discovery. None of them, however, can process datasets of typical real-world size, because their resource consumptions and/or execution times exceed effective limits. In this thesis, we propose novel profiling algorithms that automatically discover the three most popular types of complex metadata, namely INDs, UCCs, and FDs, which all describe different kinds of key dependencies. The task is to extract all valid occurrences from a given relational instance. The three algorithms build upon known techniques from related work and complement them with algorithmic paradigms, such as divide & conquer, hybrid search, progressivity, memory sensitivity, parallelization, and additional pruning to greatly improve upon current limitations. Our experiments show that the proposed algorithms are orders of magnitude faster than related work. They are, in particular, now able to process datasets of real-world, i.e., multiple gigabytes size with reasonable memory and time consumption. Due to the importance of data profiling in practice, industry has built various profiling tools to support data scientists in their quest for metadata. These tools provide good support for basic statistics and they are also able to validate individual dependencies, but they lack real discovery features even though some fundamental discovery techniques are known for more than 15 years. To close this gap, we developed Metanome, an extensible profiling platform that incorporates not only our own algorithms but also many further algorithms from other researchers. With Metanome, we make our research accessible to all data scientists and IT-professionals that are tasked with data profiling. Besides the actual metadata discovery, the platform also offers support for the ranking and visualization of metadata result sets. Being able to discover the entire set of syntactically valid metadata naturally introduces the subsequent task of extracting only the semantically meaningful parts. This is challenge, because the complete metadata results are surprisingly large (sometimes larger than the datasets itself) and judging their use case dependent semantic relevance is difficult. To show that the completeness of these metadata sets is extremely valuable for their usage, we finally exemplify the efficient processing and effective assessment of functional dependencies for the use case of schema normalization. N2 - Data Profiling ist eine Disziplin der Informatik, die sich mit der Analyse von Datensätzen auf deren Metadaten beschäftigt. Die verschiedenen Typen von Metadaten reichen von einfachen Statistiken wie Tupelzahlen, Spaltenaggregationen und Wertverteilungen bis hin zu weit komplexeren Strukturen, insbesondere Inklusionsabhängigkeiten (INDs), eindeutige Spaltenkombinationen (UCCs) und funktionale Abhängigkeiten (FDs). Diese Statistiken und Strukturen dienen, sofern vorhanden, dazu die Daten effizient zu speichern, zu lesen, zu ändern und zu verstehen. Die meisten Datensätze stellen ihre Metadaten aber nicht explizit zur Verfügung, so dass Informatiker sie mittels Data Profiling bestimmen müssen. Während einfache Statistiken noch relativ schnell zu berechnen sind, stellen die komplexen Strukturen schwere, zumeist NP-vollständige Entdeckungsaufgaben dar. Es ist daher auch mit gutem Domänenwissen in der Regel nicht möglich sie manuell zu entdecken. Aus diesem Grund wurden verschiedenste Profiling Algorithmen entwickelt, die die Entdeckung automatisieren. Keiner dieser Algorithmen kann allerdings Datensätze von heutzutage typischer Größe verarbeiten, weil entweder der Ressourcenverbrauch oder die Rechenzeit effektive Grenzen überschreiten. In dieser Arbeit stellen wir neuartige Profiling Algorithmen vor, die automatisch die drei populärsten Typen komplexer Metadaten entdecken können, nämlich INDs, UCCs, und FDs, die alle unterschiedliche Formen von Schlüssel-Abhängigkeiten beschreiben. Die Aufgabe dieser Algorithmen ist es alle gültigen Vorkommen der drei Metadaten-Typen aus einer gegebenen relationalen Instanz zu extrahieren. Sie nutzen dazu bekannte Entdeckungstechniken aus verwandten Arbeiten und ergänzen diese um algorithmische Paradigmen wie Teile-und-Herrsche, hybrides Suchen, Progressivität, Speichersensibilität, Parallelisierung und zusätzliche Streichungsregeln. Unsere Experimente zeigen, dass die vorgeschlagenen Algorithmen mit den neuen Techniken nicht nur um Größenordnungen schneller sind als alle verwandten Arbeiten, sie erweitern auch aktuelle Beschränkungen deutlich. Sie können insbesondere nun Datensätze realer Größe, d.h. mehrerer Gigabyte Größe mit vernünftigem Speicher- und Zeitverbrauch verarbeiten. Aufgrund der praktischen Relevanz von Data Profiling hat die Industrie verschiedene Profiling Werkzeuge entwickelt, die Informatiker in ihrer Suche nach Metadaten unterstützen sollen. Diese Werkzeuge bieten eine gute Unterstützung für die Berechnung einfacher Statistiken. Sie sind auch in der Lage einzelne Abhängigkeiten zu validieren, allerdings mangelt es ihnen an Funktionen zur echten Entdeckung von Metadaten, obwohl grundlegende Entdeckungstechniken schon mehr als 15 Jahre bekannt sind. Um diese Lücke zu schließen haben wir Metanome entwickelt, eine erweiterbare Profiling Plattform, die nicht nur unsere eigenen Algorithmen sondern auch viele weitere Algorithmen anderer Forscher integriert. Mit Metanome machen wir unsere Forschungsergebnisse für alle Informatiker und IT-Fachkräfte zugänglich, die ein modernes Data Profiling Werkzeug benötigen. Neben der tatsächlichen Metadaten-Entdeckung bietet die Plattform zusätzlich Unterstützung bei der Bewertung und Visualisierung gefundener Metadaten. Alle syntaktisch korrekten Metadaten effizient finden zu können führt natürlicherweise zur Folgeaufgabe daraus nur die semantisch bedeutsamen Teile zu extrahieren. Das ist eine Herausforderung, weil zum einen die Mengen der gefundenen Metadaten überraschenderweise groß sind (manchmal größer als der untersuchte Datensatz selbst) und zum anderen die Entscheidung über die Anwendungsfall-spezifische semantische Relevanz einzelner Metadaten-Aussagen schwierig ist. Um zu zeigen, dass die Vollständigkeit der Metadaten sehr wertvoll für ihre Nutzung ist, veranschaulichen wir die effiziente Verarbeitung und effektive Bewertung von funktionalen Abhängigkeiten am Anwendungsfall Schema Normalisierung. KW - data profiling KW - functional dependency KW - unique column combination KW - inclusion dependency KW - dependency KW - metanome KW - metadata KW - discovery KW - hybrid KW - divide-and-conquer KW - Profilerstellung für Daten KW - funktionale Abhängigkeit KW - eindeutige Spaltenkombination KW - Inklusionsabhängigkeit KW - Abhängigkeit KW - Metanome KW - Metadaten KW - Entdeckung KW - Hybrid KW - Teile und Herrsche Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406705 ER - TY - THES A1 - Reyna González, Emmanuel T1 - Engineering of the microviridin post-translational modification enzymes for the production of synthetic protease inhibitors T1 - Manipulation der posttranslationalen Modifikationsenzyme von Microviridin zur Herstellung synthetischer Proteaseinhibitoren N2 - Natural products and their derivatives have always been a source of drug leads. In particular, bacterial compounds have played an important role in drug development, for example in the field of antibiotics. A decrease in the discovery of novel leads from natural sources and the hope of finding new leads through the generation of large libraries of drug-like compounds by combinatorial chemistry aimed at specific molecular targets drove the pharmaceutical companies away from research on natural products. However, recent technological advances in genetics, bioinformatics and analytical chemistry have revived the interest in natural products. The ribosomally synthesized and post-translationally modified peptides (RiPPs) are a group of natural products generated by the action of post-translationally modifying enzymes on precursor peptides translated from mRNA by ribosomes. The great substrate promiscuity exhibited by many of the enzymes from RiPP biosynthetic pathways have led to the generation of hundreds of novel synthetic and semisynthetic variants, including variants carrying non-canonical amino acids (ncAAs). The microviridins are a family of RiPPs characterized by their atypical tricyclic structure composed of lactone and lactam rings, and their activity as serine protease inhibitors. The generalities of their biosynthetic pathway have already been described, however, the lack of information on details such as the protease responsible for cleaving off the leader peptide from the cyclic core peptide has impeded the fast and cheap production of novel microviridin variants. In the present work, knowledge on leader peptide activation of enzymes from other RiPP families has been extrapolated to the microviridin family, making it possible to bypass the need of a leader peptide. This feature allowed for the exploitation of the microviridin biosynthetic machinery for the production of novel variants through the establishment of an efficient one-pot in vitro platform. The relevance of this chemoenzymatic approach has been exemplified by the synthesis of novel potent serine protease inhibitors from both rationally-designed peptide libraries and bioinformatically predicted microviridins. Additionally, new structure-activity relationships (SARs) could be inferred by screening microviridin intermediates. The significance of this technique was further demonstrated by the simple incorporation of ncAAs into the microviridin scaffold. N2 - Naturstoffe und ihre Derivate waren schon immer eine Quelle von Leitstrukturen. Insbesondere haben bakterielle Verbindungen eine wichtige Rolle bei der Arzneimittelentwicklung gespielt, zum Beispiel im Bereich der Antibiotika. Die Abnahme von Entdeckungen neuer Leitstrukturen aus natürlichen Quellen und die Hoffnung, neue Leitstrukturen in großen Bibliotheken medikamentenähnlicher Verbindungen zu finden, welche auf spezifische molekulare Ziele gerichtet sind und mithilfe kombinatorischer Chemie erstellt wurden, trieben die Pharmaunternehmen weg von der Naturstoffforschung. Allerdings haben moderne technologische Fortschritte in der Genetik, der Bioinformatik und der analytischen Chemie das Interesse an Naturstoffen wiederbelebt. Die ribosomal synthetisierten und posttranslational modifizierten Peptide (RiPPs) sind eine Gruppe von Naturstoffen, die durch das Einwirken posttranslational modifizierender Enzymen auf Präkursorpeptide entstehen, welche ihrerseits aus mRNA durch Translation an den Ribosomen hervorgehen. Die durch viele der Enzyme aus RiPP Biosynthesewege gezeigte große Substrat- Promiskuität führte zur Erzeugung hunderter neuartiger synthetischer und halbsynthetischer Varianten, einschließlich Varianten mit nicht-kanonischen Aminosäuren. Die Microviridine sind eine Familie von RiPPs, die durch ihre atypische trizyklische Struktur aus Lacton- und Lactamringen und ihre Aktivität als Serin-Protease-Inhibitoren gekennzeichnet sind. Die Grundlagen ihres Biosyntheseweges sind bereits beschrieben worden, aber wesentliche Fragestellungen, zum Beispiel die für die Spaltung des Leader-Peptids vom zyklischen Core- Peptid verantwortliche Protease betreffend, sind weitgehend ungeklärt und erschweren die schnelle und kostengünstige Herstellung neuer Microviridinvarianten. In der vorliegenden Arbeit wurde das Wissen über die durch Leader-Peptid Aktivierung von Enzymen aus anderen RiPP-Familien auf die Microviridinfamilie extrapoliert, wodurch es möglich wurde, die Notwendigkeit eines Leader-Peptids zu umgehen. Diese Besonderheit erlaubt nunmehr, die Microviridin-Biosynthese-Enzyme für die Herstellung von neuartigen Varianten durch die Etablierung einer effizienten in vitro Synthese-Plattform auszunutzen. Die Relevanz dieses chemoenzymatischen Ansatzes wurde durch die Synthese von neuen potenten Serin-Protease- Inhibitoren aus sowohl rational gestalteten Peptidbibliotheken als auch bioinformatisch vorhergesagten Microviridinen veranschaulicht. Darüber hinaus wurden durch das Screenen von Microviridinzwischenprodukten neue Struktur-Funktionsbeziehungen abgeleitet. Die Bedeutung dieser Technik wurde durch den einfachen Einbau von nicht-kanonischen Aminosäuren in das Microviridin-Gerüst weiter demonstriert. KW - RiPP KW - microviridin KW - biosynthesis KW - natural products KW - peptide KW - protease inhibitor KW - Biosynthese KW - Naturstoffe KW - cyanobacteria KW - Cyanobakterien KW - Microviridin KW - Protease-Inhibitoren Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406979 ER - TY - THES A1 - de Abreu e Lima, Francisco Anastacio T1 - Experimental validation of hybrid performance predictive models in Zea mays L. Y1 - 2017 ER - TY - THES A1 - de Souza, Leonardo Perez T1 - Functional characterization of biosynthesis and regulation of plant secondary metabolism Y1 - 2017 ER - TY - THES A1 - Reike, Dennis T1 - A look behind perceptual performance in numerical cognition T1 - Ein Blick hinter die perzeptuellen Leistungen numerischer Kognition N2 - Recognizing, understanding, and responding to quantities are considerable skills for human beings. We can easily communicate quantities, and we are extremely efficient in adapting our behavior to numerical related tasks. One usual task is to compare quantities. We also use symbols like digits in numerical-related tasks. To solve tasks including digits, we must to rely on our previously learned internal number representations. This thesis elaborates on the process of number comparison with the use of noisy mental representations of numbers, the interaction of number and size representations and how we use mental number representations strategically. For this, three studies were carried out. In the first study, participants had to decide which of two presented digits was numerically larger. They had to respond with a saccade in the direction of the anticipated answer. Using only a small set of meaningfully interpretable parameters, a variant of random walk models is described that accounts for response time, error rate, and variance of response time for the full matrix of 72 digit pairs. In addition, the used random walk model predicts a numerical distance effect even for error response times and this effect clearly occurs in the observed data. In relation to corresponding correct answers error responses were systematically faster. However, different from standard assumptions often made in random walk models, this account required that the distributions of step sizes of the induced random walks be asymmetric to account for this asymmetry between correct and incorrect responses. Furthermore, the presented model provides a well-defined framework to investigate the nature and scale (e.g., linear vs. logarithmic) of the mapping of numerical magnitude onto its internal representation. In comparison of the fits of proposed models with linear and logarithmic mapping, the logarithmic mapping is suggested to be prioritized. Finally, we discuss how our findings can help interpret complex findings (e.g., conflicting speed vs. accuracy trends) in applied studies that use number comparison as a well-established diagnostic tool. Furthermore, a novel oculomotoric effect is reported, namely the saccadic overschoot effect. The participants responded by saccadic eye movements and the amplitude of these saccadic responses decreases with numerical distance. For the second study, an experimental design was developed that allows us to apply the signal detection theory to a task where participants had to decide whether a presented digit was physically smaller or larger. A remaining question is, whether the benefit in (numerical magnitude – physical size) congruent conditions is related to a better perception than in incongruent conditions. Alternatively, the number-size congruency effect is mediated by response biases due to numbers magnitude. The signal detection theory is a perfect tool to distinguish between these two alternatives. It describes two parameters, namely sensitivity and response bias. Changes in the sensitivity are related to the actual task performance due to real differences in perception processes whereas changes in the response bias simply reflect strategic implications as a stronger preparation (activation) of an anticipated answer. Our results clearly demonstrate that the number-size congruency effect cannot be reduced to mere response bias effects, and that genuine sensitivity gains for congruent number-size pairings contribute to the number-size congruency effect. Third, participants had to perform a SNARC task – deciding whether a presented digit was odd or even. Local transition probability of irrelevant attributes (magnitude) was varied while local transition probability of relevant attributes (parity) and global probability occurrence of each stimulus were kept constantly. Participants were quite sensitive in recognizing the underlying local transition probability of irrelevant attributes. A gain in performance was observed for actual repetitions of the irrelevant attribute in relation to changes of the irrelevant attribute in high repetition conditions compared to low repetition conditions. One interpretation of these findings is that information about the irrelevant attribute (magnitude) in the previous trial is used as an informative precue, so that participants can prepare early processing stages in the current trial, with the corresponding benefits and costs typical of standard cueing studies. Finally, the results reported in this thesis are discussed in relation to recent studies in numerical cognition. N2 - Das Erkennen, Verstehen und Verwenden von Mengen sind beachtliche menschliche Fähigkeiten. Die Kommunikation numerischer Information fällt uns leicht, zudem beeinflussen numerische Informationen unser Handeln. Eine typische numerische Aufgabe ist der Mengenvergleich. Um solche Mengen zu beschreiben verwenden wir Ziffern als Symbole zur Bildung von Zahlen. Um Zahlen zu vergleichen, müssen wir auf die zuvor erlernte interne Zahlenrepräsentationen zurückgreifen. In dieser Dissertation werden drei Studien vorgestellt. Diese betrachten den Prozess des Zahlenvergleichs, die Interaktion numerischer und physikalischer Repräsentation und die strategische Nutzung numerischer Repräsentationen. In der ersten Studie sollten Versuchspersonen so schnell wie möglich die größere von zwei präsentierten Zahlen angeben. Sie sollten mit einer Sakkade in Richtung der größeren Zahl antworten. Eine Variante von Random Walk Modellen mit einem sparsamen Set an interpretierbaren Parameter wurde verwendet um die Reaktionszeit, die Fehlerrate und die Varianz der Reaktionszeit zu beschreiben. Auch für Fehlerzeiten sagt dieses Modell einen numerischen Distanzeffekt vorher, der sich in den Daten robust zeigt. Außerdem sind Fehlerzeiten schneller als korrespondierende Reaktionszeiten richtiger Antworten. Diese Asymmetrie lässt sich durch eine schiefe Schrittgrößenverteilung erklären, welche nicht zu den üblichen Standardannahmen von Random Walk Modellen gehört. Das vorgestellte Modell liefert einen definierten Rahmen um die Art und Skalierung (z.B. linear vs. logarithmisch) numerischer Repräsentationen zu untersuchen, wobei die Ergebnisse klar für eine logarithmische Skalierung sprechen. Abschließend wird ein Ausblick gegeben, wie dieses Modell helfen kann, komplexe Befunde (z.B. Geschwindigkeit vs. Genauigkeit) in Studien zu erklären, die Zahlenvergleiche als etabliertes Werkzeug verwenden. Außerdem beschreiben wir einen neuen okulomotorischen Effekt, den sakkadischen Overschoot Effekt. Für die zweite Studie wurde ein experimentelles Design entwickelt, das es ermöglicht die Signalentdeckungstheorie zu verwenden. Hierbei sollten Versuchspersonen die physikalische Größe von Ziffern beurteilen. Eine offene Frage ist, ob der Leistungsgewinn in (numerisch - physikalisch) kongruenten Bedingungen auf eine verbesserte Wahrnehmung oder auf einen numerisch induzierten Antwortbias zurückzuführen ist. Die Signalentdeckungstheorie ist das perfekte Werkzeug um zwischen diesen beiden Erklärungen zu unterscheiden. Dabei werden zwei Parameter beschrieben, die Sensitivität und der Antwortbias. Unsere Ergebnisse demonstrieren, dass der Zahlen-Größen Effekt nicht auf einen einfachen Antwortbias zurückzuführen ist. Vielmehr tragen wahre Sensitivitätsgewinne in kongruenten Bedingungen zur Entstehung des Zahlen-Größen Effekts bei. In der dritten Studie sollten die Versuchspersonen eine SNARC Aufgabe durchführen, wobei sie angeben sollten ob eine präsentierte Zahl gerade oder ungerade ist. Die lokale Wiederholungswahrscheinlichkeit des irrelevanten Attributes (Magnitude) wurde zwischen Versuchspersonen variiert. Die Versuchspersonen waren sensitiv für diese Wiederholungswahrscheinlichkeiten. Ein Leistungsgewinn zeigte sich bei tatsächlichen Wiederholungen des irrelevanten Attributes in der Bedingung mit hoher Wiederholungswahrscheinlichkeit des irrelevanten Attributes. Eine mögliche Interpretation ist, dass Informationen aus dem Vortrial als eine Art Hinweis betrachtet werden, so dass die Versuchspersonen im aktuellen Trial frühe Prozessstufen vorbereiten können, was zu entsprechenden Gewinnen und Kosten führt. Die in dieser Dissertation berichteten Ergebnisse werden abschließend diskutiert und in Relation zu aktuellen Studien im Bereich der numerischen Kognition gesetzt. KW - numerical cognition KW - mental number representation KW - numerische Kognition KW - mentale Zahlenrepräsentation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407821 ER - TY - THES A1 - Paul, Fabian T1 - Markov state modeling of binding and conformational changes of proteins T1 - Markow-Modellierung von Bindung und Konformationsänderungen bei Proteinen N2 - Proteins are molecules that are essential for life and carry out an enormous number of functions in organisms. To this end, they change their conformation and bind to other molecules. However, the interplay between conformational change and binding is not fully understood. In this work, this interplay is investigated with molecular dynamics (MD) simulations of the protein-peptide system Mdm2-PMI and by analysis of data from relaxation experiments. The central task it to uncover the binding mechanism, which is described by the sequence of (partial) binding events and conformational change events including their probabilities. In the simplest case, the binding mechanism is described by a two-step model: binding followed by conformational change or conformational change followed by binding. In the general case, longer sequences with multiple conformational changes and partial binding events are possible as well as parallel pathways that differ in their sequences of events. The theory of Markov state models (MSMs) provides the theoretical framework in which all these cases can be modeled. For this purpose, MSMs are estimated in this work from MD data, and rate equation models, which are related to MSMs, are inferred from experimental relaxation data. The MD simulation and Markov modeling of the PMI-Mdm2 system shows that PMI and Mdm2 can bind via multiple pathways. A main result of this work is a dissociation rate on the order of one event per second, which was calculated using Markov modeling and is in agreement with experiment. So far, dissociation rates and transition rates of this magnitude have only been calculated with methods that speed up transitions by acting with time-dependent, external forces on the binding partners. The simulation technique developed in this work, in contrast, allows the estimation of dissociation rates from the combination of free energy calculation and direct MD simulation of the fast binding process. Two new statistical estimators TRAM and TRAMMBAR are developed to estimate a MSM from the joint data of both simulation types. In addition, a new analysis technique for time-series data from chemical relaxation experiments is developed in this work. It allows to identify one of the above-mentioned two-step mechanisms as the mechanism that underlays the data. The new method is valid for a broader range of concentrations than previous methods and therefore allows to choose the concentrations such that the mechanism can be uniquely identified. It is successfully tested with data for the binding of recoverin to a rhodopsin kinase peptide. N2 - Proteine sind für das Leben essentielle Moleküle, die eine Vielzahl von Funktionen in Organismen ausüben. Dazu ändern sie ihre Konformation und binden an andere Moleküle. Jedoch ist das Zusammenspiel zwischen Konformationsänderung und Bindung nicht vollständig verstanden. In dieser Arbeit wird dieses Zusammenspiel mit Molekulardynamik-Simulationen (MD) des Protein-Peptid-Systems Mdm2-PMI und mit der Analyse von Daten aus Relaxationsexperimenten untersucht. Die zentrale Aufgabe ist, den Bindungsmechanismus aufzudecken, welcher durch die Reihenfolge von (partiellen) Bindungsereignissen und Konformationsänderungsereignissen beschrieben wird, inklusive der Wahrscheinlichkeiten dieser Ereignisse. Im einfachsten Fall lässt sich der Bindungsmechanismus durch ein Zwei-Schritt-Modell beschreiben: erst Bindung, dann Konformationsänderung oder erst Konformationsänderung und dann Bindung. Im allgemeinen Fall sind längere Schrittfolgen mit mehreren Konformationsänderungen und partiellen Bindungsereignissen möglich, ebenso wie parallele Wege, die sich in ihrer Schrittfolge unterscheiden. Die Theorie der Markow-Modelle (MSM) bildet den theoretischen Rahmen, in dem alle diese Fälle modelliert werden können. Dazu werden in dieser Arbeit MSMs aus MD-Daten geschätzt und Ratengleichungsmodelle, die mit MSMs verwandt sind, aus experimentellen Relaxationsdaten abgeleitet. Die MD-Simulation und Markow-Modellierung des PMI-Mdm2-Systems zeigt, dass PMI und Mdm2 auf verschiedenen Wegen binden können. Ein Hauptergebnis dieser Arbeit ist die durch Markow-Modellierung berechnete Dissoziationsrate von der Größenordnung von einem Ereignis pro Sekunde in Übereinstimmung mit experimentellen Daten. Dissoziations- und Übergangsraten in dieser Größenordnung wurden bisher nur mit Methoden berechnet, die Übergänge beschleunigen, indem mit zeitabhängigen, externen Kräften auf die Bindungspartner eingewirkt wird. Die in dieser Arbeit entwickelte Simulationstechnik dagegen erlaubt die Schätzung von Dissoziationsraten aus der Kombination von Freien-Energie-Rechnungen und direkter MD-Simulation des schnellen Bindungsprozesses. Zwei neue statistische Schätzer, TRAM und TRAMMBAR wurden entwickelt um ein MSM aus dem Gesamtdatensatz aus beiden Simulationstypen zu schätzen. Zudem wird in dieser Arbeit eine neue Analysetechnik für Zeitreihen aus chemischen Relaxationsexperimenten entwickelt. Sie ermöglicht es einen der beiden oben erwähnten Zwei-Schritt-Mechanismen als den den Daten zugrundeliegenden Mechanismus zu identifizieren. Die neue Methode ist für einen größeren Konzentrationsbereich gültig als frühere Methoden und erlaubt es daher, die Konzentrationen so zu wählen, dass der Mechanismus eindeutig identifiziert werden kann. Sie wurde erfolgreich mit Daten für die Bindung von Recoverin an ein Rhodopsinkinasenpeptid getestet. KW - protein-protein interaction KW - Protein-Protein-Interaktion KW - conformational selection KW - Konformationsselektion KW - induced fit KW - induzierte Passform KW - Markov state models KW - Markowketten KW - importance sampling KW - protein kinetics KW - Proteinkinetik KW - stopped-flow KW - flussunterbrechende Analyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404273 ER - TY - THES A1 - Weißenberger, Martin T1 - Start-up subsidies for the unemployed - New evaluation approaches and insights T1 - Gründungsförderung für Arbeitslose - Neue Evaluationsansätze und -ergebnisse N2 - Start-up incentives targeted at unemployed individuals have become an important tool of the Active Labor Market Policy (ALMP) to fight unemployment in many countries in recent years. In contrast to traditional ALMP instruments like training measures, wage subsidies, or job creation schemes, which are aimed at reintegrating unemployed individuals into dependent employment, start-up incentives are a fundamentally different approach to ALMP, in that they intend to encourage and help unemployed individuals to exit unemployment by entering self-employment and, thus, by creating their own jobs. In this sense, start-up incentives for unemployed individuals serve not only as employment and social policy to activate job seekers and combat unemployment but also as business policy to promote entrepreneurship. The corresponding empirical literature on this topic so far has been mainly focused on the individual labor market perspective, however. The main part of the thesis at hand examines the new start-up subsidy (“Gründungszuschuss”) in Germany and consists of four empirical analyses that extend the existing evidence on start-up incentives for unemployed individuals from multiple perspectives and in the following directions: First, it provides the first impact evaluation of the new start-up subsidy in Germany. The results indicate that participation in the new start-up subsidy has significant positive and persistent effects on both reintegration into the labor market as well as the income profiles of participants, in line with previous evidence on comparable German and international programs, which emphasizes the general potential of start-up incentives as part of the broader ALMP toolset. Furthermore, a new innovative sensitivity analysis of the applied propensity score matching approach integrates findings from entrepreneurship and labor market research about the key role of an individual’s personality on start-up decision, business performance, as well as general labor market outcomes, into the impact evaluation of start-up incentives. The sensitivity analysis with regard to the inclusion and exclusion of usually unobserved personality variables reveals that differences in the estimated treatment effects are small in magnitude and mostly insignificant. Consequently, concerns about potential overestimation of treatment effects in previous evaluation studies of similar start-up incentives due to usually unobservable personality variables are less justified, as long as the set of observed control variables is sufficiently informative (Chapter 2). Second, the thesis expands our knowledge about the longer-term business performance and potential of subsidized businesses arising from the start-up subsidy program. In absolute terms, the analysis shows that a relatively high share of subsidized founders successfully survives in the market with their original businesses in the medium to long run. The subsidy also yields a “double dividend” to a certain extent in terms of additional job creation. Compared to “regular”, i.e., non-subsidized new businesses founded by non-unemployed individuals in the same quarter, however, the economic and growth-related impulses set by participants of the subsidy program are only limited with regard to employment growth, innovation activity, or investment. Further investigations of possible reasons for these differences show that differential business growth paths of subsidized founders in the longer run seem to be mainly limited by higher restrictions to access capital and by unobserved factors, such as less growth-oriented business strategies and intentions, as well as lower (subjective) entrepreneurial persistence. Taken together, the program has only limited potential as a business and entrepreneurship policy intended to induce innovation and economic growth (Chapters 3 and 4). And third, an empirical analysis on the level of German regional labor markets yields that there is a high regional variation in subsidized start-up activity relative to overall new business formation. The positive correlation between regular start-up intensity and the share among all unemployed individuals who participate in the start-up subsidy program suggests that (nascent) unemployed founders also profit from the beneficial effects of regional entrepreneurship capital. Moreover, the analysis of potential deadweight and displacement effects from an aggregated regional perspective emphasizes that the start-up subsidy for unemployed individuals represents a market intervention into existing markets, which affects incumbents and potentially produces inefficiencies and market distortions. This macro perspective deserves more attention and research in the future (Chapter 5). N2 - Die Gründungsförderung für Arbeitslose ist inzwischen in vielen Ländern fester Bestandteil der Aktiven Arbeitsmarktpolitik (ALMP) zur Bekämpfung der Arbeitslosigkeit. Im Gegensatz zu traditionellen ALMP-Instrumenten wie Fortbildungs- und Qualifikationsmaßnahmen, Lohnsubventionen oder Arbeitsbeschaffungsmaßnahmen ist das Ziel der Gründungsförderung keine Wiedereingliederung der Arbeitslosen in eine abhängige Beschäftigung, sondern ein Arbeitsmarktwiedereintritt in Selbständigkeit. Somit verfolgt dieses Instrument als ALMP-Maßnahme grundsätzlich nicht nur arbeitsmarkt- und sozialpolitische Ziele, sondern stellt indirekt auch eine Politik zur allgemeinen Förderung von Entrepreneurship und Existenzgründungen dar. Die zugehörige empirische Literatur war in der Vergangenheit jedoch hauptsächlich auf individuelle Arbeitsmarkteffekte dieser Programme konzentriert. Die vorliegende Dissertation beschäftigt sich eingehend mit dem deutschen Gründungszuschuss und besteht aus vier eigenständigen empirischen Studien, die die bestehende Evidenz zu Gründungsförderprogrammen für Arbeitslose durch folgende neue Erkenntnisse aus verschiedenen Perspektiven ergänzen und erweitern: Erstens zeigt die erstmalige kausale Wirkungsanalyse des Gründungszuschusses, dass das untersuchte Programm positive und langfristig anhaltende individuelle Fördereffekte auf Arbeitsmarktreintegration und Erwerbseinkommen für teilnehmende Arbeitslose aufweist. Die sehr vorteilhaften empirischen Befunde bestätigen ähnliche nationale und internationale Ergebnisse zu vergleichbaren Programmen und setzen sich damit von den insgesamt durchwachsenen Evaluationsergebnissen traditioneller ALMP-Maßnahmen ab. Dies unterstreicht das grundsätzliche Potential der Gründungsförderung von Arbeitslosen im Rahmen des ALMP-Instrumentariums. Eine innovative Sensitivitätsanalyse des verwendeten Propensity Score Matching Ansatzes ergibt zudem, dass die Ergebnisse der Programmevaluation nur geringfügig auf die (Nicht-)Berücksichtigung von üblicherweise unbeobachteten Persönlichkeitsvariablen reagieren, deren starker Einfluss auf Gründungsentscheidungen, Unternehmensentwicklungen und Arbeitsmarkterfolge in der Literatur breit dokumentiert ist. Die Gefahr und das Ausmaß einer potentiellen Verzerrung der Ergebnisse durch das Auslassen dieser Persönlichkeitsmerkmalen ist somit bei vergleichbaren Studien grundsätzlich als eher gering einzustufen, sofern die Liste der übrigen Kontrollvariablen informativ genug ist (Kapitel 2). Zweitens zeigt die empirische Analyse der Entrepreneurship-Perspektive, dass ein hoher Anteil an den durch den Gründungszuschuss geförderten Gründungen aus Arbeitslosigkeit auch mittel- bis langfristig erfolgreich im Markt etabliert ist und eine „doppelte Dividende“ der Förderung in Form von zusätzlicher Beschäftigung in den Unternehmen in begrenztem Umfang erzielt wird. Allerdings sind die geförderten Unternehmungen im Vergleich zu „regulären“ Gründungen, die von nicht-arbeitslosen Gründerpersonen im gleichen Quartal gegründet wurden, unterdurchschnittlich innovativ, investieren weniger und setzen geringere Impulse für Wachstum. Weiterführende Untersuchungen zeigen auf, dass mögliche Gründe dafür Restriktionen bei der Kapitalbeschaffung, weniger wachstums- und innovationsorientierte Unternehmensvorhaben und -strategien, sowie eine weniger stark ausgeprägte unternehmerische (subjektive) Persistenz bei einem Teil der arbeitslosen Gründer sind. Dies impliziert, dass sich die Gründungsförderung von Arbeitslosen nur in bedingtem Maße als Entrepreneurship-Maßnahme im engeren Sinne eignet, die Wachstums- und Innovationspotenziale freisetzt (Kapitel 3 und 4). Drittens lässt sich anhand einer empirischen Analyse auf Ebene regionaler Arbeitsmärkte feststellen, dass eine hohe regionale Variation in der relativen Bedeutung der Gründungsförderung am gesamten Gründungsgeschehen besteht. Die positive Korrelation zwischen regulärer Gründungsaktivität und dem Anteil arbeitsloser Gründerpersonen an allen potentiell teilnahmeberechtigten Arbeitslosen deutet darauf hin, dass positive Effekte von regionalem Entrepreneurshipkapital auch für arbeitslose Gründerpersonen wirksam sind. Zudem zeigt die empirische Analyse potentieller Mitnahme- und Verdrängungseffekte, dass Gründungsförderungen für Arbeitslose immer auch Eingriffe in bestehende Märkte sind, die direkte Auswirkungen auf existierende Unternehmen haben. Diese Makro-Ebene insbesondere ist noch untererforscht und verdient weitere Aufmerksamkeit (Kapitel 5). KW - Gründungsförderung KW - Arbeitslosigkeit KW - Arbeitsmarktpolitik KW - Entrepreneurship KW - Gründungszuschuss KW - business support KW - unemployment KW - labor market policy KW - entrepreneurship KW - start-up subsidy Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406362 ER - TY - THES A1 - Lindblad Petersen, Oliver T1 - The Cauchy problem for the linearised Einstein equation and the Goursat problem for wave equations T1 - Das Cauchyproblem für die linearisierte Einsteingleichung und das Goursatproblem für Wellengleichungen N2 - In this thesis, we study two initial value problems arising in general relativity. The first is the Cauchy problem for the linearised Einstein equation on general globally hyperbolic spacetimes, with smooth and distributional initial data. We extend well-known results by showing that given a solution to the linearised constraint equations of arbitrary real Sobolev regularity, there is a globally defined solution, which is unique up to addition of gauge solutions. Two solutions are considered equivalent if they differ by a gauge solution. Our main result is that the equivalence class of solutions depends continuously on the corre- sponding equivalence class of initial data. We also solve the linearised constraint equations in certain cases and show that there exist arbitrarily irregular (non-gauge) solutions to the linearised Einstein equation on Minkowski spacetime and Kasner spacetime. In the second part, we study the Goursat problem (the characteristic Cauchy problem) for wave equations. We specify initial data on a smooth compact Cauchy horizon, which is a lightlike hypersurface. This problem has not been studied much, since it is an initial value problem on a non-globally hyperbolic spacetime. Our main result is that given a smooth function on a non-empty, smooth, compact, totally geodesic and non-degenerate Cauchy horizon and a so called admissible linear wave equation, there exists a unique solution that is defined on the globally hyperbolic region and restricts to the given function on the Cauchy horizon. Moreover, the solution depends continuously on the initial data. A linear wave equation is called admissible if the first order part satisfies a certain condition on the Cauchy horizon, for example if it vanishes. Interestingly, both existence of solution and uniqueness are false for general wave equations, as examples show. If we drop the non-degeneracy assumption, examples show that existence of solution fails even for the simplest wave equation. The proof requires precise energy estimates for the wave equation close to the Cauchy horizon. In case the Ricci curvature vanishes on the Cauchy horizon, we show that the energy estimates are strong enough to prove local existence and uniqueness for a class of non-linear wave equations. Our results apply in particular to the Taub-NUT spacetime and the Misner spacetime. It has recently been shown that compact Cauchy horizons in spacetimes satisfying the null energy condition are necessarily smooth and totally geodesic. Our results therefore apply if the spacetime satisfies the null energy condition and the Cauchy horizon is compact and non-degenerate. N2 - In der vorliegenden Arbeit werden zwei Anfangswertsprobleme aus der Allgemeinen Relativitätstheorie betrachtet. Das erste ist das Cauchyproblem für die linearisierte Einsteingleichung auf allgemeinen global hyperbolischen Raumzeiten mit glatten und distributionellen Anfangsdaten. Wir verallgemeinern bekannte Ergebnisse, indem wir zeigen, dass für jede gegebene Lösung der linearisierten Constraintgleichungen mit reeller Sobolevregularität eine global definierte Lösung existiert, die eindeutig ist bis auf Addition von Eichlösungen. Zwei Lösungen sind äquivalent falls sie sich durch eine Eichlösung unterscheiden. Unser Hauptergebnis ist, dass die äquivalenzklasse der Lösungen stetig von der zugehörigen Äquivalenzklasse der Anfangsdaten abhängt. Wir lösen auch die linearisierten Constraintgleichungen in Spezialfällen und zeigen, dass beliebig irreguläre (nicht Eich-) Lösungen der linearisierten Einsteingleichungen auf der Minkowski-Raumzeit und der Kasner-Raumzeit existieren. Im zweiten Teil betrachten wir das Goursatproblem (das charakteristische Cauchyproblem) für Wellengleichungen. Wir geben Anfangsdaten auf einem Cauchyhorizont vor, der eine lichtartige Hyperfläche ist. Dieses Problem wurde bisher noch nicht viel betrachtet, weil es ein Anfangswertproblem auf einer nicht global hyperbolischen Raumzeit ist. Unser Hauptergebnis ist: Gegeben eine glatte Funktion auf einem nicht-leeren glatten, kompakten, totalgeodätischen und nicht-degenerierten Cauchyhorizont und eine so genannte zulässige Wellengleichung, dann existiert eine eindeutige Lösung, die auf dem global hyperbolischen Gebiet definiert ist und deren Einschränkung auf dem Cauchyhorizont die gegebene Funktion ist. Die Lösung hängt stetig von den Anfangsdaten ab. Eine Wellengleichung heißt zulässig, falls der Teil erster Ordnung eine gewisse Bedingung am Cauchyhorizont erfüllt, zum Beispiel falls er gleich Null ist. Interessant ist, dass Existenz der Lösung und Eindeutigkeit falsch sind für allgemeine Wellengleichungen, wie Beispiele zeigen. Falls wir die Bedingung der Nichtdegeneriertheit weglassen, ist Existenz von Lösungen falsch sogar für die einfachste Wellengleichung. Der Beweis benötigt genaue Energieabschätzungen für die Wellengleichung nahe am Cauchyhorizont. Im Fall, dass die Ricci-Krümmung am Cauchyhorizont verschwindet, zeigen wir, dass die Energieabschätzungen stark genug sind, um lokale Existenz und Eindeutigkeit für eine Klasse von nicht-linearen Wellengleichungen zu zeigen. Unser Ergebnis ist zum Beispiel auf der Taub-NUT-Raumzeit oder der Misner-Raumzeit gültig. Es wurde vor kurzem gezeigt, dass kompakte Cauchyhorizonte in Raumzeiten, die die Nullenergiebedingung erfüllen, notwendigerweise glatt und totalgeodätisch sind. Unsere Ergebnisse sind deshalb auf Raumzeiten gültig, die die Nullenergiebedingung erfüllen, wenn der Cauchyhorizont kompakt und nicht-degeneriert ist. KW - Cauchy horizon KW - the Goursat problem KW - the characteristic Cauchy problem KW - wave equation KW - the Cauchy problem KW - gravitational wave KW - the linearised Einstein equation KW - Cauchyhorizont KW - das Goursatproblem KW - das charakteristische Cauchyproblem KW - Wellengleichung KW - das Cauchyproblem KW - Gravitationswelle KW - die linearisierte Einsteingleichung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410216 ER - TY - THES A1 - Jank, Anne-Marie T1 - Effects of senescence on microenvironment-progenitor cell interaction Y1 - 2017 ER - TY - THES A1 - Kretschmer, Marlene T1 - Disentangling causal pathways of the stratospheric polar vortex BT - a machine learning approach Y1 - 2017 ER - TY - THES A1 - Theuring, Philipp Christian T1 - Suspended sediments in the Kharaa River, sources and impacts T1 - Feinsedimente im Kharaa Fluss, Quellen und Auswirkungen N2 - Anthropogenically amplified erosion leads to increased fine-grained sediment input into the fluvial system in the 15.000 km2 Kharaa River catchment in northern Mongolia and constitutes a major stressing factor for the aquatic ecosystem. This study uniquely combines the application of intensive monitoring, source fingerprinting and catchment modelling techniques to allow for the comparison of the credibility and accuracy of each single method. High-resolution discharge data were used in combination with daily suspended solid measurements to calculate the suspended sediment budget and compare it with estimations of the sediment budget model SedNet. The comparison of both techniques showed that the development of an overall sediment budget with SedNet was possible, yielding results in the same order of magnitude (20.3 kt a- 1 and 16.2 kt a- 1). Radionuclide sediment tracing, using Be-7, Cs-137 and Pb-210 was applied to differentiate sediment sources for particles < 10μm from hillslope and riverbank erosion and showed that riverbank erosion generates 74.5% of the suspended sediment load, whereas surface erosion contributes 21.7% and gully erosion only 3.8%. The contribution of the single subcatchments of the Kharaa to the suspended sediment load was assessed based on their variation in geochemical composition (e.g. in Ti, Sn, Mo, Mn, As, Sr, B, U, Ca and Sb). These variations were used for sediment source discrimination with geochemical composite fingerprints based on Genetic Algorithm driven Discriminant Function Analysis, the Kruskal–Wallis H-test and Principal Component Analysis. The contributions of the individual sub-catchment varied from 6.4% to 36.2%, generally showing higher contributions from the sub-catchments in the middle, rather than the upstream portions of the study area. The results indicate that river bank erosion generated by existing grazing practices of livestock is the main cause for elevated fine sediment input. Actions towards the protection of the headwaters and the stabilization of the river banks within the middle reaches were identified as the highest priority. Deforestation and by lodging and forest fires should be prevented to avoid increased hillslope erosion in the mountainous areas. Mining activities are of minor importance for the overall catchment sediment load but can constitute locally important point sources for particular heavy metals in the fluvial system. N2 - Durch Landnutzung erhöhte Erosion führt zu verstärktem Eintrag von Feinsedimenten im 15.000 km2 großen Einzugsgebiet des Kharaa in der nördlichen Mongolei. Diese Einträge stellen einen starken Stressor für das aquatische Ökosystem dar. Im Rahmen dieser Studie werden auf neuartige Weise verschiedene Ansätze zur Untersuchung der Feinsedimentdynamik im Einzugsgebiet kombiniert. Der Vergleich der Ergebnisse aus zeitlich hochaufgelösten Abfluss- und Schwebstoffanalysen, Sedimentbudgetmodellierung und „Sediment Source Fingerprinting“ Techniken erlaubt eine Bewertung der Genauigkeit und Anwendbarkeit jeder einzelnen Methodik im Untersuchungsgebiet. Das anhand von Abflussund Schwebstoffmessdaten berechnete Sedimentbudget am Gebietsauslass wurde mit dem mittels des Sedimentbudgetmodels SedNet berechneten Sedimentbudget verglichen. Die Ergebnisse von des aus Abfluss- und Schwebstoffmessdaten berechneten Sedimentbudgets (20,3 kt a- 1) und der mittels SedNet berechneten Werte (16,2 kt a- 1) zeigen eine befriedigende Übereinstimmung und bekräftigen die Anwendbarkeit des Models. Zur Unterscheidung der Herkunft der Feinsedimente hinsichtlich des dominanten Erosionsprozesses wurde die Sedimentfraktion < 10μm hinsichtlich der Konzentrationen der Radioisotope Be-7, Cs-137 und Pb-210 analysiert. Die Ergebnisse zeigen, dass Gerinneerosion für 74.5% der Suspensionsfracht verantwortlich ist und Einträge durch Flächenerosion 21.7% und durch Gully-erosion nur 3.8% beitragen. Zur Untersuchung der Anteile der Teileinzugsgebiete an der Gesamtsuspensionsfracht am Gebietsauslass wurden die Sedimente der Teilgebiete hinsichtlich der Variation ihrer geochemischen Zusammensetzung untersucht (z.B. Ti, Sn, Mo, Mn, As, Sr, B, U, Ca und Sb). Anhand der Zusammensetzung wurde jeweils ein spezifischer “Fingerabdruck” für Sedimente aus spezifischen Teileinzugsgebieten definiert. Mittels Diskriminanzanalyse, Kruskal–Wallis H-test und Hauptkomponentenanalyse konnten die Beiträge der Teileinzugsgebiete an der Gesamtfracht mit einem Mischungsmodel berechnet werden. Generell trugen die oberläufigen Teileinzugsgebiete am geringsten, und die mittelläufigen am stärksten zur Sediment Fracht bei. Die Ergebnisse der Studie zeigen, dass durch Überweidung begünstigte Ufererosion für den Hauptteil der Suspensionsfracht im Kharaa Fluss verantwortlich ist. Zur Verringerung des Schwebstoffeintrags in den Fluss werden Maßnahmen zur Uferbefestigung, insbesondere der Schutz und die Wiederherstellung der Ufervegetation als primäre Maßnahmen empfohlen. KW - sediment source fingerprinting KW - Mongolia KW - suspended sediments KW - sediment transport modelling KW - Mongolei KW - Sedimentquellenidentifizierung KW - Feinsedimente KW - Sedimentfracht Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410550 ER - TY - THES A1 - Zieger, Tobias T1 - Self-adaptive data quality BT - automating duplicate detection N2 - Carrying out business processes successfully is closely linked to the quality of the data inventory in an organization. Lacks in data quality lead to problems: Incorrect address data prevents (timely) shipments to customers. Erroneous orders lead to returns and thus to unnecessary effort. Wrong pricing forces companies to miss out on revenues or to impair customer satisfaction. If orders or customer records cannot be retrieved, complaint management takes longer. Due to erroneous inventories, too few or too much supplies might be reordered. A special problem with data quality and the reason for many of the issues mentioned above are duplicates in databases. Duplicates are different representations of same real-world objects in a dataset. However, these representations differ from each other and are for that reason hard to match by a computer. Moreover, the number of required comparisons to find those duplicates grows with the square of the dataset size. To cleanse the data, these duplicates must be detected and removed. Duplicate detection is a very laborious process. To achieve satisfactory results, appropriate software must be created and configured (similarity measures, partitioning keys, thresholds, etc.). Both requires much manual effort and experience. This thesis addresses automation of parameter selection for duplicate detection and presents several novel approaches that eliminate the need for human experience in parts of the duplicate detection process. A pre-processing step is introduced that analyzes the datasets in question and classifies their attributes semantically. Not only do these annotations help understanding the respective datasets, but they also facilitate subsequent steps, for example, by selecting appropriate similarity measures or normalizing the data upfront. This approach works without schema information. Following that, we show a partitioning technique that strongly reduces the number of pair comparisons for the duplicate detection process. The approach automatically finds particularly suitable partitioning keys that simultaneously allow for effective and efficient duplicate retrieval. By means of a user study, we demonstrate that this technique finds partitioning keys that outperform expert suggestions and additionally does not need manual configuration. Furthermore, this approach can be applied independently of the attribute types. To measure the success of a duplicate detection process and to execute the described partitioning approach, a gold standard is required that provides information about the actual duplicates in a training dataset. This thesis presents a technique that uses existing duplicate detection results and crowdsourcing to create a near gold standard that can be used for the purposes above. Another part of the thesis describes and evaluates strategies how to reduce these crowdsourcing costs and to achieve a consensus with less effort. N2 - Die erfolgreiche Ausführung von Geschäftsprozessen ist eng an die Datenqualität der Datenbestände in einer Organisation geknüpft. Bestehen Mängel in der Datenqualität, kann es zu Problemen kommen: Unkorrekte Adressdaten verhindern, dass Kunden (rechtzeitig) beliefert werden. Fehlerhafte Bestellungen führen zu Reklamationen und somit zu unnötigem Aufwand. Falsche Preisauszeichnungen zwingen Unternehmen, auf Einnahmen zu verzichten oder gefährden die Kundenzufriedenheit. Können Bestellungen oder Kundendaten nicht gefunden werden, verlängert sich die Abarbeitung von Beschwerden. Durch fehlerhafte Inventarisierung wird zu wenig oder zu viel Nachschub bestellt. Ein spezielles Datenqualitätsproblem und der Grund für viele der genannten Datenqualitätsprobleme sind Duplikate in Datenbanken. Duplikate sind verschiedene Repräsentationen derselben Realweltobjekte im Datenbestand. Allerdings unterscheiden sich diese Repräsentationen voneinander und sind so für den Computer nur schwer als zusammengehörig zu erkennen. Außerdem wächst die Anzahl der zur Aufdeckung der Duplikate benötigten Vergleiche quadratisch mit der Datensatzgröße. Zum Zwecke der Datenreinigung müssen diese Duplikate erkannt und beseitigt werden. Diese Duplikaterkennung ist ein sehr aufwändiger Prozess. Um gute Ergebnisse zu erzielen, ist die Erstellung von entsprechender Software und das Konfigurieren vieler Parameter (Ähnlichkeitsmaße, Partitionierungsschlüssel, Schwellwerte usw.) nötig. Beides erfordert viel manuellen Aufwand und Erfahrung. Diese Dissertation befasst sich mit dem Automatisieren der Parameterwahl für die Duplikaterkennung und stellt verschiedene neuartige Verfahren vor, durch die Teile des Duplikaterkennungsprozesses ohne menschliche Erfahrung gestaltet werden können. Es wird ein Vorverarbeitungsschritt vorgestellt, der die betreffenden Datensätze analysiert und deren Attribute automatisch semantisch klassifiziert. Durch diese Annotationen wird nicht nur das Verständnis des Datensatzes verbessert, sondern es werden darüber hinaus die folgenden Schritte erleichtert, zum Beispiel können so geeignete Ähnlichkeitsmaße ausgewählt oder die Daten normalisiert werden. Dabei kommt der Ansatz ohne Schemainformationen aus. Anschließend wird ein Partitionierungsverfahren gezeigt, das die Anzahl der für die Duplikaterkennung benötigten Vergleiche stark reduziert. Das Verfahren findet automatisch besonders geeignete Partitionierungsschlüssel, die eine gleichzeitig effektive und effiziente Duplikatsuche ermöglichen. Anhand einer Nutzerstudie wird gezeigt, dass die so gefundenen Partitionierungsschlüssel Expertenvorschlägen überlegen sind und zudem keine menschliche Konfiguration benötigen. Außerdem lässt sich das Verfahren unabhängig von den Attributtypen anwenden. Zum Messen des Erfolges eines Duplikaterkennungsverfahrens und für das zuvor beschriebene Partitionierungsverfahren ist ein Goldstandard nötig, der Auskunft über die zu findenden Duplikate gibt. Die Dissertation stellt ein Verfahren vor, das anhand mehrerer vorhandener Duplikaterkennungsergebnisse und dem Einsatz von Crowdsourcing einen Nahezu-Goldstandard erzeugt, der für die beschriebenen Zwecke eingesetzt werden kann. Ein weiterer Teil der Arbeit beschreibt und evaluiert Strategien, wie die Kosten dieses Crowdsourcingeinsatzes reduziert werden können und mit geringerem Aufwand ein Konsens erreicht wird. KW - data quality KW - Datenqualität KW - Duplikaterkennung KW - duplicate detection KW - Machine Learning KW - Information Retrieval KW - Automatisierung KW - automation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410573 ER - TY - THES A1 - de Souza, Laise Rosado T1 - Metabolic signalling between organelles Y1 - 2017 ER - TY - THES A1 - Ghaisari, Sara T1 - Magnetic anisotropy analysis of magnetic nanoparticles in magnetotactic bacteria Y1 - 2017 ER - TY - THES A1 - Bajdzienko, Krzysztof T1 - Analysis of Target of Rapamycin (Tor) induced changes of the Arabidopsis thaliana proteome using sub-cellular resolution Y1 - 2017 ER - TY - THES A1 - Kubsch, Bastian T1 - Phase-specific fusion between biomembranes using SNARE mimetics Y1 - 2017 ER - TY - THES A1 - Górka, Michal Jakub T1 - Establishing a pipeline for identification of protein- protein interactions using different native fractionation methods Y1 - 2017 ER - TY - THES A1 - Martínez Jaime, Silvia T1 - Towards the understanding of protein function and regulation BT - organization of the mitochondrial protein complexome under different conditions and the role of SUM03 in Arabidopsis thaliana Y1 - 2017 ER - TY - THES A1 - Yang, Lei T1 - Verification of systemic mRNAs mobility and mobile functions Y1 - 2017 ER - TY - THES A1 - Foti, Alessandro T1 - Characterization of the human aldehyde oxidase T1 - Charakterisierung der menschlichen Aldehydoxidase BT - Studies on the FAD active site and ROS generation N2 - In this work the human AOX1 was characterized and detailed aspects regarding the expression, the enzyme kinetics and the production of reactive oxygen species (ROS) were investigated. The hAOX1 is a cytosolic enzyme belonging to the molybdenum hydroxylase family. Its catalytically active form is a homodimer with a molecular weight of 300 kDa. Each monomer (150 kDa) consists of three domains: a N-terminal domain (20 kDa) containing two [2Fe-2S] clusters, a 40 kDa intermediate domain containing a flavin adenine dinucleotide (FAD), and a C-terminal domain (85 kDa) containing the substrate binding pocket and the molybdenum cofactor (Moco). The hAOX1 has an emerging role in the metabolism and pharmacokinetics of many drugs, especially aldehydes and N- heterocyclic compounds. In this study, the hAOX1 was hetereogously expressed in E. coli TP1000 cells, using a new codon optimized gene sequence which improved the expressed protein yield of around 10-fold compared to the previous expression systems for this enzyme. To increase the catalytic activity of hAOX1, an in vitro chemical sulfuration was performed to favor the insertion of the equatorial sulfido ligand at the Moco with consequent increased enzymatic activity of around 10-fold. Steady-state kinetics and inhibition studies were performed using several substrates, electron acceptors and inhibitors. The recombinant hAOX1 showed higher catalytic activity when molecular oxygen was used as electron acceptor. The highest turn over values were obtained with phenanthridine as substrate. Inhibition studies using thioridazine (phenothiazine family), in combination with structural studies performed in the group of Prof. M.J. Romão, Nova Universidade de Lisboa, showed a new inhibition site located in proximity of the dimerization site of hAOX1. The inhibition mode of thioridazine resulted in a noncompetitive inhibition type. Further inhibition studies with loxapine, a thioridazine-related molecule, showed the same type of inhibition. Additional inhibition studies using DCPIP and raloxifene were carried out. Extensive studies on the FAD active site of the hAOX1 were performed. Twenty new hAOX1 variants were produced and characterized. The hAOX1 variants generated in this work were divided in three groups: I) hAOX1 single nucleotide polymorphisms (SNP) variants; II) XOR- FAD loop hAOX1 variants; III) additional single point hAOX1 variants. The hAOX1 SNP variants G46E, G50D, G346R, R433P, A439E, K1231N showed clear alterations in their catalytic activity, indicating a crucial role of these residues into the FAD active site and in relation to the overall reactivity of hAOX1. Furthermore, residues of the bovine XOR FAD flexible loop (Q423ASRREDDIAK433) were introduced in the hAOX1. FAD loop hAOX1 variants were produced and characterized for their stability and catalytic activity. Especially the variants hAOX1 N436D/A437D/L438I, N436D/A437D/L438I/I440K and Q434R/N436D/A437D/L438I/I440K showed decreased catalytic activity and stability. hAOX1 wild type and variants were tested for reactivity toward NADH but no reaction was observed. Additionally, the hAOX1 wild type and variants were tested for the generation of reactive oxygen species (ROS). Interestingly, one of the SNP variants, hAOX1 L438V, showed a high ratio of superoxide prodction. This result showed a critical role for the residue Leu438 in the mechanism of oxygen radicals formation by hAOX1. Subsequently, further hAOX1 variants having the mutated Leu438 residue were produced. The variants hAOX1 L438A, L438F and L438K showed superoxide overproduction of around 85%, 65% and 35% of the total reducing equivalent obtained from the substrate oxidation. The results of this work show for the first time a characterization of the FAD active site of the hAOX1, revealing the importance of specific residues involved in the generation of ROS and effecting the overall enzymatic activity of hAOX1. The hAOX1 SNP variants presented here indicate that those allelic variations in humans might cause alterations ROS balancing and clearance of drugs in humans. N2 - Aldehydoxidasen (AOX) sind Molybdo-enzyme, die durch breite Substratspezifität gekennzeichnet sind, aromatische/aliphatische Aldehyde in die entsprechenden Carbonsäuren oxidieren und verschiedene heteroaromatische Ringe hydroxylieren. Die Enzyme verwenden Sauerstoff als terminalen Elektronenakzeptor und produzieren reduzierte Sauerstoffspezies während des Umsatzes. Die physiologische Funktion von Säugetier-AOX-Isoenzymen ist noch unklar, aber menschliches AOX (hAOX1) ist ein Enzym von Phase-I-Wirkstoff-Metabolismus. Weiterhin, wurden zahlreiche Einzelnukleotidpolymorphismen (SNP) und weitere hAOX1-Mutanten im hAOX1-Gen identifiziert. SNPs sind eine Hauptquelle für die interindividuelle Variabilität in der menschlichen Population, und SNP-basierte Aminosäureaustausche in hAOX1 modulieren die katalytische Funktion des Enzyms entweder positiv oder negativ. In diesem Bericht haben wir zehn neue SNPs ausgewählt, die zu Aminosäureaustauschen in der Nähe der FAD-Cofaktor von hAOX1 führen und die gereinigten Enzyme nach heterologen Expression in Escherichia coli charakterisieren. Darüber hinaus haben wir zehn weitere FAD-Varianten produziert. Die hAOX1-Varianten wurden sorgfältig durch quantitative Unterschiede in ihrer Fähigkeit zur Herstellung von Superoxidradikal charakterisiert. ROS repräsentieren markante Schlüsselmoleküle in physiologischen und pathologischen Zuständen in der Zelle. Unsere Daten zeigen signifikante Veränderungen der Superoxid-Anionenproduktion unter den Varianten. Insbesondere führte der Rest L438 in der Nähe des Isoalloxanzinringes des FAD-Cofaktors zu einer erhöhten Superoxid-Radikalproduktion von 75-85%. In Anbetracht der hohen Toxizität des Superoxid-Anions in der Zelle ist die hAOX1-L438V SNP-Variante ein eventueller Kandidat für kritische oder pathologische Rollen dieser natürlichen Variante innerhalb der menschlichen Population. KW - aldehyde KW - oxidase KW - ROS KW - reactive oxygen species Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410107 ER - TY - THES A1 - Firkala, Tamás T1 - Investigation of nanoparticle-molecule interactions and pharmaceutical model formulations by means of surface enhanced raman spectroscopy Y1 - 2017 ER - TY - THES A1 - Pédèches, Laure T1 - Stochastic models for collective motions of populations T1 - Modèles stochastiques pour des mouvements collectifs de populations T1 - Stochastisches Modell für kollektive Bewegung von Populationen N2 - Stochastisches Modell für kollektive Bewegung von Populationen In dieser Doktorarbeit befassen wir uns mit stochastischen Systemen, die eines der mysteriösesten biologischen Phänomene als Modell darstellen: die kollektive Bewegung von Gemeinschaften. Diese werden bei Vögel- und Fischschwärmen, aber auch bei manchen Bakterien, Viehherden oder gar bei Menschen beobachtet. Dieser Verhaltenstyp spielt ebenfalls in anderen Bereichen wie Finanzwesen, Linguistik oder auch Robotik eine Rolle. Wir nehmen uns der Dynamik einer Gruppe von N Individuen, insbesondere zweier asymptotischen Verhaltenstypen an. Einerseits befassen wir uns mit den Eigenschaften der Ergodizität in Langzeit: Existenz einer invarianten Wahrscheinlichkeitsverteilung durch Ljapunow-Funktionen, und Konvergenzrate der Übergangshalbgruppe gegen diese Wahrscheinlichkeit. Eine ebenfalls zentrale Thematik unserer Forschung ist der Begriff Flocking: es wird damit definiert, dass eine Gruppe von Individuen einen dynamischen Konsens ohne hierarchische Struktur erreichen kann; mathematisch gesehen entspricht dies der Aneinanderreihung der Geschwindigkeiten und dem Zusammenkommen des Schwarmes. Andererseits gehen wir das Phänomen der "Propagation of Chaos" an, wenn die Anzahl N der Teilchen ins Unendliche tendiert: die Bewegungen der jeweiligen Individuen werden asymptotisch unabhängig. Unser Ausgangspunkt ist das Cucker-Smale-Modell, ein deterministisches kinetisches Molekular-Modell für eine Gruppe ohne hierarchische Struktur. Die Wechselwirkung zwischen zwei Teilchen variiert gemäß deren "Kommunikationsrate", die wiederum von deren relativen Entfernung abhängt und polynomisch abnimmt. Im ersten Kapitel adressieren wir das asymptotische Verhalten eines Cucker-Smale-Modells mit Rauschstörung und dessen Varianten. Kapitel 2 stellt mehrere Definitionen des Flockings in einem Zufallsrahmen dar: diverse stochastische Systeme, die verschiedenen Rauschformen entsprechen (die eine gestörte Umgebung, den "freien Willen" des jeweiligen Individuums oder eine unterbrochene Übertragung suggerieren) werden im Zusammenhang mit diesen Begriffen unter die Lupe genommen. Das dritte Kapitel basiert auf der "Cluster Expansion"-Methode aus der statistischen Mechanik. Wir beweisen die exponentielle Ergodizität von gewissen nicht-Markow-Prozessen mit nicht-glattem Drift und wenden diese Ergebnisse auf Störungen des Ornstein-Uhlenbeck-Prozesses an. Im letzten Teil, nehmen wir uns der zweidimensionalen parabolisch-elliptischen Gleichung von Keller-Segel an. Wir beweisen die Existenz einer Lösung, welche in gewisser Hinsicht einzig ist, indem wir, mittels Vergleich mit Bessel-Prozessen und der Dirichlet Formtheorie, mögliche Stoßtypen zwischen den Teilchen ermitteln. N2 - In this thesis, stochastic dynamics modelling collective motions of populations, one of the most mysterious type of biological phenomena, are considered. For a system of N particle-like individuals, two kinds of asymptotic behaviours are studied : ergodicity and flocking properties, in long time, and propagation of chaos, when the number N of agents goes to infinity. Cucker and Smale, deterministic, mean-field kinetic model for a population without a hierarchical structure is the starting point of our journey : the first two chapters are dedicated to the understanding of various stochastic dynamics it inspires, with random noise added in different ways. The third chapter, an attempt to improve those results, is built upon the cluster expansion method, a technique from statistical mechanics. Exponential ergodicity is obtained for a class of non-Markovian process with non-regular drift. In the final part, the focus shifts onto a stochastic system of interacting particles derived from Keller and Segel 2-D parabolicelliptic model for chemotaxis. Existence and weak uniqueness are proven. N2 - Dans cette thése, on s’intéresse á des systémes stochastiques modélisant un des phénoménes biologiques les plus mystérieux, les mouvements collectifs de populations. Pour un groupe de N individus, vus comme des particules sans poids ni volume, on étudie deux types de comportements asymptotiques : d’un côté, en temps long, les propriétés d’ergodicité et de flocking, de l’autre, quand le nombre de particules N tend vers l’infini, les phénoménes de propagation du chaos. Le modéle, déterministe, de Cucker-Smale, un modéle cinétique de champ moyen pour une population sans structure hiérarchique, est notre point de départ : les deux premiers chapitres sont consacrés á la compréhension de diverses dynamiques stochastiques qui s’en inspirent, du bruit étant rajouté sous différentes formes. Le troisiéme chapitre, originellement une tentative d’amélioration de ces résultats, est basé sur la méthode du développement en amas, un outil de physique statistique. On prouve l’ergodicité exponentielle de certains processus non-markoviens á drift non-régulier. Dans la derniére partie, on démontre l’existence d’une solution, unique dans un certain sens, pour un systéme stochastique de particules associé au mod`ele chimiotactique de Keller et Segel. KW - stochastic interacting particles KW - flocking KW - stochastisches interagierendes System KW - Flocking Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405491 ER - TY - THES A1 - Graja, Antonia T1 - Aging-related changes of progenitor cell function and microenvironment impair brown adipose tissue regeneration Y1 - 2017 ER - TY - THES A1 - Richter, Nicole T1 - Investigating hazards and the evolution of volcanic landscapes by means of terrestrial and satellite remote sensing data and modelling Y1 - 2017 ER - TY - THES A1 - Sachse, Manuel T1 - Dynamics and distribution of dust ejected from the Galilean moons of Jupiter Y1 - 2017 ER - TY - THES A1 - Diez Cocero, Mercedes T1 - Analysis of Rubisco - carbonic anhydrase fusions in tobacco as an approach to reduce photorespiration Y1 - 2017 ER - TY - THES A1 - Belkius, Karolina Dorota T1 - Systems biology approach to investigate the development and degradation of the photosynthetic apparatus during leaf ontogenesis in higher plants Y1 - 2017 ER - TY - THES A1 - Muldashev, Iskander T1 - Modeling of the great earthquake seismic cycles T1 - Modellierung der seismischen Zyklen von Mega-Erdbeben N2 - The timing and location of the two largest earthquakes of the 21st century (Sumatra, 2004 and Tohoku 2011, events) greatly surprised the scientific community, indicating that the deformation processes that precede and follow great megathrust earthquakes remain enigmatic. During these phases before and after the earthquake a combination of multi-scale complex processes are acting simultaneously: Stresses built up by long-term tectonic motions are modified by sudden jerky deformations during earthquakes, before being restored by multiple ensuing relaxation processes. This thesis details a cross-scale thermomechanical model developed with the aim of simulating the entire subduction process from earthquake (1 minute) to million years’ time scale, excluding only rupture propagation. The model employs elasticity, non-linear transient viscous rheology, and rate-and-state friction. It generates spontaneous earthquake sequences, and, by using an adaptive time-step algorithm, recreates the deformation process as observed naturally over single and multiple seismic cycles. The model is thoroughly tested by comparing results to those from known high- resolution solutions of generic modeling setups widely used in modeling of rupture propagation. It is demonstrated, that while not modeling rupture propagation explicitly, the modeling procedure correctly recognizes the appearance of instability (earthquake) and correctly simulates the cumulative slip at a fault during great earthquake by means of a quasi-dynamic approximation. A set of 2D models is used to study the effects of non-linear transient rheology on the postseismic processes following great earthquakes. Our models predict that the viscosity in the mantle wedge drops by 3 to 4 orders of magnitude during a great earthquake with magnitude above 9. This drop in viscosity results in spatial scales and timings of the relaxation processes following the earthquakes that are significantly different to previous estimates. These models replicate centuries long seismic cycles exhibited by the greatest earthquakes (like the Great Chile 1960 Earthquake) and are consistent with the major features of postseismic surface displacements recorded after the Great Tohoku Earthquake. The 2D models are also applied to study key factors controlling maximum magnitudes of earthquakes in subduction zones. Even though methods of instrumentally observing earthquakes at subduction zones have rapidly improved in recent decades, the characteristic recurrence interval of giant earthquakes (Mw>8.5) is much larger than the currently available observational record and therefore the necessary conditions for giant earthquakes are not clear. Statistical studies have recognized the importance of the slab shape and its surface roughness, state of the strain of the upper plate and thickness of sediments filling the trenches. In this thesis we attempt to explain these observations and to identify key controlling parameters. We test a set of 2D models representing great earthquake seismic cycles at known subduction zones with various known geometries, megathrust friction coefficients, and convergence rates implemented. We found that low-angle subduction (large effect) and thick sediments in the subduction channel (smaller effect) are the fundamental necessary conditions for generating giant earthquakes, while the change of subduction velocity from 10 to 3.5 cm/yr has a lower effect. Modeling results also suggest that having thick sediments in the subduction channel causes low static friction, resulting in neutral or slightly compressive deformation in the overriding plate for low-angle subduction zones. These modeling results agree well with observations for the largest earthquakes. The model predicts the largest possible earthquakes for subduction zones of given dipping angles. The predicted maximum magnitudes exactly threshold magnitudes of all known giant earthquakes of 20th and 21st centuries. The clear limitation of most of the models developed in the thesis is their 2D nature. Development of 3D models with comparable resolution and complexity will require significant advances in numerical techniques. Nevertheless, we conducted a series of low-resolution 3D models to study the interaction between two large asperities at a subduction interface separated by an aseismic gap of varying width. The novelty of the model is that it considers behavior of the asperities during multiple seismic cycles. As expected, models show that an aseismic gap with a narrow width could not prevent rupture propagation from one asperity to another, and that rupture always crosses the entire model. When the gap becomes too wide, asperities do not interact anymore and rupture independently. However, an interesting mode of interaction was observed in the model with an intermediate width of the aseismic gap: In this model the asperities began to stably rupture in anti-phase following multiple seismic cycles. These 3D modeling results, while insightful, must be considered preliminary because of the limitations in resolution. The technique developed in this thesis for cross-scale modeling of seismic cycles can be used to study the effects of multiple seismic cycles on the long-term deformation of the upper plate. The technique can be also extended to the case of continental transform faults and for the advanced 3D modeling of specific subduction zones. This will require further development of numerical techniques and adaptation of the existing advanced highly scalable parallel codes like LAMEM and ASPECT. N2 - Zeitpunkt und Ort der zwei größten Erdbeben des 21. Jahrhunderts (Sumatra 2004 und Tohoku 2011) überraschten die wissenschaftliche Gemeinschaft, da sie darauf hindeuten, dass die einem Megathrust-Erdbeben vorangehenden und folgenden Deformationsprozesse weiterhin rästelhaft bleiben. Ein Problem ist die komplexe Art der Subduktionsprozesse auf unterschiedlichen Skalen. Spannungen werden durch langzeitliche, tektonische Bewegungen aufgebaut, von plötzlicher, ruckartiger Deformation während Erdbeben modifiziert und anschließend durch verschiedene Entspannungsprozesse wiederhergestellt. In dieser Arbeit wird ein skalen-übergreifendes thermomechanisches Modell entwickelt mit dem Ziel den vollständigen Subduktionsprozess von kleiner Skala (Minuten, z.B. Erdbeben) bis zu Millionen Jahren zu simulieren. Dabei bleibt nur das dynamische Prozess der unberücksichtigt. Das Modell nutzt Elastizität, nicht-lineare transient viskose Rheologie und „rate-and-state“ Reibungsgesetz. Es erzeugt spontane Erdbeben-Sequenzen und stellt durch das Nutzen eines adaptiven Zeitschritt Algorithmus den Deformationsprozess nach, wie er in der Natur während einzelner und mehrerer seismischer Zyklen beobachtet wird. Anhand der 2D-Modell Reihe werden die Effekte der nicht-linearen transient (viskosen) Rheologie auf postseismische Prozesse nach großen Erdbeben untersucht. Die Modelle sagen eine Verringerung der Mantelkeil-Viskosität um 3 bis 4 Größenordnungen während der großen Erdbeben (Mw > 9) vorher. Im Gegensatz zur momentanen Meinung, ergeben sich andere räumliche und zeitliche Verteilungen des Entspannungsprozesses nach großen Erdbeben. Jahrhunderte lange seismische Zyklen, wie zum Beispiel das große Erdbeben in Chile 1960, werden reproduziert und stimmen mit den Hauptmerkmalen der postseismischen Oberflächenverschiebungen überein, die nach dem großen Tohoku Erdbeben aufgezeichnet wurden. Mithilfe der 2D-Modelle werden außerdem Schlüsselfaktoren untersucht, die die maximale Magnitude von Erdbeben bestimmen. Obwohl die instrumentellen Methoden zur Beobachtung von Erdbeben in Subduktionszonen in den letzten Jahrzehnten stetig verbessert wurden, kann das Auftreten der größten Erdbeben (Mw > 8.5) und die dafür vorrauszusetzenden Bedingungen nicht genau bestimmt werden, da die charackeristische Zeit für ein Wiederauftreten deutlich größer als der Beobachtungszeitraum ist. Wir versuchen in dieser Arbeit diese Beobachtungen zu erklären und die kontrollierenden Schlüsselfaktoren zu bestimmen. Eine 2D-Modell Reihe mit großen, seismischen Erdbebenzyklen untersucht unterschiedliche Geometrien von Subduktionszonen sowie Reibungskoeffizieten an der Subduktions Platten-Grenzoberfläche und Konvergenzraten. Subduktion mit geringem Winkel (großer Effekt) und mächtige Sedimente im Subduktionskanal (kleiner Effekt) sind grundlegend notwendige Bedingungen für riesige Erdbeben, während eine Änderung des Reibungsparameters nur geringe Auswirkungen hat. Die Modellierungsergebnisse sind in viiÜbereinstimmung mit den Beobachtungen von den größten Erdbeben. Die maximale vohergesagte Magnituden liegen an der oberen Grenze alle historische Beben der 20. und 21. Jahrhunderden. Die größte Einschränkung der entwickelten Modelle ist ihre 2-dimensionale Natur. Um die Interaktion zwischen zwei großen Unebenheiten („asperities“) auf der Subduktions Platten-Grenzoberfläche, die von einer aseismischen Lücke („gap“) voneinander getrennt sind, zu untersuchen, wurde eine 3D-Modell Reihe mit geringer Auflösung durchgeführt. Neu an diesem Modell ist, dass das Verhalten der Unebenheiten während mehrerer seismischer Zyklen berücksichtigt wird. Wie erwartet zeigt das Modell, dass eine schmale, aseismische Lücke ein Propagieren von Brüchen von einer Unebenheit zur nächsten nicht verhindern kann und diese Brüche das gesamte Modell durchkreuzen. Wird die Lücke zu groß interagieren die Unebenheiten nicht mehr miteinander und brechen unabhängig voneinander. Allerdings wurde in dem Modell mit mittlerer Breite der aseismischen Lücke eine interessante Art von Interaktion beobachtet: Nach einigen seismischen Zyklen beginnen die Unebenheiten kontinuerlich und zwar in Gegen-Phasen zu brechen. Diese Ergebnisse sind andeutend, aber können aufgrund der geringen Auflösung des Models nur als vorläufig angesehen werden und erfordern weitere Bestätigung mit hoch-auflösenden Modellen. KW - earthquake modeling KW - seismic cycle modeling KW - subduction KW - numerical modeling KW - Erdbeben Modellierung KW - Modellierung des seismischen Zyklus KW - Subduktion KW - numerische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398926 ER - TY - THES A1 - Kiani Alibagheri, Bahareh T1 - On structural properties of magnetosome chains T1 - Auf strukturellen Eigenschaften von Magnetosomenketten N2 - Magnetotaktische Bakterien besitzen eine intrazelluläre Struktur, die Magnetosomenkette genannt wird. Magnetosomenketten enthalten Nanopartikel von Eisenkristallen, die von einer Membran umschlossen und entlang eines Zytoskelettfilaments ausgerichtet sind. Dank der Magnetosomenkette ist es magnetotaktischen Bakterien möglich sich in Magnetfeldern auszurichten und entlang magnetischer Feldlinien zu schwimmen. Die ausführliche Untersuchung der strukturellen Eigenschaften der Magnetosomenkette in magnetotaktischen Bakterien sind von grundlegendem wissenschaftlichen Interesse, weil sie Einblicke in die Anordnung des Zytoskeletts von Bakterien erlauben. In dieser Studie haben wir ein neues theoretisches Modell entwickelt, dass sich dazu eignet, die strukturellen Eigenschaften der Magnetosomenketten in magnetotaktischen Bakterien zu erforschen. Zuerst wenden wir uns der Biegesteifigkeit von Magnetosomenketten zu, die von zwei Faktoren beeinflusst wird: Die magnetische Wechselwirkung der Magnetosomenpartikel und der Biegesteifigkeit des Zytoskelettfilaments auf welchem die Magnetosome verankert sind. Unsere Analyse zeigt, dass sich die lineare Konfiguration von Magnetosomenpartikeln ohne die Stabilisierung durch das Zytoskelett zu einer ringörmigen Struktur biegen würde, die kein magnetisches Moment aufweist und daher nicht die Funktion eines Kompass in der zellulären Navigation einnehmen könnte. Wir schlussfolgern, dass das Zytoskelettfilament eine stabilisierende Wirkung auf die lineare Konfiguration hat und eine ringförmige Anordnung verhindert. Wir untersuchen weiter die Gleichgewichtskonfiguration der Magnetosomenpartikel in einer linearen Kette und in einer geschlossenen ringförmigen Struktur. Dabei beobachteten wir ebenfalls, dass für eine stabile lineare Anordnung eine Bindung an ein Zytoskelettfilament notwendig ist. In einem externen magnetischen Feld wird die Stabilität der Magnetosomenketten durch die Dipol-Dipol-Wechselwirkung, über die Steifheit und die Bindungsenergie der Proteinstruktur, die die Partikel des Magnetosomen mit dem Filament verbinden, erreicht. Durch Beobachtungen während und nach der Behandlung einer Magnetosomenkette mit einem externen magnetischen Feld, lässt sich begründen, dass die Stabilisierung von Magnetosomenketten durch Zytoskelettfilamente über proteinhaltige Bindeglieder und die dynamischen Eigenschaften dieser Strukturen realisiert wird. Abschließend wenden wir unser Modell bei der Untersuchung von ferromagnetischen Resonanz-Spektren von Magnetosomenketten in einzelnen Zellen von magnetotaktischen Bakterien an. Wir erforschen den Effekt der magnetokristallinen Anistropie in ihrer dreifach-Symmetrie, die in ferromagnetischen Ressonanz Spektren beobachtet wurden und die Besonderheit von verschiedenen Spektren, die bei Mutanten dieser Bakterien auftreten. N2 - Magnetotactic bacteria possess an intracellular structure called the magnetosome chain. Magnetosome chains contain nano−particles of iron crystals enclosed by a membrane and aligned on a cytoskeletal filament. Due to the presence of the magnetosome chains, magnetotactic bacteria are able to orient and swim along the magnetic field lines. A detailed study of structural properties of magnetosome chains in magnetotactic bacteria has primary scientific interests. It can provide more insight into the formation of the cytoskeleton in bacteria. In this thesis, we develop a new framework to study the structural properties of magnetosome chains in magnetotactic bacteria. First, we address the bending stiffness of magnetosome chains resulting from two main contributions: the magnetic interactions of magnetosome particles and the bending stiffness of the cytoskeletal filament to which the magnetosomes are anchored. Our analysis indicates that the linear configuration of magnetosome particles without the stabilisation to the cytoskeleton may close to ring like structures, with no net magnetic moment, which thus can not perform as a compass in cellular navigation. As a result we think that one of the roles of the filament is to stabilize the linear configuration against ring closure. We then investigate the equilibrium configurations of magnetosome particles including linear chain and closed−ring structures. We notably observe that for the formation of a stable linear structure on the cytoskeletal filament, presence of a binding energy is needed. In the presence of external stimuli the stability of the magnetosome chain is due to the internal dipole−dipole interactions, the stiffness and the binding energy of the protein structure connecting the magnetosome particles to the filament. Our observations, during and after the treatment of the magnetosome chain with the external magnetic field substantiates the stabilisation of magnetosome chains to the cytoskeletal filament by proteinous linkers and the dynamic feature of these structures. Finally, we employ our model to study the FMR spectra of magnetosome chains in a single cell of magnetotactic bacteria. We explore the effect of magnetocrystalline anisotropy in three-fold symmetry observed in FMR spectra and the peculiarity of different spectra arisen from different mutants of these bacteria. KW - magnetotactic bacteria KW - magnetosome chains KW - structural properties KW - magnetotaktische Bakterien KW - Magnetosomen-Ketten KW - strukturelle Eigenschaften Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398849 ER - TY - THES A1 - Hendriyana, Andri T1 - Detection and Kirchhoff-type migration of seismic events by use of a new characteristic function T1 - Detektion und Kirchhoff-Migration seismischer Ereignisse durch Verwendung einer neuen charakteristischen Funktion N2 - The classical method of seismic event localization is based on the picking of body wave arrivals, ray tracing and inversion of travel time data. Travel time picks with small uncertainties are required to produce reliable and accurate results with this kind of source localization. Hence recordings, with a low Signal-to-Noise Ratio (SNR) cannot be used in a travel time based inversion. Low SNR can be related with weak signals from distant and/or low magnitude sources as well as with a high level of ambient noise. Diffraction stacking is considered as an alternative seismic event localization method that enables also the processing of low SNR recordings by mean of stacking the amplitudes of seismograms along a travel time function. The location of seismic event and its origin time are determined based on the highest stacked amplitudes (coherency) of the image function. The method promotes an automatic processing since it does not need travel time picks as input data. However, applying diffraction stacking may require longer computation times if only limited computer resources are used. Furthermore, a simple diffraction stacking of recorded amplitudes could possibly fail to locate the seismic sources if the focal mechanism leads to complex radiation patterns which typically holds for both natural and induced seismicity. In my PhD project, I have developed a new work flow for the localization of seismic events which is based on a diffraction stacking approach. A parallelized code was implemented for the calculation of travel time tables and for the determination of an image function to reduce computation time. In order to address the effects from complex source radiation patterns, I also suggest to compute diffraction stacking from a characteristic function (CF) instead of stacking the original wave form data. A new CF, which is called in the following mAIC (modified from Akaike Information Criterion) is proposed. I demonstrate that, the performance of the mAIC does not depend on the chosen length of the analyzed time window and that both P- and S-wave onsets can be detected accurately. To avoid cross-talk between P- and S-waves due to inaccurate velocity models, I separate the P- and S-waves from the mAIC function by making use of polarization attributes. Then, eventually the final image function is represented by the largest eigenvalue as a result of the covariance analysis between P- and S-image functions. Before applying diffraction stacking, I also apply seismogram denoising by using Otsu thresholding in the time-frequency domain. Results from synthetic experiments show that the proposed diffraction stacking provides reliable results even from seismograms with low SNR=1. Tests with different presentations of the synthetic seismograms (displacement, velocity, and acceleration) shown that, acceleration seismograms deliver better results in case of high SNR, whereas displacement seismograms provide more accurate results in case of low SNR recordings. In another test, different measures (maximum amplitude, other statistical parameters) were used to determine the source location in the final image function. I found that the statistical approach is the preferred method particularly for low SNR. The work flow of my diffraction stacking method was finally applied to local earthquake data from Sumatra, Indonesia. Recordings from a temporary network of 42 stations deployed for 9 months around the Tarutung pull-apart Basin were analyzed. The seismic event locations resulting from the diffraction stacking method align along a segment of the Sumatran Fault. A more complex distribution of seismicity is imaged within and around the Tarutung Basin. Two lineaments striking N-S were found in the middle of the Tarutung Basin which support independent results from structural geology. These features are interpreted as opening fractures due to local extension. A cluster of seismic events repeatedly occurred in short time which might be related to fluid drainage since two hot springs are observed at the surface near to this cluster. N2 - Klassische seismologische Verfahren zur Lokalisierung seismischer Ereignisse basieren auf der Bestimmung der Ankunftszeiten von Raumwellenphasen, der Berechnung von Strahlwegen in Untergrundmodellen sowie der Inversion der Laufzeitdaten. Um mit dieser Methode zuverlässige und genaue Lokalisierungsergebnisse zu erhalten, werden Laufzeitdaten mit kleinen Unsicherheiten benötigt. Folgerichtig müssen Seismogramme mit sehr geringen Signal-zu-Rausch Verhältnissen (S/N) häufig verworfen werden. Geringe S/N können einerseits durch schwache Signale am Empfänger, z.B. wegen großer Entfernungen zur Quelle und/oder bei Quellen mit kleiner Magnitude, und andererseits durch einen hohen Rauschpegel verursacht werden. Eine alternative Methode zur Herdlokalisierung ist die sogenannte Diffraktions-Stapel-ung. Hierbei werden die Amplituden der aufgezeichneten Wellenformen entlang von vorhergesagten Laufzeitfunktionen aufgestapelt. Durch konstruktive Aufsummation können auch Signale von Seismogrammen mit geringem S/N zur Lokalisierung beitragen. Als Teil des Verfahrens wird eine sogenannte Image-Funktion berechnet, deren maximale Amplitude (Kohärenz) mit dem Ort und der Zeit des Bebenherdes verknüpft ist. Die Methodik ist für eine Implementation von automatisierten Überwachungssystemen geeignet. Von Nachteil ist der relative hohe Rechenaufwand. Außerdem müssen bei der Diffraktions-Stapelung die komplizierten Abstrahlcharakteristika im Quellbereich und deren Auswirkungen auf die Signale an verschiedenen Empfängern im Unterschied zur Laufzeit-Inversion mit berücksichtigt werden. In meiner Arbeit habe ich eine neue Methodik zur Lokalisierung von Bebenherden unter Verwendung einer Diffraktions-Stapelung entwickelt. Zunächst werden Laufzeiten (Green’s Funktionen) für potentielle Herdlokationen mit Hilfe eines parallelisierten Algorithmus berechnet. Eine erste Vorbearbeitung der Seismogramme mit der Otsu-Threshold-ing Methode im Zeit-Frequenz-Bereich dient zur Unterdrückung von nicht-stationären Rauschanteilen. Anschliessend wird eine neu entwickelte charakteristische Funktion (CF) berechnet, um P- und S-Welleneinsätze in den gefilterten Daten noch stärker hervorzuheben. Die vorgeschlagene CF basiert auf einer modifizierten Version des Akaike Kriteriums. Die neue CF liefert stabile Resultate, die im Unterschied zum klassischen Akaike-Kriterium nicht von der subjektiv festzulegenden Länge des Analysefensters abhängig sind. Die Verwendung der CF ist darüber hinaus entscheidend, um den unerwünschten Einfluss der Abstrahlcharakteristik auf die gemessenen Amplituden bei der Diffraktions-Stapelung zu eliminieren. Eine finale Image-Funktion wird mit Hilfe einer Kovarianzmatrix-Analyse von P- und S- Image-Funktionen bestimmt, um daraus schließlich die Herdlokation zu ermitteln. Das neue Verfahren wird an Hand von synthetischen Daten getestet. Zuverlässige und genaue Resultate konnten selbst bei sehr geringen S/N von 1 erzielt werden. Tests mit verschiedenen Seismogramm-Varianten (Verschiebung, Geschwindigkeit, Beschleunigung) ergaben, dass bei hohem S/N Beschleunigungs-Seismogramme und bei sehr niedrigen S/N Verschiebungs-Seismogramme die besten Ergebnisse lieferten. Schliesslich wurde das Verfahren auf Daten aus einer Lokalbebenuntersuchung auf Sumatra (Indonesien) angewendet. Über einen Zeitraum von 9 Monaten wurde mit einem Netzwerk aus 42 Stationen die Seismizität im Bereich des Tarutung-Beckens an der Sumatra-Störung (SF) erfasst. Die Methode bildete hierbei ein lineares Segment der SF ab. Im Tarutung-Becken wurde eine komplexere Bebenverteilung abgeleitet. Ein Vergleich mit strukturgeologischen Daten liefert Rückschlüsse auf das tektonische und geothermische Regime im Untersuchungsgebiet. KW - time-series analysis KW - inverse theory KW - earthquake source observations KW - seismicity and tectonics KW - wave scattering and diffraction KW - body waves KW - computational seismology KW - Zeitreihenanalyse KW - Inversions-Theorie KW - Beobachtung von Erdbebenquellen KW - Seismizität und Tektonik KW - Wellenbrechung und Diffraktion KW - Raumwellen KW - computergestützte Seismologie Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398879 ER - TY - THES A1 - Lorente Sánchez, Alejandro Jose T1 - Synthesis of side-chain polystyrenes for all organic solution processed OLEDs T1 - Synthese von Seitenketten-Polystyrolen für lösungsgefertigte OLEDs N2 - In the present work side-chain polystyrenes were synthesized and characterized, in order to be applied in multilayer OLEDs fabricated by solution process techniques. Manufacture of optoelectronic devices by solution process techniques is meant to decrease significantly fabrication cost and allow large scale production of such devices. This dissertation focusses in three series, enveloped in two material classes. The two classes differ to each other in the type of charge transport exhibited, either ambipolar transport or electron transport. All materials were applied in all-organic solution processed green Ir-based devices. In the first part, a series of ambipolar host materials were developed to transport both charge types, holes and electrons, and be applied especially as matrix for green Ir-based emitters. It was possible to increase devices efficacy by modulating the predominant charge transport type. This was achieved by modification of molecules electron transport part with more electron-deficient heterocycles or by extending the delocalization of the LUMO. Efficiencies up to 28.9 cd/A were observed for all-organic solution-process three layer devices. In the second part, suitability of triarylboranes and tetraphenylsilanes as electron transport materials was studied. High triplet energies were obtained, up to 2.95 eV, by rational combination of both molecular structures. Although the combination of both elements had a low effect in materials electron transport properties, high efficiencies around 24 cd/A were obtained for the series in all-organic solution-processed two layer devices. In the last part, benzene and pyridine were chosen as the series electron-transport motif. By controlling the relative pyridine content (RPC) solubility into methanol was induced for polystyrenes with bulky side-chains. Materials with RPC ≥ 0.5 could be deposited orthogonally from solution without harming underlying layers. From the best of our knowledge, this is the first time such materials are applied in this architecture showing moderate efficiencies around 10 cd/A in all-organic solution processed OLEDs. Overall, the outcome of these studies will actively contribute to the current research on materials for all-solution processed OLEDs. N2 - Organische Licht emittierende Dioden (OLEDs) gelten als die nächste Technologie für Beleuchtungsanwendungen. In letzter Zeit wurden immer mehr kommerzielle Produkte herausgebracht, für die Anwendung in Displays und Beleuchtungssystemen. Doch diese Produkte werden hauptsächlich durch Vakuumabscheidung der organischen Moleküle hergestellt, was hohe Fertigungskosten zur Folge hat. Um die Kosten zu senken, sollten die Geräte über Lösungsverfahren hergestellt werden, was die Produktion durch Drucktechniken ermöglicht. Allerdings gibt es noch einige Herausforderungen bei den Lösungsprozessen, auch bei der Verarbeitung bekannter Materialien, die überwunden werden müssen, wie Rekristallisation oder schlechte Filmbildung. Deshalb sind weitere Materialmodifikationen erforderlich. Ein sehr verbreiteter Ansatz ist die Einarbeitung von Materialien, die im Vakuum verarbeitet werden können, wie Seitenkettenpolymer-Rückgräte. Wir haben in dieser Arbeit drei Reihen von Seitenketten-Polystyrolen synthetisiert und charakterisiert. Die Polymere der ersten Reihe sollten als Hostmaterialien für phosphoreszierende Emitter in der Emissionsschicht dienen. Die Polymere der zweiten und dritten Reihe fungierten als Elektron-Transport-Materialien. Die Polymereigenschaften wurden durch Änderungen der molekularen Struktur der Seitenketten modifiziert. Von allen Materialien wurden dünne Schichten aus Lösung abgeschieden und diese on grünen Ir-basierten OLEDs untersucht. Für alle organischen, aus Lösung gefertigten OLEDs wurden Effizienzen von bis zu 28,9 cd/A erreicht. KW - OLED KW - solution process KW - charge transport KW - polymers KW - OLED KW - Lösungsprozess KW - Ladung Transport KW - Polymere Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398006 ER - TY - THES A1 - Zeng, Ting T1 - Nanoparticles promoted biocatalysis BT - Electrochemical investigation of human sulfite oxidase on nanoparticles modified electrodes Y1 - 2017 ER - TY - THES A1 - Salzer, Jacqueline T. T1 - Volcano dome deformation processes analysed with high resolution InSAR and camera-based techniques Y1 - 2017 ER - TY - THES A1 - Dippel, Sandor T1 - Development of functional hydrogels for sensor applications T1 - Entwicklung funktionalisierter Hydrogele für Sensor Anwendungen N2 - In this work, a sensor system based on thermoresponsive materials is developed by utilizing a modular approach. By synthesizing three different key monomers containing either a carboxyl, alkene or alkyne end group connected with a spacer to the methacrylic polymerizable unit, a flexible copolymerization strategy has been set up with oligo ethylene glycol methacrylates. This allows to tune the lower critical solution temperature (LCST) of the polymers in aqueous media. The molar masses are variable thanks to the excurse taken in polymerization in ionic liquids thus stretching molar masses from 25 to over 1000 kDa. The systems that were shown shown to be effective in aqueous solution could be immobilized on surfaces by copolymerizing photo crosslinkable units. The immobilized systems were formulated to give different layer thicknesses, swelling ratios and mesh sizes depending on the demand of the coupling reaction. The coupling of detector units or model molecules is approached via reactions of the click chemistry pool, and the reactions are evaluated on their efficiency under those aspects, too. These coupling reactions are followed by surface plasmon resonance spectroscopy (SPR) to judge efficiency. With these tools at hand, Salmonella saccharides could be selectively detected by SPR. Influenza viruses were detected in solution by turbidimetry in solution as well as by a copolymerized solvatochromic dye to track binding via the changes of the polymers’ fluorescence by said binding event. This effect could also be achieved by utilizing the thermoresponsive behavior. Another demonstrator consists of the detection system bound to a quartz surface, thus allowing the virus detection on a solid carrier. The experiments show the great potential of combining the concepts of thermoresponsive materials and click chemistry to develop technically simple sensors for large biomolecules and viruses. N2 - Diese Arbeit befasst sich mit der Entwicklung von Sensorsystemen für biologische Analyten wie Bakterien und Viren. Die Sensoren beruhen auf thermoresponsiven Polymeren und die Entwicklung wird Schritt für Schritt ausgehend von der Monomersynthese dargelegt. Die Grundidee ist es alle Einzelschritte so modular wie möglich zu halten. Die Kopplungseinheiten für die späteren Erkennungsgruppen bestehen aus Carboxyl, Alken und Alkinfunktionalitäten, die zuerst mit einem Ethylenglycolspacer mit variabler Länge verknüpft werden und dann mit der polymerisierbaren Methylmethacrylatgruppe versehen werden. Diese koppelbaren Monomere werden mit Di- oder (Oligoethylenglycol)methacrylaten copolymerisiert. Je nach Verhältnis ist so auch die untere kritische Entmischungstemperatur (LCST) einstellbar. Mit der Erweiterung der Polymerisationstechnik um ionische Flüssigkeiten als Lösemittel lassen sich Molmassen von 25 bis über 1000 kDa einstellen. Um die Polymere funktionell zu erweitern, lassen sich auch benzophenonhaltige Monomere zur Vernetzung oder Immobilisierung copolymerisieren. Naphthalsäureimidhaltige Monomere wiederum dienen als Signaleinheit, da sie durch Verändern der Polarität ihrer Umgebung solvatochrom reagieren. Durch Aufschleudern und UV-Vernetzen lassen sich Gelschichten mit guter Schichtdickenkontrolle herstellen. Dabei sind die Substrate nur auf den jeweiligen Zweck beschränkt. Dank des Baukastenprinzips kann auch die Maschenweite oder der Quellgrad der Gele eingestellt werden. Die Polymere oder Hydrogele werden mit Hilfe von effizienten Reaktionen swe sogenannten „Click Chemie“ umgesetzt und die Reaktionen werden durchleuchtet, ob sie diesen Ansprüchen gerecht werden. Je nach Möglichkeit wird das Anknüpfen mittels Oberflächenplasmonenresonanzspektroskopie(SPR) verfolgt, so wie zum Beispiel die Kopplung eines Phagen-Oberflächenproteins und das selektive Binden eines Membransaccharids des Salmonellen Bakteriums. Influenza Viren werden selektiv mit Hilfe eines Erkennungspeptids gebunden und mit Hilfe von Trübungsspektroskopie bzw. dem thermoresponsiven Verhalten des Trägerpolymers nachgewiesen. Ein weiterer dargelegter Ansatz ist das Nachweisen von geringen Virenkonzentrationen mit Hilfe eines Hydrogels oder von Polymeren in Lösung, die jeweils mit einem solvatochromen Farbstoff ausgestattet sind, der auf die Umgebungsänderung durch den Virus reagiert. Die Experimente zeigen das große Potential von geschickt kombinierten thermoresponsiven Materialien, die mittels Funktionalisierung durch Click-Chemie zu technisch einfachen Nachweissystemen für Biomoleküle und sogar ganze Zellen entwickelt werden können. KW - biosensors KW - polymer synthesis KW - lower critical solution temperature KW - surface modification KW - smart materials KW - Biosensoren KW - Polymersynthese KW - untere kritische Entmischungstemperatur KW - schaltbare Materialien Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398252 ER -