TY - THES A1 - Nikaj, Adriatik T1 - Restful choreographies T1 - REST-Choreografien N2 - Business process management has become a key instrument to organize work as many companies represent their operations in business process models. Recently, business process choreography diagrams have been introduced as part of the Business Process Model and Notation standard to represent interactions between business processes, run by different partners. When it comes to the interactions between services on the Web, Representational State Transfer (REST) is one of the primary architectural styles employed by web services today. Ideally, the RESTful interactions between participants should implement the interactions defined at the business choreography level. The problem, however, is the conceptual gap between the business process choreography diagrams and RESTful interactions. Choreography diagrams, on the one hand, are modeled from business domain experts with the purpose of capturing, communicating and, ideally, driving the business interactions. RESTful interactions, on the other hand, depend on RESTful interfaces that are designed by web engineers with the purpose of facilitating the interaction between participants on the internet. In most cases however, business domain experts are unaware of the technology behind web service interfaces and web engineers tend to overlook the overall business goals of web services. While there is considerable work on using process models during process implementation, there is little work on using choreography models to implement interactions between business processes. This thesis addresses this research gap by raising the following research question: How to close the conceptual gap between business process choreographies and RESTful interactions? This thesis offers several research contributions that jointly answer the research question. The main research contribution is the design of a language that captures RESTful interactions between participants---RESTful choreography modeling language. Formal completeness properties (with respect to REST) are introduced to validate its instances, called RESTful choreographies. A systematic semi-automatic method for deriving RESTful choreographies from business process choreographies is proposed. The method employs natural language processing techniques to translate business interactions into RESTful interactions. The effectiveness of the approach is shown by developing a prototypical tool that evaluates the derivation method over a large number of choreography models. In addition, the thesis proposes solutions towards implementing RESTful choreographies. In particular, two RESTful service specifications are introduced for aiding, respectively, the execution of choreographies' exclusive gateways and the guidance of RESTful interactions. N2 - Das Prozessmanagement hat sich zu einer wichtigen Methode zur Organisation von Arbeitsabläufen entwickelt, sodass viele Unternehmen ihre Tätigkeiten mittlerweile in Prozessmodellen darstellen. Unlängst wurden zudem im Kontext der Business Process Model and Notation Choreographiediagramme eingeführt, um Interaktionen zwischen Prozessen verschiedener Partner zu beschreiben. Im Web nutzen interagierende Dienste heutzutage den Representational State Transfer (REST) als primären Architekturstil. Idealerweise implementieren die REST-Interaktionen der Dienste also die Interaktionen, die im Choreographiediagramm definiert wurden. Allerdings besteht zwischen Choreographiediagrammen und RESTInteraktionen eine konzeptuelle Diskrepanz. Auf der einen Seite werden Choreographiediagramme von Domänenexperten mit dem Ziel modelliert, die Interaktionen zu erfassen, zu kommunizieren und, idealerweise, voranzutreiben. Auf der anderen Seite sind REST-Interaktionen abhängig von REST-Schnittstellen, welche von Web-Entwicklern mit dem Ziel entworfen werden, Interaktionen zwischen Diensten im Internet zu erleichtern. In den meisten Fällen sind sich Domänenexperten jedoch der Technologien, die Web-Schnittstellen zu Grunde liegen, nicht bewusst, wohingegenWeb-Entwickler die Unternehmensziele der Web-Dienste nicht kennen. Während es umfangreiche Arbeiten zur Implementierung von Prozessmodellen gibt, existieren nur wenige Untersuchungen zur Implementierung von interagierenden Prozessen auf Basis von Choreographiemodellen. Die vorliegende Dissertation adressiert diese Forschungslücke, indem sie die folgende Forschungsfrage aufwirft: Wie kann die konzeptuelle Diskrepanz zwischen Choreographiediagrammen und REST-Interaktionen beseitigt werden? Somit enthält diese Arbeit mehrere Forschungsbeiträge, um diese Frage zu adressieren. Der primäre Beitrag besteht in dem Design einer Modellierungssprache, um REST-Interaktionen zwischen Diensten zu erfassen—der RESTful Choreography Modeling Language. Formale Vollständigkeitseigenschaften (in Bezug auf REST) werden eingeführt, um Instanzen dieser Modelle, sogennante REST-Choreographien, zu validieren. Ferner wird eine systematische, halb-automatische Methode vorgestellt, um RESTChoreographien von Choreographiediagrammen abzuleiten. Diese Methode setzt Techniken des Natural Language Processing ein, um Interaktionen in REST-Interaktionen zu übersetzen. Die Wirksamkeit des Ansatzes wird durch die Entwicklung eines prototypischen Werkzeugs demonstriert, welches die Ableitungsmethode anhand einer großen Anzahl von Choreographiediagrammen evaluiert. Darüber hinaus stellt diese Arbeit Lösungen zur Implementierung von REST-Choreographien bereit. Insbesondere werden zwei REST-Dienstspezifikationen vorgestellt, welche die korrekte Ausführung von exklusiven Gateways eines Choreographiediagramms und die Führung der REST-Interaktionen unterstützen. KW - business process choreographies KW - RESTful interactions KW - Geschäftsprozess-Choreografien KW - REST-Interaktionen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-438903 ER - TY - THES A1 - Jakobs, Friedrich T1 - Dubrovin–rings and their connection to Hughes–free skew fields of fractions T1 - Dubrovinringe und ihre Verbindung zu Hughes-freien Quotientenschiefkörpern N2 - One method of embedding groups into skew fields was introduced by A. I. Mal'tsev and B. H. Neumann (cf. [18, 19]). If G is an ordered group and F is a skew field, the set F((G)) of formal power series over F in G with well-ordered support forms a skew field into which the group ring F[G] can be embedded. Unfortunately it is not suficient that G is left-ordered since F((G)) is only an F-vector space in this case as there is no natural way to define a multiplication on F((G)). One way to extend the original idea onto left-ordered groups is to examine the endomorphism ring of F((G)) as explored by N. I. Dubrovin (cf. [5, 6]). It is possible to embed any crossed product ring F[G; η, σ] into the endomorphism ring of F((G)) such that each non-zero element of F[G; η, σ] defines an automorphism of F((G)) (cf. [5, 10]). Thus, the rational closure of F[G; η, σ] in the endomorphism ring of F((G)), which we will call the Dubrovin-ring of F[G; η, σ], is a potential candidate for a skew field of fractions of F[G; η, σ]. The methods of N. I. Dubrovin allowed to show that specific classes of groups can be embedded into a skew field. For example, N. I. Dubrovin contrived some special criteria, which are applicable on the universal covering group of SL(2, R). These methods have also been explored by J. Gräter and R. P. Sperner (cf. [10]) as well as N.H. Halimi and T. Ito (cf. [11]). Furthermore, it is of interest to know if skew fields of fractions are unique. For example, left and right Ore domains have unique skew fields of fractions (cf. [2]). This is not the general case as for example the free group with 2 generators can be embedded into non-isomorphic skew fields of fractions (cf. [12]). It seems likely that Ore domains are the most general case for which unique skew fields of fractions exist. One approach to gain uniqueness is to restrict the search to skew fields of fractions with additional properties. I. Hughes has defined skew fields of fractions of crossed product rings F[G; η, σ] with locally indicable G which fulfill a special condition. These are called Hughes-free skew fields of fractions and I. Hughes has proven that they are unique if they exist [13, 14]. This thesis will connect the ideas of N. I. Dubrovin and I. Hughes. The first chapter contains the basic terminology and concepts used in this thesis. We present methods provided by N. I. Dubrovin such as the complexity of elements in rational closures and special properties of endomorphisms of the vector space of formal power series F((G)). To combine the ideas of N.I. Dubrovin and I. Hughes we introduce Conradian left-ordered groups of maximal rank and examine their connection to locally indicable groups. Furthermore we provide notations for crossed product rings, skew fields of fractions as well as Dubrovin-rings and prove some technical statements which are used in later parts. The second chapter focuses on Hughes-free skew fields of fractions and their connection to Dubrovin-rings. For that purpose we introduce series representations to interpret elements of Hughes-free skew fields of fractions as skew formal Laurent series. This 1 Introduction allows us to prove that for Conradian left-ordered groups G of maximal rank the statement "F[G; η, σ] has a Hughes-free skew field of fractions" implies "The Dubrovin ring of F [G; η, σ] is a skew field". We will also prove the reverse and apply the results to give a new prove of Theorem 1 in [13]. Furthermore we will show how to extend injective ring homomorphisms of some crossed product rings onto their Hughes-free skew fields of fractions. At last we will be able to answer the open question whether Hughes--free skew fields are strongly Hughes-free (cf. [17, page 53]). N2 - In dieser Arbeit beschäftigen wir uns mit Quotientenschiefkörpern von verschränkten Produkten F [G; η, σ], wobei G eine Gruppe und F ein Schiefkörper ist. Eine Methode Gruppen in Schiefkörper einzubetten stammt von A. I. Mal’tsev und B. H. Neumann. Ist G eine beidseitig geordnete Gruppe, so lässt sich die Menge der formalen Potenzreihen F ((G)) über F in G mit wohlgeordnetem Träger als Schiefkörper interpretieren. In diesen lässt sich jedes verschränkte Produkt F [G; η, σ] einbetten. Möchte man die Klasse der einzubettenden Gruppen erweitern, so bieten sich links–geordnete Gruppen an. In diesem Fall hat F ((G)) keine natürliche Ringstruktur, aber man kann nutzen, dass F ((G)) ein rechter F–Vektorraum ist und seinen Endomorphismenring untersuchen. Jedes Verschränkte Produkt F [G; η, σ] lässt sich derart in den Endomorphismenring einbetten, dass die zugehörigen von Null verschiedenen Endomorphismen Automorphismen sind. Der rationale Abschluss von F [G; η, σ] in End(F ((G))), den wir Dubrovinring von F [G; η, σ] nennen, ist somit ein potentieller Quotientenschiefkörper von F [G; η, σ]. Neben der Existenz von Quotientenschiefkörpern ist deren Eindeutigkeit (bis auf Isomorphie) von Interesse. Im Gegensatz zum kommutativen Fall sind Quotientenschiefkörper im Allgemeinen nicht eindeutig. So lässt sich beispielsweise die freie Gruppe mit zwei Erzeugenden in nicht–isomorphe Quotientenschiefkörper einbetten. Eine große Klasse an Ringen, die eindeutige Quotientenschiefkörper besitzen, sind Ore–Bereiche. Vermutlich lässt sich diese Klasse nicht erweitern, ohne zusätzliche Eigenschaften der Quotientenschiefkörper zu verlangen. Eine solche Eigenschaft, im Folgenden Hughes–frei genannt, wurde von I. Hughes vorgeschlagen. Er konnte beweisen, dass Hughes–freie Quotientenschiefkörper eindeutig sind, wenn sie existieren. In dieser Arbeit verbinden wir die Ideen von I. Hughes und N. I. Dubrovin. Wir zeigen, dass die Elemente von Hughes–freien Quotientenschiefkörpern als formale schiefe Laurent–Reihen dargestellt werden können und dass diese Darstellungen in gewisser Weise eindeutig sind. Dieses Ergebnis nutzen wir um zu beweisen, dass die Aussagen “F [G; η, σ] besitzt einen Hughes–freien Quotientenschiefkörper” und “Der Dubrovinring von F [G; η, σ] ist ein Schiefkörper” äquivalent sind, wenn G eine links–geordnete Gruppe von Conrad–Typ mit maximalem Rang ist. Wir stellen den nötigen Begriffsapparat zur Verfügung. Dieser basiert vorwiegend auf den Arbeiten von N. I. Dubrovin und umfasst spezielle Eigenschaften der Endomorphismen von F ((G)) sowie die Komplexität von Elementen in rationalen Abschlüssen. Des Weiteren gehen wir auf links–geordnete Gruppen von Conrad–Typ ein und untersuchen ihren Zusammenhang mit lokal indizierbaren Gruppen, die eine grundlegende Rolle für Hughes–freie Quotientenschiefkörper spielen. Wir werden zeigen können, dass Dubrovinringe, die Schiefkörper sind, stark Hughes–freie Quotientenschiefkörper sind, was die offene Frage beantwortet, ob Hughes–freie Quotientenschiefkörper stark Hughes–frei sind. Außerdem werden wir einen alternativen Beweis der Eindeutigkeit von Hughes–freien Quotientenschiefkörpern präsentieren und die Fortsetzbarkeit von Automorphismen eines verschränkten Produkts auf Hughes–freie Quotientenschiefkörper untersuchen. KW - Hughes-free KW - Dubrovinring KW - left ordered groups KW - Conradian ordered groups KW - skew field of fraction KW - locally indicable KW - series representation KW - strongly Hughes-free KW - Hughes-frei KW - Dubrovinring KW - linksgeordnete Gruppen KW - geordnete Gruppen von Conrad-Typ KW - Quotientenschiefkörper KW - lokal indizierbar KW - Reihendarstellungen KW - stark Hughes-frei Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-435561 ER - TY - THES A1 - Rector, Michael V. T1 - The acute effect of exercise on flow-mediated dilation in young people with cystic fibrosis T1 - Der akute Effekt des Trainings auf den Fluss vermittelte Dilatation bei jungen Menschen mit Mukoviszidose N2 - Introduction: Cystic fibrosis (CF) is a genetic disease which disrupts the function of an epithelial surface anion channel, CFTR (cystic fibrosis transmembrane conductance regulator). Impairment to this channel leads to inflammation and infection in the lung causing the majority of morbidity and mortality. However, CF is a multiorgan disease affecting many tissues, including vascular smooth muscle. Studies have revealed young people with cystic fibrosis lacking inflammation and infection still demonstrate vascular endothelial dysfunction, measured per flow-mediated dilation (FMD). In other disease cohorts, i.e. diabetic and obese, endurance exercise interventions have been shown improve or taper this impairment. However, long-term exercise interventions are risky, as well as costly in terms of time and resources. Nevertheless, emerging research has correlated the acute effects of exercise with its long-term benefits and advocates the study of acute exercise effects on FMD prior to longitudinal studies. The acute effects of exercise on FMD have previously not been examined in young people with CF, but could yield insights on the potential benefits of long-term exercise interventions. The aims of these studies were to 1) develop and test the reliability of the FMD method and its applicability to study acute exercise effects; 2) compare baseline FMD and the acute exercise effect on FMD between young people with and without CF; and 3) explore associations between the acute effects of exercise on FMD and demographic characteristics, physical activity levels, lung function, maximal exercise capacity or inflammatory hsCRP levels. Methods: Thirty young volunteers (10 people with CF, 10 non-CF and 10 non-CF active matched controls) between the ages of 10 and 30 years old completed blood draws, pulmonary function tests, maximal exercise capacity tests and baseline FMD measurements, before returning approximately 1 week later and performing a 30-min constant load training at 75% HRmax. FMD measurements were taken prior, immediately after, 30 minutes after and 1 hour after constant load training. ANOVAs and repeated measures ANOVAs were employed to explore differences between groups and timepoints, respectively. Linear regression was implemented and evaluated to assess correlations between FMD and demographic characteristics, physical activity levels, lung function, maximal exercise capacity or inflammatory hsCRP levels. For all comparisons, statistical significance was set at a p-value of α < 0.05. Results: Young people with CF presented with decreased lung function and maximal exercise capacity compared to matched controls. Baseline FMD was also significantly decreased in the CF group (CF: 5.23% v non-CF: 8.27% v non-CF active: 9.12%). Immediately post-training, FMD was significantly attenuated (approximately 40%) in all groups with CF still demonstrating the most minimal FMD. Follow-up measurements of FMD revealed a slow recovery towards baseline values 30 min post-training and improvements in the CF and non-CF active groups 60 min post-training. Linear regression exposed significant correlations between maximal exercise capacity (VO2 peak), BMI and FMD immediately post-training. Conclusion: These new findings confirm that CF vascular endothelial dysfunction can be acutely modified by exercise and will aid in underlining the importance of exercise in CF populations. The potential benefits of long-term exercise interventions on vascular endothelial dysfunction in young people with CF warrants further investigation. N2 - Einleitung: Mukoviszidose (CF) ist eine genetische Erkrankung, die die Funktion eines Epithelien Oberflächenanionenkanals, CFTR (cystic fibrosis transmembrane conductance regulator), stört. Eine Beeinträchtigung dieses Kanals führt zu Entzündungen und Infektionen in der Lunge, die den Großteil der Morbidität und Mortalität verursachen. CF ist jedoch eine Multiorganerkrankung, die viele Gewebe einschließlich vaskulärer glatter Muskeln betrifft. Studien haben gezeigt, dass junge Menschen mit Mukoviszidose, die keine Entzündung und Infektion aufweisen, immer noch eine vaskuläre Dysfunktion aufweisen, gemessen anhand der durchflussbedingten Dilatation (FMD). In anderen Krankheitskohorten, u.a. Diabetes und Fettleibigkeit, wurde gezeigt, dass Ausdauersporteingriffe diese Beeinträchtigungen verbessern oder reduzieren. Langfristige Bewegungseingriffe sind jedoch riskant und kostenintensiv in Bezug auf Zeit und Ressourcen. Nichtsdestotrotz hat die aufkommende Forschung die akuten Auswirkungen von körperlicher Bewegung mit ihren langfristigen Vorteilen korreliert und befürwortet die Untersuchung akuter Bewegungseffekte auf FMD vor longitudinalen Studien. Die akuten Auswirkungen von körperlicher Bewegung auf FMD wurden bisher bei jungen Menschen mit Mukoviszidose nicht untersucht, konnten jedoch Erkenntnisse über die potenziellen Vorteile langfristiger Bewegungseingriffe liefern. Die Ziele dieser Studien waren, 1) die Zuverlässigkeit der FMD-Methode und ihre Anwendbarkeit zu entwickeln, um akute Übungseffekte zu untersuchen; 2) Vergleich der Grundlinien-FMD und der Akutübungswirkung bei FMD zwischen Jugendlichen mit und ohne CF; und 3) Zusammenhänge zwischen den akuten Auswirkungen von körperlicher Bewegung auf FMD und demographischen Merkmalen, der körperlichen Aktivität, der Lungenfunktion, der maximalen körperlichen Belastbarkeit oder den entzündlichen hsCRP-Spiegeln zu untersuchen. Methoden: Dreißig junge Freiwillige (10 CF-Patienten, 10 gesunde und 10 aktive, gesunde Kontrollpersonen) im Alter von 10 bis 30 Jahren führten zuvor Blutabnahmen, Lungenfunktionstests, maximale Belastungstests und Grundlinien-FMD-Messungen durch Rückkehr etwa 1 Woche später und Durchführung eines 30-minütigen Dauerlasttrainings bei 75% HFmax durch. FMD-Messungen wurden vor, unmittelbar nach, 30 Minuten nach und 1 Stunde nach konstantem Belastungstraining durchgeführt. ANOVAs und ANOVAs mit wiederholten Messungen wurden verwendet, um Unterschiede zwischen Gruppen bzw. Zeitpunkten zu untersuchen. Die lineare Regression wurde implementiert und evaluiert, um Korrelationen zwischen FMD und demographischen Merkmalen, körperlichen Aktivitätsniveaus, Lungenfunktion, maximaler Belastungskapazität oder inflammatorischen hsCRP-Spiegeln zu bestimmen. Für alle Vergleiche wurde die statistische Signifikanz auf einen p-Wert von α < 0,05 eingestellt. Ergebnisse: Jugendliche mit Mukoviszidose zeigten eine verminderte Lungenfunktion und maximale Belastbarkeit im Vergleich zu Kontrollpersonen. Baseline FMD (%) war auch in der CF-Gruppe (CF: 5.23% v nicht-CF: 8.27% v nicht-CF-aktive: 9.12%) signifikant verringert. Unmittelbar nach dem Training war die FMD in allen Gruppen mit CF, die immer noch die minimalste FMD aufwiesen, signifikant abgeschwächt (~40%). Follow-up-Messungen von FMD zeigte eine langsame Erholung in Richtung Baseline-Werte 30 Minuten nach dem Training und Verbesserungen in der CF-und nicht-CF-aktive Gruppen 60 Minuten nach dem Training. Die lineare Regression zeigte signifikante Korrelationen zwischen maximaler Belastungsfähigkeit (VO2-Peak), BMI und FMD unmittelbar nach dem Training. Feststellung: Diese neuen Ergebnisse bestätigen, dass die vaskuläre Dysfunktion der CF durch sportliche Betätigung akut verändert werden kann und dazu beitragen wird, die Bedeutung von Bewegung in CF-Populationen zu unterstreichen. Die potenziellen Vorteile von Langzeitübungsinterventionen bei vaskulärer Dysfunktion bei jungen CF-Patienten rechtfertigen weitere Untersuchungen. KW - cystic fibrosis KW - flow-mediated dilation KW - vascular dysfunction KW - exercise KW - Mukoviszidose KW - Fluss vermittelte Dilatation KW - vaskuläre Dysfunktion KW - Sporttraining Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-438938 ER - TY - THES A1 - Romero Mujalli, Daniel T1 - Ecological modeling of adaptive evolutionary responses to rapid climate change T1 - Ökologische Modellierung anpassungsfähiger evolutionärer Reaktionen auf schnellen Klimawandel N2 - A contemporary challenge in Ecology and Evolutionary Biology is to anticipate the fate of populations of organisms in the context of a changing world. Climate change and landscape changes due to anthropic activities have been of major concern in the contemporary history. Organisms facing these threats are expected to respond by local adaptation (i.e., genetic changes or phenotypic plasticity) or by shifting their distributional range (migration). However, there are limits to their responses. For example, isolated populations will have more difficulties in developing adaptive innovations by means of genetic changes than interconnected metapopulations. Similarly, the topography of the environment can limit dispersal opportunities for crawling organisms as compared to those that rely on wind. Thus, populations of species with different life history strategy may differ in their ability to cope with changing environmental conditions. However, depending on the taxon, empirical studies investigating organisms’ responses to environmental change may become too complex, long and expensive; plus, complications arising from dealing with endangered species. In consequence, eco-evolutionary modeling offers an opportunity to overcome these limitations and complement empirical studies, understand the action and limitations of underlying mechanisms, and project into possible future scenarios. In this work I take a modeling approach and investigate the effect and relative importance of evolutionary mechanisms (including phenotypic plasticity) on the ability for local adaptation of populations with different life strategy experiencing climate change scenarios. For this, I performed a review on the state of the art of eco-evolutionary Individual-Based Models (IBMs) and identify gaps for future research. Then, I used the results from the review to develop an eco-evolutionary individual-based modeling tool to study the role of genetic and plastic mechanisms in promoting local adaption of populations of organisms with different life strategies experiencing scenarios of climate change and environmental stochasticity. The environment was simulated through a climate variable (e.g., temperature) defining a phenotypic optimum moving at a given rate of change. The rate of change was changed to simulate different scenarios of climate change (no change, slow, medium, rapid climate change). Several scenarios of stochastic noise color resembling different climatic conditions were explored. Results show that populations of sexual species will rely mainly on standing genetic variation and phenotypic plasticity for local adaptation. Population of species with relatively slow growth rate (e.g., large mammals) – especially those of small size – are the most vulnerable, particularly if their plasticity is limited (i.e., specialist species). In addition, whenever organisms from these populations are capable of adaptive plasticity, they can buffer fitness losses in reddish climatic conditions. Likewise, whenever they can adjust their plastic response (e.g., bed-hedging strategy) they will cope with bluish environmental conditions as well. In contrast, life strategies of high fecundity can rely on non-adaptive plasticity for their local adaptation to novel environmental conditions, unless the rate of change is too rapid. A recommended management measure is to guarantee interconnection of isolated populations into metapopulations, such that the supply of useful genetic variation can be increased, and, at the same time, provide them with movement opportunities to follow their preferred niche, when local adaptation becomes problematic. This is particularly important for bluish and reddish climatic conditions, when the rate of change is slow, or for any climatic condition when the level of stress (rate of change) is relatively high. N2 - Eine aktuelle Herausforderung in der Ökologie und Evolutionsbiologie besteht darin, das Schicksal von Populationen verschiedener Lebewesen im Kontext einer sich verändernden Welt zu antizipieren. Der Klimawandel und die durch anthropologische Aktivitäten verursachten Landschaftsveränderungen sind im Laufe der Geschichte von großer Bedeutung geworden. Von den Organismen, die sich diesen Veränderungen stellen, wird erwartet, dass sie durch lokale Anpassung (d.h. genetische Veränderungen oder phänotypische Plastizität) oder durch Verschiebung ihres Verbreitungsgebietes (Migration) darauf reagieren. Allerdings sind diese Reaktionen begrenzt. So werden beispielsweise isolierte Populationen mehr Schwierigkeiten bei der Entwicklung adaptiver Neuheiten mittels genetischer Variation haben als vernetzte Metapopulationen. Ebenso kann die Topographie der Umgebung die Ausbreitungsmöglichkeiten für zum Beispiel kriechende Organismen im Vergleich zu denen, die auf Wind angewiesen sind, einschränken. So können Populationen von Arten mit unterschiedlichen Lebensstrategien verschiedene Fähigkeiten haben, mit den sich ändernden Umweltbedingungen umzugehen. Empirische Studien, die die Reaktionen von Organismen auf Umweltveränderungen untersuchen, können jedoch, je nach Taxon, zu komplex, langwierig und teuer werden. Ebenso sollten Komplikationen im Umgang mit gefährdeten Arten nicht außer Acht gelassen werden. Die ökoevolutionäre Modellierung bietet jedoch die Möglichkeit, diese Einschränkungen zu überwinden und empirische Studien zu ergänzen, die Wirkung und Grenzen der zugrunde liegenden Mechanismen zu verstehen und mögliche Zukunftsszenarien zu erstellen. In dieser Arbeit untersuche ich mittels einer Modellierungsmethode die Wirkung und relative Bedeutung evolutionärer Mechanismen (einschließlich phänotypischer Plastizität) auf die Fähigkeit zur lokalen Anpassung von Populationen mit unterschiedlichen Lebensstrategien, die Szenarien des Klimawandels durchleben. Dazu habe ich in einem Review den Stand der Technik ökoevolutionärer individuenbasierender Modelle (Individual-Based Models; IBMs) zusammengefasst und Ansätze für eine zukünftige Forschung identifiziert. Die Erkenntnisse des Reviews nutzte ich, um ein ökoevolutionäres, individuelles Modellierungsprogramm zu entwickeln. Dieses analysiert die Rolle genetischer und plastischer Mechanismen zur Förderung der lokalen Anpassung organismischer Populationen mit unterschiedlichen Lebensstrategien, welche Szenarien des Klimawandels und der ökologischen Stochastik erfahren. Die Umweltbedingungen wurden durch eine klimatische Variable (z.B. Temperatur) simuliert, die ein phänotypisches Optimum definiert, das sich mit einer bestimmten Änderungsrate bewegt. Verschiedene Änderungsraten wurden angewandt, um unterschiedliche Szenarien des Klimawandels darzustellen (keine Veränderung, langsamer, mittlerer, schneller Klimawandel). Es wurden mehrere Szenarien stochastischen Farbrauschens untersucht, die verschiedene klimatische Bedingungen widerspiegeln. Die Ergebnisse zeigen, dass Populationen sexueller Arten hauptsächlich auf genetische Variation und phänotypische Plastizität hinsichtlich lokalen Anpassung angewiesen sind. Populationen von Arten mit relativ langsamer Wachstumsrate (z.B. große Säugetiere), und insbesondere die mit kleiner Populationsgröße, sind am anfälligsten, vor allem wenn ihre Plastizität begrenzt ist (d.h. spezialisierte Arten). Wenn Individuen dieser Populationen zu adaptiver Plastizität fähig sind, können sie Fitnessverluste unter „rötlichen“ Klimabedingungen ausgleichen. Zugleich können diese Populationen durch Anpassung der Plastizität auch unter bläulichen Umweltbedingungen zurecht kommen (z.B. Bed-Hedging-Strategie). Im Gegensatz dazu können sich Lebensstrategen mit hoher Reproduktionszahl auf nicht-adaptive Plastizität zur lokalen Anpassung an neue Umweltbedingungen verlassen, es sei denn, die Änderungsrate ist zu schnell. Eine empfohlene Handlungsmaßnahme ist es, die Eingliederung von isolierten Populationen in Metapopulationen zu gewährleisten, so dass die genetische Variation erhöht werden kann. Wenn eine lokale Anpassung problematisch wird, sollte ihnen gleichzeitig Migrationsfreiraum gegeben werden, um ihrer bevorzugten Nische zu folgen. Dies ist besonders wichtig für „bläuliche“ und „rötliche“ Klimabedingungen, bei denen die Änderungsrate langsam ist, oder für jede klimatische Bedingung, wenn die Belastung (Änderungsrate) relativ hoch ist. KW - climate change KW - local adaptation KW - plasticity KW - evolution KW - individual-based model KW - Klimawandel KW - lokale Anpassung KW - Plastizität KW - Evolution KW - Individuen-basierende Modelle Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430627 ER - TY - THES A1 - Abdelwahab Hussein Abdelwahab Elsayed, Ahmed T1 - Probabilistic, deep, and metric learning for biometric identification from eye movements N2 - A central insight from psychological studies on human eye movements is that eye movement patterns are highly individually characteristic. They can, therefore, be used as a biometric feature, that is, subjects can be identified based on their eye movements. This thesis introduces new machine learning methods to identify subjects based on their eye movements while viewing arbitrary content. The thesis focuses on probabilistic modeling of the problem, which has yielded the best results in the most recent literature. The thesis studies the problem in three phases by proposing a purely probabilistic, probabilistic deep learning, and probabilistic deep metric learning approach. In the first phase, the thesis studies models that rely on psychological concepts about eye movements. Recent literature illustrates that individual-specific distributions of gaze patterns can be used to accurately identify individuals. In these studies, models were based on a simple parametric family of distributions. Such simple parametric models can be robustly estimated from sparse data, but have limited flexibility to capture the differences between individuals. Therefore, this thesis proposes a semiparametric model of gaze patterns that is flexible yet robust for individual identification. These patterns can be understood as domain knowledge derived from psychological literature. Fixations and saccades are examples of simple gaze patterns. The proposed semiparametric densities are drawn under a Gaussian process prior centered at a simple parametric distribution. Thus, the model will stay close to the parametric class of densities if little data is available, but it can also deviate from this class if enough data is available, increasing the flexibility of the model. The proposed method is evaluated on a large-scale dataset, showing significant improvements over the state-of-the-art. Later, the thesis replaces the model based on gaze patterns derived from psychological concepts with a deep neural network that can learn more informative and complex patterns from raw eye movement data. As previous work has shown that the distribution of these patterns across a sequence is informative, a novel statistical aggregation layer called the quantile layer is introduced. It explicitly fits the distribution of deep patterns learned directly from the raw eye movement data. The proposed deep learning approach is end-to-end learnable, such that the deep model learns to extract informative, short local patterns while the quantile layer learns to approximate the distributions of these patterns. Quantile layers are a generic approach that can converge to standard pooling layers or have a more detailed description of the features being pooled, depending on the problem. The proposed model is evaluated in a large-scale study using the eye movements of subjects viewing arbitrary visual input. The model improves upon the standard pooling layers and other statistical aggregation layers proposed in the literature. It also improves upon the state-of-the-art eye movement biometrics by a wide margin. Finally, for the model to identify any subject — not just the set of subjects it is trained on — a metric learning approach is developed. Metric learning learns a distance function over instances. The metric learning model maps the instances into a metric space, where sequences of the same individual are close, and sequences of different individuals are further apart. This thesis introduces a deep metric learning approach with distributional embeddings. The approach represents sequences as a set of continuous distributions in a metric space; to achieve this, a new loss function based on Wasserstein distances is introduced. The proposed method is evaluated on multiple domains besides eye movement biometrics. This approach outperforms the state of the art in deep metric learning in several domains while also outperforming the state of the art in eye movement biometrics. N2 - Die Art und Weise, wie wir unsere Augen bewegen, ist individuell charakteristisch. Augenbewegungen können daher zur biometrischen Identifikation verwendet werden. Die Dissertation stellt neuartige Methoden des maschinellen Lernens zur Identifzierung von Probanden anhand ihrer Blickbewegungen während des Betrachtens beliebiger visueller Inhalte vor. Die Arbeit konzentriert sich auf die probabilistische Modellierung des Problems, da dies die besten Ergebnisse in der aktuellsten Literatur liefert. Die Arbeit untersucht das Problem in drei Phasen. In der ersten Phase stützt sich die Arbeit bei der Entwicklung eines probabilistischen Modells auf Wissen über Blickbewegungen aus der psychologischen Literatur. Existierende Studien haben gezeigt, dass die individuelle Verteilung von Blickbewegungsmustern verwendet werden kann, um Individuen genau zu identifizieren. Existierende probabilistische Modelle verwenden feste Verteilungsfamilien in Form von parametrischen Modellen, um diese Verteilungen zu approximieren. Die Verwendung solcher einfacher Verteilungsfamilien hat den Vorteil, dass sie robuste Verteilungsschätzungen auch auf kleinen Mengen von Beobachtungen ermöglicht. Ihre Flexibilität, Unterschiede zwischen Personen zu erfassen, ist jedoch begrenzt. Die Arbeit schlägt daher eine semiparametrische Modellierung der Blickmuster vor, die flexibel und dennoch robust individuelle Verteilungen von Blickbewegungsmustern schätzen kann. Die modellierten Blickmuster können als Domänenwissen verstanden werden, das aus der psychologischen Literatur abgeleitet ist. Beispielsweise werden Verteilungen über Fixationsdauern und Sprungweiten (Sakkaden) bei bestimmten Vor- und Rücksprüngen innerhalb des Textes modelliert. Das semiparametrische Modell bleibt nahe des parametrischen Modells, wenn nur wenige Daten verfügbar sind, kann jedoch auch vom parametrischen Modell abweichen, wenn genügend Daten verfügbar sind, wodurch die Flexibilität erhöht wird. Die Methode wird auf einem großen Datenbestand evaluiert und zeigt eine signifikante Verbesserung gegenüber dem Stand der Technik der Forschung zur biometrischen Identifikation aus Blickbewegungen. Später ersetzt die Dissertation die zuvor untersuchten aus der psychologischen Literatur abgeleiteten Blickmuster durch ein auf tiefen neuronalen Netzen basierendes Modell, das aus den Rohdaten der Augenbewegungen informativere komplexe Muster lernen kann. Tiefe neuronale Netze sind eine Technik des maschinellen Lernens, bei der in komplexen, mehrschichtigen Modellen schrittweise abstraktere Merkmale aus Rohdaten extrahiert werden. Da frühere Arbeiten gezeigt haben, dass die Verteilung von Blickbewegungsmustern innerhalb einer Blickbewegungssequenz informativ ist, wird eine neue Aggrgationsschicht für tiefe neuronale Netze eingeführt, die explizit die Verteilung der gelernten Muster schätzt. Die vorgeschlagene Aggregationsschicht für tiefe neuronale Netze ist nicht auf die Modellierung von Blickbewegungen beschränkt, sondern kann als Verallgemeinerung von existierenden einfacheren Aggregationsschichten in beliebigen Anwendungen eingesetzt werden. Das vorgeschlagene Modell wird in einer umfangreichen Studie unter Verwendung von Augenbewegungen von Probanden evaluiert, die Videomaterial unterschiedlichen Inhalts und unterschiedlicher Länge betrachten. Das Modell verbessert die Identifikationsgenauigkeit im Vergleich zu tiefen neuronalen Netzen mit Standardaggregationsschichten und existierenden probabilistischen Modellen zur Identifikation aus Blickbewegungen. Damit das Modell zum Anwendungszeitpunkt beliebige Probanden identifizieren kann, und nicht nur diejenigen Probanden, mit deren Daten es trainiert wurde, wird ein metrischer Lernansatz entwickelt. Beim metrischen Lernen lernt das Modell eine Funktion, mit der die Ähnlichkeit zwischen Blickbewegungssequenzen geschätzt werden kann. Das metrische Lernen bildet die Instanzen in einen neuen Raum ab, in dem Sequenzen desselben Individuums nahe beieinander liegen und Sequenzen verschiedener Individuen weiter voneinander entfernt sind. Die Dissertation stellt einen neuen metrischen Lernansatz auf Basis tiefer neuronaler Netze vor. Der Ansatz repäsentiert eine Sequenz in einem metrischen Raum durch eine Menge von Verteilungen. Das vorgeschlagene Verfahren ist nicht spezifisch für die Blickbewegungsmodellierung, und wird in unterschiedlichen Anwendungsproblemen empirisch evaluiert. Das Verfahren führt zu genaueren Modellen im Vergleich zu existierenden metrischen Lernverfahren und existierenden Modellen zur Identifikation aus Blickbewegungen. KW - probabilistic deep metric learning KW - probabilistic deep learning KW - biometrics KW - eye movements KW - biometrische Identifikation KW - Augenbewegungen KW - probabilistische tiefe neuronale Netze KW - probabilistisches tiefes metrisches Lernen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-467980 ER - TY - THES A1 - Guislain, Alexis T1 - Eco-physiological consequences of fluctuating light on phytoplankton T1 - Ökophysiologische Konsequenzen von fluktuierendem Licht auf das Phytoplankton N2 - Phytoplankton growth depends not only on the mean intensity but also on the dynamics of the light supply. The nonlinear light-dependency of growth is characterized by a small number of basic parameters: the compensation light intensity PARcompμ, where production and losses are balanced, the growth efficiency at sub-saturating light αµ, and the maximum growth rate at saturating light µmax. In surface mixed layers, phytoplankton may rapidly move between high light intensities and almost darkness. Because of the different frequency distribution of light and/or acclimation processes, the light-dependency of growth may differ between constant and fluctuating light. Very few studies measured growth under fluctuating light at a sufficient number of mean light intensities to estimate the parameters of the growth-irradiance relationship. Hence, the influence of light dynamics on µmax, αµ and PARcompμ are still largely unknown. By extension, accurate modelling predictions of phytoplankton development under fluctuating light exposure remain difficult to make. This PhD thesis does not intend to directly extrapolate few experimental results to aquatic systems – but rather improving the mechanistic understanding of the variation of the light-dependency of growth under light fluctuations and effects on phytoplankton development. In Lake TaiHu and at the Three Gorges Reservoir (China), we incubated phytoplankton communities in bottles placed either at fixed depths or moved vertically through the water column to mimic vertical mixing. Phytoplankton at fixed depths received only the diurnal changes in light (defined as constant light regime), while phytoplankton received rapidly fluctuating light by superimposing the vertical light gradient on the natural sinusoidal diurnal sunlight. The vertically moved samples followed a circular movement with 20 min per revolution, replicating to some extent the full overturn of typical Langmuir cells. Growth, photosynthesis, oxygen production and respiration of communities (at Lake TaiHu) were measured. To complete these investigations, a physiological experiment was performed in the laboratory on a toxic strain of Microcystis aeruginosa (FACBH 1322) incubated under 20 min period fluctuating light. Here, we measured electron transport rates and net oxygen production at a much higher time resolution (single minute timescale). The present PhD thesis provides evidence for substantial effects of fluctuating light on the eco-physiology of phytoplankton. Both experiments performed under semi-natural conditions in Lake TaiHu and at the Three Gorges Reservoir gave similar results. The significant decline in community growth efficiencies αµ under fluctuating light was caused for a great share by different frequency distribution of light intensities that shortened the effective daylength for production. The remaining gap in community αµ was attributed to species-specific photoacclimation mechanisms and to light-dependent respiratory losses. In contrast, community maximal growth rates µmax were similar between incubations at constant and fluctuating light. At daily growth saturating light supply, differences in losses for biosynthesis between the two light regimes were observed. Phytoplankton experiencing constant light suffered photo-inhibition - leading to photosynthesis foregone and additional respiratory costs for photosystems repair. On the contrary, intermittent exposure to low and high light intensities prevented photo-inhibition of mixed algae but forced them to develop alternative light strategy. They better harvested and exploited surface irradiance by enhancing their photosynthesis. In the laboratory, we showed that Microcystis aeruginosa increased its oxygen consumption by dark respiration in the light few minutes only after exposure to increasing light intensities. More, we proved that within a simulated Langmuir cell, the net production at saturating light and the compensation light intensity for production at limiting light are positively related. These results are best explained by an accumulation of photosynthetic products at increasing irradiance and mobilization of these fresh resources by rapid enhancement of dark respiration for maintenance and biosynthesis at decreasing irradiance. At the daily timescale, we showed that the enhancement of photosynthesis at high irradiance for biosynthesis of species increased their maintenance respiratory costs at limiting light. Species-specific growth at saturating light µmax and compensation light intensity for growth PARcompμ of species incubated in Lake TaiHu were positively related. Because of this species-specific physiological tradeoff, species displayed different light affinities to limiting and saturating light - thereby exhibiting a gleaner-opportunist tradeoff. In Lake TaiHu, we showed that inter-specific differences in light acquisition traits (µmax and PARcompμ) allowed coexis¬tence of species on a gradient of constant light while avoiding competitive exclusion. More interestingly we demonstrated for the first time that vertical mixing (inducing fluctuating light supply for phytoplankton) may alter or even reverse the light utilization strategies of species within couple of days. The intra-specific variation in traits under fluctuating light increased the niche space for acclimated species, precluding competitive exclusion. Overall, this PhD thesis contributes to a better understanding of phytoplankton eco-physiology under fluctuating light supply. This work could enhance the quality of predictions of phytoplankton development under certain weather conditions or climate change scenarios. N2 - Das Wachstum von Phytoplankton hängt ab nicht nur von der mittleren Intensität, sondern auch von der Dynamik des verfügbaren Lichts. Die nicht-lineare Lichtabhängigkeit des Wachstums kann durch drei Parameter beschrieben werden: die Kompensationslichtintensität PARcompµ, bei der Bruttoproduktion und Verluste gleich sind, die Wachstumseffizienz bei Lichtlimitation αµ und die maximale Wachstumsrate bei sättigendem Licht µmax. In durchmischten Schichten nahe der Gewässeroberfläche kann das Phytoplankton innerhalb weniger Minuten zwischen Starklicht und nahezu völliger Dunkelheit bewegt werden. Durch die unterschiedliche Häufigkeitsverteilung der Lichtintensitäten und/oder unterschiedliche Anpassungen kann die Lichtabhängigkeit des Wachstums sich bei fluktuierendem Licht von dem bei konstantem Licht unterscheiden. Bislang wurde die Lichtabhängigkeit des Wachstums bei fluktuierendem Licht nur in sehr wenigen Studien für genügend viele Lichtintensitäten gemessen, um die genannten Parameter bestimmen zu können. Entsprechend ist der Einfluss der Lichtdynamik auf die Parameter der Wachstums-Licht-Beziehung noch weitgehend unbekannt. Dies beeinträchtigt auch die Zuverlässigkeit von Modellaussagen zur Phytoplanktondynamik unter Durchmischungsbedingungen. In dieser Dissertation sollen die experimentell gewonnenen Ergebnisse nicht auf ganze Ökosysteme extrapoliert werden; Ziel ist vielmehr ein verbessertes Verständnis der Prozesse, die die Lichtabhängigkeit des Phytoplanktonwachstums unter dynamischen Lichtbedingungen steuern. Hierzu wurden im Tai-See und im Dreischluchten-Stausee (China) Experimente mit Phytoplanktongemeinschaften durchgeführt. Es wurden Proben entweder in konstanten Tiefen exponiert oder mit Liften vertikal zwischen Wasseroberfläche und verschiedenen Tiefen bewegt. Während das Lichtangebot in konstanten Tiefen nur dem Tagesgang der Globalstrahlung folgte (hier als konstantes Licht bezeichnet), war das Phytoplankton in den bewegten Proben zusätzlich raschen Lichtfluktuationen ausgesetzt. Mit der Liftbewegung wurden mittlere Bedingungen in den Außenbahnen von Langmuir-Zellen simuliert, wobei eine Umlaufzeit von 20 Minuten gewählt wurde. Es wurden Wachstum, Photosynthese und (im Tai-See) Respiration gemessen. Zusätzlich wurde in Laborversuchen mit einem toxischen Stamm des Cyanobakteriums Microcystis aeruginosa (FACBH 1322) unter fluktuierendem und konstantem Licht Elektronentransportraten sowie Produktion und Verbrauch von Sauerstoff mit höherer zeitlicher Auflösung (1 min) gemessen. Die Ergebnisse der vorliegenden Dissertation demonstrieren bedeutsame Effekte von Lichtfluktuationen auf die Ökophysiologie von Phytoplankton. Die Experimente unter halb-natürlichen Bedingungen im Tai-See und im Dreischluchten-Stausee zeigten ähnliche Muster. Die Wachstumseffizienz der Gemeinschaften nahm durch fluktuierendes Licht deutlich ab, überwiegend durch die veränderte Häufigkeitsverteilung der Lichtintensitäten, die zu verkürzten effektiven Taglängen führte. Zudem verringerten artspezifische Anpassungsmechanismen und lichtabhängige Verluste durch Respiration die Wachstumseffizienz bei fluktuierendem Licht. Die maximalen Wachstumsraten der Gemeinschaft unterschieden sich hingegen nicht zwischen den Ansätzen mit konstantem und fluktuierendem Licht. Bei Lichtsättigung des Wachstums unterschieden sich die Aufwendungen für die Biosynthese zwischen den beiden Lichtregimen. Unter konstantem Starklicht wurden die Photosynthese gehemmt und die Respiration zur Reparatur der Photosysteme erhöht. Fluktuierendes Licht hingegen vermied Lichthemmung, zwang die vertikal bewegten Algen aber zu alternativen Strategien der Lichtnutzung. Durch eine erhöhte Photosynthesekapazität konnten sie Starklicht nahe der Wasseroberfläche besser nutzen. Microcystis aeruginosa verbrauchte im Labor mehr Sauerstoff durch Respiration bei abnehmenden Lichtintensitäten kurz nach Starklicht. Innerhalb eines Lichtzyklus von 20 min stieg die Kompensationslichtintensität mit steigender Nettoproduktion bei Lichtsättigung. Diese Beobachtungen sind am besten durch eine Anreicherung von Photosyntheseprodukten bei ansteigender Lichtintensität und deren sofortige verstärkte Respiration für Erhaltungsumsatz und Biosynthese bei abnehmender Lichtintensität erklärbar. Im Tagesmittel führte eine verstärkte Photosynthese bei Lichtsättigung zu erhöhter Respiration bei Schwachlicht. Die Kompensationslichtintensitäten dominanter Arten im Tai-See stiegen mit deren artspezifischen maximalen Wachstumsraten. Durch diesen artspezifischen physiologischen Kompromiss unterschieden sich die dominanten Arten im See bezüglich ihrer Lichtoptima. Unterschiedliche Strategien der Lichtnutzung (höhere maximale Wachstumsraten oder niedrigere Lichtansprüche) ermöglichten die Koexistenz verschiedener Arten entlang eines Gradienten der Intensität konstanten Lichts im Tai-See. Durch vertikale Durchmischung änderten sich die Strategien der Lichtnutzung innerhalb weniger Tage komplett. Die unterschiedlichen Anpassungsstrategien an fluktuierendes Licht vergrößerten die ökologischen Nischen der dominanten Arten und verhinderten ihre gegenseitige Verdrängung. Insgesamt trägt diese Dissertation zum besseren Verständnis der Ökophysiologie von Phytoplankton unter Durchmischungsbedingungen bei. Dadurch werden verlässlichere Prognosen der Phytoplanktonentwicklung möglich, kurzzeitig in Kombination mit Wettervorhersagen und über lange Zeiträume durch Kopplung mit Klimaszenarien. KW - Lake TaiHu KW - Three Gorges reservoir KW - functional traits KW - tradeoff KW - fluctuating light KW - pPhytoplankton photoacclimation KW - effective daylength KW - photosynthesis KW - respiration KW - niche partitioning KW - non-equilibrium coexistence KW - TaiHu KW - Dreischluchten-Stausee KW - funktionelle Eigenschaften KW - Zielkonflikte KW - fluktuierendes Licht KW - Lichtanpassung KW - Photosynthese KW - Respiration KW - Nischen-Aufteilung KW - Koexistenz unter wechselnden Bedingungen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469272 ER - TY - THES A1 - Vranic, Marija T1 - 3D Structure of the biomarker hepcidin-25 in its native state T1 - 3D-Struktur des Biomarkers Hepcidin-25 im eigenen nativen Zustand N2 - Hepcidin-25 (Hep-25) plays a crucial role in the control of iron homeostasis. Since the dysfunction of the hepcidin pathway leads to multiple diseases as a result of iron imbalance, hepcidin represents a potential target for the diagnosis and treatment of disorders of iron metabolism. Despite intense research in the last decade targeted at developing a selective immunoassay for iron disorder diagnosis and treatment and better understanding the ferroportin-hepcidin interaction, questions remain. The key to resolving these underlying questions is acquiring exact knowledge of the 3D structure of native Hep-25. Since it was determined that the N-terminus, which is responsible for the bioactivity of Hep-25, contains a small Cu(II)-binding site known as the ATCUN motif, it was assumed that the Hep-25-Cu(II) complex is the native, bioactive form of the hepcidin. This structure has thus far not been elucidated in detail. Owing to the lack of structural information on metal-bound Hep-25, little is known about its possible biological role in iron metabolism. Therefore, this work is focused on structurally characterizing the metal-bound Hep-25 by NMR spectroscopy and molecular dynamics simulations. For the present work, a protocol was developed to prepare and purify properly folded Hep-25 in high quantities. In order to overcome the low solubility of Hep-25 at neutral pH, we introduced the C-terminal DEDEDE solubility tag. The metal binding was investigated through a series of NMR spectroscopic experiments to identify the most affected amino acids that mediate metal coordination. Based on the obtained NMR data, a structural calculation was performed in order to generate a model structure of the Hep-25-Ni(II) complex. The DEDEDE tag was excluded from the structural calculation due to a lack of NMR restraints. The dynamic nature and fast exchange of some of the amide protons with solvent reduced the overall number of NMR restraints needed for a high-quality structure. The NMR data revealed that the 20 Cterminal Hep-25 amino acids experienced no significant conformational changes, compared to published results, as a result of a pH change from pH 3 to pH 7 and metal binding. A 3D model of the Hep-25-Ni(II) complex was constructed from NMR data recorded for the hexapeptideNi(II) complex and Hep-25-DEDEDE-Ni(II) complex in combination with the fixed conformation of 19 C-terminal amino acids. The NMR data of the Hep-25-DEDEDE-Ni(II) complex indicates that the ATCUN motif moves independently from the rest of the structure. The 3D model structure of the metal-bound Hep-25 allows for future works to elucidate hepcidin’s interaction with its receptor ferroportin and should serve as a starting point for the development of antibodies with improved selectivity. N2 - Hepcidin-25 (Hep-25) spielt eine entscheidende Rolle bei der Kontrolle der Eisenhomöostase. Da die Dysfunktion des Hepcidin-Signalweges aufgrund des Eisenungleichgewichts zu mehreren Krankheiten führt, stellt Hepcidin ein potenzielles Ziel für die Diagnose und Behandlung von Störungen des Eisenstoffwechsels dar. Trotz intensiver Forschung in den letzten zehn Jahren, die darauf abzielte, einen selektiven Immunoassay für die Diagnose und Behandlung von Eisenerkrankungen zu entwickeln und die Ferroportin-Hepcidin-Interaktion besser zu verstehen, bleiben Fragen offen. Der Schlüssel zur Lösung dieser grundlegenden Fragen liegt darin, genaue Kenntnisse über die 3D-Struktur des nativen Hep-25 zu erlangen. Da festgestellt wurde, dass der N-Terminus, der für die Bioaktivität von Hep-25 verantwortlich ist, eine kleine Cu(II)-Bindungsstelle enthält, die als ATCUN-Motiv bekannt ist, wurde angenommen, dass der Hep-25- Cu(II)-Komplex die native, bioaktive Form des Hepcidins ist. Diese Struktur ist bisher noch nicht im Detail untersucht worden. Aufgrund fehlender Strukturinformationen über metallgebundenes Hep-25 ist wenig über seine mögliche biologische Rolle im Eisenstoffwechsel bekannt. Daher konzentriert sich diese Arbeit auf die strukturelle Charakterisierung des metallgebundenen Hep-25 mittels NMR-Spektroskopie und Molekulardynamik Simulationen. In der vorliegenden Arbeit wurde ein Protokoll zur Präparation und Reinigung von korrekt gefaltetem Hep-25 in hohen Mengen entwickelt. Um das Problem der geringen Löslichkeit von Hep-25 bei neutralem pH-Wert zu überwinden, haben wir einen C-terminalen DEDEDEDE Löslichkeits-Tag eingeführt. Die Metallbindung wurde durch eine Reihe von NMRspektroskopischen Experimenten untersucht, um die Aminosäuren zu identifizieren, welche an der Metallkoordination beteiligt sind. Basierend auf den erhaltenen NMR-Daten wurde eine Strukturberechnung durchgeführt, um eine Modellstruktur des Hep-25-Ni(II)-Komplexes zu erzeugen. Der DEDEDE-Tag wurde aufgrund fehlender NMR- restraints von der Strukturberechnung ausgeschlossen. Die dynamische Natur und der schnelle Austausch eines Teils der Amid-Protonen mit dem Lösungsmittel reduzierten die Gesamtzahl der NMR- restraints, die für eine hochwertige Struktur erforderlich waren. Die NMR-Daten zeigten, dass die 20 C-terminalen Hep-25-Aminosäuren keine signifikanten Konformationsänderungen als Folge eines pH-Wechsels von pH 3 auf pH 7 und einer Metallbindung erfuhren. Ein 3D-Modell des Hep-25-Ni(II)-Komplexes wurde aus den NMR-Daten des Hexapeptid-Ni(II)-Komplexes und des Hep-25-DEDEDE-Ni(II)-Komplexes in Kombination mit der bekannten Konformation der 19 C-terminalen Aminosäuren erstellt. Die NMR-Daten des Hep-25-DEDEDE-Ni(II)Komplexes zeigen, dass sich das Ni-ATCUN-Motiv unabhängig vom C-Terminus bewegt. Die 3D-Modellstruktur des metallgebundenen Hep-25 ermöglicht es, in Zukunft die Interaktion von Hepcidin mit seinem Rezeptor Ferroportin zu untersuchen und soll als Ausgangspunkt für die Entwicklung von Antikörpern mit verbesserter Selektivität dienen. KW - iron KW - hepcidin KW - peptide KW - metal KW - binding KW - NMR KW - Eisen KW - Hepcidin KW - Peptid KW - Metall KW - Bindung KW - NMR Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459295 ER - TY - THES A1 - Schmidt, Martin T1 - Fragmentation of landscapes: modelling ecosystem services of transition zones T1 - Fragmentierung von Landschaften: Modellierung von Ökosystemleistungen in Übergangszonen N2 - For millennia, humans have affected landscapes all over the world. Due to horizontal expansion, agriculture plays a major role in the process of fragmentation. This process is caused by a substitution of natural habitats by agricultural land leading to agricultural landscapes. These landscapes are characterized by an alternation of agriculture and other land use like forests. In addition, there are landscape elements of natural origin like small water bodies. Areas of different land use are beside each other like patches, or fragments. They are physically distinguishable which makes them look like a patchwork from an aerial perspective. These fragments are each an own ecosystem with conditions and properties that differ from their adjacent fragments. As open systems, they are in exchange of information, matter and energy across their boundaries. These boundary areas are called transition zones. Here, the habitat properties and environmental conditions are altered compared to the interior of the fragments. This changes the abundance and the composition of species in the transition zones, which in turn has a feedback effect on the environmental conditions. The literature mainly offers information and insights on species abundance and composition in forested transition zones. Abiotic effects, the gradual changes in energy and matter, received less attention. In addition, little is known about non-forested transition zones. For example, the effects on agricultural yield in transition zones of an altered microclimate, matter dynamics or different light regimes are hardly researched or understood. The processes in transition zones are closely connected with altered provisioning and regulating ecosystem services. To disentangle the mechanisms and to upscale the effects, models can be used. My thesis provides insights into these topics: literature was reviewed and a conceptual framework for the quantitative description of gradients of matter and energy in transition zones was introduced. The results of measurements of environmental gradients like microclimate, aboveground biomass and soil carbon and nitrogen content are presented that span from within the forest into arable land. Both the measurements and the literature review could not validate a transition zone of 100 m for abiotic effects. Although this value is often reported and used in the literature, it is likely to be smaller. Further, the measurements suggest that on the one hand trees in transition zones are smaller compared to those in the interior of the fragments, while on the other hand less biomass was measured in the arable lands’ transition zone. These results support the hypothesis that less carbon is stored in the aboveground biomass in transition zones. The soil at the edge (zero line) between adjacent forest and arable land contains more nitrogen and carbon content compared to the interior of the fragments. One-year measurements in the transition zone also provided evidence that microclimate is different compared to the fragments’ interior. To predict the possible yield decreases that transition zones might cause, a modelling approach was developed. Using a small virtual landscape, I modelled the effect of a forest fragment shading the adjacent arable land and the effects of this on yield using the MONICA crop growth model. In the transition zone yield was less compared to the interior due to shading. The results of the simulations were upscaled to the landscape level and exemplarily calculated for the arable land of a whole region in Brandenburg, Germany. The major findings of my thesis are: (1) Transition zones are likely to be much smaller than assumed in the scientific literature; (2) transition zones aren’t solely a phenomenon of forested ecosystems, but significantly extend into arable land as well; (3) empirical and modelling results show that transition zones encompass biotic and abiotic changes that are likely to be important to a variety of agricultural landscape ecosystem services. N2 - Seit Jahrtausenden werden Landschaften weltweit maßgeblich durch den Menschen gestaltet. Insbesondere die Landwirtschaft hat durch Fragmentierung, der teilweisen Umwandlung natürlicher Lebensräume in landwirtschaftlich genutzte Flächen, großen Einfluss, so dass Agrarlandschaften entstanden. Diese zeichnen sich durch einen Wechsel von agrarischer und anderer Nutzung, wie beispielsweise Forst, aus. Hinzu kommen Flächen, die auf eine natürliche Entstehung zurückzuführen sind, wie etwa Kleingewässer. Kleinere und größere Flächen der unterschiedlichen Nutzung liegen als Flicken bzw. Fragmente nebeneinander. Durch die physische Differenzierbarkeit der Flächennutzung aus der Vogelperspektive werden Agrarlandschaften oft auch als Flickwerk (“Patchwork”) bezeichnet. Diese Fragmente sind Ökosysteme, die sich in ihren Eigenschaften voneinander unterscheiden. Die Fragmente als Ökosysteme sind offene und komplexe Systeme und stehen im Austausch mit angrenzenden Fragmenten. Die Bereiche, in denen der Austausch von Stoffen, Energie und Informationen stattfindet, sind deren Übergangszonen. Durch den Austausch verändern sich die vorherrschenden Eigenschaften der jeweils angrenzenden Fragmente in den Übergangszonen. Stoffflüsse beeinflussen dabei die in den Übergangszonen lebenden Organismen und können die Artenzusammensetzung und Population verändern. Gleichwohl hat dies Rückkopplungseffekte auf die Flüsse von Stoffen, Informationen und Energie selbst. In der Forschung ist bereits viel über die Auswirkungen auf Organismen in den Übergangszonen bekannt, insbesondere für bewaldete Gebiete. Weniger beforscht sind abiotische Effekte, insbesondere die graduellen Veränderungen von Stoffen und Energie in der Übergangszone. Diese sind jedoch eng verwoben in die Prozesse, die zu regulierenden und bereitstellenden Ökosystemleistungen wie beispielsweise landwirtschaftlichen Erträgen oder Kohlenstoffspeicherung beitragen. Darüber hinaus gibt es wenig Forschung zu den Übergangszonen von nicht-bewaldeten Übergangszonen, wie etwa Äckern. In der vorliegenden Arbeit präsentiere ich die Ergebnisse einer Literaturrecherche und einen Ansatz zur quantitativen Beschreibung von Stoff- und Energieflüssen in Übergangszonen. Darüber hinaus analysiere ich Messungen eben jener abiotischen Effekte in Übergangszonen. Sowohl die Messungen als auch die Auswertung der Literatur ergab, dass viele Autoren die Übergangszone in Bezug auf Umweltgradienten und deren Einfluss auf Ökosystemleistungen mit 100 m überschätzen. Sie ist oft kleiner. Die Messungen ergaben außerdem, dass Bäume in der Übergangszone kleiner sind und dadurch vermutlich weniger Kohlenstoff speichern als vergleichbare Bäume im Inneren dieser Fragmente. An Wald angrenzende Ackerkulturen zeigen ebenfalls einen geringeren Aufwuchs an Biomasse. Im Boden genau an der Grenze zwischen Wald- und Ackerfragmenten waren sowohl Stickstoff als auch Kohlenstoff erhöht. Einjährige Messungen in Brandenburg ergaben, dass das Mikroklima in der Übergangszone im Vergleich zum Inneren der Fragmente ebenfalls verändert war. Um genauer zu verstehen, was die Ertragsminderung in der ackerbaulichen Übergangszone induziert, wurde ein Modellierungsansatz entwickelt. Die Beschattung durch einen virtuellen Wald wurde im agrarischen Simulationsmodell MONICA als Variable benutzt, um eine potentielle Ertragsminderung zu simulieren. Ein Minderertrag in der Übergangszone konnte auf diese Weise nachgewiesen und mit einer verminderten Solarstrahlung in Verbindung gebracht werden. Die simulierten Ergebnisse wurden anschließend für die Beispielregion Brandenburg für die gesamte landwirtschaftlich genutzte Fläche skaliert. Insbesondere in drei Punkten trägt diese Arbeit zum wissenschaftlichen Fortschritt bei: 1) Übergangszonen sind sehr wahrscheinlich kleiner als bislang in der wissenschaftlichen Literatur angenommen; 2) Übergangszonen sollten ganzheitlich, über die Grenze zwischen Wald und Feld hinweg betrachtet werden; 3) Messungen und Modellierung zeigen einen Zusammenhang zwischen Mikroklima, Stoffdynamik und Ökosystemleistungen in Übergangszonen von Agrarlandschaften. KW - edge effects KW - agricultural modelling KW - ecosystem services KW - transition zone KW - fragmentation KW - Randeffekte KW - Pflanzenwachstumsmodellierung KW - Ökosystemleistungen KW - Übergangszone KW - Fragmentierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442942 ER - TY - THES A1 - He, Hai T1 - Exploring and engineering formaldehyde assimilation N2 - Increasing concerns regarding the environmental impact of our chemical production have shifted attention towards possibilities for sustainable biotechnology. One-carbon (C1) compounds, including methane, methanol, formate and CO, are promising feedstocks for future bioindustry. CO2 is another interesting feedstock, as it can also be transformed using renewable energy to other C1 feedstocks for use. While formaldehyde is not suitable as a feedstock due to its high toxicity, it is a central intermediate in the process of C1 assimilation. This thesis explores formaldehyde metabolism and aims to engineer formaldehyde assimilation in the model organism Escherichia coli for the future C1-based bioindustry. The first chapter of the thesis aims to establish growth of E. coli on formaldehyde via the most efficient naturally occurring route, the ribulose monophosphate pathway. Linear variants of the pathway were constructed in multiple-gene knockouts strains, coupling E. coli growth to the activities of the key enzymes of the pathway. Formaldehyde-dependent growth was achieved in rationally designed strains. In the final strain, the synthetic pathway provides the cell with almost all biomass and energy requirements. In the second chapter, taking advantage of the unique feature of its reactivity, formaldehyde assimilation via condensation with glycine and pyruvate by two promiscuous aldolases was explored. Facilitated by these two reactions, the newly designed homoserine cycle is expected to support higher yields of a wide array of products than its counterparts. By dividing the pathway into segments and coupling them to the growth of dedicated strains, all pathway reactions were demonstrated to be sufficiently active. The work paves a way for future implementation of a highly efficient route for C1 feedstocks into commodity chemicals. In the third chapter, the in vivo rate of the spontaneous formaldehyde tetrahydrofolate condensation to methylene-tetrahydrofolate was assessed in order to evaluate its applicability as a biotechnological process. Tested within an E. coli strain deleted in essential genes for native methylene-tetrahydrofolate biosynthesis, the reaction was shown to support the production of this essential intermediate. However, only low growth rates were observed and only at high formaldehyde concentrations. Computational analysis dependent on in vivo evidence from this strain deduced the slow rate of this spontaneous reaction, thus ruling out its substantial contribution to growth on C1 feedstocks. The reactivity of formaldehyde makes it highly toxic. In the last chapter, the formation of thioproline, the condensation product of cysteine and formaldehyde, was confirmed to contribute this toxicity effect. Xaa-Pro aminopeptidase (PepP), which genetically links with folate metabolism, was shown to hydrolyze thioproline-containing peptides. Deleting pepP increased strain sensitivity to formaldehyde, pointing towards the toxicity of thioproline-containing peptides and the importance of their removal. The characterization in this study could be useful in handling this toxic intermediate. Overall, this thesis identified challenges related to formaldehyde metabolism and provided novel solutions towards a future bioindustry based on sustainable C1 feedstocks in which formaldehyde serves as a key intermediate. N2 - Die zunehmende Besorgnis über die Auswirkungen der chemischen Produktion auf die Umwelt hat den Fokus auf die Vorzüge der nachhaltigen Biotechnologie gelenkt. Ein-Kohlenstoff-Verbindungen (C1), wie Methan, Methanol, Formiat und CO, sind vielversprechende Ausgangsstoffe für eine künftige biobasierte Industrie. Darüber hinaus ist CO2 ein weiterer interessanter Rohstoff, da es ebenfalls mit erneuerbarer Energie in andere C1-Verbindungen umgewandelt werden kann. Formaldehyd ist zwar aufgrund seiner Toxizität und Reaktivität nicht als Kohlestoffquelle geeignet, stellt aber ein zentrales Intermediat der C1-Assimilation dar. In dieser Arbeit wurde der Formaldehyd-Stoffwechsel untersucht, um Formaldehyd-Assimilations-Wege im Modellorganismus Escherichia coli für die zukünftige C1-basierte Bioindustrie zu entwickeln. Das erste Kapitel dieser Arbeit zielt darauf ab, das Wachstum von E. coli auf Formaldehyd über den energetisch effizientesten natürlich vorkommenden Weg, den Ribulose-Monophosphat-Weg (RuMP-Weg), zu etablieren. Durch Gendeletionen wurden lineare Varianten des RuMPWeges in E. coli Stämmen konstruiert, um das Wachstum mit der Aktivität der Schlüsselenzyme der Formaldehyd-Assimiliation zu verbinden. So konnte auf Formaldehydabhängiges Wachstum in diesen Stämmen getestet werden. Im finalen Stamm wurde nahezu die gesamte Biomasse und der Energiebedarf der E. coli Zellen über den RuMP-Weg bereitgestellt. Im zweiten Kapitel wurde unter Ausnutzung der einzigartigen Reaktivität des Formaldehyds die Aktivitäten zweier promiskuitiver Aldolasen für die Kondensation von Formaldehyd mit Glycin oder Pyruvat in vivo untersucht. Diese beiden Reaktionen dienen als Schlüsselreaktionen des neu gestalteten Homoserin-Zyklus, der verglichen mit anderen bekannten Assimilierungswegen höhere Ausbeuten einer breiten Palette von Produkten ermöglichen kann. Durch die Unterteilung des Stoffwechselweges in Segmente und deren Selektion in auxotrophen E. coli Stämmen wurde gezeigt, dass alle Reaktionen des Pfades ausreichend aktiv sind. Diese Arbeit ebnet den Weg für die zukünftige Nutzung des Homoserin-Zyklus als hocheffiziente Route für die Umwandlung von C1-Rohstoffen in grundlegende Chemikalien. Im dritten Kapitel wurde die in vivo-Rate der spontanen Kondensation von Formaldehyd mit Tetrahydrofolat zu Methylen-Tetrahydrofolat untersucht, um ihr Potential als Formaldehyd Assimilierungs-Reaktion in einem biotechnologischen Prozess zu bewerten. Die Reaktion wurde in einem E. coli-Stamm getestet, in welchem essentielle Gene für die native Methylen-Tetrahydrofolat-Biosynthese entfernt wurden. Es konnte gezeigt werden, dass die spontane Reaktion die Produktion dieses wesentlichen Zwischenprodukts ermöglicht. Die erreichten Wachstumsraten waren jedoch gering und nur bei hohen Formaldehydkonzentrationen zu beobachten. Eine Computer-gestützte Analyse basierend auf in vivo-Erkenntnissen über diesen Stamm ergab eine langsame Reaktionsgeschwindigkeit dieser spontanen Reaktion und schloss somit ihren wesentlichen Beitrag zum Wachstum auf C1-Einsatzmaterial aus. Seine Reaktivität macht Formaldehyd hochtoxisch. Im letzten Kapitel wurde bestätigt, dass die Bildung von Thioprolin, dem Kondensationsprodukt von Cystein und Formaldehyd, zu dieser Toxizitätswirkung beiträgt. Es wurde gezeigt, dass die Xaa-Pro-Aminopeptidase (PepP), die genetisch mit dem Folat-Stoffwechsel verbunden ist, thioprolinhaltige Peptide hydrolysiert. Die Deletion von PepP erhöhte die Empfindlichkeit des Stammes gegenüber Formaldehyd, was auf die Toxizität der Thioprolin-haltigen Peptide und die Bedeutung ihrer Entfernung hinweist. Diese Studie kann für den Umgang mit der Toxizität von Formaldehyd nützlich sein. Insgesamt identifizierte diese Arbeit Herausforderungen im Zusammenhang mit dem Formaldehyd-Stoffwechsel und lieferte neue Lösungen für eine C1-basierte Bioindustrie, in der Formaldehyd als wichtiges Zwischenprodukt dient. T2 - Erforschung und Entwicklung der Formaldehyd-Assimilierung KW - formaldehyde assimilation KW - ribulose monophosphate pathway KW - metabolic engineering KW - serine cycle KW - auxotrophy KW - methylotrophy KW - Auxotrophie KW - Serin-Zyklus KW - Ribulose-Monophosphat-Weg KW - Methylotrophie KW - metabolisches Engineering KW - Formaldehyd-Assimilierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-473867 ER - TY - THES A1 - Crisologo, Irene T1 - Using spaceborne radar platforms to enhance the homogeneity of weather radar calibration T1 - Homogenisierung der Kalibrierung von Niederschlagsradaren mit Hilfe satellitengestützter Radarplattformen N2 - Accurate weather observations are the keystone to many quantitative applications, such as precipitation monitoring and nowcasting, hydrological modelling and forecasting, climate studies, as well as understanding precipitation-driven natural hazards (i.e. floods, landslides, debris flow). Weather radars have been an increasingly popular tool since the 1940s to provide high spatial and temporal resolution precipitation data at the mesoscale, bridging the gap between synoptic and point scale observations. Yet, many institutions still struggle to tap the potential of the large archives of reflectivity, as there is still much to understand about factors that contribute to measurement errors, one of which is calibration. Calibration represents a substantial source of uncertainty in quantitative precipitation estimation (QPE). A miscalibration of a few dBZ can easily deteriorate the accuracy of precipitation estimates by an order of magnitude. Instances where rain cells carrying torrential rains are misidentified by the radar as moderate rain could mean the difference between a timely warning and a devastating flood. Since 2012, the Philippine Atmospheric, Geophysical, and Astronomical Services Administration (PAGASA) has been expanding the country’s ground radar network. We had a first look into the dataset from one of the longest running radars (the Subic radar) after devastating week-long torrential rains and thunderstorms in August 2012 caused by the annual southwestmonsoon and enhanced by the north-passing Typhoon Haikui. The analysis of the rainfall spatial distribution revealed the added value of radar-based QPE in comparison to interpolated rain gauge observations. However, when compared with local gauge measurements, severe miscalibration of the Subic radar was found. As a consequence, the radar-based QPE would have underestimated the rainfall amount by up to 60% if they had not been adjusted by rain gauge observations—a technique that is not only affected by other uncertainties, but which is also not feasible in other regions of the country with very sparse rain gauge coverage. Relative calibration techniques, or the assessment of bias from the reflectivity of two radars, has been steadily gaining popularity. Previous studies have demonstrated that reflectivity observations from the Tropical Rainfall Measuring Mission (TRMM) and its successor, the Global Precipitation Measurement (GPM), are accurate enough to serve as a calibration reference for ground radars over low-to-mid-latitudes (± 35 deg for TRMM; ± 65 deg for GPM). Comparing spaceborne radars (SR) and ground radars (GR) requires cautious consideration of differences in measurement geometry and instrument specifications, as well as temporal coincidence. For this purpose, we implement a 3-D volume matching method developed by Schwaller and Morris (2011) and extended by Warren et al. (2018) to 5 years worth of observations from the Subic radar. In this method, only the volumetric intersections of the SR and GR beams are considered. Calibration bias affects reflectivity observations homogeneously across the entire radar domain. Yet, other sources of systematic measurement errors are highly heterogeneous in space, and can either enhance or balance the bias introduced by miscalibration. In order to account for such heterogeneous errors, and thus isolate the calibration bias, we assign a quality index to each matching SR–GR volume, and thus compute the GR calibration bias as a qualityweighted average of reflectivity differences in any sample of matching SR–GR volumes. We exemplify the idea of quality-weighted averaging by using beam blockage fraction (BBF) as a quality variable. Quality-weighted averaging is able to increase the consistency of SR and GR observations by decreasing the standard deviation of the SR–GR differences, and thus increasing the precision of the bias estimates. To extend this framework further, the SR–GR quality-weighted bias estimation is applied to the neighboring Tagaytay radar, but this time focusing on path-integrated attenuation (PIA) as the source of uncertainty. Tagaytay is a C-band radar operating at a lower wavelength and is therefore more affected by attenuation. Applying the same method used for the Subic radar, a time series of calibration bias is also established for the Tagaytay radar. Tagaytay radar sits at a higher altitude than the Subic radar and is surrounded by a gentler terrain, so beam blockage is negligible, especially in the overlapping region. Conversely, Subic radar is largely affected by beam blockage in the overlapping region, but being an SBand radar, attenuation is considered negligible. This coincidentally independent uncertainty contributions of each radar in the region of overlap provides an ideal environment to experiment with the different scenarios of quality filtering when comparing reflectivities from the two ground radars. The standard deviation of the GR–GR differences already decreases if we consider either BBF or PIA to compute the quality index and thus the weights. However, combining them multiplicatively resulted in the largest decrease in standard deviation, suggesting that taking both factors into account increases the consistency between the matched samples. The overlap between the two radars and the instances of the SR passing over the two radars at the same time allows for verification of the SR–GR quality-weighted bias estimation method. In this regard, the consistency between the two ground radars is analyzed before and after bias correction is applied. For cases when all three radars are coincident during a significant rainfall event, the correction of GR reflectivities with calibration bias estimates from SR overpasses dramatically improves the consistency between the two ground radars which have shown incoherent observations before correction. We also show that for cases where adequate SR coverage is unavailable, interpolating the calibration biases using a moving average can be used to correct the GR observations for any point in time to some extent. By using the interpolated biases to correct GR observations, we demonstrate that bias correction reduces the absolute value of the mean difference in most cases, and therefore improves the consistency between the two ground radars. This thesis demonstrates that in general, taking into account systematic sources of uncertainty that are heterogeneous in space (e.g. BBF) and time (e.g. PIA) allows for a more consistent estimation of calibration bias, a homogeneous quantity. The bias still exhibits an unexpected variability in time, which hints that there are still other sources of errors that remain unexplored. Nevertheless, the increase in consistency between SR and GR as well as between the two ground radars, suggests that considering BBF and PIA in a weighted-averaging approach is a step in the right direction. Despite the ample room for improvement, the approach that combines volume matching between radars (either SR–GR or GR–GR) and quality-weighted comparison is readily available for application or further scrutiny. As a step towards reproducibility and transparency in atmospheric science, the 3D matching procedure and the analysis workflows as well as sample data are made available in public repositories. Open-source software such as Python and wradlib are used for all radar data processing in this thesis. This approach towards open science provides both research institutions and weather services with a valuable tool that can be applied to radar calibration, from monitoring to a posteriori correction of archived data. N2 - Die zuverlässige Messung des Niederschlags ist Grundlage für eine Vielzahl quantitativer Anwendungen. Bei der Analyse und Vorhersage von Naturgefahren wie Sturzfluten oder Hangrutschungen ist dabei die räumliche Trennschärfe der Niederschlagsmessung besonders wichtig, da hier oft kleinräumige Starkniederschläge auslösend sind. Seit dem 2.Weltkrieg gewinnen Niederschlagsradare an Bedeutung für die flächenhafte Erfassung des Niederschlags in hoher raum-zeitlicher Aulösung. Und seit Ende des 20. Jahrhunderts investieren Wetterdienste zunehmend in die Archivierung dieser Beobachtungen. Die quantitative Auswertung solcher Archive gestaltet sich jedoch aufgrund unterschiedlicher Fehlerquellen als schwierig. Eine Fehlerquelle ist die Kalibrierung der Radarsysteme, die entlang der sog. "receiver chain" eine Beziehung zwischen der primären Beobachtungsvariable (der zurückgestreuten Strahlungsleistung) und der Zielvariable (des Radarreflektivitätsfaktors, kurz Reflektivität) herstellt. Die Reflektivität wiederum steht über mehrere Größenordnungen hinweg in Beziehung zur Niederschlagsintensität, so dass bereits kleine relative Fehler in der Kalibrierung große Fehler in der quantitativen Niederschlagsschätzung zur Folge haben können. Doch wie kann eine mangelhafte Kalibrierung nachträglich korrigiert werden? Diese Arbeit beantwortet diese Frage am Beispiel des kürzlich installierten Radarnetzwerks der Philippinen. In einer initialen Fallstudie nutzen wir das S-Band-Radar nahe Subic, welches die Metropolregion Manila abdeckt, zur Analyse eines außergewöhnlich ergiebigen Niederschlagsereignisses im Jahr 2012: Es zeigt sich, dass die radargestützte Niederschlagsschätzung um rund 60% unter den Messungen von Niederschlagsschreibern liegt. Kann die Hypothese einer mangelhaften Kalibrierung bestätigt werden, indem die Beobachtungen des Subic-Radars mit den Messungen exzellent kalibrierter, satellitengestützter Radarsysteme verglichen werden? Kann die satellitengestützte Referenz ggf. sogar für eine nachträgliche Kalibrierung genutzt werden? Funktioniert eine solche Methode auch für das benachbarte C-Band-Radar nahe Tagaytay? Können wir die Zuverlässigkeit einer nachträglichen Kalibrierung erhöhen, indem wir andere systematische Fehlerquellen in den Radarmessungen identifizieren? Zur Beantwortung dieser Fragen vergleicht diese Arbeit die Beobachtungen bodengestützter Niederschlagsradare (GR) mit satellitengestützten Niederschlagsradaren (SR) der Tropical Rainfall Measuring Mission (TRMM) und ihrem Nachfolger, der Global Precipitation Measurement (GPM) Mission. Dazu wird eine Methode weiterentwickelt, welche den dreidimensionalen Überlappungsbereich der Samplingvolumina des jeweiligen Instruments|GR und SR|berücksichtigt. Desweiteren wird jedem dieser Überlappungsbereiche ein Wert für die Datenqualität zugewiesen, basierend auf zwei Unsicherheitsquellen: dem Anteil der Abschattung (engl. beam blockage fraction, BBF) und der pfadintegrierten Dämpfung (engl. path-integrated attenuation, PIA). Die BBF zeigt, welcher Anteil des Radarstrahls von der Geländeoberfläche blockiert wird (je höher, desto niedriger die Qualität). PIA quantifiziert den Energieverlust des Signals, wenn es intensiven Niederschlag passiert (je höher, desto niedriger die Qualität). Entsprechend wird der Bias (also der Kalibrierungsfaktor) als das qualitätsgewichtete Mittel der Differenzen zwischen den GR- und SR-Reflektivitäten (ausgedrückt auf der logarithmischen Dezibelskala) berechnet. Diese Arbeit zeigt, dass beide Radare, Subic und Tagaytay, gerade in den frühen Jahren stark von mangelhafter Kalibrierung betroffen waren. Der Vergleich mit satellitengestützten Messungen erlaubt es uns, diesen Fehler nachträglich zu schätzen und zu korrigieren. Die Zuverlässigkeit dieser Schätzung wird durch die Berücksichtigung anderer systematischer Fehler im Rahmen der Qualitätsgewichtung deutlich erhöht. Dies konnte auch dadurch bestätigt werden, dass nach Korrektur der Kalibierung die Signale im Überlappungsbereich der beiden bodengestützten Radare deutlich konsistenter wurden. Eine Interpolation des Fehlers in der Zeit war erfolgreich, so dass die Radarbeobachtungen auch für solche Tage korrigiert werden können, an denen keine satellitengestützten Beobachtungen verfügbar sind. KW - Niederschlagsradar KW - Kalibrierung KW - Fernerkundung KW - TRMM KW - GPM KW - Philippinen KW - weather radar KW - calibration KW - remote sensing KW - TRMM KW - GPM KW - The Philippines Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-445704 ER - TY - THES A1 - Mandal, Sankalita T1 - Event handling in business processes T1 - Ereignisbehandlung in Geschäftsprozessen BT - flexible event subscription for business process enactment BT - flexibles Ereignisabonnement für die Durchführung von Geschäftsprozessen N2 - Business process management (BPM) deals with modeling, executing, monitoring, analyzing, and improving business processes. During execution, the process communicates with its environment to get relevant contextual information represented as events. Recent development of big data and the Internet of Things (IoT) enables sources like smart devices and sensors to generate tons of events which can be filtered, grouped, and composed to trigger and drive business processes. The industry standard Business Process Model and Notation (BPMN) provides several event constructs to capture the interaction possibilities between a process and its environment, e.g., to instantiate a process, to abort an ongoing activity in an exceptional situation, to take decisions based on the information carried by the events, as well as to choose among the alternative paths for further process execution. The specifications of such interactions are termed as event handling. However, in a distributed setup, the event sources are most often unaware of the status of process execution and therefore, an event is produced irrespective of the process being ready to consume it. BPMN semantics does not support such scenarios and thus increases the chance of processes getting delayed or getting in a deadlock by missing out on event occurrences which might still be relevant. The work in this thesis reviews the challenges and shortcomings of integrating real-world events into business processes, especially the subscription management. The basic integration is achieved with an architecture consisting of a process modeler, a process engine, and an event processing platform. Further, points of subscription and unsubscription along the process execution timeline are defined for different BPMN event constructs. Semantic and temporal dependencies among event subscription, event occurrence, event consumption and event unsubscription are considered. To this end, an event buffer with policies for updating the buffer, retrieving the most suitable event for the current process instance, and reusing the event has been discussed that supports issuing of early subscription. The Petri net mapping of the event handling model provides our approach with a translation of semantics from a business process perspective. Two applications based on this formal foundation are presented to support the significance of different event handling configurations on correct process execution and reachability of a process path. Prototype implementations of the approaches show that realizing flexible event handling is feasible with minor extensions of off-the-shelf process engines and event platforms. N2 - Das Prozessmanagement befasst sich mit der Modellierung, Ausführung, Überwachung, Analyse und Verbesserung von Geschäftsprozessen. Während seiner Ausführung kommuniziert der Prozess mit seiner Umgebung, um relevante Kontextinformationen in Form von Ereignissen zu erhalten. Der jüngste Fortschritt im Bereich Big Data und dem Internet der Dinge ermöglicht Smart Devices und Sensoren eine Vielzahl von Ereignissen zu generieren, welche gefiltert, gruppiert und kombiniert werden können, um Geschäftsprozesse zu triggern und vor anzutreiben. Der Industriestandard Business Process Model and Notation (BPMN) stellt mehrere Ereigniskonstrukte bereit, um die Interaktionsmöglichkeiten eines Prozesses mit seiner Umgebung zu erfassen. Beispielsweise können Prozesse durch Ereignisse gestartet, laufende Aktivitäten in Ausnahmefällen abgebrochen, Entscheidungen auf Basis der Ereignisinformationen getroffen, und alternative Ausführungspfade gewählt werden. Die Spezifikation solcher Interaktionen wird als Event Handling bezeichnet. Allerdings sind sich insbesondere in verteilten Systemen die Ereignisquellen des Zustands des Prozesses unbewusst. Daher werden Ereignisse unabhängig davon produziert, ob der Prozess bereit ist sie zu konsumieren. Die BPMN-Semantik sieht solche Situationen jedoch nicht vor, sodass die Möglichkeit besteht, dass das Auftreten von relevanten Ereignissen versäumt wird. Dies kann zu Verzögerungen oder gar Deadlocks in der Prozessauführung führen. Die vorliegende Dissertation untersucht die Mängel und Herausforderungen der Integration von Ereignissen und Geschäftsprozessen, insbesondere in Bezug auf das Subscription Management. Die grundlegende Integration wird durch eine Architektur erreicht, die aus einer Prozessmodellierungskomponente, einer Ausführungskomponente und einer Ereignisverarbeitungskomponente besteht. Ferner werden Points of Subscription and Unsubscription für verschiedene BPMN-Ereigniskonstrukte entlang der Zeitachse der Prozessausführung definiert. Semantische und temporale Abhängigkeiten zwischen der Subscription, dem Auftreten, dem Konsumieren und der Unsubscription eines Ereignisses werden betrachtet. In dieser Hinsicht wird ein Event Bufferdiskutiert, welcher mit Strategien zum Update des Puffers, zum Abruf der geeigneten Ereignisse für den laufenden Prozess, sowie zur Wiederverwendung von Ereignissen ausgestattet ist. Die Abbildung des Event Handling Modells in ein Petri-Netz versieht den beschriebenen Ansatz mit einer eindeutigen Semantik. Basierend auf diesem Formalismus werden zwei Anwendungen demonstriert, die die Relevanz verschiedener Konfigurationen des Event Handlings für eine korrekte Prozessausführung aufzeigen. Eine prototypische Implementierung des Ansatzes beweist dessen Umsetzbarkeit durch geringe Erweiterungen bestehender Software zur Prozessausführung und Ereignisverarbeitung. KW - business process managament KW - complex event processing KW - BPMN KW - event subscription KW - Geschäftsprozessmanagement KW - komplexe Ereignisverarbeitung KW - BPMN KW - Ereignisabonnement Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441700 ER - TY - THES A1 - Hoang, Yen T1 - De novo binning strategy to analyze and visualize multi-dimensional cytometric data T1 - De novo Binning-Ansatz zur Untersuchung und Visualisierung von multidimensionalen Zytrometriedaten BT - engineering of combinatorial variables for supervised learning approaches N2 - Since half a century, cytometry has been a major scientific discipline in the field of cytomics - the study of system’s biology at single cell level. It enables the investigation of physiological processes, functional characteristics and rare events with proteins by analysing multiple parameters on an individual cell basis. In the last decade, mass cytometry has been established which increased the parallel measurement to up to 50 proteins. This has shifted the analysis strategy from conventional consecutive manual gates towards multi-dimensional data processing. Novel algorithms have been developed to tackle these high-dimensional protein combinations in the data. They are mainly based on clustering or non-linear dimension reduction techniques, or both, often combined with an upstream downsampling procedure. However, these tools have obstacles either in comprehensible interpretability, reproducibility, computational complexity or in comparability between samples and groups. To address this bottleneck, a reproducible, semi-automated cytometric data mining workflow PRI (pattern recognition of immune cells) is proposed which combines three main steps: i) data preparation and storage; ii) bin-based combinatorial variable engineering of three protein markers, the so called triploTs, and subsequent sectioning of these triploTs in four parts; and iii) deployment of a data-driven supervised learning algorithm, the cross-validated elastic-net regularized logistic regression, with these triploT sections as input variables. As a result, the selected variables from the models are ranked by their prevalence, which potentially have discriminative value. The purpose is to significantly facilitate the identification of meaningful subpopulations, which are most distinguish between two groups. The proposed workflow PRI is exemplified by a recently published public mass cytometry data set. The authors found a T cell subpopulation which is discriminative between effective and ineffective treatment of breast carcinomas in mice. With PRI, that subpopulation was not only validated, but was further narrowed down as a particular Th1 cell population. Moreover, additional insights of combinatorial protein expressions are revealed in a traceable manner. An essential element in the workflow is the reproducible variable engineering. These variables serve as basis for a clearly interpretable visualization, for a structured variable exploration and as input layers in neural network constructs. PRI facilitates the determination of marker levels in a semi-continuous manner. Jointly with the combinatorial display, it allows a straightforward observation of correlating patterns, and thus, the dominant expressed markers and cell hierarchies. Furthermore, it enables the identification and complex characterization of discriminating subpopulations due to its reproducible and pseudo-multi-parametric pattern presentation. This endorses its applicability as a tool for unbiased investigations on cell subsets within multi-dimensional cytometric data sets. N2 - Massen- und Durchflusszytometrie-Messungen ermöglichen die detaillierte Einteilung von Zellgruppen nach Eigenschaften vor allem in der Diagnostik und in der Grundlagenforschung anhand der Erfassung von biologischen Informationen auf Einzelzellebene. Sie unterstützen die detaillierte Analyse von komplexen, zellulären Zusammenhängen, um physiologische und pathophysiologische Prozesse zu erkennen, und funktionelle oder krankheitsspezifische Characteristika und rare Zellgruppen genauer zu spezifizieren und zu extrahieren. In den letzten Jahren haben zytometrische Technologien einen enormen Innovationssprung erfahren, sodass heutzutage bis zu 50 Proteine pro Zelle parallel gemessen werden können. Und das mit einem Durchsatz von Hunderttausenden bis mehreren Millionen von Zellen aus einer Probe. Bei der Zunahme der Messparameter steigen jedoch die Dimensionen der kombinierten Parameter exponentiell, sodass eine komplexe Kombinatorik entsteht, die mit konventionellen, manuellen Untersuchungen von bi-axialen Diagrammen nicht mehr durchführbar sind. Derzeit gibt es schon viele neue Datenanalyse-Ansätze, die vorranging auf Cluster- bzw. Dimensionsreduktionstechniken basieren und meist mit einem vorgeschalteten Downsampling in Kombination eingesetzt werden. Diese Tools produzieren aber komplexe Ergebnisse, die größtenteils nicht reproduzierbar sind oder Proben- und Gruppenvergleiche erschweren. Um dieses Problem anzugehen wurde in dieser Dissertation ein reproduzierbarer, halbautomatisierter Datenanalyse-Workflow namens PRI entwickelt, was für pattern recognition of immune cells (Mustererkennung von Immunzellen) steht. Dieser Workflow ist in drei Hauptteile untergliedert: die Datenvorbereitung und -Ablage; die Entwicklung innovativer, bin-basierter Merkmale von drei kombinierten Parametern namens TriploTs und dessen weiterführende Einteilung in vier gleich große TriploT-Areale; und die Anwendung von einem maschinellen Lernansatz basierend auf der Information von diesen Arealen. Als Ergebnis bekommt man eine Selektion der Areale, die am häufigsten von den überwachten Modellen ausgewählt wurden. Dies soll dem Wissenschaftler entscheidend dabei helfen, Zellpopulationen zu identifizieren, die am besten zwischen zwei Gruppen unterscheiden. Der vorgestellte Workflow PRI ist exemplarisch an einem kürzlich veröffentlichten Massenzytometrie-Datensatz validiert worden. Die von den Originalautoren hervorgehobene Zellpopulation konnte nicht nur identifiziert werden, sondern sogar wesentlich weiter spezifiziert werden. Außerdem wurden weitere Erkenntnisse von relevanten, kombinatorischen Proteinexpressionen festgestellt. Die Entwicklung der reproduzierbaren TriploTs führt dazu, dass sie als Basis für verständliche und leicht interpretierbare Visualisierungen, für eine strukturierte Erforschung der Daten mithilfe der Selektion der Areale, und für neuronale Netzwerkkonstrukte genutzt werden können. PRI ermöglicht eine optimierte, semi-kontinuierliche Bestimmung der Expressionsstufen, die die Identifizierung von dominant vorherrschenden und diskriminierenden Proteinen in Zellsubpopulationen wesentlich erleichtert. Darüberhinaus erlaubt es die intuitive Erfassung von korrelierenden Mustern durch die innovative, reproduzierbare Darstellung der Proteinkombinationen und hilft bei der Erforschung von Zellsubpopulationen. KW - machine learning KW - feature engineering KW - machinelles Lernen KW - Feature Engineering Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-443078 ER - TY - THES A1 - Arf, Shelan Ali T1 - Women’s everyday reality of social insecurity T1 - Soziale Unsicherheit als alltägliche Realität für geschiedene Frauen in Irakisch-Kurdistan BT - the case of divorced women in Iraqi Kurdistan N2 - Since 1980 Iraq passed through various wars and conflicts including Iraq-Iran war, Saddam Hussein’s the Anfals and Halabja campaigns against the Kurds and the killing campaigns against Shiite in 1986, Saddam Hussein’s invasion of Kuwait in August 1990, the Gulf war in 1990, Iraq war in 2003 and the fall of Saddam, the conflicts and chaos in the transmission of power after the death of Saddam, and the war against ISIS . All these wars left severe impacts in most households in Iraq; on women and children in particular. The consequences of such long wars could be observed in all sectors including economic, social, cultural and religious sectors. The social structure, norms and attitudes are intensely affected. Many women specifically divorced women found them-selves in challenging different difficulties such as social as well as economic situations. Thus the divorced women in Iraqi Kurdistan are the focus of this research. Considering the fact that there is very few empirical researches on this topic, a constructivist grounded theory methodology (CGT) is viewed as reliable in order to come up with a comprehensive picture about the everyday life of divorced women in Iraqi Kurdistan. Data collected in Sulaimani city in Iraqi Kurdistan. The work of Kathy Charmaz was chosen to be the main methodological context of the research and the main data collection method was individual intensive narrative interviews with divorced women. Women generally and divorced women specifically in Iraqi Kurdistan are living in a patriarchal society that passing through many changes due to the above mentioned wars among many other factors. This research is trying to study the everyday life of divorced women in such situations and the forms of social insecurity they are experiencing. The social institutions starting from the family as a very significant institution for women to the governmental and non-governmental institutions that are working to support women, and the copying strategies, are in focus in this research. The main research argument is that the family is playing ambivalent roles in divorced women’s life. For instance, on one side families are revealed to be an essential source of security to most respondents, on the other side families posed also many threats and restrictions on those women. This argument supported by what called by Suad joseph "the paradox of support and suppression" . Another important finding is that the stat institution(laws , constitutions ,Offices of combating violence against woman and family) are supporting women somehow and offering them protection from the insecurities but it is clear that the existence of the laws does not stop the violence against women in Iraqi Kurdistan, As explained by Pateman because the laws /the contract is a sexual-social contract that upholds the sex rights of males and grants them more privileges than females. The political instability, Tribal social norms also play a major role in influencing the rule of law. It is noteworthy to refer that analyzing the interviews in this research showed that in spite that divorced women living in insecurities and facing difficulties but most of the respondents try to find a coping strategies to tackle difficult situations and to deal with the violence they face; these strategies are bargaining, sometimes compromising or resisting …etc. Different theories used to explain these coping strategies such as bargaining with patriarchy. Kandiyoti who stated that women living under certain restraints struggle to find way and strategies to enhance their situations. The research finding also revealed that the western liberal feminist view of agency is limited this is agree with Saba Mahmood and what she explained about Muslim women agency. For my respondents, who are divorced women, their agency reveals itself in different ways, in resisting or compromising with or even obeying the power of male relatives, and the normative system in the society. Agency is also explained the behavior of women contacting formal state institutions in cases of violence like the police or Offices of combating violence against woman and family. N2 - Irakisch-Kurdistan ist ein von Konflikten geprägtes Land. Diese haben tiefgreifende soziale, kulturelle, ökonomische und religiöse Folgen. Insbesondere geschiedene Frauen finden sich oft in herausfordernden Situationen. Aufgrund des Mangels an empirischen Analysen wendet diese Studie Grounded Theory an, um sich mit dem Alltag von geschiedenen Frauen in Iraqi Kurdistan zu beschäftigen. Hierbei wird besonders auf Themen sie soziale Sicherheit, agency, Verhandlungs- und Widerstandsstrategien eingegangen. KW - divorced women KW - Iraqi Kurdistan KW - geschiedene Frauen KW - Irakisch-Kurdistan Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434333 ER - TY - THES A1 - Sidarenka, Uladzimir T1 - Sentiment analysis of German Twitter T1 - Sentimentanalyse des deutschen Twitters N2 - The immense popularity of online communication services in the last decade has not only upended our lives (with news spreading like wildfire on the Web, presidents announcing their decisions on Twitter, and the outcome of political elections being determined on Facebook) but also dramatically increased the amount of data exchanged on these platforms. Therefore, if we wish to understand the needs of modern society better and want to protect it from new threats, we urgently need more robust, higher-quality natural language processing (NLP) applications that can recognize such necessities and menaces automatically, by analyzing uncensored texts. Unfortunately, most NLP programs today have been created for standard language, as we know it from newspapers, or, in the best case, adapted to the specifics of English social media. This thesis reduces the existing deficit by entering the new frontier of German online communication and addressing one of its most prolific forms—users’ conversations on Twitter. In particular, it explores the ways and means by how people express their opinions on this service, examines current approaches to automatic mining of these feelings, and proposes novel methods, which outperform state-of-the-art techniques. For this purpose, I introduce a new corpus of German tweets that have been manually annotated with sentiments, their targets and holders, as well as lexical polarity items and their contextual modifiers. Using these data, I explore four major areas of sentiment research: (i) generation of sentiment lexicons, (ii) fine-grained opinion mining, (iii) message-level polarity classification, and (iv) discourse-aware sentiment analysis. In the first task, I compare three popular groups of lexicon generation methods: dictionary-, corpus-, and word-embedding–based ones, finding that dictionary-based systems generally yield better polarity lists than the last two groups. Apart from this, I propose a linear projection algorithm, whose results surpass many existing automatically-generated lexicons. Afterwords, in the second task, I examine two common approaches to automatic prediction of sentiment spans, their sources, and targets: conditional random fields (CRFs) and recurrent neural networks, obtaining higher scores with the former model and improving these results even further by redefining the structure of CRF graphs. When dealing with message-level polarity classification, I juxtapose three major sentiment paradigms: lexicon-, machine-learning–, and deep-learning–based systems, and try to unite the first and last of these method groups by introducing a bidirectional neural network with lexicon-based attention. Finally, in order to make the new classifier aware of microblogs' discourse structure, I let it separately analyze the elementary discourse units of each tweet and infer the overall polarity of a message from the scores of its EDUs with the help of two new approaches: latent-marginalized CRFs and Recursive Dirichlet Process. N2 - Die enorme Popularität von Online-Kommunikationsdiensten in den letzten Jahrzehnten hat nicht unser Leben massiv geändert (sodass Nachrichten sich wie Fegefeuer übers Internet ausbreiten, Präsidenten ihre Entscheidungen auf Twitter ankündigen, und Ergebnisse politischer Wahlen auf Facebook entschieden werden) sondern auch zu einem dramatischen Anstieg der Datenmenge geführt, die über solche Plattformen ausgetauscht werden. Deswegen braucht man heutzutage dringend zuverlässige, qualitätvolle NLP-Programme, um neue gesellschaftliche Bedürfnisse und Risiken in unzensierten Nutzernachrichten automatisch erkennen und abschätzen zu können. Leider sind die meisten modernen NLP-Anwendungen entweder auf die Analyse der Standardsprache (wie wir sie aus Zeitungstexten kennen) ausgerichtet oder im besten Fall an die Spezifika englischer Social Media angepasst. Diese Dissertation reduziert den bestehenden Rückstand, indem sie das "Neuland" der deutschen Online-Kommunikation betritt und sich einer seiner produktivsten Formen zuwendet—den User-Diskussionen auf Twitter. Diese Arbeit erforscht insbesondere die Art und Weise, wie Leute ihre Meinungen auf diesem Online-Service äußern, analysiert existierende Verfahren zur automatischen Erkennung ihrer Gefühle und schlägt neue Verfahren vor, die viele heutige State-of-the-Art-Systeme übertreffen. Zu diesem Zweck stelle ich ein neues Korpus deutscher Tweets vor, die manuell von zwei menschlichen Experten mit Sentimenten (polaren Meinungen), ihren Quellen (sources) und Zielen (targets) sowie lexikalischen polaren Termen und deren kontextuellen Modifizierern annotiert wurden. Mithilfe dieser Daten untersuche ich vier große Teilgebiete der Sentimentanalyse: (i) automatische Generierung von Sentiment-Lexika, (ii) aspekt-basiertes Opinion-Mining, (iii) Klassifizierung der Polarität von ganzen Nachrichten und (iv) diskurs-bewusste Sentimentanalyse. In der ersten Aufgabe vergleiche ich drei populäre Gruppen von Lexikongenerierungsmethoden: wörterbuch-, corpus- und word-embedding-basierte Verfahren, und komme zu dem Schluss, dass wörterbuch-basierte Ansätze generell bessere Polaritätslexika liefern als die letzten zwei Gruppen. Abgesehen davon, schlage ich einen neuen Linearprojektionsalgorithmus vor, dessen Resultate deutlich besser als viele automatisch generierte Polaritätslisten sind. Weiterhin, in der zweiten Aufgabe, untersuche ich zwei gängige Herangehensweisen an die automatische Erkennung der Textspannen von Sentimenten, Sources und Targets: Conditional Random Fields (CRFs) und rekurrente neuronale Netzwerke. Ich erziele bessere Ergebnisse mit der ersten Methode und verbessere diese Werte noch weiter durch alternative Topologien der CRF-Graphen. Bei der Analyse der Nachrichtenpolarität stelle ich drei große Sentiment-Paradigmen gegenüber: lexikon-, Machine-Learning–, und Deep-Learning–basierte Systeme, und versuche die erste und die letzte dieser Gruppen in einem Verfahren zu vereinigen, indem ich eine neue neuronale Netzwerkarchitektur vorschlage: bidirektionales rekurrentes Netzwerk mit lexikon-basierter Attention (LBA). Im letzten Kapitel unternehme ich einen Versuch, die Prädiktion der Gesamtpolarität von Tweets über die Diskursstruktur der Nachrichten zu informieren. Zu diesem Zweck wende ich den vorgeschlagenen LBA-Klassifikator separat auf jede einzelne elementare Diskurs-Einheit (EDU) eines Microblogs an und induziere die allgemeine semantische Ausrichtung dieser Nachricht mithilfe von zwei neuen Methoden: latenten marginalisierten CRFs und rekursivem Dirichlet-Prozess. KW - sentiment analysis KW - opinion mining KW - social media KW - Twitter KW - natural language processing KW - discourse analysis KW - NLP KW - computational linguistics KW - machine learning KW - Sentimentanalyse KW - Computerlinguistik KW - Meinungsforschung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437422 ER - TY - THES A1 - Batoulis, Kimon T1 - Sound integration of process and decision models T1 - Korrekte Integration von Prozess- und Entscheidungsmodellen N2 - Business process management is an established technique for business organizations to manage and support their processes. Those processes are typically represented by graphical models designed with modeling languages, such as the Business Process Model and Notation (BPMN). Since process models do not only serve the purpose of documentation but are also a basis for implementation and automation of the processes, they have to satisfy certain correctness requirements. In this regard, the notion of soundness of workflow nets was developed, that can be applied to BPMN process models in order to verify their correctness. Because the original soundness criteria are very restrictive regarding the behavior of the model, different variants of the soundness notion have been developed for situations in which certain violations are not even harmful. All of those notions do only consider the control-flow structure of a process model, however. This poses a problem, taking into account the fact that with the recent release and the ongoing development of the Decision Model and Notation (DMN) standard, an increasing number of process models are complemented by respective decision models. DMN is a dedicated modeling language for decision logic and separates the concerns of process and decision logic into two different models, process and decision models respectively. Hence, this thesis is concerned with the development of decisionaware soundness notions, i.e., notions of soundness that build upon the original soundness ideas for process models, but additionally take into account complementary decision models. Similar to the various notions of workflow net soundness, this thesis investigates different notions of decision soundness that can be applied depending on the desired degree of restrictiveness. Since decision tables are a standardized means of DMN to represent decision logic, this thesis also puts special focus on decision tables, discussing how they can be translated into an unambiguous format and how their possible output values can be efficiently determined. Moreover, a prototypical implementation is described that supports checking a basic version of decision soundness. The decision soundness notions were also empirically evaluated on models from participants of an online course on process and decision modeling as well as from a process management project of a large insurance company. The evaluation demonstrates that violations of decision soundness indeed occur and can be detected with our approach. N2 - Das Prozessmanagement ist eine etablierte Methode für Unternehmen zur Verwaltung und Unterstützung ihrer Geschäftsprozesse. Solche Prozesse werden typischerweise durch graphische Modelle dargestellt, welche mit Modellierungssprachen wie etwa der Business Process Model and Notation (BPMN) erstellt werden. Da Prozessmodelle nicht nur der Dokumentation der Prozesse dienen, sondern auch die Grundlage für deren Implementierung und Automatisierung sind, müssen sie bestimmte Korrektheitsanforderungen erfüllen. In dieser Hinsicht wurde der Begriff der Soundness einesWorkflow-Netzes entwickelt, welcher auch auf BPMN-Prozessmodelle angewendet werden kann, um deren Korrektheit zu prüfen. Da die ursprünglichen Soundness-Kriterien sehr restriktiv bezüglich des Verhaltens des Modells sind, wurden zudem Varianten des Soundness-Begriffs entwickelt. Diese können in Situationen verwendet werden, in denen bestimmte Verletzungen der Kriterien tolerabel sind. Diese Soundness-Begriffe berücksichtigen allerdings ausschließlich den Kontrollfluss der Prozessmodelle. Dies stellt ein Problem dar, weil viele Prozessmodelle heutzutage durch Entscheidungsmodelle ergänzt werden. In diesem Kontext ist die Decision Model and Notation (DMN) eine dedizierte Sprache zur Modellierung von Entscheidungen und unterstüzt die Trennung von Kontrollfluss- und Entscheidungslogik. Die vorliegende Dissertation befasst sich daher mit der Entwicklung von erweiterten Soundness-Begriffen, die sowohl Prozess- als auch Entscheidungsmodelle berücksichtigen. Ähnlich zu den bestehenden Soundness-Varianten, werden in dieser Arbeit Varianten des erweiterten Soundness-Begriffs untersucht, die je nach gewünschtem Restriktionsgrad angewendet werden können. Da Entscheidungstabellen eine in der DMN standadisierte Form sind, um Entscheidungslogik auszudrücken, fokussiert sich diese Arbeit inbesondere auf Entscheidungstabellen. So wird diskutiert wie DMN-Tabellen in ein eindeutiges Format übersetzt werden können und wie sich deren möglichen Rückgabewerte effizient bestimmen lassen. Ferner beschreibt die Arbeit eine prototypische Implementierung, die das Prüfen einer elementaren Variante des erweiterten Soundness-Begriffs erlaubt. Die Begriffe wurden außerdem empirisch evaluiert. Dazu dienten zum einen Modelle von Teilnehmern eines Online-Kurses zur Prozess- und Entscheidungsmodellierung. Zum anderen wurden Modelle eines Versicherungsunternehmens analysiert. Die Evaluierung zeigt, das Verstöße gegen den erweiterten Soundness-Begriff in der Tat auftreten und durch den hier beschriebenen Ansatz erkannt werden können. KW - decision-aware process models KW - soundness KW - decision soundness KW - formal verification KW - entscheidungsbewusste Prozessmodelle KW - Korrektheit KW - Entscheidungskorrektheit KW - formale Verifikation Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437386 ER - TY - THES A1 - Marimon Tarter, Mireia T1 - Word segmentation in German-learning infants and German-speaking adults T1 - Wortsegmentierung bei deutschsprachigen Kindern und Erwachsenen BT - prosodic and statistical cues BT - prosodische und statitistische Hinweisreize N2 - There is evidence that infants start extracting words from fluent speech around 7.5 months of age (e.g., Jusczyk & Aslin, 1995) and that they use at least two mechanisms to segment words forms from fluent speech: prosodic information (e.g., Jusczyk, Cutler & Redanz, 1993) and statistical information (e.g., Saffran, Aslin & Newport, 1996). However, how these two mechanisms interact and whether they change during development is still not fully understood. The main aim of the present work is to understand in what way different cues to word segmentation are exploited by infants when learning the language in their environment, as well as to explore whether this ability is related to later language skills. In Chapter 3 we pursued to determine the reliability of the method used in most of the experiments in the present thesis (the Headturn Preference Procedure), as well as to examine correlations and individual differences between infants’ performance and later language outcomes. In Chapter 4 we investigated how German-speaking adults weigh statistical and prosodic information for word segmentation. We familiarized adults with an auditory string in which statistical and prosodic information indicated different word boundaries and obtained both behavioral and pupillometry responses. Then, we conducted further experiments to understand in what way different cues to word segmentation are exploited by 9-month-old German-learning infants (Chapter 5) and by 6-month-old German-learning infants (Chapter 6). In addition, we conducted follow-up questionnaires with the infants and obtained language outcomes at later stages of development. Our findings from this thesis revealed that (1) German-speaking adults show a strong weight of prosodic cues, at least for the materials used in this study and that (2) German-learning infants weight these two kind of cues differently depending on age and/or language experience. We observed that, unlike English-learning infants, 6-month-old infants relied more strongly on prosodic cues. Nine-month-olds do not show any preference for either of the cues in the word segmentation task. From the present results it remains unclear whether the ability to use prosodic cues to word segmentation relates to later language vocabulary. We speculate that prosody provides infants with their first window into the specific acoustic regularities in the signal, which enables them to master the specific stress pattern of German rapidly. Our findings are a step forwards in the understanding of an early impact of the native prosody compared to statistical learning in early word segmentation. N2 - Es gibt Beweise, dass Babys im Alter um 7.5 Monate anfangen, Wörter aus flüssiger Sprache zu extrahieren (z.B., Jusczyk & Aslin, 1995), dabei werden mindestens zwei Mechanismen angewandt, um Wörter aus dem Sprachfluss zu segmentieren: prosodische Information (z.B. Jusczyk, Cutler & Redanz, 1993) und statistische Information (z.B., Saffran, Aslin & Newport, 1996). Aber wie diese zwei Mechanismen zusammenwirken und ob sie sich während der Entwicklung verändern, wurde noch nicht vollständig geklärt. Das Hauptziel dieser Dissertation ist es zu verstehen, inwiefern sich Kleinkinder die verschiedenen Hinweisreize für die Segmentierung von Wörtern erschließen, wenn sie die Sprache ihres Umfelds lernen, sowie ob diese Fähigkeit in Verbindung mit späteren Sprachfähigkeiten steht. In Kapitel 3 wurde die Zuverlässigkeit der in dieser Dissertation benutzten Methode (the Headturn Preference Procedure) eruiert, sowie die Korrelationen und individuellen Differenzen zwischen den Ergebnissen einzelner Babys und späteren Sprachfähigkeiten untersucht. Im Kapitel 4 wurde untersucht, wie deutschsprachige Erwachsene auf statistische und prosodische Informationen für Wortsegmentierung reagieren. Wir haben Erwachsene mit einer akustischen Sequenz familiarisiert, bei der die statistischen und prosodischen Informationen verschiedene Wortgrenzen anzeigen, und Verhaltens- und Pupillometriedaten erhoben. Anschließend haben wir weitere Experimente durchgeführt, um zu verstehen, wie verschiedene Hinweisreize von 9-Monate (Kapitel 5) und 6-Monate alten deutschsprachigen Säuglingen (Kapitel 6) aufgenommen werden. Außerdem haben wir nach den Versuchen mit Fragebögen Daten über die Sprachfähigkeiten in späteren Entwicklungsstadien gesammelt. Unsere Ergebnisse lassen darauf schließen, dass (1) deutschsprachige Erwachsene eine hohe Gewichtung der prosodischen Hinweisreize zeigen, zumindest bei dem für die Studie genutzten akustischen Material, und dass (2) bei deutschsprachigen Babys in Abhängigkeit von Alter und/oder Spracherfahrung diese zwei Hinweisreize unterschiedlich gewichtet werden. Wir stellen fest, dass sich 6-Monate alte deutschsprachige Babys stärker auf die prosodichen Hinweisreize verlassen haben als die englischsprachigen Babys. Neun Monate alte Babys haben bei der Wortsegmentierung der Audiosequenz gescheitert und haben keine Vorliebe für einen der beiden Hinweisreize gezeigt. Mit den momentanen Ergebnissen bleibt weiterhin unklar, ob die Fähigkeit, prosodische Hinweisreize für die Wortsegmentierung zu nutzen, in Verbindung mit der späteren Weiterentwicklung des Wortschatzes steht. Wir vermuten, dass Prosodie den Babys einen ersten Einblick in die spezifischen akustischen Regelmäßigkeiten des Signals verschafft, was ihnen dabei hilft, das Betonungsmuster der deutsche Sprache schnell zu erlernen. Unsere Ergebnisse sind ein weiterer Schritt vorwärts was das Verständnis eines frühen Einflusses von muttersprachlicher Prosodie im Vergleich zu statistischem Erlernen in der frühen Wortsegmentierung betrifft. KW - word segmentation KW - prosody KW - statistical learning KW - Wortsegmentierung KW - Prosodie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437400 ER - TY - THES A1 - Angwenyi, David T1 - Time-continuous state and parameter estimation with application to hyperbolic SPDEs T1 - Zeitkontinuierliche Zustands- und Parameterschätzung bei Anwendung auf hyperbolische SPDEs N2 - Data assimilation has been an active area of research in recent years, owing to its wide utility. At the core of data assimilation are filtering, prediction, and smoothing procedures. Filtering entails incorporation of measurements' information into the model to gain more insight into a given state governed by a noisy state space model. Most natural laws are governed by time-continuous nonlinear models. For the most part, the knowledge available about a model is incomplete; and hence uncertainties are approximated by means of probabilities. Time-continuous filtering, therefore, holds promise for wider usefulness, for it offers a means of combining noisy measurements with imperfect model to provide more insight on a given state. The solution to time-continuous nonlinear Gaussian filtering problem is provided for by the Kushner-Stratonovich equation. Unfortunately, the Kushner-Stratonovich equation lacks a closed-form solution. Moreover, the numerical approximations based on Taylor expansion above third order are fraught with computational complications. For this reason, numerical methods based on Monte Carlo methods have been resorted to. Chief among these methods are sequential Monte-Carlo methods (or particle filters), for they allow for online assimilation of data. Particle filters are not without challenges: they suffer from particle degeneracy, sample impoverishment, and computational costs arising from resampling. The goal of this thesis is to:— i) Review the derivation of Kushner-Stratonovich equation from first principles and its extant numerical approximation methods, ii) Study the feedback particle filters as a way of avoiding resampling in particle filters, iii) Study joint state and parameter estimation in time-continuous settings, iv) Apply the notions studied to linear hyperbolic stochastic differential equations. The interconnection between Itô integrals and stochastic partial differential equations and those of Stratonovich is introduced in anticipation of feedback particle filters. With these ideas and motivated by the variants of ensemble Kalman-Bucy filters founded on the structure of the innovation process, a feedback particle filter with randomly perturbed innovation is proposed. Moreover, feedback particle filters based on coupling of prediction and analysis measures are proposed. They register a better performance than the bootstrap particle filter at lower ensemble sizes. We study joint state and parameter estimation, both by means of extended state spaces and by use of dual filters. Feedback particle filters seem to perform well in both cases. Finally, we apply joint state and parameter estimation in the advection and wave equation, whose velocity is spatially varying. Two methods are employed: Metropolis Hastings with filter likelihood and a dual filter comprising of Kalman-Bucy filter and ensemble Kalman-Bucy filter. The former performs better than the latter. N2 - Die Datenassimilation war in den letzten Jahren aufgrund ihres breiten Nutzens ein aktives Forschungsgebiet. Im Zentrum der Datenassimilation stehen Filter-, Vorhersage- und Glättungsverfahren. Die Filterung beinhaltet die Einbeziehung von Messinformationen in das Modell, um einen besseren Einblick in einen gegebenen Zustand zu erhalten, der durch ein verrauschtes Zustandsraummodell gesteuert wird. Die meisten Naturgesetze werden von zeitkontinuierlichen nichtlinearen Modellen bestimmt. Das verfügbare Wissen über ein Modell ist größtenteils unvollständig; und daher werden Unsicherheiten mittels Wahrscheinlichkeiten angenähert. Die zeitkontinuierliche Filterung verspricht daher eine größere Nützlichkeit, denn sie bietet die Möglichkeit, verrauschte Messungen mit einem unvollkommenen Modell zu kombinieren, um mehr Einblick in einen bestimmten Zustand zu erhalten. Das Problem der zeitkontinuierlichen nichtlinearen Gaußschen Filterung wird durch die Kushner-Stratonovich-Gleichung gelöst. Leider fehlt der Kushner-Stratonovich-Gleichung eine geschlossene Lösung. Darüber hinaus sind die numerischen Näherungen, die auf der Taylor-Erweiterung über der dritten Ordnung basieren, mit rechnerischen Komplikationen behaftet. Aus diesem Grund wurde auf numerische Methoden zurückgegriffen, die auf Monte-Carlo-Methoden basieren. Die wichtigsten dieser Methoden sind sequentielle Monte-Carlo-Methoden (oder Partikelfilter), da sie die Online-Assimilation von Daten ermöglichen. Partikelfilter sind nicht unproblematisch: Sie leiden unter Partikelentartung, Probenverarmung und Rechenkosten, die sich aus der Neuabtastung ergeben. Das Ziel dieser Arbeit ist es, i) die Ableitung der Kushner-Stratonovich-Gleichung aus den ersten Prinzipien und ihre vorhandenen numerischen Approximationsmethoden zu überprüfen, ii) die Rückkopplungs-Partikelfilter zu untersuchen, um eine Neuabtastung in Partikelfiltern zu vermeiden, iii) Studieren Sie die Zustands- und Parameterschätzung in zeitkontinuierlichen Einstellungen, iv) Wenden Sie die untersuchten Begriffe auf lineare hyperbolische stochastische Differentialgleichungen an. Die Verbindung zwischen Itô Integralen und stochastischen partiellen Differentialgleichungen und denen von Stratonovich wird in Erwartung von Rückkopplungs-Partikelfiltern eingeführt. Mit diesen Ideen und motiviert durch die Varianten von Kalman-Bucy-Filtern, die auf der Struktur des Innovationsprozesses gegründet, wird ein Feedback-Partikelfilter mit zufällig gestörter Innovation vorgeschlagen. Darüber hinaus werden Rückkopplungspartikelfilter basierend auf der Kopplung von Vorhersage- und Analysemaßnahmen vorgeschlagen. Diese Feedback-Partikelfiltern haben eine bessere Leistung als der Bootstrap-Partikelfilter bei niedrigeren Ensemble-Größen. Wir untersuchen gemeinsame Zustands- und Parameterschätzungen, sowohl durch erweiterte Zustandsräume als auch durch Verwendung von Doppelfiltern. Rückkopplungs-Partikelfilter scheinen in beiden Fällen gut zu funktionieren. Schließlich wenden wir eine gemeinsame Zustands- und Parameterschätzung in der Advektions-und Wellengleichung an, deren Geschwindigkeit räumlich variiert. Es werden zwei Verfahren verwendet: Metropolis-Hastings mit Filterwahrscheinlichkeit und ein Doppelfilter bestehend aus Kalman-Bucy-Filter und Ensemble-Kalman-Bucy-Filter. Ersteres schneidet besser ab als letzteres. KW - state estimation KW - filtering KW - parameter estimation KW - Zustandsschätzung KW - Filterung KW - Parameter Schätzung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436542 ER - TY - THES A1 - Schürings, Marco Philipp Hermann T1 - Synthesis of 1D microgel strands and their motion analysis in solution T1 - Synthese von 1D-Mikrogelsträngen und ihre Bewegungsanalyse in der Lösung N2 - The fabrication of 1D nanostrands composed of stimuli responsive microgels has been shown in this work. Microgels are well known materials able to respond to various stimuli from outer environment. Since these microgels respond via a volume change to an external stimulus, a targeted mechanical response can be achieved. Through carefully choosing the right composition of the polymer matrix, microgels can be designed to react precisely to the targeted stimuli (e.g. drug delivery via pH and temperature changes, or selective contractions through changes in electrical current125). In this work, it was aimed to create flexible nano-filaments which are capable of fast anisotropic contractions similar to muscle filaments. For the fabrication of such filaments or strands, nanostructured templates (PDMS wrinkles) were chosen due to a facile and low-cost fabrication and versatile tunability of their dimensions. Additionally, wrinkling is a well-known lithography-free method which enables the fabrication of nanostructures in a reproducible manner and with a high long-range periodicity. In Chapter 2.1, it was shown for the first time that microgels as soft matter particles can be aligned to densely packed microgel arrays of various lateral dimensions. The alignment of microgels with different compositions (e.g. VCL/AAEM, NIPAAm, NIPAAm/VCL and charged microgels) was shown by using different assembly techniques (e.g. spin-coating, template confined molding). It was chosen to set one experimental parameter constant which was the SiOx surface composition of the templates and substrates (e.g. oxidized PDMS wrinkles, Si-wafers and glass slides). It was shown that the fabrication of nanoarrays was feasible with all tested microgel types. Although the microgels exhibited different deformability when aligned on a flat surface, they retained their thermo-responsivity and swelling behavior. Towards the fabrication of 1D microgel strands interparticle connectivity was aspired. This was achieved via different cross-linking methods (i.e. cross-linking via UV-irradiation and host-guest complexation) discussed in Chapter 2.2. The microgel arrays created by different assembly methods and microgel types were tested for their cross-linking suitability. It was observed that NIPAAm based microgels cannot be cross-linked with UV light. Furthermore, it was found that these microgels exhibit a strong surface-particle-interaction and therefore could not be detached from the given substrates. In contrast to the latter, with VCL/AAEM based microgels it was possible to both UV cross-link them based on the keto-enol tautomerism of the AAEM copolymer, and to detach them from the substrate due to the lower adhesion energy towards SiOx surfaces. With VCL/AAEM microgels long, one-dimensional microgel strands could be re-dispersed in water for further analysis. It has also been shown that at least one lateral dimension of the free dispersed 1D microgel strands is easily controllable by adjusting the wavelength of the wrinkled template. For further work, only VCL/AAEM based microgels were used to focus on the main aim of this work, i.e. the fabrication of 1D microgel nanostrands. As an alternative to the unspecific and harsh UV cross-linking, the host-guest complexation via diazobenzene cross-linkers and cyclodextrin hosts was explored. The idea behind this approach was to give means to a future construction kit-like approach by incorporation of cyclodextrin comonomers in a broad variety of particle systems (e.g. microgels, nanoparticles). For this purpose, VCL/AAEM microgels were copolymerized with different amounts of mono-acrylate functionalized β-cyclodextrin (CD). After successfully testing the cross-linking capability in solution, the cross-linking of aligned VCL/AAEM/CD microgels was tried. Although the cross-linking worked well, once the single arrays came into contact to each other, they agglomerated. As a reason for this behavior residual amounts of mono-complexed diazobenzene linkers were suspected. Thus, end-capping strategies were tried out (e.g. excess amounts of β-cyclodextrin and coverage with azobenzene functionalized AuNPs) but were unsuccessful. With deeper thought, entropy effects were taken into consideration which favor the release of complexed diazobenzene linker leading to agglomerations. To circumvent this entropy driven effect, a multifunctional polymer with 50% azobenzene groups (Harada polymer) was used. First experiments with this polymer showed promising results regarding a less pronounced agglomeration (Figure 77). Thus, this approach could be pursued in the future. In this chapter it was found out that in contrast to pearl necklace and ribbon like formations, particle alignment in zigzag formation provided the best compromise in terms of stability in dispersion (see Figure 44a and Figure 51) while maintaining sufficient flexibility. For this reason, microgel strands in zigzag formation were used for the motion analysis described in Chapter 2.3. The aim was to observe the properties of unrestrained microgel strands in solution (e.g. diffusion behavior, rotational properties and ideally, anisotropic contraction after temperature increase). Initially, 1D microgel strands were manipulated via AFM in a liquid cell setup. It could be observed that the strands required a higher load force compared to single microgels to be detached from the surface. However, with the AFM it was not possible to detach the strands in a controllable manner but resulted in a complete removal of single microgel particles and a tearing off the strands from the surface, respectively. For this reason, to observe the motion behavior of unrestrained microgel strands in solution, confocal microscopy was used. Furthermore, to hinder an adsorption of the strands, it was found out that coating the surface of the substrates with a repulsive polymer film was beneficial. Confocal and wide-field microscopy videos showed that the microgel strands exhibit translational and rotational diffusive motion in solution without perceptible bending. Unfortunately, with these methods the detection of the anisotropic stimuli responsive contraction of the free moving microgel strands was not possible. To summarize, the flexibility of microgel strands is more comparable to the mechanical behavior of a semi flexible cable than to a yarn. The strands studied here consist of dozens or even hundreds of discrete submicron units strung together by cross-linking, having few parallels in nanotechnology. With the insights gained in this work on microgel-surface interactions, in the future, a targeted functionalization of the template and substrate surfaces can be conducted to actively prevent unwanted microgel adsorption for a given microgel system (e.g. PVCL and polystyrene coating235). This measure would make the discussed alignment methods more diverse. As shown herein, the assembly methods enable a versatile microgel alignment (e.g. microgel meshes, double and triple strands). To go further, one could use more complex templates (e.g. ceramic rhombs and star shaped wrinkles (Figure 14) to expand the possibilities of microgel alignment and to precisely control their aspect ratios (e.g. microgel rods with homogeneous size distributions). N2 - In dieser Arbeit wurde die Herstellung von Nanostrukturen aus stimuli-responsiven Mikrogelen gezeigt. Mikrogele sind bekannt dafür auf verschiedene Reize aus der Umgebung reagieren zu können, so werden sie z.B. in der Industrie seit langem als Superabsorber eingesetzt. Da diese Mikrogele über eine Volumenäderung auf den externen Reiz reagieren, kann so eine gezielte mechanische Antwort erreicht werden. Durch eine sorgfältige Auswahl der Polymermatrix ist es möglich die Mikrogele so zu gestalten, dass sie präzise auf die gesetzten Stimuli reagieren (z.B. Wirkstoffabgabe über pH- und Temperaturänderungen oder selektive Kontraktionen durch Zufuhr von elektrischem Strom). In dieser Arbeit wurde das Ziel verfolgt, flexible Nanofilamente zu schaffen, die ähnlich wie Muskelfilamente zu schnellen anisotropen Kontraktionen fähig sind. Für die Herstellung solcher Stränge wurden nanostrukturierte Template (PDMS-Wrinkles) verwendet, da diese einfach und kostengünstig herzustellen und in ihren Abmessungen vielseitig skalierbar sind. Darüber hinaus ist die Strukturbildung via Wrinkles ein bekanntes lithographiefreies Verfahren, das die Herstellung von Nanostrukturen in reproduzierbarer Weise und mit hoher Fernordnung auf Nanoskala ermöglicht. In Kapitel 2.1 wurde erstmals gezeigt, dass Mikrogele als weiche bzw. schwammartige Materialien zu dicht gepackten Mikrogelarrays mit einstellbaren lateralen Dimensionen ausgerichtet werden können. Obwohl die Mikrogele bei der Anordnung auf ebene Oberflächen unterschiedliche Verformbarkeiten zeigten, behielten sie ihre Thermoresponsivität und ihr Quellverhalten bei. Zur Herstellung von Mikrogelsträngen wurde eine interpartikuläre Konnektivität angestrebt. In Kapitel 2.2 wurde dies durch verschiedene Vernetzungsmethoden (d.h. Vernetzung durch UV-Bestrahlung und Wirt-Gast-Komplexierung) erreicht. Mit VCL/AAEM-Mikrogelen ist es möglich stabile, eindimensionale Mikrogelstränge herzustellen und zur weiteren Analyse in Wasser zu redispergieren. In diesem Kapitel wurde gezeigt, dass eindimensionale Partikelanordnungen in der Zickzackformation im Gegensatz zu Anordnungen in einer Perlenkettenstruktur oder zweidimensionaler Bandstruktur den besten Kompromiss in Bezug auf die Stabilität der Mikrogelstränge in Lösung bei gleichzeitigem Erhalt einer ausreichenden Flexibilität darstellt. In Kapitel 2.3 wurden für die Bewegungsanalysen Mikrogelstränge in Zickzackformation verwendet. Zusammenfassend lässt sich sagen, dass die Flexibilität der Mikrogelstränge eher mit der mechanischen Biegefähigkeit eines halbflexiblen Kabels als mit dem eines Fadens vergleichbar ist. Die hier untersuchten Stränge bestehen aus Dutzenden oder sogar Hunderten von diskreten Einzelpartikeln, die durch Vernetzung miteinander verbunden sind und für die es in der Nanotechnologie nur wenige Parallelen gibt. Wie hier dargestellt, ermöglichen die diversen Anordnungsmethoden eine vielseitige Mikrogelarchitektur (z.B. Mikrogelnetze, Doppel- und Dreifachstränge). In Zukunft könnte man komplexere Template (z.B. keramische Rhomben und sternförmige Wrinkles) verwenden, um die Möglichkeiten der nanoskaligen Mikrogelanordnungen zu erweitern und deren Seitenverhältnisse präzise zu steuern (z.B. zur Herstellung von homogenen Mikrogelstäbchen). KW - anisotropic microgels KW - microgel strands KW - microgel chains KW - template assisted alignment of soft particles KW - microgel array KW - Mikrogele KW - Mikrogelstränge KW - Mikrogelketten KW - tamplat unterstütze Anordnung von weichen Partikeln KW - Mikrogel-Array Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439532 ER - TY - THES A1 - Thater, Sabine T1 - The interplay between supermassive black holes and their host galaxies T1 - Das Zusammenspiel zwischen supermassereichen Schwarzen Löchern und ihren Muttergalaxien N2 - Supermassive black holes reside in the hearts of almost all massive galaxies. Their evolutionary path seems to be strongly linked to the evolution of their host galaxies, as implied by several empirical relations between the black hole mass (M BH ) and different host galaxy properties. The physical driver of this co-evolution is, however, still not understood. More mass measurements over homogeneous samples and a detailed understanding of systematic uncertainties are required to fathom the origin of the scaling relations. In this thesis, I present the mass estimations of supermassive black holes in the nuclei of one late-type and thirteen early-type galaxies. Our SMASHING sample extends from the intermediate to the massive galaxy mass regime and was selected to fill in gaps in number of galaxies along the scaling relations. All galaxies were observed at high spatial resolution, making use of the adaptive-optics mode of integral field unit (IFU) instruments on state-of-the-art telescopes (SINFONI, NIFS, MUSE). I extracted the stellar kinematics from these observations and constructed dynamical Jeans and Schwarzschild models to estimate the mass of the central black holes robustly. My new mass estimates increase the number of early-type galaxies with measured black hole masses by 15%. The seven measured galaxies with nuclear light deficits (’cores’) augment the sample of cored galaxies with measured black holes by 40%. Next to determining massive black hole masses, evaluating the accuracy of black hole masses is crucial for understanding the intrinsic scatter of the black hole- host galaxy scaling relations. I tested various sources of systematic uncertainty on my derived mass estimates. The M BH estimate of the single late-type galaxy of the sample yielded an upper limit, which I could constrain very robustly. I tested the effects of dust, mass-to-light ratio (M/L) variation, and dark matter on my measured M BH . Based on these tests, the typically assumed constant M/L ratio can be an adequate assumption to account for the small amounts of dark matter in the center of that galaxy. I also tested the effect of a variable M/L variation on the M BH measurement on a second galaxy. By considering stellar M/L variations in the dynamical modeling, the measured M BH decreased by 30%. In the future, this test should be performed on additional galaxies to learn how an as constant assumed M/L flaws the estimated black hole masses. Based on our upper limit mass measurement, I confirm previous suggestions that resolving the predicted BH sphere-of-influence is not a strict condition to measure black hole masses. Instead, it is only a rough guide for the detection of the black hole if high-quality, and high signal-to-noise IFU data are used for the measurement. About half of our sample consists of massive early-type galaxies which show nuclear surface brightness cores and signs of triaxiality. While these types of galaxies are typically modeled with axisymmetric modeling methods, the effects on M BH are not well studied yet. The massive galaxies of our presented galaxy sample are well suited to test the effect of different stellar dynamical models on the measured black hole mass in evidently triaxial galaxies. I have compared spherical Jeans and axisymmetric Schwarzschild models and will add triaxial Schwarzschild models to this comparison in the future. The constructed Jeans and Schwarzschild models mostly disagree with each other and cannot reproduce many of the triaxial features of the galaxies (e.g., nuclear sub-components, prolate rotation). The consequence of the axisymmetric-triaxial assumption on the accuracy of M BH and its impact on the black hole - host galaxy relation needs to be carefully examined in the future. In the sample of galaxies with published M BH , we find measurements based on different dynamical tracers, requiring different observations, assumptions, and methods. Crucially, different tracers do not always give consistent results. I have used two independent tracers (cold molecular gas and stars) to estimate M BH in a regular galaxy of our sample. While the two estimates are consistent within their errors, the stellar-based measurement is twice as high as the gas-based. Similar trends have also been found in the literature. Therefore, a rigorous test of the systematics associated with the different modeling methods is required in the future. I caution to take the effects of different tracers (and methods) into account when discussing the scaling relations. I conclude this thesis by comparing my galaxy sample with the compilation of galaxies with measured black holes from the literature, also adding six SMASHING galaxies, which were published outside of this thesis. None of the SMASHING galaxies deviates significantly from the literature measurements. Their inclusion to the published early-type galaxies causes a change towards a shallower slope for the M BH - effective velocity dispersion relation, which is mainly driven by the massive galaxies of our sample. More unbiased and homogenous measurements are needed in the future to determine the shape of the relation and understand its physical origin. N2 - Supermassereiche schwarze Löcher befinden sich in den Herzen von fast allen massiven Galaxien. Ihr evolutionärer Werdegang scheint stark mit dem Wachstum ihrer Muttergalaxien in Verbindung zu stehen, wie mehrere empirische Beziehungen zwischen der Masse der schwarzen Löcher (M BH ) und verschiedenen Eigenschaften der Muttergalaxien andeuten. Der physikalische Ursprung dieser Koevolution ist jedoch immer noch nicht verstanden. Weitere Massenmessungen über homogene Galaxienproben und ein detailliertes Verständnis der systematischen Unsicherheiten sind erforderlich, um den Ursprung dieser Skalierungsbeziehungen zu ergründen. In dieser Arbeit präsentiere ich die Massenabschätzungen von Supermassereichen Schwarzen Löchern der Zentren einer Spiral- und dreizehn elliptischer und linsenförmiger Galaxien. Meine SMASHING-Probe erstreckt sich vom mittleren bis zum hohen Galaxienmassenbereich und wurde ausgewählt, um Lücken entlang der Skalierungsbeziehungen zu schließen. Alle Galaxien wurden mit hoher räumlicher Auflösung beobachtet, wobei der adaptivoptische Modus von Integralfeldspektrographen (IFU) modernster Teleskope (SINFONI, NIFS, MUSE) verwendet wurde. Aus diesen Beobachtungen habe ich die Sternenkinematik extrahiert und dynamische Jeans- und Schwarzschildmodelle konstruiert, um die Masse der zentralen Schwarzen Löcher robust zu bestimmen. Meine neuen Massenschätzungen erhöhen die Anzahl elliptischer Galaxien mit vermessenen Schwarzen Löchern um 15%. Die sieben vermessenen Galaxien mit inneren Lichtdefiziten ("Cores") ergänzen die Probe der Core-Galaxien mit gemessenen schwarzen Löchern um 40%. Neben der Bestimmung ist die Beurteilung der Genauigkeit von Schwarzlochmassen entscheidend für das Verständnis der intrinsischen Streuung der Beziehungen zwischen schwarzem Loch und Muttergalaxie. Ich habe meine abgeleiteten Massenabschätzungen auf verschiedene systematische Fehlerquellen getestet. Dabei habe ich Bezug genommen auf die Auswirkungen von Staub, Variation des Masse-Licht-Verhältnisses (M/L), Dunkler Materie, verschiedener dynamischer Modelle und verschiedener dynamischer Tracer. Die Ergebnisse präsentiere ich in dieser Arbeit. Ich schließe diese Arbeit, indem ich meine Galaxienprobe mit der den in der Forschungsliteratur zusammengestellten Galaxien mit bereits vermessenen Schwarzen Löchern vergleiche und auch sechs SMASHING-Galaxien hinzufüge, die außerhalb dieser Arbeit veröffentlicht wurden. Keine der SMASHING-Galaxien weicht signifikant von den veröffentlichten Messungen ab. Eine gemeinsame Analyse meiner Messungen und der veröffentlichten elliptischen Galaxien ergibt eine Abflachung der Steigung für die M BH - effektive Geschwindigkeitsdispersionsbeziehung, die hauptsächlich von den massiven Galaxien meiner Probe bewirkt wird. In Zukunft sind unvoreingenommene und homogenere Messungen erforderlich, um die Form der Skalierungsbeziehung zu bestimmen und ihren physikalischen Ursprung zu verstehen. KW - supermassive black holes KW - galaxy evolution KW - stellar kinematics KW - galaxy dynamics KW - integral field spectroscopy KW - supermassereiche Schwarze Löcher KW - Galaxienentwicklung KW - stellare Kinematik KW - Galaxiendynamik KW - Integralfieldspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437570 ER - TY - THES A1 - Farhy, Yael T1 - Universals and particulars in morphology T1 - Universalien und Einzelheiten in der Morphologie BT - processing and generalization in native and non-native speakers of Hebrew BT - Verarbeitung und Generalisierung bei hebräischen Muttersprachlern und Nicht-Muttersprachlern N2 - For many years, psycholinguistic evidence has been predominantly based on findings from native speakers of Indo-European languages, primarily English, thus providing a rather limited perspective into the human language system. In recent years a growing body of experimental research has been devoted to broadening this picture, testing a wide range of speakers and languages, aiming to understanding the factors that lead to variability in linguistic performance. The present dissertation investigates sources of variability within the morphological domain, examining how and to what extent morphological processes and representations are shaped by specific properties of languages and speakers. Firstly, the present work focuses on a less explored language, Hebrew, to investigate how the unique non-concatenative morphological structure of Hebrew, namely a non-linear combination of consonantal roots and vowel patterns to form lexical entries (L-M-D + CiCeC = limed ‘teach’), affects morphological processes and representations in the Hebrew lexicon. Secondly, a less investigated population was tested: late learners of a second language. We directly compare native (L1) and non-native (L2) speakers, specifically highly proficient and immersed late learners of Hebrew. Throughout all publications, we have focused on a morphological phenomenon of inflectional classes (called binyanim; singular: binyan), comparing productive (class Piel, e.g., limed ‘teach’) and unproductive (class Paal, e.g., lamad ‘learn’) verbal inflectional classes. By using this test case, two psycholinguistic aspects of morphology were examined: (i) how morphological structure affects online recognition of complex words, using masked priming (Publications I and II) and cross-modal priming (Publication III) techniques, and (ii) what type of cues are used when extending morpho-phonological patterns to novel complex forms, a process referred to as morphological generalization, using an elicited production task (Publication IV). The findings obtained in the four manuscripts, either published or under review, provide significant insights into the role of productivity in Hebrew morphological processing and generalization in L1 and L2 speakers. Firstly, the present L1 data revealed a close relationship between productivity of Hebrew verbal classes and recognition process, as revealed in both priming techniques. The consonantal root was accessed only in the productive class (Piel) but not the unproductive class (Paal). Another dissociation between the two classes was revealed in the cross-modal priming, yielding a semantic relatedness effect only for Paal but not Piel primes. These findings are taken to reflect that the Hebrew mental representations display a balance between stored undecomposable unstructured stems (Paal) and decomposed structured stems (Piel), in a similar manner to a typical dual-route architecture, showing that the Hebrew mental lexicon is less unique than previously claimed in psycholinguistic research. The results of the generalization study, however, indicate that there are still substantial differences between inflectional classes of Hebrew and other Indo-European classes, particularly in the type of information they rely on in generalization to novel forms. Hebrew binyan generalization relies more on cues of argument structure and less on phonological cues. Secondly, clear L1/L2 differences were observed in the sensitivity to abstract morphological and morpho-syntactic information during complex word recognition and generalization. While L1 Hebrew speakers were sensitive to the binyan information during recognition, expressed by the contrast in root priming, L2 speakers showed similar root priming effects for both classes, but only when the primes were presented in an infinitive form. A root priming effect was not obtained for primes in a finite form. These patterns are interpreted as evidence for a reduced sensitivity of L2 speakers to morphological information, such as information about inflectional classes, and evidence for processing costs in recognition of forms carrying complex morpho-syntactic information. Reduced reliance on structural information cues was found in production of novel verbal forms, when the L2 group displayed a weaker effect of argument structure for Piel responses, in comparison to the L1 group. Given the L2 results, we suggest that morphological and morphosyntactic information remains challenging for late bilinguals, even at high proficiency levels. N2 - Diese Dissertation untersucht, wie die morphologische Verarbeitung und Generalisierung von der Sprache und den Sprechern beeinflusst werden. Die Arbeit fokussiert sich auf die hebräische Sprache und analysiert, wie ihre ungewöhnliche, nicht-verkettende morphologische Struktur, die die Kombination von Wurzelkonsonanten und Vokalmustern umfasst (z. B. L-M-D + CiCeC = limed ‚beibringen‘), die Organisation von komplexen Repräsentationen im mentalen Lexikon beeinflusst. Dieser Aspekt wird im Hinblick auf zwei Sprechergruppen betrachtet: hebräische Muttersprachler und Nicht-Muttersprachler, die aber ein hohes Sprachniveau erworben haben. Alle vier Publikationen der Dissertation behandeln das morphologische Phänomen von Flexionsklassen in Verben (auf Hebräisch: binyanim) und vergleichen eine produktive Klasse und eine unproduktive Klasse mithilfe von empirischen Methoden wie Worterkennung mit Priming und Produktion von neuartigen Wörtern. Die Ergebnisse zeigten erstens eine enge Verbindung zwischen der Produktivität einer Klasse und Worterkennungsprozessen, wie dies auch in anderen indoeuropäischen Sprachen der Fall ist, in denen die Erkennung von produktiven morphologischen Schemata (z. B. gefragt) durch eine Dekomposition von Wortbestandteilen ausgeführt wird. Die Erkennung von unproduktiven morphologischen Schemata (z. B., geschlafen) wird jedoch nicht durch eine Dekomposition ausgeführt. In Bezug darauf ergaben die Ergebnisse der Produktionsstudie jedoch, dass es einen Unterschied zwischen dem hebräischen und indoeuropäischen Sprachen gibt, besonders in der Art der Information, auf die die Sprecher sich verlassen, wenn sie neue Wörter formulieren. In einem zweiten Ergebnis wurden bedeutende Unterschiede zwischen Muttersprachlern und Nicht-Muttersprachlern hinsichtlich Worterkennung und Produktion beobachtet. Beide Experimente wiesen eine eingeschränkte Sensitivität der Nicht-Muttersprachler für abstrakte morphologische und morpho-syntaktische Informationen nach. KW - psycholinguistics KW - morphology KW - Hebrew KW - second language KW - Psycholinguistik KW - Morphologie KW - Hebräisch KW - Nicht-Muttersprachler Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-470033 ER -