TY - THES A1 - Brandt, Christopher Georg T1 - “… when the legend becomes fact …” BT - Geschichtsdidaktische Überlegungen zur Medialität, Authentizität und Narrativität des historischen Spielfilms N2 - Der historische Spielfilm zählt zu den populärsten Formen geschichtskultureller Artikulation. Als solche ist er Gegenstand kontroverser Diskussionen über einen angemessenen didaktischen Umgang. Vor diesem Hintergrund ist es das Ziel der vorliegenden Arbeit, ein integratives, theoretisch und empirisch abgesichertes Analysemodell zu entwickeln, das nach den Tiefenstrukturen historischen Erzählens im Medium des Spielfilms fragt und dabei unterschiedliche Erscheinungsformen historischer Spielfilme berücksichtigt. Die Überlegungen bewegen sich deshalb in einem interdisziplinären Spannungsfeld von Theorien zum historischen Erzählen und Konzepten der Literatur- und Filmwissenschaft. Die Diskussion und Synthese dieser unterschiedlichen Konzepte geht dabei – auf der Grundlage einer großen Materialbasis – vom Gegenstand aus und ist induktiv angelegt. Als Orientierung für die praktische Arbeit werden am Ende der einzelnen Kapitel Toolkits entwickelt, die zu einer vertieften Auseinandersetzung mit historischen Spielfilmen anregen sollen. KW - historischer Spielfilm KW - Geschichtsunterricht KW - Narrativität KW - Authentizität KW - Medialität Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410441 SN - 978-3-86956-429-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bernaschina Schürmann, Vicente T1 - Ángeles que cantan de continuo T1 - Ángeles que cantan de continuo T1 - Ángeles que cantan de continuo BT - la legitimación teológica de la poesía en el virreinato del Perú BT - die theologische Legitimierung der Poesie im Vizekönigreich Peru BT - the theological legitimation of poetry in the viceroyalty of Peru N2 - Objeto de esta investigación es el auge y caída de una legitimación teológica de la poesía que tuvo lugar en el virreinato del Perú entre fines del siglo XVI y la segunda mitad del siglo XVII. Su punto cúlmine está marcado por el surgimiento de una “Academia Antártica” en las primeras décadas del siglo XVII, mientras que su fin, se aprecia a fines del mismo siglo, cuando eruditos de las órdenes religiosas, especialmente Juan de Espinosa y Medrano en sus textos en defensa de la poesía y las ciencias, negaron a la poesía cualquier estatuto teológico, sirviéndose sin embargo de ella para escribir sus sermones y textos. A partir del auge y caída de esta legitimación teológica en el virreinato del Perú, este estudio muestra la existencia de dos movimientos que forman un quiasmo entre una teologización de la poesía y una poetización de la teología, en cuyo centro velado se encuentra en disputa el saber teórico y práctico de la poesía. Lo que está en disputa en este sentido no es la poesía, entendida como una cumbre de las bellas letras, sino la posesión legítima de un modo de lectura analógico y tipológico del orden del universo, fundado en las Sagradas Escrituras y en la historia de la salvación, y un modo poético para doctrinar a todos los miembros de la sociedad virreinal en concordancia con aquel modo de lectura. N2 - Gegenstand dieser Untersuchung ist der Aufstieg und Fall der theologischen Legitimierung der gehobenen Poesie, die sich ab Ende des 16. und im Laufe des 17. Jahrhunderts im Vizekönigreich Peru vollzieht. Der Höhepunkt dieser Legitimierung liegt in dem Entstehen einer „Academia Antártica“ (Antarktische Akademie) in den ersten Jahrzehnten des 17. Jahrhunderts. Ihr Ende wiederum beginnt in der zweiten Hälfte desselben Jahrhunderts, wenn Gelehrte religiöser Orden, vor allem Juan de Espinosa Medrano und seine Texte zur Verteidigung der Dichtung und der Wissenschaften, diese theologische Macht der weltlichen Poesie bestreiten und für ihre eigenen Predigten und Texten in Anspruch nehmen. Ausgehend vom Aufstieg und Fall der theologischen Legitimierung im Vizekönigreich Peru zeigt diese Untersuchung die Existenz zweier Bewegungen, die einen Chiasmus aus einer Theologisierung der Poesie und einer Poetisierung der Theologie bilden, in dessen Zentrum um das theoretische und praktische Wissen der Dichtung gestritten wird. Gestritten wird in diesem Sinne nicht über die Poesie, verstanden als Höhepunkt der schönen Literatur, sondern über den legitimen Besitz eine analogischen und typologischen Lesart der Ordnung des Universums, gegründet in den Heiligen Schriften und in der Heilsgeschichte, und einen poetischen Weg, alle Mitglieder der vizeköniglichen Gesellschaft in Übereinstimmung mit jener Lesart zu indoktrinieren. N2 - The subject of this study is the rise and fall of the theological legitimation of poetry that took place in the Viceroyalty of Peru from the end of the 16th century and during the 17th century. The peak of this process of legitimation lies in the emergence of an "Academia Antártica" (Antarctic Academy) in the first decades of the 17th century. Its end, in turn, began in the second half of the same century, when scholars of religious orders, especially Juan de Espinosa Medrano and his texts defending poetry and science, denied secular poetry any theological power but used it instead for their own sermons and texts. Starting from the rise and fall of the theological legitimation in the Viceroyalty of Peru, this study shows the existence of two movements that form a chiasmus of a theologization of poetry and a poeticization of theology, at the centre of which the theoretical and practical knowledge of poetry is disputed. In this sense, there is no dispute about poetry, understood as the culmination of beautiful literature, but about the legitimate possession of an analogical and typological mode to read the order of the universe, founded in the Holy Scriptures and in the history of salvation, and a poetic way of indoctrinating all members of the vice-royal society in accordance with that reading. T3 - Potsdamer Bibliothek der WeltRegionen (PoWeR) - 2 KW - Literatur KW - Spanisch KW - Theologie KW - Poesie KW - Vizekönigreich KW - Perú KW - Literaturwissenschaft KW - Lateinamerika KW - Kolonialgeschichte KW - Academia Antártica KW - Engel KW - Macht KW - 17. Jahrhundert KW - literature KW - Spanish KW - theology KW - poetry KW - viceroyalty KW - Latin American studies KW - colonial studies KW - angels KW - government KW - poesía Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426450 SN - 978-3-86956-459-3 SN - 2629-2548 SN - 2629-253X ER - TY - THES A1 - Marimon Tarter, Mireia T1 - Word segmentation in German-learning infants and German-speaking adults T1 - Wortsegmentierung bei deutschsprachigen Kindern und Erwachsenen BT - prosodic and statistical cues BT - prosodische und statitistische Hinweisreize N2 - There is evidence that infants start extracting words from fluent speech around 7.5 months of age (e.g., Jusczyk & Aslin, 1995) and that they use at least two mechanisms to segment words forms from fluent speech: prosodic information (e.g., Jusczyk, Cutler & Redanz, 1993) and statistical information (e.g., Saffran, Aslin & Newport, 1996). However, how these two mechanisms interact and whether they change during development is still not fully understood. The main aim of the present work is to understand in what way different cues to word segmentation are exploited by infants when learning the language in their environment, as well as to explore whether this ability is related to later language skills. In Chapter 3 we pursued to determine the reliability of the method used in most of the experiments in the present thesis (the Headturn Preference Procedure), as well as to examine correlations and individual differences between infants’ performance and later language outcomes. In Chapter 4 we investigated how German-speaking adults weigh statistical and prosodic information for word segmentation. We familiarized adults with an auditory string in which statistical and prosodic information indicated different word boundaries and obtained both behavioral and pupillometry responses. Then, we conducted further experiments to understand in what way different cues to word segmentation are exploited by 9-month-old German-learning infants (Chapter 5) and by 6-month-old German-learning infants (Chapter 6). In addition, we conducted follow-up questionnaires with the infants and obtained language outcomes at later stages of development. Our findings from this thesis revealed that (1) German-speaking adults show a strong weight of prosodic cues, at least for the materials used in this study and that (2) German-learning infants weight these two kind of cues differently depending on age and/or language experience. We observed that, unlike English-learning infants, 6-month-old infants relied more strongly on prosodic cues. Nine-month-olds do not show any preference for either of the cues in the word segmentation task. From the present results it remains unclear whether the ability to use prosodic cues to word segmentation relates to later language vocabulary. We speculate that prosody provides infants with their first window into the specific acoustic regularities in the signal, which enables them to master the specific stress pattern of German rapidly. Our findings are a step forwards in the understanding of an early impact of the native prosody compared to statistical learning in early word segmentation. N2 - Es gibt Beweise, dass Babys im Alter um 7.5 Monate anfangen, Wörter aus flüssiger Sprache zu extrahieren (z.B., Jusczyk & Aslin, 1995), dabei werden mindestens zwei Mechanismen angewandt, um Wörter aus dem Sprachfluss zu segmentieren: prosodische Information (z.B. Jusczyk, Cutler & Redanz, 1993) und statistische Information (z.B., Saffran, Aslin & Newport, 1996). Aber wie diese zwei Mechanismen zusammenwirken und ob sie sich während der Entwicklung verändern, wurde noch nicht vollständig geklärt. Das Hauptziel dieser Dissertation ist es zu verstehen, inwiefern sich Kleinkinder die verschiedenen Hinweisreize für die Segmentierung von Wörtern erschließen, wenn sie die Sprache ihres Umfelds lernen, sowie ob diese Fähigkeit in Verbindung mit späteren Sprachfähigkeiten steht. In Kapitel 3 wurde die Zuverlässigkeit der in dieser Dissertation benutzten Methode (the Headturn Preference Procedure) eruiert, sowie die Korrelationen und individuellen Differenzen zwischen den Ergebnissen einzelner Babys und späteren Sprachfähigkeiten untersucht. Im Kapitel 4 wurde untersucht, wie deutschsprachige Erwachsene auf statistische und prosodische Informationen für Wortsegmentierung reagieren. Wir haben Erwachsene mit einer akustischen Sequenz familiarisiert, bei der die statistischen und prosodischen Informationen verschiedene Wortgrenzen anzeigen, und Verhaltens- und Pupillometriedaten erhoben. Anschließend haben wir weitere Experimente durchgeführt, um zu verstehen, wie verschiedene Hinweisreize von 9-Monate (Kapitel 5) und 6-Monate alten deutschsprachigen Säuglingen (Kapitel 6) aufgenommen werden. Außerdem haben wir nach den Versuchen mit Fragebögen Daten über die Sprachfähigkeiten in späteren Entwicklungsstadien gesammelt. Unsere Ergebnisse lassen darauf schließen, dass (1) deutschsprachige Erwachsene eine hohe Gewichtung der prosodischen Hinweisreize zeigen, zumindest bei dem für die Studie genutzten akustischen Material, und dass (2) bei deutschsprachigen Babys in Abhängigkeit von Alter und/oder Spracherfahrung diese zwei Hinweisreize unterschiedlich gewichtet werden. Wir stellen fest, dass sich 6-Monate alte deutschsprachige Babys stärker auf die prosodichen Hinweisreize verlassen haben als die englischsprachigen Babys. Neun Monate alte Babys haben bei der Wortsegmentierung der Audiosequenz gescheitert und haben keine Vorliebe für einen der beiden Hinweisreize gezeigt. Mit den momentanen Ergebnissen bleibt weiterhin unklar, ob die Fähigkeit, prosodische Hinweisreize für die Wortsegmentierung zu nutzen, in Verbindung mit der späteren Weiterentwicklung des Wortschatzes steht. Wir vermuten, dass Prosodie den Babys einen ersten Einblick in die spezifischen akustischen Regelmäßigkeiten des Signals verschafft, was ihnen dabei hilft, das Betonungsmuster der deutsche Sprache schnell zu erlernen. Unsere Ergebnisse sind ein weiterer Schritt vorwärts was das Verständnis eines frühen Einflusses von muttersprachlicher Prosodie im Vergleich zu statistischem Erlernen in der frühen Wortsegmentierung betrifft. KW - word segmentation KW - prosody KW - statistical learning KW - Wortsegmentierung KW - Prosodie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437400 ER - TY - THES A1 - Arf, Shelan Ali T1 - Women’s everyday reality of social insecurity T1 - Soziale Unsicherheit als alltägliche Realität für geschiedene Frauen in Irakisch-Kurdistan BT - the case of divorced women in Iraqi Kurdistan N2 - Since 1980 Iraq passed through various wars and conflicts including Iraq-Iran war, Saddam Hussein’s the Anfals and Halabja campaigns against the Kurds and the killing campaigns against Shiite in 1986, Saddam Hussein’s invasion of Kuwait in August 1990, the Gulf war in 1990, Iraq war in 2003 and the fall of Saddam, the conflicts and chaos in the transmission of power after the death of Saddam, and the war against ISIS . All these wars left severe impacts in most households in Iraq; on women and children in particular. The consequences of such long wars could be observed in all sectors including economic, social, cultural and religious sectors. The social structure, norms and attitudes are intensely affected. Many women specifically divorced women found them-selves in challenging different difficulties such as social as well as economic situations. Thus the divorced women in Iraqi Kurdistan are the focus of this research. Considering the fact that there is very few empirical researches on this topic, a constructivist grounded theory methodology (CGT) is viewed as reliable in order to come up with a comprehensive picture about the everyday life of divorced women in Iraqi Kurdistan. Data collected in Sulaimani city in Iraqi Kurdistan. The work of Kathy Charmaz was chosen to be the main methodological context of the research and the main data collection method was individual intensive narrative interviews with divorced women. Women generally and divorced women specifically in Iraqi Kurdistan are living in a patriarchal society that passing through many changes due to the above mentioned wars among many other factors. This research is trying to study the everyday life of divorced women in such situations and the forms of social insecurity they are experiencing. The social institutions starting from the family as a very significant institution for women to the governmental and non-governmental institutions that are working to support women, and the copying strategies, are in focus in this research. The main research argument is that the family is playing ambivalent roles in divorced women’s life. For instance, on one side families are revealed to be an essential source of security to most respondents, on the other side families posed also many threats and restrictions on those women. This argument supported by what called by Suad joseph "the paradox of support and suppression" . Another important finding is that the stat institution(laws , constitutions ,Offices of combating violence against woman and family) are supporting women somehow and offering them protection from the insecurities but it is clear that the existence of the laws does not stop the violence against women in Iraqi Kurdistan, As explained by Pateman because the laws /the contract is a sexual-social contract that upholds the sex rights of males and grants them more privileges than females. The political instability, Tribal social norms also play a major role in influencing the rule of law. It is noteworthy to refer that analyzing the interviews in this research showed that in spite that divorced women living in insecurities and facing difficulties but most of the respondents try to find a coping strategies to tackle difficult situations and to deal with the violence they face; these strategies are bargaining, sometimes compromising or resisting …etc. Different theories used to explain these coping strategies such as bargaining with patriarchy. Kandiyoti who stated that women living under certain restraints struggle to find way and strategies to enhance their situations. The research finding also revealed that the western liberal feminist view of agency is limited this is agree with Saba Mahmood and what she explained about Muslim women agency. For my respondents, who are divorced women, their agency reveals itself in different ways, in resisting or compromising with or even obeying the power of male relatives, and the normative system in the society. Agency is also explained the behavior of women contacting formal state institutions in cases of violence like the police or Offices of combating violence against woman and family. N2 - Irakisch-Kurdistan ist ein von Konflikten geprägtes Land. Diese haben tiefgreifende soziale, kulturelle, ökonomische und religiöse Folgen. Insbesondere geschiedene Frauen finden sich oft in herausfordernden Situationen. Aufgrund des Mangels an empirischen Analysen wendet diese Studie Grounded Theory an, um sich mit dem Alltag von geschiedenen Frauen in Iraqi Kurdistan zu beschäftigen. Hierbei wird besonders auf Themen sie soziale Sicherheit, agency, Verhandlungs- und Widerstandsstrategien eingegangen. KW - divorced women KW - Iraqi Kurdistan KW - geschiedene Frauen KW - Irakisch-Kurdistan Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434333 ER - TY - THES A1 - Rabe, Sophie T1 - Wirksamkeit einer telemedizinisch assistierten Bewegungstherapie für die postrehabilitative Versorgung von Patienten mit Knie- oder Hüft-Totalendoprothese im berufsfähigen Alter T1 - Telerehabilitation as a supplement to aftercare programs in patients after total knee or hip replacement N2 - Einleitung Die Implantation einer Knie- oder Hüft-Totalendoprothese (TEP) ist eine der häufigsten operativen Eingriffe. Im Anschluss an die Operation und die postoperative Rehabilitation stellt die Bewegungstherapie einen wesentlichen Bestandteil der Behandlung zur Verbesserung der Gelenkfunktion und der Lebensqualität dar. In strukturschwachen Gebieten werden entsprechende Angebote nur in unzureichender Dichte vorgehalten. Zudem zeichnet sich ein flächendeckender Fachkräftemangel im Bereich der Physiotherapie ab. Die Tele-Nachsorge bietet daher einen innovativen Ansatz für die postrehabilitative Versorgung der Patienten. Das Ziel der vorliegenden Untersuchung war die Überprüfung der Wirksamkeit einer interaktiven Tele-Nachsorgeintervention für Patienten mit Knie- oder Hüft-TEP im Vergleich zur herkömmlichen Versorgung (usual care). Dazu wurden die Funktionalität und die berufliche Wiedereingliederung untersucht. Methode Zwischen August 2016 und August 2017 wurden 111 Patienten (54,9 ± 6,8 Jahre, 54,3 % weiblich) zu Beginn ihrer stationären Anschlussheilbehandlung nach Implantation einer Knie- oder Hüft-TEP in diese randomisiert, kontrolliert, multizentrische Studie eingeschlossen. Nach Entlassung aus der orthopädischen Anschlussrehabilitation (Baseline) führte die Interventionsgruppe (IG) ein dreimonatiges interaktives Training über ein Telerehabilitationssystem durch. Hierfür erstellte ein betreuender Physiotherapeut einen individuellen Trainingsplan aus 38 Übungen zur Verbesserung der Kraft sowie der posturalen Kontrolle. Zur Anpassung des Trainingsplans übermittelte das System dem Physiotherapeuten Daten zur Quantität sowie zur Qualität des Trainings. Die Kontrollgruppe (KG) konnte die herkömmlichen Versorgungsangebote nutzen. Zur Beurteilung der Wirksamkeit der Intervention wurde die Differenz der Verbesserung im 6MWT zwischen der IG und der KG nach drei Monaten als primärer Endpunkt definiert. Als sekundäre Endpunkte wurden die Return-to-Work-Rate sowie die funktionelle Mobilität mittels des Stair Ascend Tests, des Five-Times-Sit-to-Stand Test und des Timed Up and Go Tests untersucht. Weiterhin wurden die gesundheitsbezogene Lebensqualität mit dem Short-Form 36 (SF-36) und die gelenkbezogenen Einschränkungen mit dem Western Ontario and McMaster Universities Osteoarthritis Index (WOMAC) evaluiert. Der primäre und die sekundären Endpunkte wurden anhand von baseline-adjustierten Kovarianzanalysen im intention-to-treat-Ansatz ausgewertet. Zusätzlich wurde die Teilnahme an Nachsorgeangeboten und die Adhärenz der Interventionsgruppe an der Tele-Nachsorge erfasst und evaluiert. Ergebnisse Zum Ende der Intervention wiesen beide Gruppen einen statistisch signifikanten Anstieg ihrer 6MWT Strecke auf (p < 0,001). Zu diesem Zeitpunkt legten die Teilnehmer der IG im Mittel 530,8 ± 79,7 m, die der KG 514,2 ± 71,2 m zurück. Dabei betrug die Differenz der Verbesserung der Gehstrecke in der IG 88,3 ± 57,7 m und in der KG 79,6 ± 48,7 m. Damit zeigt der primäre Endpunkt keine signifikanten Gruppenunterschiede (p = 0,951). Bezüglich der beruflichen Wiedereingliederung konnte jedoch eine signifikant höhere Rate in der IG (64,6 % versus 46,2 %; p = 0,014) festgestellt werden. Für die sekundären Endpunkte der funktionellen Mobilität, der Lebensqualität und der gelenkbezogenen Beschwerden belegen die Ergebnisse eine Gleichwertigkeit beider Gruppen zum Ende der Intervention. Schlussfolgerung Die telemedizinisch assistierte Bewegungstherapie für Knie- oder Hüft-TEP Patienten ist der herkömmlichen Versorgung zur Nachsorge hinsichtlich der erzielten Verbesserungen der funktionellen Mobilität, der gesundheitsbezogenen Lebensqualität und der gelenkbezogenen Beschwerden gleichwertig. In dieser Patientenpopulation ließen sich klinisch relevante Verbesserungen unabhängig von der Form der Bewegungstherapie erzielen. Im Hinblick auf die berufliche Wiedereingliederung zeigte sich eine signifikant höhere Rate in der Interventionsgruppe. Die telemedizinisch assistierte Bewegungstherapie scheint eine geeignete Versorgungsform der Nachsorge zu sein, die orts- und zeitunabhängig durchgeführt werden kann und somit den Bedürfnissen berufstätiger Patienten entgegenkommt und in den Alltag der Patienten integriert werden kann. Die Tele-Nachsorge sollte daher als optionale und komplementäre Form der postrehabilitativen Nachsorge angeboten werden. Auch im Hinblick auf den zunehmenden Fachkräftemangel im Bereich der Physiotherapie und bestehende Versorgungslücken in strukturschwachen Gebieten kann der Einsatz der Tele-Nachsorge innovative und bedarfsgerechte Lösungsansätze bieten. N2 - Background Total hip or knee replacement is one of the most frequent surgical procedures. Physical rehabilitation following total hip or knee replacement and the subsequent rehabilitation is an essential part of the therapy to improve functional outcomes and quality of life. After discharge of inpatient rehabilitation, a subsequent post-rehabilitation exercise therapy is needed to maintain functional mobility. Telerehabilitation may be a potential innovative treatment approach. The study aimed to investigate the superiority of an interactive telerehabilitation intervention for patients after total hip or knee replacement in comparison to usual care regarding physical performance, functional mobility, quality of life and joint-related impairment. Methods This is an open, randomized, controlled, multicenter study with two prospective arms. 111 eligible and consenting participants with total knee or hip replacement were recruited at admission to subsequent inpatient rehabilitation. After comprehensive three-week inpatient rehabilitation, the intervention group performed a three-month interactive home-based exercise training with a telerehabilitation system. For this purpose, a physiotherapist created an individual training plan composed of 38 different strength and balance exercises, which were implemented in the system. Data about quality and frequency of training were transmitted to the physiotherapist for further adjustment. Communication between patient and physiotherapist was possible using the system. The control group received voluntary usual aftercare programs. Baseline assessments were investigated after discharge from rehabilitation, final assessments three months later. The primary outcome was the difference in improvement between intervention and control group in 6-minute walk distance after three months. Secondary outcomes included differences in Stair Ascend Test, Five-Times-Sit-to-Stand Test, Timed Up and Go Test to assess mobility and the SF 36 as well as the WOMAC Index to assess quality of life and joint-related impairment. Furthermore, the adherence for aftercare programs and the interactive home-based exercise program were evaluated. Results At the end of intervention both groups revealed a statistically significant increase in their 6-minute walk distance (p < 0,001). At that time participants of the intervention group had an absolute 6-minute walk distance of 530,8 ± 79,7 m and the control group had a distance of 514,2 ± 71,2 m. The difference in improvement for the primary outcome for the intervention group was 88,3 ± 57,7 m and 79,6 ± 48,7 for the control group. No statistically significant difference was demonstrated (p = 0,951). However, regarding the return to work rate, there was a significantly higher rate in the intervention group (64,6 % versus 46,2 %; p = 0,05). The secondary endpoints for functional mobility, quality of life and joint-related complaints demonstrated no significant difference between groups at the end of intervention. Adherence was above 75 % for the first seven weeks. Discussion The results show that the interactive home-based exercise training is equal to usual care regarding the functional mobility, the quality of life and joint-related impairments. In this population clinically, significant improvements were shown independently from the form of exercise therapy. Whereas the return to work rate turned out to be significantly increased for the intervention group. The interactive home-based exercise training seems to be an appropriate form of healthcare provision that does not depend on specific locations or appointment allocations and seems to be suitable and feasible for employed persons. Therefore, this interactive home-based aftercare program should be offered as an optional health care service that can consider patients’ individual needs. Regarding an increasing shortage in physiotherapists and an additional supply gap in rural areas, the implementation of telerehabilitation may offer an innovative and needs-oriented approach. KW - Telerehabilitation KW - telerehabilitation KW - total knee replacement KW - total hip replacement KW - Reha-Nachsorge KW - Totalendoprothese Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430556 ER - TY - THES A1 - Solopow, Sergej T1 - Wavelength dependent demagnetization dynamics in Co2MnGa Heusler-alloy T1 - Wellenlängeabhängige Entmagnetisierungsdynamik in Co2MnGa Heusler-Legierung N2 - In dieser Arbeit haben wir ultraschnelle Entmagnetisierung an einer Heusler-Legierung untersucht. Es handelt sich um ein Halbmetall, das sich in einer ferromagnetischen Phase befindet. Die Besonderheit dieses Materials besteht im Aufbau einer Bandstruktur. Diese bildet Zustandsdichten, in der die Majoritätselektronen eine metallische Bänderbildung aufweisen und die Minoritätselektronen eine Bandlücke in der Nähe des Fermi-Niveaus aufweisen, das dem Aufbau eines Halbleiters entspricht. Mit Hilfe der Pump-Probe-Experimente haben wir zeitaufgelöste Messungen durchgeführt. Für das Pumpen wurden ultrakurze Laserpulse mit einer Pulsdauer von 100 fs benutzt. Wir haben dabei zwei verschiedene Wellenlängen mit 400 nm und 1240 nm benutzt, um den Effekt der Primäranregung und der Bandlücke in den Minoritätszuständen zu untersuchen. Dabei wurde zum ersten Mal OPA (Optical Parametrical Amplifier) für die Erzeugung der langwelligen Pulse an der FEMTOSPEX-Beamline getestet und erfolgreich bei den Experimenten verwendet. Wir haben Wellenlängen bedingte Unterschiede in der Entmagnetisierungszeit gemessen. Mit der Erhöhung der Photonenenergie ist der Prozess der Entmagnetisierung deutlich schneller als bei einer niedrigeren Photonenenergie. Wir verknüpften diese Ergebnisse mit der Existenz der Energielücke für Minoritätselektronen. Mit Hilfe lokaler Elliot-Yafet-Streuprozesse können die beobachteten Zeiten gut erklärt werden. Wir haben in dieser Arbeit auch eine neue Probe-Methode für die Magnetisierung angewandt und somit experimentell deren Effektivität, nämlich XMCD in Refletiongeometry, bestätigen können. Statische Experimente liefern somit deutliche Indizien dafür, dass eine magnetische von einer rein elektronischen Antwort des Systems getrennt werden kann. Unter der Voraussetzung, dass die Photonenenergie der Röntgenstrahlung auf die L3 Kante des entsprechenden Elements eingestellt, ein geeigneter Einfallswinkel gewählt und die zirkulare Polarisation fixiert wird, ist es möglich, diese Methode zur Analyse magnetischer und elektronischer Respons anzuwenden. N2 - In this work we investigated ultrafast demagnetization in a Heusler-alloy. This material belongs to the halfmetal and exists in a ferromagnetic phase. A special feature of investigated alloy is a structure of electronic bands. The last leads to the specific density of the states. Majority electrons form a metallic like structure while minority electrons form a gap near the Fermi-level, like in semiconductor. This particularity offers a good possibility to use this material as model-like structure and to make some proof of principles concerning demagnetization. Using pump-probe experiments we carried out time-resolved measurements to figure out the times of demagnetization. For the pumping we used ultrashort laser pulses with duration around 100 fs. Simultaneously we used two excitation regimes with two different wavelengths namely 400 nm and 1240 nm. Decreasing the energy of photons to the gap size of the minority electrons we explored the effect of the gap on the demagnetization dynamics. During this work we used for the first time OPA (Optical Parametrical Amplifier) for the generation of the laser irradiation in a long-wave regime. We tested it on the FETOSPEX-beamline in BASSYII electron storage ring. With this new technique we measured wavelength dependent demagnetization dynamics. We estimated that the demagnetization time is in a correlation with photon energy of the excitation pulse. Higher photon energy leads to the faster demagnetization in our material. We associate this result with the existence of the energy-gap for minority electrons and explained it with Elliot-Yaffet-scattering events. Additionally we applied new probe-method for magnetization state in this work and verified their effectivity. It is about the well-known XMCD (X-ray magnetic circular dichroism) which we adopted for the measurements in reflection geometry. Static experiments confirmed that the pure electronic dynamics can be separated from the magnetic one. We used photon energy fixed on the L3 of the corresponding elements with circular polarization. Appropriate incidence angel was estimated from static measurements. Using this probe method in dynamic measurements we explored electronic and magnetic dynamics in this alloy. KW - magnetizationdynamic KW - XMCD KW - Heusler-alloy KW - Magnetisierungsdynamik KW - XMCD KW - Heusler-Legierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427860 ER - TY - THES A1 - Schulte-Osseili, Christine T1 - Vom Monomer zum Glykopolymer T1 - From monomer to glycopolymer BT - Anwendung als Biofunktionalitäten auf Oberflächen und als Transportmoleküle BT - application as biofunctionalized surfaces and transport molecules N2 - Glykopolymere sind synthetische und natürlich vorkommende Polymere, die eine Glykaneinheit in der Seitenkette des Polymers tragen. Glykane sind durch die Glykan-Protein-Wechselwirkung verantwortlich für viele biologische Prozesse. Die Beteiligung der Glykanen in diesen biologischen Prozessen ermöglicht das Imitieren und Analysieren der Wechselwirkungen durch geeignete Modellverbindungen, z.B. der Glykopolymere. Dieses System der Glykan-Protein-Wechselwirkung soll durch die Glykopolymere untersucht und studiert werden, um die spezifische und selektive Bindung der Proteine an die Glykopolymere nachzuweisen. Die Proteine, die in der Lage sind, Kohlenhydratstrukturen selektiv zu binden, werden Lektine genannt. In dieser Dissertationsarbeit wurden verschiedene Glykopolymere synthetisiert. Dabei sollte auf einen effizienten und kostengünstigen Syntheseweg geachtet werden. Verschiedene Glykopolymere wurden durch funktionalisierte Monomere mit verschiedenen Zuckern, wie z.B. Mannose, Laktose, Galaktose oder N-Acetyl-Glukosamin als funktionelle Gruppe, hergestellt. Aus diesen funktionalisierten Glykomonomeren wurden über ATRP und RAFT-Polymerisation Glykopolymere synthetisiert. Die erhaltenen Glykopolymere wurden in Diblockcopolymeren als hydrophiler Block angewendet und die Selbstassemblierung in wässriger Lösung untersucht. Die Polymere formten in wässriger Lösung Mizellen, bei denen der Zuckerblock an der Oberfläche der Mizellen sitzt. Die Mizellen wurden mit einem hydrophoben Fluoreszenzfarbstoff beladen, wodurch die CMC der Mizellenbildung bestimmt werden konnte. Außerdem wurden die Glykopolymere als Oberflächenbeschichtung über „Grafting from“ mit SI-ATRP oder über „Grafting to“ auf verschiedene Oberflächen gebunden. Durch die glykopolymerbschichteten Oberflächen konnte die Glykan Protein Wechselwirkung über spektroskopische Messmethoden, wie SPR- und Mikroring Resonatoren untersucht werden. Hierbei wurde die spezifische und selektive Bindung der Lektine an die Glykopolymere nachgewiesen und die Bindungsstärke untersucht. Die synthetisierten Glykopolymere könnten durch Austausch der Glykaneinheit für andere Lektine adressierbar werden und damit ein weites Feld an anderen Proteinen erschließen. Die bioverträglichen Glykopolymere wären alternativen für den Einsatz in biologischen Prozessen als Transporter von Medikamenten oder Farbstoffe in den Körper. Außerdem könnten die funktionalisierten Oberflächen in der Diagnostik zum Erkennen von Lektinen eingesetzt werden. Die Glykane, die keine selektive und spezifische Bindung zu Proteinen eingehen, könnten als antiadsorptive Oberflächenbeschichtung z.B. in der Zellbiologie eingesetzt werden. N2 - Glycopolymers are synthetic and naturally occurring polymers that carry a gylcan unit in the side chain of the polymer. Glycans are responsible for many biological processes due to the glycn-protein interaction. The involvement of glcans in these biological processes enables the imitation and analysis of interactions by suitable model coumponds, e.g. glycopolymers. This system of glycan-protein interaction will be investigated and studied by glycopolymers in order to demonstrate the specific and selective binding of proteins to glycopolymers. The proteins that are able to selectively bind carbohydrate structures are called lectins. In this dissertation different glycopolymers were synthesized. Care should be taken to ensure an effficient and cost-effective synthesis route. Different glycopolymers were produced by functionalized monomers with different sugars, such as mannose, lactose, galactose or N-acetyl-glucosamine as functional group. From these functionalized glycomonomers, glycopolymers were synthesized via ATRP and RAFT polymerization. The glycopolymers obtained were used as hydrophilic blocks in diblock copolymers and self-assembly in aqueous solution was investigated. In aqueoussolution, the polymers formed micelles in which the sugar block sits on the surface of the micelles. The micelles were loaded with a hydrophobic fluorescent dxe, which made it possible to determine the CMC of micelle formation. In additiom, the glycopolymers were bound to various surfaces as surface coatings via “grafting from” with SI-ATRP or via “grafting to”. Through the glycopolymer-coated surfaces, the glycan-protein interaction could be investigated by spectroscpic measurement methods such as SPR and microring resonators. The specific and selective binding of lectins to the glycopolymers was detected and the binding strength was investigated. The synthesised glycopolymers could become adressable for other lectins by exchanging the glycan unit and thus open up a broad field of other proteins. The biocompatible glycopolymers would be an alternative for use in iological processes as transporters of drugs or dyes into the body. In addtion, the functionalised surfaces could be used in diagnostics for regognition of lectins. The glycan, which do nit bind selectively and specifically to proetins, could be used as anit-adsoptive surface coatings, e.g. in cell biology. KW - Glykopolymere KW - Polymerisation KW - Oberflächenbeschichtung KW - Lektine KW - Glykan-Protein-Wechselwirkung KW - glycopolymers KW - polymerization KW - surface modification KW - lectins KW - glycan-protein interaction Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432169 ER - TY - THES A1 - Crisologo, Irene T1 - Using spaceborne radar platforms to enhance the homogeneity of weather radar calibration T1 - Homogenisierung der Kalibrierung von Niederschlagsradaren mit Hilfe satellitengestützter Radarplattformen N2 - Accurate weather observations are the keystone to many quantitative applications, such as precipitation monitoring and nowcasting, hydrological modelling and forecasting, climate studies, as well as understanding precipitation-driven natural hazards (i.e. floods, landslides, debris flow). Weather radars have been an increasingly popular tool since the 1940s to provide high spatial and temporal resolution precipitation data at the mesoscale, bridging the gap between synoptic and point scale observations. Yet, many institutions still struggle to tap the potential of the large archives of reflectivity, as there is still much to understand about factors that contribute to measurement errors, one of which is calibration. Calibration represents a substantial source of uncertainty in quantitative precipitation estimation (QPE). A miscalibration of a few dBZ can easily deteriorate the accuracy of precipitation estimates by an order of magnitude. Instances where rain cells carrying torrential rains are misidentified by the radar as moderate rain could mean the difference between a timely warning and a devastating flood. Since 2012, the Philippine Atmospheric, Geophysical, and Astronomical Services Administration (PAGASA) has been expanding the country’s ground radar network. We had a first look into the dataset from one of the longest running radars (the Subic radar) after devastating week-long torrential rains and thunderstorms in August 2012 caused by the annual southwestmonsoon and enhanced by the north-passing Typhoon Haikui. The analysis of the rainfall spatial distribution revealed the added value of radar-based QPE in comparison to interpolated rain gauge observations. However, when compared with local gauge measurements, severe miscalibration of the Subic radar was found. As a consequence, the radar-based QPE would have underestimated the rainfall amount by up to 60% if they had not been adjusted by rain gauge observations—a technique that is not only affected by other uncertainties, but which is also not feasible in other regions of the country with very sparse rain gauge coverage. Relative calibration techniques, or the assessment of bias from the reflectivity of two radars, has been steadily gaining popularity. Previous studies have demonstrated that reflectivity observations from the Tropical Rainfall Measuring Mission (TRMM) and its successor, the Global Precipitation Measurement (GPM), are accurate enough to serve as a calibration reference for ground radars over low-to-mid-latitudes (± 35 deg for TRMM; ± 65 deg for GPM). Comparing spaceborne radars (SR) and ground radars (GR) requires cautious consideration of differences in measurement geometry and instrument specifications, as well as temporal coincidence. For this purpose, we implement a 3-D volume matching method developed by Schwaller and Morris (2011) and extended by Warren et al. (2018) to 5 years worth of observations from the Subic radar. In this method, only the volumetric intersections of the SR and GR beams are considered. Calibration bias affects reflectivity observations homogeneously across the entire radar domain. Yet, other sources of systematic measurement errors are highly heterogeneous in space, and can either enhance or balance the bias introduced by miscalibration. In order to account for such heterogeneous errors, and thus isolate the calibration bias, we assign a quality index to each matching SR–GR volume, and thus compute the GR calibration bias as a qualityweighted average of reflectivity differences in any sample of matching SR–GR volumes. We exemplify the idea of quality-weighted averaging by using beam blockage fraction (BBF) as a quality variable. Quality-weighted averaging is able to increase the consistency of SR and GR observations by decreasing the standard deviation of the SR–GR differences, and thus increasing the precision of the bias estimates. To extend this framework further, the SR–GR quality-weighted bias estimation is applied to the neighboring Tagaytay radar, but this time focusing on path-integrated attenuation (PIA) as the source of uncertainty. Tagaytay is a C-band radar operating at a lower wavelength and is therefore more affected by attenuation. Applying the same method used for the Subic radar, a time series of calibration bias is also established for the Tagaytay radar. Tagaytay radar sits at a higher altitude than the Subic radar and is surrounded by a gentler terrain, so beam blockage is negligible, especially in the overlapping region. Conversely, Subic radar is largely affected by beam blockage in the overlapping region, but being an SBand radar, attenuation is considered negligible. This coincidentally independent uncertainty contributions of each radar in the region of overlap provides an ideal environment to experiment with the different scenarios of quality filtering when comparing reflectivities from the two ground radars. The standard deviation of the GR–GR differences already decreases if we consider either BBF or PIA to compute the quality index and thus the weights. However, combining them multiplicatively resulted in the largest decrease in standard deviation, suggesting that taking both factors into account increases the consistency between the matched samples. The overlap between the two radars and the instances of the SR passing over the two radars at the same time allows for verification of the SR–GR quality-weighted bias estimation method. In this regard, the consistency between the two ground radars is analyzed before and after bias correction is applied. For cases when all three radars are coincident during a significant rainfall event, the correction of GR reflectivities with calibration bias estimates from SR overpasses dramatically improves the consistency between the two ground radars which have shown incoherent observations before correction. We also show that for cases where adequate SR coverage is unavailable, interpolating the calibration biases using a moving average can be used to correct the GR observations for any point in time to some extent. By using the interpolated biases to correct GR observations, we demonstrate that bias correction reduces the absolute value of the mean difference in most cases, and therefore improves the consistency between the two ground radars. This thesis demonstrates that in general, taking into account systematic sources of uncertainty that are heterogeneous in space (e.g. BBF) and time (e.g. PIA) allows for a more consistent estimation of calibration bias, a homogeneous quantity. The bias still exhibits an unexpected variability in time, which hints that there are still other sources of errors that remain unexplored. Nevertheless, the increase in consistency between SR and GR as well as between the two ground radars, suggests that considering BBF and PIA in a weighted-averaging approach is a step in the right direction. Despite the ample room for improvement, the approach that combines volume matching between radars (either SR–GR or GR–GR) and quality-weighted comparison is readily available for application or further scrutiny. As a step towards reproducibility and transparency in atmospheric science, the 3D matching procedure and the analysis workflows as well as sample data are made available in public repositories. Open-source software such as Python and wradlib are used for all radar data processing in this thesis. This approach towards open science provides both research institutions and weather services with a valuable tool that can be applied to radar calibration, from monitoring to a posteriori correction of archived data. N2 - Die zuverlässige Messung des Niederschlags ist Grundlage für eine Vielzahl quantitativer Anwendungen. Bei der Analyse und Vorhersage von Naturgefahren wie Sturzfluten oder Hangrutschungen ist dabei die räumliche Trennschärfe der Niederschlagsmessung besonders wichtig, da hier oft kleinräumige Starkniederschläge auslösend sind. Seit dem 2.Weltkrieg gewinnen Niederschlagsradare an Bedeutung für die flächenhafte Erfassung des Niederschlags in hoher raum-zeitlicher Aulösung. Und seit Ende des 20. Jahrhunderts investieren Wetterdienste zunehmend in die Archivierung dieser Beobachtungen. Die quantitative Auswertung solcher Archive gestaltet sich jedoch aufgrund unterschiedlicher Fehlerquellen als schwierig. Eine Fehlerquelle ist die Kalibrierung der Radarsysteme, die entlang der sog. "receiver chain" eine Beziehung zwischen der primären Beobachtungsvariable (der zurückgestreuten Strahlungsleistung) und der Zielvariable (des Radarreflektivitätsfaktors, kurz Reflektivität) herstellt. Die Reflektivität wiederum steht über mehrere Größenordnungen hinweg in Beziehung zur Niederschlagsintensität, so dass bereits kleine relative Fehler in der Kalibrierung große Fehler in der quantitativen Niederschlagsschätzung zur Folge haben können. Doch wie kann eine mangelhafte Kalibrierung nachträglich korrigiert werden? Diese Arbeit beantwortet diese Frage am Beispiel des kürzlich installierten Radarnetzwerks der Philippinen. In einer initialen Fallstudie nutzen wir das S-Band-Radar nahe Subic, welches die Metropolregion Manila abdeckt, zur Analyse eines außergewöhnlich ergiebigen Niederschlagsereignisses im Jahr 2012: Es zeigt sich, dass die radargestützte Niederschlagsschätzung um rund 60% unter den Messungen von Niederschlagsschreibern liegt. Kann die Hypothese einer mangelhaften Kalibrierung bestätigt werden, indem die Beobachtungen des Subic-Radars mit den Messungen exzellent kalibrierter, satellitengestützter Radarsysteme verglichen werden? Kann die satellitengestützte Referenz ggf. sogar für eine nachträgliche Kalibrierung genutzt werden? Funktioniert eine solche Methode auch für das benachbarte C-Band-Radar nahe Tagaytay? Können wir die Zuverlässigkeit einer nachträglichen Kalibrierung erhöhen, indem wir andere systematische Fehlerquellen in den Radarmessungen identifizieren? Zur Beantwortung dieser Fragen vergleicht diese Arbeit die Beobachtungen bodengestützter Niederschlagsradare (GR) mit satellitengestützten Niederschlagsradaren (SR) der Tropical Rainfall Measuring Mission (TRMM) und ihrem Nachfolger, der Global Precipitation Measurement (GPM) Mission. Dazu wird eine Methode weiterentwickelt, welche den dreidimensionalen Überlappungsbereich der Samplingvolumina des jeweiligen Instruments|GR und SR|berücksichtigt. Desweiteren wird jedem dieser Überlappungsbereiche ein Wert für die Datenqualität zugewiesen, basierend auf zwei Unsicherheitsquellen: dem Anteil der Abschattung (engl. beam blockage fraction, BBF) und der pfadintegrierten Dämpfung (engl. path-integrated attenuation, PIA). Die BBF zeigt, welcher Anteil des Radarstrahls von der Geländeoberfläche blockiert wird (je höher, desto niedriger die Qualität). PIA quantifiziert den Energieverlust des Signals, wenn es intensiven Niederschlag passiert (je höher, desto niedriger die Qualität). Entsprechend wird der Bias (also der Kalibrierungsfaktor) als das qualitätsgewichtete Mittel der Differenzen zwischen den GR- und SR-Reflektivitäten (ausgedrückt auf der logarithmischen Dezibelskala) berechnet. Diese Arbeit zeigt, dass beide Radare, Subic und Tagaytay, gerade in den frühen Jahren stark von mangelhafter Kalibrierung betroffen waren. Der Vergleich mit satellitengestützten Messungen erlaubt es uns, diesen Fehler nachträglich zu schätzen und zu korrigieren. Die Zuverlässigkeit dieser Schätzung wird durch die Berücksichtigung anderer systematischer Fehler im Rahmen der Qualitätsgewichtung deutlich erhöht. Dies konnte auch dadurch bestätigt werden, dass nach Korrektur der Kalibierung die Signale im Überlappungsbereich der beiden bodengestützten Radare deutlich konsistenter wurden. Eine Interpolation des Fehlers in der Zeit war erfolgreich, so dass die Radarbeobachtungen auch für solche Tage korrigiert werden können, an denen keine satellitengestützten Beobachtungen verfügbar sind. KW - Niederschlagsradar KW - Kalibrierung KW - Fernerkundung KW - TRMM KW - GPM KW - Philippinen KW - weather radar KW - calibration KW - remote sensing KW - TRMM KW - GPM KW - The Philippines Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-445704 ER - TY - THES A1 - Numberger, Daniela T1 - Urban wastewater and lakes as habitats for bacteria and potential vectors for pathogens T1 - Urbane Abwässer und Seen als Habitat für Bakterien und potentielle Vektoren für Krankheitserreger N2 - Wasser ist lebensnotwendig und somit eine essentielle Ressource. Jedoch sind unsere Süßwasser-Ressourcen begrenzt und ihre Erhaltung daher besonders wichtig. Verschmutzungen mit Chemikalien und Krankheitserregern, die mit einer wachsenden Bevölkerung und Urbanisierung einhergehen, verschlechtern die Qualität unseres Süßwassers. Außerdem kann Wasser als Übertragungsvektor für Krankheitserreger dienen und daher wasserbürtige Krankheiten verursachen. Der Leibniz-Forschungsverbund INFECTIONS‘21 untersuchte innerhalb der interdisziplinären Forschungsgruppe III - „Wasser", Gewässer als zentralen Mittelpunkt für Krankheiterreger. Dabei konzentrierte man sich auf Clostridioides difficile sowie aviäre Influenza A-Viren, von denen angenommen wird, dass sie in die Gewässer ausgeschieden werden. Ein weiteres Ziel bestand darin, die bakterielle Gemeinschaften eines Klärwerkes der deutschen Hauptstadt Berlin zu charakterisieren, um anschließend eine Bewertung des potentiellen Gesundheitsrisikos geben zu können. Bakterielle Gemeinschaften des Roh- und Klarwassers aus dem Klärwerk unterschieden sich signifikant voneinander. Der Anteil an Darm-/Fäkalbakterien war relativ niedrig und potentielle Darmpathogene wurden größtenteils aus dem Rohwasser entfernt. Ein potentielles Gesundheitsrisiko konnte allerdings von potentiell pathogenen Legionellen wie L. lytica festgestellt werden, deren relative Abundanz im Klarwasser höher war als im Rohwasser. Es wurden außerdem drei C. difficile-Isolate aus den Klärwerk-Rohwasser und einem städtischen Badesee in Berlin (Weisser See) gewonnen und sequenziert. Die beiden Isolate aus dem Klärwerk tragen keine Toxin-Gene, wohingegen das Isolat aus dem See Toxin-Gene besitzt. Alle drei Isolate sind sehr nah mit humanen Stämmen verwandt. Dies deutet auf ein potentielles, wenn auch sporadisches Gesundheitsrisiko hin. (Aviäre) Influenza A-Viren wurden in 38.8% der untersuchten Sedimentproben mittels PCR detektiert, aber die Virusisolierung schlug fehl. Ein Experiment mit beimpften Wasser- und Sedimentproben zeigte, dass für die Isolierung aus Sedimentproben eine relativ hohe Viruskonzentration nötig ist. In Wasserproben ist jedoch ein niedriger Titer an Influenza A-Viren ausreichend, um eine Infektion auszulösen. Es konnte zudem auch festgestellt werden, dass sich „Madin-Darby Canine Kidney (MDCK)―-Zellkulturen im Gegensatz zu embryonierten Hühnereiern besser eignen, um Influenza A-Viren aus Sediment zu isolieren. Zusammenfassend lässt sich sagen, dass diese Arbeit mögliche Gesundheitsrisiken aufgedeckt hat, wie etwa durch Legionellen im untersuchten Berliner Klärwerk, deren relative Abundanz in geklärtem Abwasser höher ist als im Rohwasser. Desweiteren wird indiziert, dass Abwasser und Gewässer als Reservoir und Vektor für pathogene Organismen dienen können, selbst für nicht-typische Wasser-Pathogene wie C. difficile. N2 - Water is essential to life and thus, an essential resource. However, freshwater resources are limited and their maintenance is crucial. Pollution with chemicals and pathogens through urbanization and a growing population impair the quality of freshwater. Furthermore, water can serve as vector for the transmission of pathogens resulting in water-borne illness. The Interdisciplinary Research Group III – "Water" of the Leibniz alliance project INFECTIONS‘21 investigated water as a hub for pathogens focusing on Clostridioides difficile and avian influenza A viruses that may be shed into the water. Another aim of this study was to characterize the bacterial communities in a wastewater treatment plant (WWTP) of the capital Berlin, Germany to further assess potential health risks associated with wastewater management practices. Bacterial communities of WWTP inflow and effluent differed significantly. The proportion of fecal/enteric bacteria was relatively low and OTUs related to potential enteric pathogens were largely removed from inflow to effluent. However, a health risk might exist as an increased relative abundance of potential pathogenic Legionella spp. such as L. lytica was observed. Three Clostridioides difficile isolates from wastewater inflow and an urban bathing lake in Berlin (‗Weisser See‘) were obtained and sequenced. The two isolates from the wastewater did not carry toxin genes, whereas the isolate from the lake was positive for the toxin genes. All three isolates were closely related to human strains. This indicates a potential, but rather sporadic health risk. Avian influenza A viruses were detected in 38.8% of sediment samples by PCR, but virus isolation failed. An experiment with inoculated freshwater and sediment samples showed that virus isolation from sediment requires relatively high virus concentrations and worked much better in Madin-Darby Canine Kidney (MDCK) cell cultures than in embryonated chicken eggs, but low titre of influenza contamination in freshwater samples was sufficient to recover virus. In conclusion, this work revealed potential health risks coming from bacterial groups with pathogenic potential such as Legionella spp. whose relative abundance is higher in the released effluent than in the inflow of the investigated WWTP. It further indicates that water bodies such as wastewater and lake sediments can serve as reservoir and vector, even for non-typical water-borne or water-transmitted pathogens such as C. difficile. KW - water KW - Wasser KW - bacteria KW - Bakterien KW - influenza A viruses KW - Influenza A Viren KW - pathogens KW - Krankheitserreger Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437095 ER - TY - THES A1 - Bauch, Marcel T1 - Untersuchungen an neuartigen sauerstoffsubstituierten Donoren und Akzeptoren für Singulettsauerstoff T1 - Investigations of novel oxygen substituted donors and acceptors of singlet oxygen N2 - Im Verlauf dieser Arbeit wurden Aromaten wie Naphthaline und Anthracene mit Singulettsauerstoff, einer reaktiven Form des gewöhnlichen Sauerstoffs, zu sogenannten Endoperoxiden umgesetzt. Die hier eingesetzten Systeme wurden mit funktionellen Gruppen modifiziert, die über eine Sauerstoffbrücke mit dem Aromaten verknüpft sind. Die daraus entstandenen Endoperoxide sind meist besonders labil und konnten in dieser Arbeit isoliert und umfassend untersucht werden. Hierbei wurde zum einen das Reaktionsverhalten untersucht. Es konnte gezeigt werden, dass die Aromaten in Abhängigkeit ihrer funktionellen Gruppen unterschiedlich schnell mit Singulettsauerstoff reagieren. Die so ermittelten Reaktivitäten wurden zusätzlich durch theoretische Berechnungen gestützt. Die resultierenden Endoperoxide wurden unter verschiedenen Bedingungen wie erhöhter Temperatur oder einem sauren bzw. basischen Milieu auf ihre Stabilität hin untersucht. Dabei konnte gezeigt werden, dass die auf Naphthalinen basierenden Endoperoxiden den gebundenen Singulettsauerstoff in guten Ausbeuten oft schon bei sehr niedrigen Temperaturen (−40 bis 0 °C) freisetzen. Diese Verbindungen können daher als milde Quellen dieser reaktiven Sauerstoffspezies eingesetzt werden. Weiterhin konnten bei den Anthracenendoperoxiden Zerfallsmechanismen aufgeklärt und andere reaktive Sauerstoffspezies wie Wasserstoffperoxid oder Persäuren nachgewiesen werden. Zu den Modifikationen der Aromaten gehören auch Glucosereste. Dadurch könnten sich die hier hergestellten Endoperoxide als vielversprechende Verbindungen in der Krebstherapie herausstellen, da Krebszellen deutlich stärker als gesunde Zellen kohlenhydratreiche Verbindungen für ihren Stoffwechsel benötigen. Bei der Spaltung von Endoperoxiden mit Glucosesubstituenten werden ebenfalls reaktive Sauerstoffspezies frei, die so zum Zelltod führen könnten. N2 - During the course of this work aromatic compounds like naphthalenes and anthracenes have been converted to so-called endoperoxides which are products of the reaction with a highly reactive form of oxygen: singlet oxygen. Beforehand the applied systems have been modified with several substituents that are linked via an oxygen-bridge to the aromatic core. The resulting endoperoxides are usually quite labile. In this work those labile compounds could be isolated and thoroughly investigated. At first, the manner of reaction was studied. The aromats showed different reactions rates with singlet oxygen, depending on their functional groups. Furthermore, the determined rate constants as well as certain trends could be supported and verified by theoretical calculations. The resulting endoperoxides have been examined for their stability under certain conditions like acids, bases and elevated temperature. Here it could be shown that naphthalene endoperoxides are able to release the bound endoperoxide in good yields at very low temperatures to -40 to 0 °C). Hence, those compounds can be used as very mild sources of the reactive oxygen species. Moreover, the mechanisms referring to the decomposition of the anthracene endoperoxides could be clarified while other reactive oxygen species like hydrogen peroxide or peracids could be identified. A special modification of the aromats have been glucose substituents. The resulting aryl glycosides have been converted to promising endoperoxides. Such compounds could be used in cancer therapy, because cancer cells tend to need carbohydrate-based energy in a higher degree than healthy cells. During the cleavage of those glycoside endoperoxides reactive oxygen species are released, which might lead to cell death. KW - Singulettsauerstoff KW - Endoperoxide KW - Aromaten KW - singlet oxygen KW - endoperoxides KW - aromats Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-425140 ER - TY - THES A1 - Farhy, Yael T1 - Universals and particulars in morphology T1 - Universalien und Einzelheiten in der Morphologie BT - processing and generalization in native and non-native speakers of Hebrew BT - Verarbeitung und Generalisierung bei hebräischen Muttersprachlern und Nicht-Muttersprachlern N2 - For many years, psycholinguistic evidence has been predominantly based on findings from native speakers of Indo-European languages, primarily English, thus providing a rather limited perspective into the human language system. In recent years a growing body of experimental research has been devoted to broadening this picture, testing a wide range of speakers and languages, aiming to understanding the factors that lead to variability in linguistic performance. The present dissertation investigates sources of variability within the morphological domain, examining how and to what extent morphological processes and representations are shaped by specific properties of languages and speakers. Firstly, the present work focuses on a less explored language, Hebrew, to investigate how the unique non-concatenative morphological structure of Hebrew, namely a non-linear combination of consonantal roots and vowel patterns to form lexical entries (L-M-D + CiCeC = limed ‘teach’), affects morphological processes and representations in the Hebrew lexicon. Secondly, a less investigated population was tested: late learners of a second language. We directly compare native (L1) and non-native (L2) speakers, specifically highly proficient and immersed late learners of Hebrew. Throughout all publications, we have focused on a morphological phenomenon of inflectional classes (called binyanim; singular: binyan), comparing productive (class Piel, e.g., limed ‘teach’) and unproductive (class Paal, e.g., lamad ‘learn’) verbal inflectional classes. By using this test case, two psycholinguistic aspects of morphology were examined: (i) how morphological structure affects online recognition of complex words, using masked priming (Publications I and II) and cross-modal priming (Publication III) techniques, and (ii) what type of cues are used when extending morpho-phonological patterns to novel complex forms, a process referred to as morphological generalization, using an elicited production task (Publication IV). The findings obtained in the four manuscripts, either published or under review, provide significant insights into the role of productivity in Hebrew morphological processing and generalization in L1 and L2 speakers. Firstly, the present L1 data revealed a close relationship between productivity of Hebrew verbal classes and recognition process, as revealed in both priming techniques. The consonantal root was accessed only in the productive class (Piel) but not the unproductive class (Paal). Another dissociation between the two classes was revealed in the cross-modal priming, yielding a semantic relatedness effect only for Paal but not Piel primes. These findings are taken to reflect that the Hebrew mental representations display a balance between stored undecomposable unstructured stems (Paal) and decomposed structured stems (Piel), in a similar manner to a typical dual-route architecture, showing that the Hebrew mental lexicon is less unique than previously claimed in psycholinguistic research. The results of the generalization study, however, indicate that there are still substantial differences between inflectional classes of Hebrew and other Indo-European classes, particularly in the type of information they rely on in generalization to novel forms. Hebrew binyan generalization relies more on cues of argument structure and less on phonological cues. Secondly, clear L1/L2 differences were observed in the sensitivity to abstract morphological and morpho-syntactic information during complex word recognition and generalization. While L1 Hebrew speakers were sensitive to the binyan information during recognition, expressed by the contrast in root priming, L2 speakers showed similar root priming effects for both classes, but only when the primes were presented in an infinitive form. A root priming effect was not obtained for primes in a finite form. These patterns are interpreted as evidence for a reduced sensitivity of L2 speakers to morphological information, such as information about inflectional classes, and evidence for processing costs in recognition of forms carrying complex morpho-syntactic information. Reduced reliance on structural information cues was found in production of novel verbal forms, when the L2 group displayed a weaker effect of argument structure for Piel responses, in comparison to the L1 group. Given the L2 results, we suggest that morphological and morphosyntactic information remains challenging for late bilinguals, even at high proficiency levels. N2 - Diese Dissertation untersucht, wie die morphologische Verarbeitung und Generalisierung von der Sprache und den Sprechern beeinflusst werden. Die Arbeit fokussiert sich auf die hebräische Sprache und analysiert, wie ihre ungewöhnliche, nicht-verkettende morphologische Struktur, die die Kombination von Wurzelkonsonanten und Vokalmustern umfasst (z. B. L-M-D + CiCeC = limed ‚beibringen‘), die Organisation von komplexen Repräsentationen im mentalen Lexikon beeinflusst. Dieser Aspekt wird im Hinblick auf zwei Sprechergruppen betrachtet: hebräische Muttersprachler und Nicht-Muttersprachler, die aber ein hohes Sprachniveau erworben haben. Alle vier Publikationen der Dissertation behandeln das morphologische Phänomen von Flexionsklassen in Verben (auf Hebräisch: binyanim) und vergleichen eine produktive Klasse und eine unproduktive Klasse mithilfe von empirischen Methoden wie Worterkennung mit Priming und Produktion von neuartigen Wörtern. Die Ergebnisse zeigten erstens eine enge Verbindung zwischen der Produktivität einer Klasse und Worterkennungsprozessen, wie dies auch in anderen indoeuropäischen Sprachen der Fall ist, in denen die Erkennung von produktiven morphologischen Schemata (z. B. gefragt) durch eine Dekomposition von Wortbestandteilen ausgeführt wird. Die Erkennung von unproduktiven morphologischen Schemata (z. B., geschlafen) wird jedoch nicht durch eine Dekomposition ausgeführt. In Bezug darauf ergaben die Ergebnisse der Produktionsstudie jedoch, dass es einen Unterschied zwischen dem hebräischen und indoeuropäischen Sprachen gibt, besonders in der Art der Information, auf die die Sprecher sich verlassen, wenn sie neue Wörter formulieren. In einem zweiten Ergebnis wurden bedeutende Unterschiede zwischen Muttersprachlern und Nicht-Muttersprachlern hinsichtlich Worterkennung und Produktion beobachtet. Beide Experimente wiesen eine eingeschränkte Sensitivität der Nicht-Muttersprachler für abstrakte morphologische und morpho-syntaktische Informationen nach. KW - psycholinguistics KW - morphology KW - Hebrew KW - second language KW - Psycholinguistik KW - Morphologie KW - Hebräisch KW - Nicht-Muttersprachler Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-470033 ER - TY - THES A1 - Teckentrup, Lisa T1 - Understanding predator-prey interactions T1 - Verstehen von Räuber-Beute-Interaktionen BT - the role of fear in structuring prey communities BT - die Rolle der Angst bei der Strukturierung von Beutetiergemeinschaften N2 - Predators can have numerical and behavioral effects on prey animals. While numerical effects are well explored, the impact of behavioral effects is unclear. Furthermore, behavioral effects are generally either analyzed with a focus on single individuals or with a focus on consequences for other trophic levels. Thereby, the impact of fear on the level of prey communities is overlooked, despite potential consequences for conservation and nature management. In order to improve our understanding of predator-prey interactions, an assessment of the consequences of fear in shaping prey community structures is crucial. In this thesis, I evaluated how fear alters prey space use, community structure and composition, focusing on terrestrial mammals. By integrating landscapes of fear in an existing individual-based and spatially-explicit model, I simulated community assembly of prey animals via individual home range formation. The model comprises multiple hierarchical levels from individual home range behavior to patterns of prey community structure and composition. The mechanistic approach of the model allowed for the identification of underlying mechanism driving prey community responses under fear. My results show that fear modified prey space use and community patterns. Under fear, prey animals shifted their home ranges towards safer areas of the landscape. Furthermore, fear decreased the total biomass and the diversity of the prey community and reinforced shifts in community composition towards smaller animals. These effects could be mediated by an increasing availability of refuges in the landscape. Under landscape changes, such as habitat loss and fragmentation, fear intensified negative effects on prey communities. Prey communities in risky environments were subject to a non-proportional diversity loss of up to 30% if fear was taken into account. Regarding habitat properties, I found that well-connected, large safe patches can reduce the negative consequences of habitat loss and fragmentation on prey communities. Including variation in risk perception between prey animals had consequences on prey space use. Animals with a high risk perception predominantly used safe areas of the landscape, while animals with a low risk perception preferred areas with a high food availability. On the community level, prey diversity was higher in heterogeneous landscapes of fear if individuals varied in their risk perception compared to scenarios in which all individuals had the same risk perception. Overall, my findings give a first, comprehensive assessment of the role of fear in shaping prey communities. The linkage between individual home range behavior and patterns at the community level allows for a mechanistic understanding of the underlying processes. My results underline the importance of the structure of the landscape of fear as a key driver of prey community responses, especially if the habitat is threatened by landscape changes. Furthermore, I show that individual landscapes of fear can improve our understanding of the consequences of trait variation on community structures. Regarding conservation and nature management, my results support calls for modern conservation approaches that go beyond single species and address the protection of biotic interactions. N2 - Raubtiere beeinflussen ihre Beute durch die Verringerung der Anzahl (numerische Effekte) und durch das Hervorrufen von Verhaltensänderungen (Verhaltenseffekte). Während die Auswirkungen von numerischen Effekten gut erforscht sind, sind die Auswirkungen von Verhaltenseffekten unklar. Außerdem werden bei Verhaltensänderungen selten die Auswirkungen auf die Beutetiergemeinschaft betrachtet, sondern nur die Effekte auf einzelne Individuen bzw. Arten oder auf andere Stufen der Nahrungskette. Eine Betrachtung auf der Stufe der Beutetiergemeinschaft ist jedoch sehr wichtig, da nur so ein umfassendes Verständnis von Räuber-Beute-Gemeinschaften möglich ist. In der vorliegenden Arbeit habe ich die Auswirkungen von Verhaltenseffekten auf die Raumnutzung und die Struktur von Beutetiergemeinschaften untersucht. Dazu habe ich ein räumliches Modell benutzt, welches die Bildung von Beutetiergemeinschaften über den individuellen Aufbau von Aktionsräumen der Beutetiere simuliert. Die Einrichtung von Aktionsräumen basiert dabei auf der Nahrungsverfügbarkeit in der Landschaft und auf dem vom Beutetier wahrgenommenen Risiko von einem Räuber gefressen zu werden. Die räumliche Verteilung des wahrgenommenen Risikos wird auch als Landschaft der Angst bezeichnet. Meine Ergebnisse zeigen, dass sich die Raumnutzung und die Struktur der Beutetiergemeinschaft durch Verhaltenseffekte verändern. Unter dem Einfluss von Angst haben die Beutetiere ihre Aktionsräume in sicherere Bereiche der Landschaft verlegt. Außerdem hat sich in risikoreichen Landschaften die Vielfalt der Beutetiere verringert und die Zusammensetzung zu Arten mit einem geringen Körpergewicht verschoben. Wenn die Beutetiergemeinschaft Landschaftsveränderungen wie z.B. dem Verlust oder der Zerschneidung von Lebensraum ausgesetzt war, haben sich die Auswirkungen von Verhaltenseffekten weiter verstärkt. Durch eine Erhöhung der Größe und Anzahl von Rückzugsräumen, die nicht von Räubern erreicht werden können, sowie deren Verbindung in der Landschaft, kann die Stärke dieser Effekte jedoch begrenzt werden. In einem weiteren Schritt habe ich die Auswirkungen von Unterschieden in der Risikowahrnehmung zwischen Individuen untersucht. Diese Unterschiede haben dazu geführt, dass Tiere mit einer hohen Risikowahrnehmung sich ihren Aktionsraum vornehmlich in sicheren Bereichen gesucht haben, während Tiere mit einer geringen Risikowahrnehmung Bereiche mit einer hohen Nahrungsverfügbarkeit genutzt haben. Dadurch konnten sich in Landschaften mit unterschiedlichen Risiken, vielfältigere Beutetiergemeinschaften etablieren, als in Landschaften mit gleichmäßigem Risiko. Insgesamt geben meine Ergebnisse einen guten Überblick über die Auswirkungen von Verhaltenseffekten auf Beutetiergemeinschaften. Die Verknüpfung von individuellem Verhalten mit Mustern auf der Gemeinschaftsebene erlaubt es die zugrundeliegenden Mechanismen zu identifizieren und zu verstehen. In Bezug auf den Naturschutz unterstützen meine Ergebnisse den Ruf nach modernen Schutzmaßnahmen, die über den Erhalt von einzelnen Arten hinausgehen und den Schutz von Beziehungen zwischen Arten einbeziehen. KW - ecology KW - landscape of fear KW - predator-prey KW - movement KW - biodiversity KW - Ökologie KW - Landschaft der Angst KW - Räuber-Beute KW - Bewegung KW - Biodiversität Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431624 ER - TY - THES A1 - Schäfer, Merlin T1 - Understanding and predicting global change impacts on migratory birds T1 - Verständnis und Vorhersage von Auswirkungen des globalen Wandels auf Zugvögel N2 - This is a publication-based dissertation comprising three original research stud-ies (one published, one submitted and one ready for submission; status March 2019). The dissertation introduces a generic computer model as a tool to investigate the behaviour and population dynamics of animals in cyclic environments. The model is further employed for analysing how migratory birds respond to various scenarios of altered food supply under global change. Here, ecological and evolutionary time-scales are considered, as well as the biological constraints and trade-offs the individual faces, which ultimately shape response dynamics at the population level. Further, the effect of fine-scale temporal patterns in re-source supply are studied, which is challenging to achieve experimentally. My findings predict population declines, altered behavioural timing and negative carry-over effects arising in migratory birds under global change. They thus stress the need for intensified research on how ecological mechanisms are affected by global change and for effective conservation measures for migratory birds. The open-source modelling software created for this dissertation can now be used for other taxa and related research questions. Overall, this thesis improves our mechanistic understanding of the impacts of global change on migratory birds as one prerequisite to comprehend ongoing global biodiversity loss. The research results are discussed in a broader ecological and scientific context in a concluding synthesis chapter. N2 - Dies ist eine publikationsbasierte Dissertation, welche aus drei wissenschaftlichen Originalstudien (eine publiziert, eine eingereicht und eine einreichbar; Stand März 2019) besteht. Die Dissertation stellt ein generisches Computermodell bereit, um das Verhalten und die Populationsdynamik von Tieren zu untersuchen, welche saisonale Umweltbedingungen erfahren. Mit diesem Computermodell untersuche ich in der vorliegenden Thesis, wie Zugvögel auf verschiedene Szenarien veränderter Nahrungsverfügbarkeit reagieren, welche im Rahmen des globalen Wandels wahrscheinlich sind. Dabei werden ökologische und evolutionäre Zeitskalen berücksichtigt. Außerdem werden biologisch bedingte Einschränkungen und Zielkonflikte einbezogen, welche das einzelne Individuum erfährt, die aber letztendlich auch das Geschehen auf Populationsebene bestimmen. Weiterhin studiere ich mit dem erstellten Computermodell am Beispiel des Weißstorchs, wie sich feinskalige Zeitmuster in der Nahrungsverfügbarkeit auf Zugvögel auswirken. Solche Studien würden eine enorme experimentelle Herausforderung darstellen. Die im Rahmen dieser Dissertation entstandene frei verfügbare Modellierungs-Software kann nun für andere Taxa und verwandte Forschungsfragen eingesetzt werden. Nach meinen Ergebnissen ist im Zuge des globalen Wandels mit verstärkten Populationsabnahmen bei Zugvögeln zu rechnen, sowie mit Änderungen im zeitlichen Verhaltensablauf und nichtlinearen negativen Carry-over-Effekten. Dies verdeutlicht, wie wichtig es ist, die vom globalen Wandel betroffenen ökologischen Mechanismen näher zu erforschen sowie effektive Schutzmaßnahmen für Zugvögel zu entwickeln. Allgemein erhöht die Dissertation unser mechanistisches Verständnis davon, wie sich der globale Wandel auf bedrohte Zugvogelarten auswirkt und damit die globale Biodiversität beeinflusst. Die Forschungsergebnisse werden in einem abschließenden Synthese-Kapitel zusammenführend diskutiert. KW - global change KW - migratory birds KW - life-history theory KW - movement ecology KW - bird migration KW - optimal annual routine model KW - stochastic dynamic programming KW - full annual cycle KW - population dynamics KW - carry-over effects KW - white stork KW - behavioural ecology KW - adaptation KW - mechanistic model KW - energetics KW - behavioural timing KW - reproduction KW - globaler Wandel KW - Zugvögel KW - Lebenszyklustheorie KW - Bewegungsökologie KW - Vogelzug KW - "Optimal annual routine"-Modell KW - stochastisch-dynamische Optimierung KW - vollständiger Jahreszyklus KW - Populationsdynamik KW - Carry-over-Effekte KW - Weißstorch KW - Verhaltensökologie KW - Anpassung KW - mechanistisches Modell KW - Energetik KW - Verhaltens-Timing KW - Reproduktion Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439256 ER - TY - THES A1 - Willig, Lisa T1 - Ultrafast magneto-optical studies of remagnetisation dynamics in transition metals T1 - Ultraschnelle Magneto-Optische Studien der Remagnetisierungsdynamik von Übergangsmetallen N2 - Ultrafast magnetisation dynamics have been investigated intensely for two decades. The recovery process after demagnetisation, however, was rarely studied experimentally and discussed in detail. The focus of this work lies on the investigation of the magnetisation on long timescales after laser excitation. It combines two ultrafast time resolved methods to study the relaxation of the magnetic and lattice system after excitation with a high fluence ultrashort laser pulse. The magnetic system is investigated by time resolved measurements of the magneto-optical Kerr effect. The experimental setup has been implemented in the scope of this work. The lattice dynamics were obtained with ultrafast X-ray diffraction. The combination of both techniques leads to a better understanding of the mechanisms involved in magnetisation recovery from a non-equilibrium condition. Three different groups of samples are investigated in this work: Thin Nickel layers capped with nonmagnetic materials, a continuous sample of the ordered L10 phase of Iron Platinum and a sample consisting of Iron Platinum nanoparticles embedded in a carbon matrix. The study of the remagnetisation reveals a general trend for all of the samples: The remagnetisation process can be described by two time dependences. A first exponential recovery that slows down with an increasing amount of energy absorbed in the system until an approximately linear time dependence is observed. This is followed by a second exponential recovery. In case of low fluence excitation, the first recovery is faster than the second. With increasing fluence the first recovery is slowed down and can be described as a linear function. If the pump-induced temperature increase in the sample is sufficiently high, a phase transition to a paramagnetic state is observed. In the remagnetisation process, the transition into the ferromagnetic state is characterised by a distinct transition between the linear and exponential recovery. From the combination of the transient lattice temperature Tp(t) obtained from ultrafast X-ray measurements and magnetisation M(t) gained from magneto-optical measurements we construct the transient magnetisation versus temperature relations M(Tp). If the lattice temperature remains below the Curie temperature the remagnetisation curve M(Tp) is linear and stays below the M(T) curve in equilibrium in the continuous transition metal layers. When the sample is heated above phase transition, the remagnetisation converges towards the static temperature dependence. For the granular Iron Platinum sample the M(Tp) curves for different fluences coincide, i.e. the remagnetisation follows a similar path irrespective of the initial laser-induced temperature jump. N2 - Ultraschnelle Magnetisierungsdynamiken wurden in den letzten zwei Jahrzehnten intensiv untersucht. Hingegen der Wiederherstellungsprozess der Magnetisierung nach einer ultraschnellen Demagnetisierung wird selten experimentell untersucht und im Detail diskutiert. Der Fokus dieser Arbeit liegt auf der Untersuchung der Magnetisierung auf langen Zeitskalen nach der Anregung durch einen Laserpuls. Dazu werden zwei ultraschnelle zeitaufgelöste Techniken verwendet, um die Relaxierung von dem magnetischen System und dem System des Gitters nach Anregung mit einem hochenergetischen ultrakurzen Laserpuls zu untersuchen. Das magnetische System wurde untersucht mithilfe von Messungen des zeitaufgelösten magneto-optischen Kerr Effekts. Der experimentelle Aufbau wurde im Rahmen dieser Arbeit entwickelt. Die Gitterdynamik wurde mittels ultraschneller Röntgendiffraktometrie aufgenommen. Die Kombination beider Techniken liefert ein besseres Verständnis von den Prozessen involviert in Magnetisierungsrelaxation aus einem Nicht-Gleichgewichtszustand. Drei unterschiedliche Probensysteme wurden im Rahmen dieser Arbeit untersucht: Dünne Nickel Schichten umgeben von nicht-magnetischen Schichten, eine kontinuierliche Schicht aus einer Eisen Platin Legierung und eine Probe bestehend aus Eisen Platin Nanopartikeln eingebettet in einer Kohlenstoffmatrix. Die Studie der Remagnetisierung zeigt einen generellen Trend für alle diese Systeme auf: Der Remagnetisierungsprozess kann mit zwei Zeitabhängikeiten beschrieben werden. Eine erste exponentielle Zeitabhängigkeit, die mit zunehmender Menge an absorbierter Energie verlangsamt wird bis ein lineares Verhalten beobachtet wird. Darauf folgend gibt es eine zweite exponentielle funktionale Abhängigkeit in der Zeit. Im Falle einer geringen Energieabsorption ist die erste Remagnetisierung schneller als die zweite. Mit steigender Fluenz wird die Remagnetisierung in der ersten Zeitabhängigkeit verlangsamt und kann als lineare Funktion beschrieben werden. Wenn der durch den Pump Puls induzierte Temperatursprung in der Probe ausreichend groß ist, wird ein Phasenübergang in die paramagnetische Phase beobachtet. In dem Remagnetisierungsprozess wird dieser Übergang durch einen deutlich sichtbaren Wechsel zwischen linearem und exponentiellen Verhalten sichtbar. Mithilfe der Kombination aus der von Rötngendaten gewonnener Gittertemperatur Tp(t) und der Magnetisierung M(t) erhalten wir die zeitliche Abhängigkeit der Magnetisierung von der Gittertemperatur M(Tp). Falls die Gittertemperatur unter der Curietemperatur bleibt, ist die Remagnetisierungskurve M(Tp) linear und bleibt unterhalb der statischen Gleichgewichtskurve M(T) für die kontinuierlichen Übergangsmetalle. Wenn die Probe über den Phasenübergang geheizt wird, nähert sich die Remagnetisierung der statischen Kurve an. Die transiente Remagnetisierungskurven M(Tp) der granularen Eisen Platin Probe folgen immer einem der statischen Magnetisierungskurve ähnlichen Verlauf, unabhängig von dem laser-induzierten Temperatursprung. KW - ultrafast dynamics KW - remagnetization KW - magnetization dynamics KW - transition metals KW - condensed matter KW - ultraschnelle Dynamik KW - magneto-optics KW - Magneto-Optik KW - Remagnetisierung KW - Magnetisierungsdynamik KW - Übergangsmetalle KW - kondensierte Materie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441942 ER - TY - THES A1 - Lefebvre, Marie G. T1 - Two stages of skarn formation - two tin enrichments T1 - Zwei Stufen der Skarn-Bildung - zwei Phasen der Zinnmobilisierung BT - the Hämmerlein polymetallic skarn deposit, western Erzgebirge, Germany BT - die polymetallische Skarnablagerung Hämmerlein, West Erzgebirge, Deutschland N2 - Skarn deposits are found on every continents and were formed at different times from Precambrian to Tertiary. Typically, the formation of a skarn is induced by a granitic intrusion in carbonates-rich sedimentary rocks. During contact metamorphism, fluids derived from the granite interact with the sedimentary host rocks, which results in the formation of calc-silicate minerals at the expense of carbonates. Those newly formed minerals generally develop in a metamorphic zoned aureole with garnet in the proximal and pyroxene in the distal zone. Ore elements contained in magmatic fluids are precipitated due to the change in fluid composition. The temperature decrease of the entire system, due to the cooling of magmatic fluids and the entering of meteoric water, allows retrogression of some prograde minerals. The Hämmerlein skarn deposit has a multi-stage history with a skarn formation during regional metamorphism and a retrogression of primary skarn minerals during the granitic intrusion. Tin was mobilized during both events. The 340 Ma old tin-bearing skarn minerals show that tin was present in sediments before the granite intrusion, and that the first Sn enrichment occurred during the skarn formation by regional metamorphism fluids. In a second step at ca. 320 Ma, tin-bearing fluids were produced with the intrusion of the Eibenstock granite. Tin, which has been added by the granite and remobilized from skarn calc-silicates, precipitated as cassiterite. Compared to clay or marl, the skarn is enriched in Sn, W, In, Zn, and Cu. These metals have been supplied during both regional metamorphism and granite emplacement. In addition, the several isotopic and chemical data of skarn samples show that the granite selectively added elements such as Sn, and that there was no visible granitic contribution to the sedimentary signature of the skarn The example of Hämmerlein shows that it is possible to form a tin-rich skarn without associated granite when tin has already been transported from tin-bearing sediments during regional metamorphism by aqueous metamorphic fluids. These skarns are economically not interesting if tin is only contained in the skarn minerals. Later alteration of the skarn (the heat and fluid source is not necessarily a granite), however, can lead to the formation of secondary cassiterite (SnO2), with which the skarn can become economically highly interesting. N2 - Skarn-Lagerstätten befinden sich auf allen Kontinenten und wurden zu unterschiedlichen Zeiten vom Präkambrium bis zum Tertiär gebildet. Typischerweise wird die Bildung eines Skarns durch die Intrusion eines Granits in karbonatreiche Sedimentgesteine induziert. Während der Kontaktmetamorphose reagieren die Fluide aus dem Granit mit dem sedimentären Wirtgestein, was zur Bildung von Kalksilikaten auf Kosten von Karbonaten führt. Diese neu gebildeten Minerale entwickeln sich im Allgemeinen in einer metamorph zonierten Aureole mit Granat im proximalen und Pyroxen im distalen Bereich. Erzelemente die in magmatischen Fluiden enthalten sind werden aufgrund der veränderten Fluidzusammensetzung ausgefällt. Die Temperaturabsenkung des gesamten Systems, hervorgerufen durch die Abkühlung von magmatischen Fluiden sowie durch das Eindringen meteorischen Wassers, führen zu teilweisen oder vollständigen Umwandlung prograder Minerale. Die Skarn-Lagerstätte Hämmerlein hat eine mehrstufige Geschichte mit Skarnsbildung während der regionalen Metamorphose und Retrogression der primären Skarn-Minerale während der Intrusion von Graniten. Zinn wurde während beiden Ereignissen mobilisiert. Die 340 Ma alten zinnhaltigen Skarnminerale zeigen, dass Zinn in Sedimenten bereits vor dem Graniteintrag vorhanden war, und dass die erste Sn-Anreicherung während der Bildung des Skarns durch Fluide der Regionalmetamorphose stattfand. In einem zweiten Schritt um 320 Ma wurden Zinn-haltige Fluide durch die Intrusion des Eibenstockgranits freigesetzt. Diese Fluide überprägten den Skarn. Das freisetzen und das neu zugefügte Zinn ist in Kassiterit gebunden und führten dem System zusätzliches Zinn zu, wobei Zinn aus den Skarn-Kalksilikaten remobilisiert wurde. Im Vergleich zu Tonstein oder Mergel sind die Skarn mit Sn, W, In, Zn, und Cu angereichet. Diese Metalle sind während der Regionalmetamorphose und der Granitplatznahme zu unterschiedlichen Teilen zugeführt worden. Darüber hinaus zeigen die verschiedenen isotopen und chemischen Daten der Skarn-Proben, dass der Granit selektiv einige Elemente wie Sn hinzugefügt, und dass es keinen sichtbar granitischen Beitrag zur sedimentären Signatur des Skarns gab. Das Beispiel Hämmerlein zeigt, dass es möglich ist einen zinnreichen Skarn ohne zugehörigen Granit zu bilden, wenn Zinn von zinnhaltigen Sedimenten während einer Regionalmetamorphose mit wässrigen metamorphen Fluiden transportiert worden ist. Diese Skarne sind wirtschaftlich uninterssant wenn das Zinn nur in den Skarn-Mineralen enthalten ist. Spätere Umwandlung des Skarns (die Quelle der Wärme und Fluiden ist nicht unbedingt ein Granit) kann jedoch zur Bildung von sekundärem Kassiterite (SnO2) führen, womit der Skarn plötzlich wirtschaftlich hoch interessant sein kann. KW - Hämmerlein KW - skarn KW - tin KW - ore deposit KW - geochronology KW - lithium KW - boron KW - Hämmerlein KW - Skarn KW - Zinn KW - Lagerstätte KW - Geochronologie KW - Lithium KW - Bor Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427178 ER - TY - THES A1 - Peter, Franziska T1 - Transition to synchrony in finite Kuramoto ensembles T1 - Synchronisationsübergang in endlichen Kuramoto-Ensembles N2 - Synchronisation – die Annäherung der Rhythmen gekoppelter selbst oszillierender Systeme – ist ein faszinierendes dynamisches Phänomen, das in vielen biologischen, sozialen und technischen Systemen auftritt. Die vorliegende Arbeit befasst sich mit Synchronisation in endlichen Ensembles schwach gekoppelter selbst-erhaltender Oszillatoren mit unterschiedlichen natürlichen Frequenzen. Das Standardmodell für dieses kollektive Phänomen ist das Kuramoto-Modell – unter anderem aufgrund seiner Lösbarkeit im thermodynamischen Limes unendlich vieler Oszillatoren. Ähnlich einem thermodynamischen Phasenübergang zeigt im Fall unendlich vieler Oszillatoren ein Ordnungsparameter den Übergang von Inkohärenz zu einem partiell synchronen Zustand an, in dem ein Teil der Oszillatoren mit einer gemeinsamen Frequenz rotiert. Im endlichen Fall treten Fluktuationen auf. In dieser Arbeit betrachten wir den bisher wenig beachteten Fall von bis zu wenigen hundert Oszillatoren, unter denen vergleichbar starke Fluktuationen auftreten, bei denen aber ein Vergleich zu Frequenzverteilungen im unendlichen Fall möglich ist. Zunächst definieren wir einen alternativen Ordnungsparameter zur Feststellung einer kollektiven Mode im endlichen Kuramoto-Modell. Dann prüfen wir die Abhängigkeit des Synchronisationsgrades und der mittleren Rotationsfrequenz der kollektiven Mode von Eigenschaften der natürlichen Frequenzverteilung für verschiedene Kopplungsstärken. Wir stellen dabei zunächst numerisch fest, dass der Synchronisationsgrad stark von der Form der Verteilung (gemessen durch die Kurtosis) und die Rotationsfrequenz der kollektiven Mode stark von der Asymmetrie der Verteilung (gemessen durch die Schiefe) der natürlichen Frequenzen abhängt. Beides können wir im thermodynamischen Limes analytisch verifizieren. Mit diesen Ergebnissen können wir Erkenntnisse anderer Autoren besser verstehen und verallgemeinern. Etwas abseits des roten Fadens dieser Arbeit finden wir außerdem einen analytischen Ausdruck für die Volumenkontraktion im Phasenraum. Der zweite Teil der Arbeit konzentriert sich auf den ordnenden Effekt von Fluktuationen, die durch die Endlichkeit des Systems zustande kommen. Im unendlichen Modell sind die Oszillatoren eindeutig in kohärent und inkohärent und damit in geordnet und ungeordnet getrennt. Im endlichen Fall können die auftretenden Fluktuationen zusätzliche Ordnung unter den asynchronen Oszillatoren erzeugen. Das grundlegende Prinzip, die rauschinduzierte Synchronisation, ist aus einer Reihe von Publikationen bekannt. Unter den gekoppelten Oszillatoren nähern sich die Phasen aufgrund der Fluktuationen des Ordnungsparameters an, wie wir einerseits direkt numerisch zeigen und andererseits mit einem Synchronisationsmaß aus der gerichteten Statistik zwischen Paaren passiver Oszillatoren nachweisen. Wir bestimmen die Abhängigkeit dieses Synchronisationsmaßes vom Verhältnis von paarweiser natürlicher Frequenzdifferenz zur Varianz der Fluktuationen. Dabei finden wir eine gute Übereinstimmung mit einem einfachen analytischen Modell, in welchem wir die deterministischen Fluktuationen des Ordnungsparameters durch weißes Rauschen ersetzen. N2 - Synchronization – the adjustment of rhythms among coupled self-oscillatory systems – is a fascinating dynamical phenomenon found in many biological, social, and technical systems. The present thesis deals with synchronization in finite ensembles of weakly coupled self-sustained oscillators with distributed frequencies. The standard model for the description of this collective phenomenon is the Kuramoto model – partly due to its analytical tractability in the thermodynamic limit of infinitely many oscillators. Similar to a phase transition in the thermodynamic limit, an order parameter indicates the transition from incoherence to a partially synchronized state. In the latter, a part of the oscillators rotates at a common frequency. In the finite case, fluctuations occur, originating from the quenched noise of the finite natural frequency sample. We study intermediate ensembles of a few hundred oscillators in which fluctuations are comparably strong but which also allow for a comparison to frequency distributions in the infinite limit. First, we define an alternative order parameter for the indication of a collective mode in the finite case. Then we test the dependence of the degree of synchronization and the mean rotation frequency of the collective mode on different characteristics for different coupling strengths. We find, first numerically, that the degree of synchronization depends strongly on the form (quantified by kurtosis) of the natural frequency sample and the rotation frequency of the collective mode depends on the asymmetry (quantified by skewness) of the sample. Both findings are verified in the infinite limit. With these findings, we better understand and generalize observations of other authors. A bit aside of the general line of thoughts, we find an analytical expression for the volume contraction in phase space. The second part of this thesis concentrates on an ordering effect of the finite-size fluctuations. In the infinite limit, the oscillators are separated into coherent and incoherent thus ordered and disordered oscillators. In finite ensembles, finite-size fluctuations can generate additional order among the asynchronous oscillators. The basic principle – noise-induced synchronization – is known from several recent papers. Among coupled oscillators, phases are pushed together by the order parameter fluctuations, as we on the one hand show directly and on the other hand quantify with a synchronization measure from directed statistics between pairs of passive oscillators. We determine the dependence of this synchronization measure from the ratio of pairwise natural frequency difference and variance of the order parameter fluctuations. We find a good agreement with a simple analytical model, in which we replace the deterministic fluctuations of the order parameter by white noise. KW - synchronization KW - Kuramoto model KW - finite size KW - phase transition KW - dynamical systems KW - networks KW - Synchronisation KW - Kuramoto-Modell KW - endliche Ensembles KW - Phasenübergang KW - dynamische Systeme KW - Netzwerke Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429168 ER - TY - THES A1 - Gawron, Marian T1 - Towards automated advanced vulnerability analysis N2 - The identification of vulnerabilities in IT infrastructures is a crucial problem in enhancing the security, because many incidents resulted from already known vulnerabilities, which could have been resolved. Thus, the initial identification of vulnerabilities has to be used to directly resolve the related weaknesses and mitigate attack possibilities. The nature of vulnerability information requires a collection and normalization of the information prior to any utilization, because the information is widely distributed in different sources with their unique formats. Therefore, the comprehensive vulnerability model was defined and different sources have been integrated into one database. Furthermore, different analytic approaches have been designed and implemented into the HPI-VDB, which directly benefit from the comprehensive vulnerability model and especially from the logical preconditions and postconditions. Firstly, different approaches to detect vulnerabilities in both IT systems of average users and corporate networks of large companies are presented. Therefore, the approaches mainly focus on the identification of all installed applications, since it is a fundamental step in the detection. This detection is realized differently depending on the target use-case. Thus, the experience of the user, as well as the layout and possibilities of the target infrastructure are considered. Furthermore, a passive lightweight detection approach was invented that utilizes existing information on corporate networks to identify applications. In addition, two different approaches to represent the results using attack graphs are illustrated in the comparison between traditional attack graphs and a simplistic graph version, which was integrated into the database as well. The implementation of those use-cases for vulnerability information especially considers the usability. Beside the analytic approaches, the high data quality of the vulnerability information had to be achieved and guaranteed. The different problems of receiving incomplete or unreliable information for the vulnerabilities are addressed with different correction mechanisms. The corrections can be carried out with correlation or lookup mechanisms in reliable sources or identifier dictionaries. Furthermore, a machine learning based verification procedure was presented that allows an automatic derivation of important characteristics from the textual description of the vulnerabilities. N2 - Die Erkennung von Schwachstellen ist ein schwerwiegendes Problem bei der Absicherung von modernen IT-Systemen. Mehrere Sicherheitsvorfälle hätten durch die vorherige Erkennung von Schwachstellen verhindert werden können, da in diesen Vorfällen bereits bekannte Schwachstellen ausgenutzt wurden. Der Stellenwert der Sicherheit von IT Systemen nimmt immer weiter zu, was auch mit der Aufmerksamkeit, die seit kurzem auf die Sicherheit gelegt wird, zu begründen ist. Somit nimmt auch der Stellenwert einer Schwachstellenanalyse der IT Systeme immer mehr zu, da hierdurch potenzielle Angriffe verhindert und Sicherheitslücken geschlossen werden können. Die Informationen über Sicherheitslücken liegen in verschiedenen Quellen in unterschiedlichen Formaten vor. Aus diesem Grund wird eine Normalisierungsmethode benötigt, um die verschiedenen Informationen in ein einheitliches Format zu bringen. Das damit erzeugte Datenmodell wird in der HPI-VDB gespeichert, in die auch darauf aufbauende Analyseansätze integriert wurden. Diese Analysemethoden profitieren direkt von den Eigenschaften des Datenmodells, das maschinenlesbare Vor- und Nachbedingungen enthält. Zunächst wurden verschiedene Methoden zur Erkennung von Schwachstellen in IT Systemen von durchschnittlichen Nutzern und auch in Systemen von großen Firmen entwickelt. Hierbei wird der Identifikation der installierten Programme die größte Aufmerksamkeit beigemessen, da es der grundlegende Bestandteil der Erkennung von Schwachstellen ist. Für die Ansätze wird weiterhin die Erfahrung des Nutzers und die Eigenschaften der Zielumgebung berücksichtigt. Zusätzlich wurden zwei weitere Ansätze zur Repräsentation der Ergebnisse integriert. Hierfür wurden traditionelle Angriffsgraphen mit einer vereinfachten Variante verglichen, die auch in die Datenbank integriert wurde. Des Weiteren spielt die Datenqualität eine wichtige Rolle, da die Effizienz der Analysemethoden von der Qualität der Informationen abhängt. Deshalb wurden Probleme wie Unvollständigkeit und Unzuverlässigkeit der Informationen mit verschiedenen Korrekturansätzen bewältigt. Diese Korrekturen werden mithilfe von Korrelationen und Maschinellem Lernen bewerkstelligt, wobei die automatische Ausführbarkeit eine grundlegende Anforderung darstellt. KW - IT-security KW - vulnerability KW - analysis KW - IT-Sicherheit KW - Schwachstelle KW - Analyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426352 ER - TY - THES A1 - Bieri, Pascal T1 - Topmanager im Kreuzfeuer ihrer Dilemmata T1 - Top managers in the crossfire of their dilemmas BT - Ursachen, Bewältigungsstrategien und Resultate von empfundenen Dilemmata im Habitat der Schweizer Topmanager sowie das Kontinuum derer Typen in Bezug auf Dilemmata-Arten BT - causes, coping strategies and results of perceived dilemmas in the habitat of Swiss top managers as well as the continuum of their types in relation to species of dilemmas N2 - Die vorliegende Forschungsarbeit untersucht den Umgang mit Dilemmata von Topmanagern. Dilemmata sind ein alltägliches Geschäft im Topmanagement. Die entsprechenden Akteure sind daher immer wieder mit diesen konfrontiert und mit ihnen umzugehen, gehört gewissermaßen zu ihrer Berufsbeschreibung. Hinzu kommen Dilemmata im nicht direkt geschäftlichen Bereich, wie zum Beispiel jene zwischen Familien- und Arbeitszeit. Doch stellt dieses Feld ein kaum untersuchtes Forschungsgebiet dar. Während Dilemmata in anderen Bereichen eine zunehmende Aufmerksamkeit erfuhren, wurden deren Besonderheiten im Topmanagement genauso wenig differenziert betrachtet wie zugehörige Umgangsweisen. Theorie und Praxis stellen bezüglich Dilemmata von Topmanagern vor allem einen Gegensatz dar, beziehungsweise fehlt es an einer theoretischen Fundierung der Empirie. Diesem Umstand wird mittels dieser Studie begegnet. Auf der Grundlage einer differenzierten und breiten Erfassung von Theorien zu Dilemmata, so diese auch noch nicht auf Topmanager bezogen wurden, und einer empirischen Erhebung, die im Mittelpunkt dieser Arbeit stehen, soll das Feld Dilemmata von Topmanagern der Forschung geöffnet werden. Empirische Grundlage sind vor allem narrative Interviews mit Topmanagern über ihre Dilemmata-Wahrnehmung, ausgemachte Ursachen, Umgangsweisen und Resultate. Dies erlaubt es, Topmanagertypen sowie Dilemmata-Arten, mit denen sie konfrontiert sind oder waren, analytisch herauszuarbeiten. Angesichts der Praxisrelevanz von Dilemmata von Topmanagern wird jedoch nicht nur ein theoretisches Modell zu dieser Thematik erarbeitet, es werden auch Reflexionen auf die Praxis in Form von Handlungsempfehlungen vorgenommen. Schließlich gilt es, die allgemeine Theorie zu Dilemmata, ohne konkreten Bezug zu Topmanagern, mit den theoretischen Erkenntnissen dieser Studie auf empirischer Basis zu kontrastieren. Dabei wird im Rahmen der empirischen Erfassung und Auswertung dem Ansatz der Grounded-Theory-Methodologie gefolgt. N2 - This scientific study examines the handling of dilemmas of top managers. Handling dilemmas is daily business of top managers, again and again they are confronted with various dilemmas. But handling dilemmas is not only part of the job description of top managers, they also must handle dilemmas out of their direct business, as between family and business time. But this area has not been focused on in studies so far; while dilemmas in general have been broadly studied and were in the focus of attention in different scientific areas, they and their handling have not been studied in connection with top managers. Here, theory and practice are far away from each other; it lacks a theoretical base for the empirical handling of dilemmas of top managers. This circumstance is tackled by this study, which is based on a broad and differentiated discussion of theories about dilemmas, even though they are not directly linked to top management. What follows is an empirical study as centre of this work to bring the field of dilemma of top managers into scientific focus, based on narrative interviews with top managers. With the interviews it is possible to analyze the perception of dilemmas of top managers, see causes of dilemmas, ways to handle them and their results. Building on this, types of top managers can be distinguished from each other as well as kinds of dilemmas they are confronted with respectively have been confronted with. Considering the relevance of the topic of dilemmas for the practice of top managers, in the end not only a theoretical model shall be developed based on the empirical data, but reflections towards practice shall be undertaken in form of recommended procedures. Finally, the covered general theory about dilemmas, without explicit connection to top managers, is to be contrasted with the theoretical insights based on the empiricism of this study. Behind the empirical analysis here stands a Grounded Theory Methodology approach. KW - Topmanager KW - Dilemmata KW - Dilemma KW - Topmanager Typen KW - Dilemmata Arten KW - Ursachen KW - Bewältigungsstrategien KW - Resultate KW - Kontinuum KW - top manager KW - dilemma KW - dilemmas KW - top manager types KW - dilemmas species KW - causes KW - coping strategies KW - results KW - continuum Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441062 ER - TY - THES A1 - Angwenyi, David T1 - Time-continuous state and parameter estimation with application to hyperbolic SPDEs T1 - Zeitkontinuierliche Zustands- und Parameterschätzung bei Anwendung auf hyperbolische SPDEs N2 - Data assimilation has been an active area of research in recent years, owing to its wide utility. At the core of data assimilation are filtering, prediction, and smoothing procedures. Filtering entails incorporation of measurements' information into the model to gain more insight into a given state governed by a noisy state space model. Most natural laws are governed by time-continuous nonlinear models. For the most part, the knowledge available about a model is incomplete; and hence uncertainties are approximated by means of probabilities. Time-continuous filtering, therefore, holds promise for wider usefulness, for it offers a means of combining noisy measurements with imperfect model to provide more insight on a given state. The solution to time-continuous nonlinear Gaussian filtering problem is provided for by the Kushner-Stratonovich equation. Unfortunately, the Kushner-Stratonovich equation lacks a closed-form solution. Moreover, the numerical approximations based on Taylor expansion above third order are fraught with computational complications. For this reason, numerical methods based on Monte Carlo methods have been resorted to. Chief among these methods are sequential Monte-Carlo methods (or particle filters), for they allow for online assimilation of data. Particle filters are not without challenges: they suffer from particle degeneracy, sample impoverishment, and computational costs arising from resampling. The goal of this thesis is to:— i) Review the derivation of Kushner-Stratonovich equation from first principles and its extant numerical approximation methods, ii) Study the feedback particle filters as a way of avoiding resampling in particle filters, iii) Study joint state and parameter estimation in time-continuous settings, iv) Apply the notions studied to linear hyperbolic stochastic differential equations. The interconnection between Itô integrals and stochastic partial differential equations and those of Stratonovich is introduced in anticipation of feedback particle filters. With these ideas and motivated by the variants of ensemble Kalman-Bucy filters founded on the structure of the innovation process, a feedback particle filter with randomly perturbed innovation is proposed. Moreover, feedback particle filters based on coupling of prediction and analysis measures are proposed. They register a better performance than the bootstrap particle filter at lower ensemble sizes. We study joint state and parameter estimation, both by means of extended state spaces and by use of dual filters. Feedback particle filters seem to perform well in both cases. Finally, we apply joint state and parameter estimation in the advection and wave equation, whose velocity is spatially varying. Two methods are employed: Metropolis Hastings with filter likelihood and a dual filter comprising of Kalman-Bucy filter and ensemble Kalman-Bucy filter. The former performs better than the latter. N2 - Die Datenassimilation war in den letzten Jahren aufgrund ihres breiten Nutzens ein aktives Forschungsgebiet. Im Zentrum der Datenassimilation stehen Filter-, Vorhersage- und Glättungsverfahren. Die Filterung beinhaltet die Einbeziehung von Messinformationen in das Modell, um einen besseren Einblick in einen gegebenen Zustand zu erhalten, der durch ein verrauschtes Zustandsraummodell gesteuert wird. Die meisten Naturgesetze werden von zeitkontinuierlichen nichtlinearen Modellen bestimmt. Das verfügbare Wissen über ein Modell ist größtenteils unvollständig; und daher werden Unsicherheiten mittels Wahrscheinlichkeiten angenähert. Die zeitkontinuierliche Filterung verspricht daher eine größere Nützlichkeit, denn sie bietet die Möglichkeit, verrauschte Messungen mit einem unvollkommenen Modell zu kombinieren, um mehr Einblick in einen bestimmten Zustand zu erhalten. Das Problem der zeitkontinuierlichen nichtlinearen Gaußschen Filterung wird durch die Kushner-Stratonovich-Gleichung gelöst. Leider fehlt der Kushner-Stratonovich-Gleichung eine geschlossene Lösung. Darüber hinaus sind die numerischen Näherungen, die auf der Taylor-Erweiterung über der dritten Ordnung basieren, mit rechnerischen Komplikationen behaftet. Aus diesem Grund wurde auf numerische Methoden zurückgegriffen, die auf Monte-Carlo-Methoden basieren. Die wichtigsten dieser Methoden sind sequentielle Monte-Carlo-Methoden (oder Partikelfilter), da sie die Online-Assimilation von Daten ermöglichen. Partikelfilter sind nicht unproblematisch: Sie leiden unter Partikelentartung, Probenverarmung und Rechenkosten, die sich aus der Neuabtastung ergeben. Das Ziel dieser Arbeit ist es, i) die Ableitung der Kushner-Stratonovich-Gleichung aus den ersten Prinzipien und ihre vorhandenen numerischen Approximationsmethoden zu überprüfen, ii) die Rückkopplungs-Partikelfilter zu untersuchen, um eine Neuabtastung in Partikelfiltern zu vermeiden, iii) Studieren Sie die Zustands- und Parameterschätzung in zeitkontinuierlichen Einstellungen, iv) Wenden Sie die untersuchten Begriffe auf lineare hyperbolische stochastische Differentialgleichungen an. Die Verbindung zwischen Itô Integralen und stochastischen partiellen Differentialgleichungen und denen von Stratonovich wird in Erwartung von Rückkopplungs-Partikelfiltern eingeführt. Mit diesen Ideen und motiviert durch die Varianten von Kalman-Bucy-Filtern, die auf der Struktur des Innovationsprozesses gegründet, wird ein Feedback-Partikelfilter mit zufällig gestörter Innovation vorgeschlagen. Darüber hinaus werden Rückkopplungspartikelfilter basierend auf der Kopplung von Vorhersage- und Analysemaßnahmen vorgeschlagen. Diese Feedback-Partikelfiltern haben eine bessere Leistung als der Bootstrap-Partikelfilter bei niedrigeren Ensemble-Größen. Wir untersuchen gemeinsame Zustands- und Parameterschätzungen, sowohl durch erweiterte Zustandsräume als auch durch Verwendung von Doppelfiltern. Rückkopplungs-Partikelfilter scheinen in beiden Fällen gut zu funktionieren. Schließlich wenden wir eine gemeinsame Zustands- und Parameterschätzung in der Advektions-und Wellengleichung an, deren Geschwindigkeit räumlich variiert. Es werden zwei Verfahren verwendet: Metropolis-Hastings mit Filterwahrscheinlichkeit und ein Doppelfilter bestehend aus Kalman-Bucy-Filter und Ensemble-Kalman-Bucy-Filter. Ersteres schneidet besser ab als letzteres. KW - state estimation KW - filtering KW - parameter estimation KW - Zustandsschätzung KW - Filterung KW - Parameter Schätzung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436542 ER - TY - THES A1 - Wozny, Florian T1 - Three empirical essays in health economics T1 - Drei empirische Essays in Gesundheitsökonomik N2 - Modern health care systems are characterized by pronounced prevention and cost-optimized treatments. This dissertation offers novel empirical evidence on how useful such measures can be. The first chapter analyzes how radiation, a main pollutant in health care, can negatively affect cognitive health. The second chapter focuses on the effect of Low Emission Zones on public heath, as air quality is the major external source of health problems. Both chapters point out potentials for preventive measures. Finally, chapter three studies how changes in treatment prices affect the reallocation of hospital resources. In the following, I briefly summarize each chapter and discuss implications for health care systems as well as other policy areas. Based on the National Educational Panel Study that is linked to data on radiation, chapter one shows that radiation can have negative long-term effects on cognitive skills, even at subclinical doses. Exploiting arguably exogenous variation in soil contamination in Germany due to the Chernobyl disaster in 1986, the findings show that people exposed to higher radiation perform significantly worse in cognitive tests 25 years later. Identification is ensured by abnormal rainfall within a critical period of ten days. The results show that the effect is stronger among older cohorts than younger cohorts, which is consistent with radiation accelerating cognitive decline as people get older. On average, a one-standarddeviation increase in the initial level of CS137 (around 30 chest x-rays) is associated with a decrease in the cognitive skills by 4.1 percent of a standard deviation (around 0.05 school years). Chapter one shows that sub-clinical levels of radiation can have negative consequences even after early childhood. This is of particular importance because most of the literature focuses on exposure very early in life, often during pregnancy. However, population exposed after birth is over 100 times larger. These results point to substantial external human capital costs of radiation which can be reduced by choices of medical procedures. There is a large potential for reductions because about one-third of all CT scans are assumed to be not medically justified (Brenner and Hall, 2007). If people receive unnecessary CT scans because of economic incentives, this chapter points to additional external costs of health care policies. Furthermore, the results can inform the cost-benefit trade-off for medically indicated procedures. Chapter two provides evidence about the effectiveness of Low Emission Zones. Low Emission Zones are typically justified by improvements in population health. However, there is little evidence about the potential health benefits from policy interventions aiming at improving air quality in inner-cities. The chapter ask how the coverage of Low Emission Zones air pollution and hospitalization, by exploiting variation in the roll out of Low Emission Zones in Germany. It combines information on the geographic coverage of Low Emission Zones with rich panel data on the universe of German hospitals over the period from 2006 to 2016 with precise information on hospital locations and the annual frequency of detailed diagnoses. In order to establish that our estimates of Low Emission Zones’ health impacts can indeed be attributed to improvements in local air quality, we use data from Germany’s official air pollution monitoring system and assign monitor locations to Low Emission Zones and test whether measures of air pollution are affected by the coverage of a Low Emission Zone. Results in chapter two confirm former results showing that the introduction of Low Emission Zones improved air quality significantly by reducing NO2 and PM10 concentrations. Furthermore, the chapter shows that hospitals which catchment areas are covered by a Low Emission Zone, diagnose significantly less air pollution related diseases, in particular by reducing the incidents of chronic diseases of the circulatory and the respiratory system. The effect is stronger before 2012, which is consistent with a general improvement in the vehicle fleet’s emission standards. Depending on the disease, a one-standard-deviation increase in the coverage of a hospitals catchment area covered by a Low Emission Zone reduces the yearly number of diagnoses up to 5 percent. These findings have strong implications for policy makers. In 2015, overall costs for health care in Germany were around 340 billion euros, of which 46 billion euros for diseases of the circulatory system, making it the most expensive type of disease caused by 2.9 million cases (Statistisches Bundesamt, 2017b). Hence, reductions in the incidence of diseases of the circulatory system may directly reduce society’s health care costs. Whereas chapter one and two study the demand-side in health care markets and thus preventive potential, chapter three analyzes the supply-side. By exploiting the same hospital panel data set as in chapter two, chapter three studies the effect of treatment price shocks on the reallocation of hospital resources in Germany. Starting in 2005, the implementation of the German-DRG-System led to general idiosyncratic treatment price shocks for individual hospitals. Thus far there is little evidence of the impact of general price shocks on the reallocation of hospital resources. Additionally, I add to the exiting literature by showing that price shocks can have persistent effects on hospital resources even when these shocks vanish. However, simple OLS regressions would underestimate the true effect, due to endogenous treatment price shocks. I implement a novel instrument variable strategy that exploits the exogenous variation in the number of days of snow in hospital catchment areas. A peculiarity of the reform allowed variation in days of snow to have a persistent impact on treatment prices. I find that treatment price increases lead to increases in input factors such as nursing staff, physicians and the range of treatments offered but to decreases in the treatment volume. This indicates supplier-induced demand. Furthermore, the probability of hospital mergers and privatization decreases. Structural differences in pre-treatment characteristics between hospitals enhance these effects. For instance, private and larger hospitals are more affected. IV estimates reveal that OLS results are biased towards zero in almost all dimensions because structural hospital differences are correlated with the reallocation of hospital resources. These results are important for several reasons. The G-DRG-Reform led to a persistent polarization of hospital resources, as some hospitals were exposed to treatment price increases, while others experienced reductions. If hospitals increase the treatment volume as a response to price reductions by offering unnecessary therapies, it has a negative impact on population wellbeing and public spending. However, results show a decrease in the range of treatments if prices decrease. Hospitals might specialize more, thus attracting more patients. From a policy perspective it is important to evaluate if such changes in the range of treatments jeopardize an adequate nationwide provision of treatments. Furthermore, the results show a decrease in the number of nurses and physicians if prices decrease. This could partly explain the nursing crisis in German hospitals. However, since hospitals specialize more they might be able to realize efficiency gains which justify reductions in input factors without loses in quality. Further research is necessary to provide evidence for the impact of the G-DRG-Reform on health care quality. Another important aspect are changes in the organizational structure. Many public hospitals have been privatized or merged. The findings show that this is at least partly driven by the G-DRG-Reform. This can again lead to a lack in services offered in some regions if merged hospitals specialize more or if hospitals are taken over by ecclesiastical organizations which do not provide all treatments due to moral conviction. Overall, this dissertation reveals large potential for preventive health care measures and helps to explain reallocation processes in the hospital sector if treatment prices change. Furthermore, its findings have potentially relevant implications for other areas of public policy. Chapter one identifies an effect of low dose radiation on cognitive health. As mankind is searching for new energy sources, nuclear power is becoming popular again. However, results of chapter one point to substantial costs of nuclear energy which have not been accounted yet. Chapter two finds strong evidence that air quality improvements by Low Emission Zones translate into health improvements, even at relatively low levels of air pollution. These findings may, for instance, be of relevance to design further policies targeted at air pollution such as diesel bans. As pointed out in chapter three, the implementation of DRG-Systems may have unintended side-effects on the reallocation of hospital resources. This may also apply to other providers in the health care sector such as resident doctors. N2 - Moderne Gesundheitssysteme zeichnen sich sowohl durch eine ausgeprägte Prävention als auch durch kostenoptimierte Behandlungen aus. Diese Dissertation bietet neue empirische Erkenntnisse darüber, wie nützlich solche Maßnahmen sein können. Das erste Kapitel analysiert, wie Strahlung, ein Hauptschadstoff im Gesundheitswesen, die kognitive Gesundheit negativ beeinflussen kann. Das zweite Kapitel konzentriert sich auf die Auswirkungen von Umweltzonen auf die öffentliche Gesundheit, da die Luftqualität die wichtigste externe Quelle für Gesundheitsprobleme ist. Beide Kapitel zeigen Potenziale für präventive Maßnahmen auf. Schließlich wird in Kapitel drei untersucht, wie sich Änderungen von Behandlungspreisen auf die Reallokation von Krankenhausressourcen auswirken. Im Folgenden fasse ich jedes Kapitel kurz zusammen und diskutiere die Relevanz für Gesundheitssysteme und andere Politikbereiche. Basierend auf dem Nationalen Bildungspanel, welches wir mit Strahlungsdaten verknüpfen, zeigt Kapitel eins, dass Strahlung, auch in geringen Dosen, negative Langzeitwirkungen auf die kognitiven Fähigkeiten haben kann. Dazu nutzen wir die exogene Variation der Bodenkontamination in Deutschland nach der Tschernobyl-Katastrophe von 1986. Die Ergebnisse zeigen, dass Menschen, die einer höheren Strahlung ausgesetzt waren, 25 Jahre später in kognitiven Tests deutlich schlechter abschneiden. Die Identifizierung wird durch anormale Niederschläge innerhalb eines kritischen Zeitraums von zehn Tagen nach dem Reaktorunfall gewährleistet. Die Ergebnisse zeigen, dass der Effekt bei älteren Kohorten stärker ist als bei jüngeren Kohorten, was mit der Theorie übereinstimmt, dass Strahlung den altersbedingten Rückgang der kognitiven Leistungsfähigkeit beschleunigt. Im Durchschnitt ist eine Erhöhung des Anfangsniveaus von CS137 um eine Standardabweichung (ca. 30 Thoraxröntgenaufnahmen) mit einer Abnahme der kognitiven Fähigkeiten um 4,1 Prozent einer Standardabweichung verbunden (ca. 0.05 Schuljahre). Die Ergebnisse in Kapitel eins zeigen, dass geringe Strahlungswerte auch nach der frühen Kindheit negative Folgen haben können. Dies ist von besonderer Bedeutung, da sich der Großteil der Literatur auf die Exposition in sehr frühen Lebensphasen konzentriert, oft während der Schwangerschaft. Die nach der Geburt exponierte Bevölkerung ist jedoch über 100-mal größer. Diese Ergebnisse deuten auf erhebliche externe Humankapitalkosten der Strahlung hin, die zum Beispiel durch die Wahl medizinischer Verfahren reduziert werden können. Es bestehen große Reduktionspotenziale, da beispielsweise etwa ein Drittel aller CT-Scans als medizinisch nicht gerechtfertigt angesehen werden (Brenner and Hall, 2007). Unter der Annahme, dass Menschen aufgrund wirtschaftlicher Anreize unnötige CT-Scans erhalten, weist dieses Kapitel auf zusätzliche externe Kosten von Gesundheitsmaßnahmen für die Gesundheit der Patienten hin. Außerdem erweitern die Ergebnisse die Informationsgrundlage für Risiko-Nutzen-Abwägungen medizinischer Behandlungen. Kapitel zwei liefert Belege für die Wirksamkeit von Umweltzonen. Umweltzonen sind in der Regel durch eine Verbesserung der Gesundheit der Bevölkerung gerechtfertigt. Es gibt jedoch wenig Belege für den gesundheitlichen Nutzen solcher politischen Maßnahmen zur Verbesserung der Luftqualität in Innenstädten. In dem Kapitel analysieren wir, wie sich die Ausdehnung der Umweltzonen auf die Luftverschmutzung und die Krankenhausaufenthalte auswirkt. Dazu nutzen wir zeitliche Unterschiede bei der Einführung der Umweltzonen in Deutschland. Hierfür kombinieren wir Informationen über die geografische Abdeckung der Umweltzonen mit umfangreichen Paneldaten von allen deutschen Krankenhäusern im Zeitraum von 2006 bis 2016. Die Krankenhausdaten enthalten präzise Informationen über Krankenhausstandorte und die jährliche Häufigkeit detaillierter Diagnosen. Um sicherzustellen, dass unsere Schätzungen der gesundheitlichen Auswirkungen der Umweltzonen auf eine Verbesserung der lokalen Luftqualität zurückzuführen sind, verwenden wir Daten aus dem offiziellen deutschen Luftmessnetz und ordnen den Umweltzonen Monitorstandorte zu. Hierdurch prüfen wir, ob Messungen der Luftverschmutzung durch die Abdeckung einer Umweltzone beeinflusst werden. Die Ergebnisse in Kapitel zwei bestätigen frühere Ergebnisse, die zeigen, dass die Einführung von Umweltzonen die Luftqualität durch die Reduzierung der NO2- und PM10-Konzentrationen deutlich verbessert. Darüber hinaus zeigt das Kapitel, dass Krankenhäuser, deren Einzugsgebiete in eine Umweltzone fallen, deutlich weniger durch Luftverschmutzung bedingte Krankheiten diagnostizieren, insbesondere durch die Verringerung von chronischen Krankheiten des Kreislaufs und der Atemwege. Der Effekt ist vor 2012 stärker, was sich durch eine allgemeine Verbesserung der Abgasnormen für Fahrzeuge erklären lässt. Wird der Anteil eines Krankenhauseinzugsgebiets mit Umweltzone um eine Standardabweichung erhöht, reduziert sich die jährliche Anzahl der entsprechenden Diagnosen um bis zu 5 Prozent. Diese Ergebnisse sind für politische Entscheidungsträger von Bedeutung. Im Jahr 2015 gab Deutschland 46 Milliarden Euro für Herz-Kreislauf-Erkrankungen aus, die teuerste Krankheitsform mit 2,9 Millionen Fällen. Die Reduktion von Herz-Kreislauf-Erkrankungen würde die Gesundheitskosten der Gesellschaft unmittelbar senken. Während Kapitel eins und zwei die Nachfrageseite in Gesundheitsmärkten und damit das Präventionspotenzial untersuchen, analysiert Kapitel drei die Angebotsseite. Unter Verwendung desselben Krankenhauspaneldatensatzes wie in Kapitel zwei untersuche ich die Auswirkungen von veränderten Behandlungspreisen auf Krankenhausressourcen in Deutschland. Ab 2005 wurden die Behandlungspreise für Patienten durch das G-DRG- System umgewandelt, was bis 2010 zu allgemeinen idiosynkratischen Preisschocks für einzelne Krankenhäuser führte. Die vorhandene Literatur bildet den Effekt von allgemeinen Preisschocks auf Krankenhausressourcen jedoch nur unzureichend ab. Außerdem erweitere ich die vorhandene Literatur indem ich zeige, dass Preisänderungen auch dann langfristige Auswirkungen auf Krankenhausressourcen haben können, wenn die Preisschocks verschwinden. Einfache OLS-Regressionen würden den wahren Effekt aufgrund von endogenen Preisschocks unterschätzen. Unter Zuhilfenahme von hochauflösenden Satellitendaten nutze ich eine Instrumentenvariablenstrategie, welche exogene Schwankungen der Wetterbedingungen im Einzugsbereich von Krankenhäusern nutzt. Eine Besonderheit der Reform führt dazu, dass Abweichungen der Wetterbedingungen zum Zeitpunkt der Reformeinführung einen nachhaltigen Einfluss auf die Behandlungspreise hatten. Die Ergebnisse zeigen, dass Preiserhöhungen im Laufe der Zeit zu einem Anstieg des Pflegepersonals, von Ärzten und der Vielfalt der angebotenen Behandlungen führen, aber zu einem Rückgang des Behandlungsvolumens. Bei privaten und größeren Krankenhäusern sind die Auswirkungen stärker. Darüber hinaus sinkt die Wahrscheinlichkeit von Krankenhausfusionen und Privatisierungen. IV-Ergebnisse zeigen gegen Null verzerrte OLS-Schätzungen in fast allen Dimensionen, da strukturelle Krankenhausunterschiede mit der Reallokation von Ressourcen korreliert sind. Diese Ergebnisse sind aus mehreren Gründen wichtig. Die G-DRG-Reform führte zu einer anhaltenden Polarisation von Krankenhausressourcen, da Krankenhäuser sowohl Preisanstiege als auch Preissenkungen erfuhren. Wenn Krankenhäuser das Behandlungsvolumen durch unnötige Therapien erhöhen, hat das negative Auswirkungen auf die öffentliche Gesundheit der Bevölkerung und die öffentlichen Ausgaben. Andererseits zeigen die Ergebnisse einen Rückgang der Bandbreite der angebotenen Behandlungen bei sinkenden Preisen. Krankenhäuser könnten sich stärker spezialisieren und so mehr Patienten anziehen. Aus politischer Sicht ist es wichtig zu beurteilen, ob solche Veränderungen in der Vielfalt der angebotenen Behandlungen eine angemessene flächendeckende Versorgung gefährden. Des Weiteren zeigen die Ergebnisse einen Rückgang der Zahl der Krankenschwestern und Ärzte, wenn die Preise sinken. Dies könnte die Pflegekrise, welche die Bundesregierung in Deutschland beschreibt, teilweise erklären. Da sich die Krankenhäuser jedoch stärker spezialisieren, können sie möglicherweise Effizienzsteigerungen erzielen, die eine Verringerung der Inputfaktoren rechtfertigen, ohne an Qualität zu verlieren. Weitere Untersuchungen sind notwendig, um die Auswirkungen auf die Qualität der Gesundheitsversorgung nachzuweisen. Ein weiterer wichtiger Aspekt sind Veränderungen in der Organisationsstruktur. Viele öffentliche Krankenhäuser werden privatisiert oder mit anderen Krankenhäusern fusioniert. Meine Ergebnisse zeigen, dass dies zumindest teilweise auf die G-DRG-Reform zurückzuführen ist. Dies kann zu einem Mangel an angebotenen Behandlungen in einigen Regionen führen, wenn sich fusionierte Krankenhäuser spezialisieren oder wenn Krankenhäuser von kirchlichen Organisationen übernommen werden, die aus moralischen Gründen nicht alle Behandlungen anbieten. Insgesamt unterstreicht diese Dissertation das große Potenzial von Gesundheitsvorsorgemaßnahmen und hilft, Reallokationsprozesse im Krankenhaussektor zu erklären. Darüber hinaus haben die Ergebnisse potenziell relevante Auswirkungen auf andere Bereiche der Politik. Kapitel Eins identifiziert einen Einfluss von geringer Radioaktivität auf die kognitive Gesundheit. Auf der Suche nach neuen Energiequellen wird die Kernenergie wieder populär. Die Ergebnisse von Kapitel Eins deuten jedoch auf erhebliche Kosten von Kernenergie hin, die in der aktuellen Debatte noch nicht berücksichtigt wurden. Kapitel Zwei findet starke Hinweise darauf, dass die Verbesserung der Luftqualität durch Umweltzonen, selbst bei relativ geringer Luftverschmutzung, zu einer Verbesserung der Gesundheit führt. Diese Ergebnisse können für die Einführung weiterer Maßnahmen zur Bekämpfung der Luftverschmutzung von Bedeutung sein, wie beispielsweise Fahrverbote für Dieselfahrzeuge. Wie in Kapitel Drei dargelegt, kann die Einführung von DRG-Systemen unbeabsichtigte Effekte bei der Reallokation von Krankenhausressourcen haben. Dies kann auch für andere Anbieter im Gesundheitswesen wie niedergelassene Ärzte gelten. KW - health economics KW - managment KW - hospital KW - Gesundheitsökonomik KW - Management KW - Krankenhaus Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469910 ER - TY - THES A1 - Behm, Laura Vera Johanna T1 - Thermoresponsive Zellkultursubstrate für zeitlich-räumlich gesteuertes Auswachsen neuronaler Zellen T1 - Thermoresponsive cell culture substrates for spatio-temporal controlled outgrowth of neuronal cells N2 - Ein wichtiges Ziel der Neurowissenschaften ist das Verständnis der komplexen und zugleich faszinierenden, hochgeordneten Vernetzung der Neurone im Gehirn, welche neuronalen Prozessen, wie zum Beispiel dem Wahrnehmen oder Lernen wie auch Neuropathologien zu Grunde liegt. Für verbesserte neuronale Zellkulturmodelle zur detaillierten Untersuchung dieser Prozesse ist daher die Rekonstruktion von geordneten neuronalen Verbindungen dringend erforderlich. Mit Oberflächenstrukturen aus zellattraktiven und zellabweisenden Beschichtungen können neuronale Zellen und ihre Neuriten in vitro strukturiert werden. Zur Kontrolle der neuronalen Verbindungsrichtung muss das Auswachsen der Axone zu benachbarten Zellen dynamisch gesteuert werden, zum Beispiel über eine veränderliche Zugänglichkeit der Oberfläche. In dieser Arbeit wurde untersucht, ob mit thermoresponsiven Polymeren (TRP) beschichtete Zellkultursubstrate für eine dynamische Kontrolle des Auswachsens neuronaler Zellen geeignet sind. TRP können über die Temperatur von einem zellabweisenden in einen zellattraktiven Zustand geschaltet werden, womit die Zugänglichkeit der Oberfläche für Zellen dynamisch gesteuert werden kann. Die TRP-Beschichtung wurde mikrostrukturiert, um einzelne oder wenige neuronale Zellen zunächst auf der Oberfläche anzuordnen und das Auswachsen der Zellen und Neuriten über definierte TRP-Bereiche in Abhängigkeit der Temperatur zeitlich und räumlich zu kontrollieren. Das Protokoll wurde mit der neuronalen Zelllinie SH-SY5Y etabliert und auf humane induzierte Neurone übertragen. Die Anordnung der Zellen konnte bei Kultivierung im zellabweisenden Zustand des TRPs für bis zu 7 Tage aufrecht erhalten werden. Durch Schalten des TRPs in den zellattraktiven Zustand konnte das Auswachsen der Neuriten und Zellen zeitlich und räumlich induziert werden. Immunozytochemische Färbungen und Patch-Clamp-Ableitungen der Neurone demonstrierten die einfache Anwendbarkeit und Zellkompatibilität der TRP-Substrate. Eine präzisere räumliche Kontrolle des Auswachsens der Zellen sollte durch lokales Schalten der TRP-Beschichtung erreicht werden. Dafür wurden Mikroheizchips mit Mikroelektroden zur lokalen Jouleschen Erwärmung der Substratoberfläche entwickelt. Zur Evaluierung der generierten Temperaturprofile wurde eine Temperaturmessmethode entwickelt und die erhobenen Messwerte mit numerisch simulierten Werten abgeglichen. Die Temperaturmessmethode basiert auf einfach zu applizierenden Sol-Gel-Schichten, die den temperatursensitiven Fluoreszenzfarbstoff Rhodamin B enthalten. Sie ermöglicht oberflächennahe Temperaturmessungen in trockener und wässriger Umgebung mit hoher Orts- und Temperaturauflösung. Numerische Simulationen der Temperaturprofile korrelierten gut mit den experimentellen Daten. Auf dieser Basis konnten Geometrie und Material der Mikroelektroden hinsichtlich einer lokal stark begrenzten Temperierung optimiert werden. Ferner wurden für die Kultvierung der Zellen auf den Mikroheizchips eine Zellkulturkammer und Kontaktboard für die elektrische Kontaktierung der Mikroelektroden geschaffen. Die vorgestellten Ergebnisse demonstrieren erstmalig das enorme Potential thermoresponsiver Zellkultursubstrate für die zeitlich und räumlich gesteuerte Formation geordneter neuronaler Verbindungen in vitro. Zukünftig könnte dies detaillierte Studien zur neuronalen Informationsverarbeitung oder zu Neuropathologien an relevanten, humanen Zellmodellen ermöglichen. N2 - An important goal of neurosciences is to understand the fascinating, complex and highly ordered neuronal circuits of the brain that are underlying important neuronal processes such as learning and memory, as well as neuropathologies. For detailed studies of these processes improved neuronal cell culture models that allow a reconstruction of ordered neuronal connections are crucial. Neuronal cells can be patterned in vitro with structured surface coatings of cell repellent and cell attractive substances. For controlling also the direction of neuronal cell connections the outgrowth of the axons towards neighbouring cells needs to be dynamically controlled, which can be achieved for example by surface structures that can be changed due to switchable surface properties. The main goal of this work was to explore if cell culture substrates with coatings of thermoresponsive polymer (TRP) are suitable for dynamically controlling the outgrowth of neuronal cells. TRPs can be switched via temperature between a cell repellent and a cell attractive state, which enables a dynamic change of surface properties. The TRP coating was microstructured in order to pattern neuronal cells and to spatio-temporally control the outgrowth of cells and neurites across defined TRP-coated areas in dependence of the temperature. The protocol was established with the neuronal cell line SH-SY5Y and transferred to human induced neuronal cells. The cell patterns could be maintained for up to 7 days of cultivation when the TRP was kept in the cell repellent state. By switching the TRP to the cell attractive state the outgrowth of neurites and cells was induced at defined time points and areas. Immunocytochemical staining and patch-clamp recordings of the neurons demonstrated the cell compatibility and easy applicability of these TRP-substrates. A more precise spatial control of the outgrowth of cells should be further achieved by local switching of the TRP-coating. Therefore, microheaters comprising microelectrodes were developed for locally heating the substrate surface. For evaluation of the generated temperature profiles a thermometry method was developed and the values obtained were correlated with numerically simulated data. The thermometry method is based on easily applicable sol-gel-films containing the temperature-sensitive fluorophore Rhodamine B. It allows temperature measurements close to the surface under both dry and liquid conditions with high resolution regarding space (lower µm-range) and temperature (≤ 1°C). Numerical simulations of the temperature profiles correlated well with experimental data. On this basis geometry and material of the microelectrodes were optimized with regard to locally restricted temperature changes. Furthermore, a chip environment for cultivating the cells on the microheater chips was developed comprising a cell culture chamber and a contact board for electrically contacting the microelectrodes. The results presented in this work demonstrate for the first time the great potential of thermoresponsive cell culture substrates for a spatio-temporally controlled formation of neuronal connections in vitro. In future this could facilitate detailed studies of information processing in neuronal networks or of neuropathologies using relevant human neuronal cell models. KW - neuronale Netzwerke KW - Mikrostrukturierung KW - Neuritenwachstum KW - thermoresponsive Polymere KW - Lab-on-a-chip KW - Rhodamin B KW - Thermometrie KW - Mikroheizung KW - Oberflächentemperatur KW - Sol-Gel KW - Zelladhäsionskontrolle KW - neuronal networks KW - microstructures KW - neurite outgrowth KW - thermoresponsive polymers KW - lab-on-a-chip KW - Rhodamine B KW - thermometry KW - microheating KW - surface temperature KW - sol-gel KW - cell adhesion control Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436196 ER - TY - THES A1 - Krejca, Martin Stefan T1 - Theoretical analyses of univariate estimation-of-distribution algorithms N2 - Optimization is a core part of technological advancement and is usually heavily aided by computers. However, since many optimization problems are hard, it is unrealistic to expect an optimal solution within reasonable time. Hence, heuristics are employed, that is, computer programs that try to produce solutions of high quality quickly. One special class are estimation-of-distribution algorithms (EDAs), which are characterized by maintaining a probabilistic model over the problem domain, which they evolve over time. In an iterative fashion, an EDA uses its model in order to generate a set of solutions, which it then uses to refine the model such that the probability of producing good solutions is increased. In this thesis, we theoretically analyze the class of univariate EDAs over the Boolean domain, that is, over the space of all length-n bit strings. In this setting, the probabilistic model of a univariate EDA consists of an n-dimensional probability vector where each component denotes the probability to sample a 1 for that position in order to generate a bit string. My contribution follows two main directions: first, we analyze general inherent properties of univariate EDAs. Second, we determine the expected run times of specific EDAs on benchmark functions from theory. In the first part, we characterize when EDAs are unbiased with respect to the problem encoding. We then consider a setting where all solutions look equally good to an EDA, and we show that the probabilistic model of an EDA quickly evolves into an incorrect model if it is always updated such that it does not change in expectation. In the second part, we first show that the algorithms cGA and MMAS-fp are able to efficiently optimize a noisy version of the classical benchmark function OneMax. We perturb the function by adding Gaussian noise with a variance of σ², and we prove that the algorithms are able to generate the true optimum in a time polynomial in σ² and the problem size n. For the MMAS-fp, we generalize this result to linear functions. Further, we prove a run time of Ω(n log(n)) for the algorithm UMDA on (unnoisy) OneMax. Last, we introduce a new algorithm that is able to optimize the benchmark functions OneMax and LeadingOnes both in O(n log(n)), which is a novelty for heuristics in the domain we consider. N2 - Optimierung ist ein Hauptbestandteil technologischen Fortschritts und oftmals computergestützt. Da viele Optimierungsprobleme schwer sind, ist es jedoch unrealistisch, eine optimale Lösung in angemessener Zeit zu erwarten. Daher werden Heuristiken verwendet, also Programme, die versuchen hochwertige Lösungen schnell zu erzeugen. Eine konkrete Klasse sind Estimation-of-Distribution-Algorithmen (EDAs), die sich durch das Entwickeln probabilistischer Modelle über dem Problemraum auszeichnen. Ein solches Modell wird genutzt, um neue Lösungen zu erzeugen und damit das Modell zu verfeinern, um im nächsten Schritt mit erhöhter Wahrscheinlichkeit bessere Lösungen zu generieren. In dieser Arbeit untersuchen wir die Klasse univariater EDAs in der booleschen Domäne, also im Raum aller Bitstrings der Länge n. Das probabilistische Modell eines univariaten EDAs besteht dann aus einem n-dimensionalen Wahrscheinlichkeitsvektor, in dem jede Komponente die Wahrscheinlichkeit angibt, eine 1 an der entsprechenden Stelle zu erzeugen. Mein Beitrag folgt zwei Hauptrichtungen: Erst untersuchen wir allgemeine inhärente Eigenschaften univariater EDAs. Danach bestimmen wir die erwartete Laufzeit gewisser EDAs auf Benchmarks aus der Theorie. Im ersten Abschnitt charakterisieren wir, wann EDAs unbefangen bezüglich der Problemcodierung sind. Dann untersuchen wir sie in einem Szenario, in dem alle Lösungen gleich gut sind, und zeigen, dass sich ihr Modell schnell zu einem falschen entwickelt, falls es immer so angepasst wird, dass sich im Erwartungswert nichts ändert. Im zweiten Abschnitt zeigen wir, dass die Algorithmen cGA und MMAS-fp eine verrauschte Variante des klassischen Benchmarks OneMax effizient optimieren, bei der eine Gaussverteilung mit Varianz σ² hinzuaddiert wird. Wir beweisen, dass die Algorithmen das wahre Optimum in polynomieller Zeit bezüglich σ² und n erzeugen. Für den MMAS-fp verallgemeinern wir dieses Ergebnis auf lineare Funktionen. Weiterhin beweisen wir eine Laufzeit von Ω(n log(n)) für den Algorithmus UMDA auf OneMax (ohne Rauschen). Zuletzt führen wir einen neuen Algorithmus ein, der die Benchmarks OneMax und LeadingOnes in O(n log(n)) optimiert, was zuvor für noch keine Heuristik gezeigt wurde. T2 - Theoretische Analysen univariater Estimation-of-Distribution-Algorithmen KW - theory KW - estimation-of-distribution algorithms KW - univariate KW - pseudo-Boolean optimization KW - run time analysis KW - Theorie KW - Estimation-of-Distribution-Algorithmen KW - univariat KW - pseudoboolesche Optimierung KW - Laufzeitanalyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434870 ER - TY - THES A1 - Stutter Garcia, Ana T1 - The use of grammatical knowledge in an additional language T1 - Die Verwendung des grammatischen Wissens in einer weiteren Fremdsprache BT - effects of native and non-native linguistic constraints BT - der Effekt von muttersprachlichen und nicht-muttersprachlichen linguistischen Beschränkungen N2 - This thesis investigates whether multilingual speakers’ use of grammatical constraints in an additional language (La) is affected by the native (L1) and non-native grammars (L2) of their linguistic repertoire. Previous studies have used untimed measures of grammatical performance to show that L1 and L2 grammars affect the initial stages of La acquisition. This thesis extends this work by examining whether speakers at intermediate levels of La proficiency, who demonstrate mature untimed/offline knowledge of the target La constraints, are differentially affected by their L1 and L2 knowledge when they comprehend sentences under processing pressure. With this purpose, several groups of La German speakers were tested on word order and agreement phenomena using online/timed measures of grammatical knowledge. Participants had mirror distributions of their prior languages and they were either L1English/L2Spanish speakers or L1Spanish/L2English speakers. Crucially, in half of the phenomena the target La constraint aligned with English but not with Spanish, while in the other half it aligned with Spanish but not with English. Results show that the L1 grammar plays a major role in the use of La constraints under processing pressure, as participants displayed increased sensitivity to La constraints when they aligned with their L1, and reduced sensitivity when they did not. Further, in specific phenomena in which the L2 and La constraints aligned, increased L2 proficiency resulted in an enhanced sensitivity to the La constraint. These findings suggest that both native and non-native grammars affect how speakers use La grammatical constraints under processing pressure. However, L1 and L2 grammars differentially influence on participants’ performance: While L1 constraints seem to be reliably recruited to cope with the processing demands of real-time La use, proficiency in an L2 can enhance sensitivity to La constraints only in specific circumstances, namely when L2 and La constraints align. N2 - In dieser Dissertation wird untersucht, ob mehrsprachige Personen, wenn sie grammatikalische Beschränkungen in einer zusätzlichen Sprache (La) verarbeiten, von ihrer Muttersprache (L1) und/oder ihrer Nicht-Muttersprache (L2) beeinflusst werden. Frühere Studien haben durch Messungen ohne Zeitangabe (offline Messungen) der grammatikalischen Leistung gezeigt, dass die L1- und L2-Grammatik die Anfangsstadien des La-Spracherwerbs beeinflusst. In dieser Dissertation wird diese Arbeit auf zweierlei Weise erweitert. Einerseits wird untersucht, ob die L1- und L2-Grammatik die La auf unterschiedliche Weise beeinflusst, wenn mehrsprachige Personen La Sätze unter Druck verarbeiten müssen. Anderseits werden in der Dissertation nur Personen mit mittleren La-Kenntnissen getestet, die ausgereifte Kenntnisse über die getesteten La Phänomene in offline Messungen vorwiesen. Zu diesem Zweck wurden mehrere Gruppen von La Deutschsprachlern auf Wortreihenfolgen- und Konkordanz-Phänomene getestet, wobei online Messungen der grammatikalischen Fähigkeiten verwendet wurden. Die Teilnehmer waren entweder L1Englisch / L2Spanisch oder L1Spanisch / L2Englisch Sprecher. Entscheidend ist, dass die Hälfte der getesteten Beschränkungen auf Englisch, aber nicht auf Spanisch ausgerichtet war, während die andere Hälfte wiederum auf Spanisch, aber nicht auf Englisch ausgerichtet war. Die Ergebnisse zeigen, dass die L1-Grammatik eine wichtige Rolle bei der Verarbeitung von La-Beschränkungen unter Zeitdruck spielt. Die Teilnehmer zeigten eine erhöhte Sensibilität gegenüber La-Beschränkungen, wenn diese mit ihrer eigenen L1 übereinstimmten. Eine verringerte Sensibilität zeigt sich wiederum, wenn die Übereinstimmung nicht vorliegt. Ferner führte eine erhöhte L2-Kompetenz, unter bestimmten Beschränkungen, bei denen die L2 und La übereinstimmen, zu einer erhöhten Sensibilität gegenüber der La-Beschränkung. Diese Ergebnisse legen nahe, dass sowohl die muttersprachliche als auch die nicht muttersprachliche Grammatik die Verwendung von La Beschränkungen unter Verarbeitungsdruck beeinflusst. L1- und L2-Grammatik wirkt sich jedoch unterschiedlich auf die Leistungen der Teilnehmer aus. Während die L1 Grammatik zuverlässig angewendet wird, um den Verarbeitungsanforderungen der Echtzeit La-Verwendung gerecht zu werden, kann die Kenntnis einer L2 die Sensibilität gegenüber La-Beschränkungen nur unter bestimmten Umständen verbessern. Nämlich dann wenn die L2- und La-Beschränkungen parallel ausgerichtet sind. KW - additional language KW - cross-linguistic influence KW - multilingualism KW - grammatical knowledge KW - zusätzliche Sprache KW - sprachübergreifender Einfluss KW - Multilingualität KW - Grammatikkenntnisse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469326 ER - TY - THES A1 - Meeßen, Christian T1 - The thermal and rheological state of the Northern Argentinian foreland basins T1 - Der thermische und rheologische Zustand der Nordargentinischen Vorlandbecken N2 - The foreland of the Andes in South America is characterised by distinct along strike changes in surface deformational styles. These styles are classified into two end-members, the thin-skinned and the thick-skinned style. The superficial expression of thin-skinned deformation is a succession of narrowly spaced hills and valleys, that form laterally continuous ranges on the foreland facing side of the orogen. Each of the hills is defined by a reverse fault that roots in a basal décollement surface within the sedimentary cover, and acted as thrusting ramp to stack the sedimentary pile. Thick-skinned deformation is morphologically characterised by spatially disparate, basement-cored mountain ranges. These mountain ranges are uplifted along reactivated high-angle crustal-scale discontinuities, such as suture zones between different tectonic terranes. Amongst proposed causes for the observed variation are variations in the dip angle of the Nazca plate, variation in sediment thickness, lithospheric thickening, volcanism or compositional differences. The proposed mechanisms are predominantly based on geological observations or numerical thermomechanical modelling, but there has been no attempt to understand the mechanisms from a point of data-integrative 3D modelling. The aim of this dissertation is therefore to understand how lithospheric structure controls the deformational behaviour. The integration of independent data into a consistent model of the lithosphere allows to obtain additional evidence that helps to understand the causes for the different deformational styles. Northern Argentina encompasses the transition from the thin-skinned fold-and-thrust belt in Bolivia, to the thick-skinned Sierras Pampeanas province, which makes this area a well suited location for such a study. The general workflow followed in this study first involves data-constrained structural- and density-modelling in order to obtain a model of the study area. This model was then used to predict the steady-state thermal field, which was then used to assess the present-day rheological state in northern Argentina. The structural configuration of the lithosphere in northern Argentina was determined by means of data-integrative, 3D density modelling verified by Bouguer gravity. The model delineates the first-order density contrasts in the lithosphere in the uppermost 200 km, and discriminates bodies for the sediments, the crystalline crust, the lithospheric mantle and the subducting Nazca plate. To obtain the intra-crustal density structure, an automated inversion approach was developed and applied to a starting structural model that assumed a homogeneously dense crust. The resulting final structural model indicates that the crustal structure can be represented by an upper crust with a density of 2800 kg/m³, and a lower crust of 3100 kg/m³. The Transbrazilian Lineament, which separates the Pampia terrane from the Río de la Plata craton, is expressed as a zone of low average crustal densities. In an excursion, we demonstrate in another study, that the gravity inversion method developed to obtain intra-crustal density structures, is also applicable to obtain density variations in the uppermost lithospheric mantle. Densities in such sub-crustal depths are difficult to constrain from seismic tomographic models due to smearing of crustal velocities. With the application to the uppermost lithospheric mantle in the north Atlantic, we demonstrate in Tan et al. (2018) that lateral density trends of at least 125\,km width are robustly recovered by the inversion method, thereby providing an important tool for the delineation of subcrustal density trends. Due to the genetic link between subduction, orogenesis and retroarc foreland basins the question rises whether the steady-state assumption is valid in such a dynamic setting. To answer this question, I analysed (i) the impact of subduction on the conductive thermal field of the overlying continental plate, (ii) the differences between the transient and steady-state thermal fields of a geodynamic coupled model. Both studies indicate that the assumption of a thermal steady-state is applicable in most parts of the study area. Within the orogenic wedge, where the assumption cannot be applied, I estimated the transient thermal field based on the results of the conducted analyses. Accordingly, the structural model that had been obtained in the first step, could be used to obtain a 3D conductive steady-state thermal field. The rheological assessment based on this thermal field indicates that the lithosphere of the thin-skinned Subandean ranges is characterised by a relatively strong crust and a weak mantle. Contrarily, the adjacent foreland basin consists of a fully coupled, very strong lithosphere. Thus, shortening in northern Argentina can only be accommodated within the weak lithosphere of the orogen and the Subandean ranges. The analysis suggests that the décollements of the fold-and-thrust belt are the shallow continuation of shear zones that reside in the ductile sections of the orogenic crust. Furthermore, the localisation of the faults that provide strain transfer between the deeper ductile crust and the shallower décollement is strongly influenced by crustal weak zones such as foliation. In contrast to the northern foreland, the lithosphere of the thick-skinned Sierras Pampeanas is fully coupled and characterised by a strong crust and mantle. The high overall strength prevents the generation of crustal-scale faults by tectonic stresses. Even inherited crustal-scale discontinuities, such as sutures, cannot sufficiently reduce the strength of the lithosphere in order to be reactivated. Therefore, magmatism that had been identified to be a precursor of basement uplift in the Sierras Pampeanas, is the key factor that leads to the broken foreland of this province. Due to thermal weakening, and potentially lubrication of the inherited discontinuities, the lithosphere is locally weakened such that tectonic stresses can uplift the basement blocks. This hypothesis explains both the spatially disparate character of the broken foreland, as well as the observed temporal delay between volcanism and basement block uplift. This dissertation provides for the first time a data-driven 3D model that is consistent with geophysical data and geological observations, and that is able to causally link the thermo-rheological structure of the lithosphere to the observed variation of surface deformation styles in the retroarc foreland of northern Argentina. N2 - Das Vorland der südamerikanischen Anden ist durch lateral variierende Deformationsregimes des östlichen Vorlands geprägt. Dabei treten zwei grundlegend verschiedene Endglieder mit charakteristischer Architektur auf: flach abgescherte Falten- und Überschiebungsgürtel einerseits und Vorland-Sockelüberschiebungen ("zerbrochenes Vorland") andererseits. Das morphologische Erscheinungsbild der Falten- und Überschiebungsgürtel entspricht lateral ausgedehnten, dicht aneinander gereihten Abfolgen von Hügeln und Tälern. Die Hügel werden durch eine darunter liegende Überschiebung definiert, die in einem subhorizontalen Abscherhorizont in 10 bis 20 km Tiefe endet. Sockelüberschiebungen hingegen sind in Gebieten mit geringer Sedimentmächtigkeit zu finden und sind durch weit auseinander liegende Erhebungen charakterisiert, welche von steil einfallenden, reaktivierten krustenskaligen Verwerfungen begrenzt werden. Als Ursachen der beobachteten Deformationsvariationen wurden präexistente Schwächezonen, Sedimentmächtigkeiten, Lithosphärenverdickung, Vulkanismus oder kompositionelle Eigenschaften aufgeführt. Diese Vorschläge waren überwiegend konzeptuell und meist auf Grundlage von Feldbeobachtungen oder synthetischen numerischen, thermo-mechanischen Modelle abgeleitet. Die vorliegende Dissertation beleuchtet zum ersten mal die Ursachen der beobachteten Deformationsstile aus der Perspektive von dreidimensionaler, Daten-integrativer Modellierung. Durch die Integration voneinander unabhängiger Daten erlaubt diese Art der Beschreibung des physikalischen Zustands der Lithosphäre die Erlangung zusätzliche Hinweise auf die zugrundeliegenden Ursachen der verschiedenen Derformationsregimes. Für eine solche Studie bietet sich Nord-Argentinien an, da dort beide Vorland-Endglieder vorzufinden sind. Die dafür im wesentlichen durchgeführten Arbeitsschritte beinhalten die Erstellung eines strukturellen Dichtemodells des Untersuchungsgebiets, die Berechnung des 3D stationären thermischen Feldes, sowie die Analyse der rheologischen Eigenschaften der Lithosphäre. Das datenbasierte strukturelle Dichtemodell ist mit verschiedenen geologischen und geophysikalischen Beobachtungen sowie dem Bouguer-Schwerefeld konsistent. Dieses Modell bildet die primären Dichtekontraste der oberen 200 km der Lithosphäre ab und differenziert Körper für die Sedimente, die kristalline Kruste, den lithosphärischen Mantel, und die subduzierende Nazca-Platte. Um die krusteninterne Dichteverteilung zu erhalten wurde ein automatisierter Inversionsprozess entworfen der es erlaubt eine leichtere Oberkruste und eine schwerere Unterkruste geometrisch zu definieren. Die Modellierung zeigt, dass die Kruste in Nord-Argentinien durch eine leichtere Oberkruste (2800 kg/m³) und eine dichtere Unterkruste (3100 kg/m³) repräsentiert werden kann. Das Transbrasilianische Linement, welches das Pampia Terran im Westen vom Río de La Plata Kraton im Osten trennt, ist durch eine im Vergleich zur Umgebung geringere durchschnittliche Krustendichte charakterisiert. In einem Exkurs wird anschließend demonstriert, dass die hier entwickelte Inversionsmethodik zur Ermittlung von intrakrustalen Dichtekontrasten auch im obersten lithosphärischen Mantel angewandt werden kann. Dichten zwischen der Kruste-Mantel-Grenze und etwa 50\,km Tiefe sind besonders schwer zu bestimmen, da tomographische Modelle die Geschwindigkeitsvariationen von seismischen Wellen in diesen Bereichen nicht auflösen. In Tan u.a. (2018) demonstrieren wir, dass die Inversionsmethode Dichteverläufe mit einer lateralen Ausdehnung von 125 km oder weniger ermitteln kann, und somit einen wichtigen Beitrag zur Bestimmung von subkrustalen Dichteverteilungen im Mantel liefert. Wegen der genetischen Verbindung zwischen Subduktion, Orogenese und Retroarc Vorlandbecken stellt sich die Frage, ob die Annahme eines stationären thermischen Feldes für solch ein dynamisches Modelliergebiet zulässig ist. Um diese Frage zu beantworten wurde zum einen der Einfluss von Subduktion auf das konduktive thermische Feld auf die kontinentale Lithosphäre untersucht. Zum anderen wurde die Abweichung zwischen transientem und stationären thermischen Feld eines gekoppelten geodynamischen Modells untersucht. Beide Untersuchungen weisen darauf hin, dass die Annahme eines stationären thermischen Felds für den Großteil des Modelliergebiets zulässig ist. Im orogenen Keil, in dem diese Annahme nicht gilt, wurde das transiente thermische Feld mithilfe der erfolgten Untersuchungen abgeschätzt. Entsprechend kann für das Arbeitsgebiet im Vorland das strukturelle Modell aus dem ersten Schritt zur Berechnung des stationären 3D konduktiven thermischen Feldes herangezogen werden. Basierend auf der ermittelten Dichte- und Temperatur-Konfigurationen konnte anschließend die rheologische Konfiguration berechnet werden. Die rheologischen Analysen zeigen, dass die Lithosphäre in Falten- und Überschiebungsgürteln nur eine gerine Festigkeit besitzt und die Kruste Großteil zur integrierten Festigkeit beiträgt. Das benachbarte Vorlandbecken jedoch weist eine vollständig gekoppelte und starke Lithosphäre auf, weshalb Krustenverkürzung nur im vergleichsweise schwachen orogenen Keil aufgenommen werden kann. Daher komme ich zu der Schlussfolgerung, dass die Abscherhorizonte der Falten- und Überschiebungsgürtel die oberflächennahe Fortsetzung von Scherzonen in der duktilen Kruste unterhalb des Orogens sind. Die Lokalisation der Transferzonen zwischen der duktilen Kruste und dem Abscherhorizont sind dabei maßgeblich durch präexistente Schwächezonen in der Kruste beeinflusst. Im zerbrochenen Vorland der Sierras Pampeanas ist die Lithosphäre vollständig gekoppelt und durch einen Mantel hoher Festigkeit charakterisiert. Die sehr hohe integrierte lithosphärische Festigkeit des zerbrochenen Vorlands verhindert die Bildung von Störungen durch tektonische Kräfte. Selbst krustenskalige Schwächezonen können die Festigkeit nicht ausreichend reduzieren, weshalb eine thermische Schwächung benötigt wird. Daher spielt der Magmatismus, der in direkter Nachbarschaft zu den Schwächezonen in der Sierras Pampeanas nachgewiesen wurde, eine Schlüsselrolle in der Entstehung des zerbrochenen Vorlands. Diese Hypothese erklärt die große räumliche Distanz zwischen den Vorlandsockelüberschiebungen, sowie die beobachtete zeitliche Verzögerung zwischen Magmatismus und Hebung der Gebirgskämme. Die vorliegende Studie kann somit aufgrund Daten-integrativer Modellierung einen kausalen Zusammenhang zwischen der Lithosphärenstruktur, den beobachteten Deformationsmechanismen und unabhängigen geologischen Beobachtungen herstellen. KW - Argentina KW - Rheology KW - Foreland basin KW - Foreland basins KW - Density modelling KW - Chaco-Paraná basin KW - Andes KW - Argentinien KW - Rheologie KW - Vorlandbecken KW - Dichtemodellierung KW - Chaco-Paraná Becken KW - Anden Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439945 ER - TY - THES A1 - Nasery, Mustafa T1 - The success and failure of civil service reforms in Afghanistan T1 - Erfolg und Misserfolg der Reformen im öffentlichen Dienst Afghanistans BT - a critical study of reforms in a fragile and conflict-affected state BT - eine kritische Studie der Reformen in einem fragilen und konfliktbeladenen Staat N2 - The Government will create a motivated, merit-based, performance-driven, and professional civil service that is resistant to temptations of corruption and which provides efficient, effective and transparent public services that do not force customers to pay bribes. — (GoIRA, 2006, p. 106) We were in a black hole! We had an empty glass and had nothing from our side to fill it with! Thus, we accepted anything anybody offered; that is how our glass was filled; that is how we reformed our civil service. — (Former Advisor to IARCSC, personal communication, August 2015) How and under what conditions were the post-Taleban Civil Service Reforms of Afghanistan initiated? What were the main components of the reforms? What were their objectives and to which extent were they achieved? Who were the leading domestic and foreign actors involved in the process? Finally, what specific factors influenced the success and failure Afghanistan’s Civil Service Reforms since 2002? Guided by such fundamental questions, this research studies the wicked process of reforming the Afghan civil service in an environment where a variety of contextual, programmatic, and external factors affected the design and implementation of reforms that were entirely funded and technically assisted by the international community. Focusing on the core components of reforms—recruitment, remuneration, and appraisal of civil servants—the qualitative study provides a detailed picture of the pre-reform civil service and its major human resources developments in the past. Following discussions on the content and purposes of the main reform programs, it will then analyze the extent of changes in policies and practices by examining the outputs and effects of these reforms. Moreover, the study defines the specific factors that led the reforms toward a situation where most of the intended objectives remain unachieved. Doing so, it explores and explains how an overwhelming influence of international actors with conflicting interests, large-scale corruption, political interference, networks of patronage, institutionalized nepotism, culturally accepted cronyism and widespread ethnic favoritism created a very complex environment and prevented the reforms from transforming Afghanistan’s patrimonial civil service into a professional civil service, which is driven by performance and merit. N2 - Die Regierung wird einen motivierten, leistungsbasierten, leistungsorientierten und professionellen öffentlichen Dienst schaffen, der den Versuchungen der Korruption widersteht und effiziente, effektive und transparente öffentliche Dienstlesitungen anbietet, die Kundinnen und Kunden nicht dazu zwingt, Bestechungsgelder zu zahlen. — (GoIRA, 2006, p. 106) Wir waren in einem schwarzen Loch! Wir hatten ein leeres Glas und unsererseits nichts, um es zu füllen! Deshalb haben wir alles angenommen, was uns jemand anbot; so wurde unser Glas gefüllt; so haben wir unseren öffentlichen Dienst reformiert. — (Früherer Berater der IARCSC, persönliches Interview, August 2015) Wie und unter welchen Umständen wurden die Reformen des öffentlichen Dienstes in Afghanistan nach Ende der Taliban Zeit initiiert? Was waren die Ziele der Reformen und in welchem Maß wurden sie erreicht? Wer waren die führenden in- und ausländischen Akteure, die am Prozess beteiligt waren? Welche spezifischen Faktoren haben den Erfolg und Misserfolg der Reform des öffentlichen Dienstes Afghanistans seit 2002 beeinflusst? Diesen grundlegenden Fragen folgend, zeichnet diese Forschungsarbeit den verhängnisvollen Prozess der Reform des afghanischen öffentlichen Dienstes in einem Umfeld nach, in dem eine Vielzahl kontextueller, programmatischer und externer Faktoren die Ausgestaltung und Umsetzung der Reformen beeinflussten, die ausschließlich von internationalen Gemeinschaft finanziert und technisch unterstützt wurden. Die qualitative Untersuchung konzentriert sich auf drei Komponenten der Reform – Einstellung, Vergütung und Bewertung der Beamtinnen und Beamten – und liefert ein detailliertes Bild über den öffentlichen Dienst vor der Reform und der Hauptentwicklungen im Personalwesen in der Vergangenheit. Nach einer Diskussion über Inhalt und Zweck der wichtigsten Reformprogramme, zeigt die Studie das Ausmaß der Veränderungen in Politik und Praxis auf, indem sie die Ergebnisse und Auswirkungen der Reformen untersucht. Darüber hinaus definiert die Studie spezifische Faktoren, die dazu geführt haben, dass die meisten der angestrebten Reformziele nicht erreicht wurden. Dabei untersucht und erklärt sie, wie ein überwältigender Einfluss der internationalen Akteure mit widersprüchlichen Interessen zusammenwirkte mit großangelegter Korruption, politischer Einflussnahme, Netzwerken von Klientelismus, institutionalisiertem Nepotismus, kulturell akzeptierter Vetternwirtschaft und weit verbreiteter ethnischer Patronage. Dieses sehr komplexe Umfeld verhinderte grundlegende Reformen und die Transformation eines patrimonialen öffentlichen Dienstes in einen professionellen, leistungsorientierten öffentlichen Dienst in Afghanistan. KW - public administration KW - civil service reform KW - public administration reform KW - fragile and conflict-affected states KW - governance KW - international cooperation KW - Verwaltung KW - Reform des Öffentlichen Dienstes KW - Verwaltungsreform KW - fragile und konfliktbeladene Staaten KW - Governance KW - internationale Zusammenarbeit Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-444738 ER - TY - THES A1 - Wolf, Mathias Johannes T1 - The role of partial melting on trace element and isotope systematics of granitic melts T1 - Die Bedeutung partieller Schmelzbildung für die Spurenelement- und Isotopensystematik granitischer Schmelzen N2 - Partial melting is a first order process for the chemical differentiation of the crust (Vielzeuf et al., 1990). Redistribution of chemical elements during melt generation crucially influences the composition of the lower and upper crust and provides a mechanism to concentrate and transport chemical elements that may also be of economic interest. Understanding of the diverse processes and their controlling factors is therefore not only of scientific interest but also of high economic importance to cover the demand for rare metals. The redistribution of major and trace elements during partial melting represents a central step for the understanding how granite-bound mineralization develops (Hedenquist and Lowenstern, 1994). The partial melt generation and mobilization of ore elements (e.g. Sn, W, Nb, Ta) into the melt depends on the composition of the sedimentary source and melting conditions. Distinct source rocks have different compositions reflecting their deposition and alteration histories. This specific chemical “memory” results in different mineral assemblages and melting reactions for different protolith compositions during prograde metamorphism (Brown and Fyfe, 1970; Thompson, 1982; Vielzeuf and Holloway, 1988). These factors do not only exert an important influence on the distribution of chemical elements during melt generation, they also influence the volume of melt that is produced, extraction of the melt from its source, and its ascent through the crust (Le Breton and Thompson, 1988). On a larger scale, protolith distribution and chemical alteration (weathering), prograde metamorphism with partial melting, melt extraction, and granite emplacement are ultimately depending on a (plate-)tectonic control (Romer and Kroner, 2016). Comprehension of the individual stages and their interaction is crucial in understanding how granite-related mineralization forms, thereby allowing estimation of the mineralization potential of certain areas. Partial melting also influences the isotope systematics of melt and restite. Radiogenic and stable isotopes of magmatic rocks are commonly used to trace back the source of intrusions or to quantify mixing of magmas from different sources with distinct isotopic signatures (DePaolo and Wasserburg, 1979; Lesher, 1990; Chappell, 1996). These applications are based on the fundamental requirement that the isotopic signature in the melt reflects that of the bulk source from which it is derived. Different minerals in a protolith may have isotopic compositions of radiogenic isotopes that deviate from their whole rock signature (Ayres and Harris, 1997; Knesel and Davidson, 2002). In particular, old minerals with a distinct parent-to-daughter (P/D) ratio are expected to have a specific radiogenic isotope signature. As the partial melting reaction only involves selective phases in a protolith, the isotopic signature of the melt reflects that of the minerals involved in the melting reaction and, therefore, should be different from the bulk source signature. Similar considerations hold true for stable isotopes. N2 - Partielle Schmelzbildung ist ein zentraler Prozess für die geochemische Differentiation der Erdkruste (Vielzeuf et al., 1990). Die Umverteilung chemischer Elemente während der Schmelzbildung beeinflusst die Zusammensetzung der oberen und unteren Erdkruste entscheidend und stellt einen Mechanismus zur Konzentration und zum Transport chemischer Elemente dar. Das Verständnis der diversen Prozesse und der kontrollierenden Faktoren ist deshalb nicht nur von wissenschaftlichem Interesse sondern auch von ökonomischer Bedeutung um die Nachfrage für seltene Metalle zu decken. Die Umverteilung von Haupt- und Spurenelementen während des partiellen Aufschmelzens ist ein entscheidender Schritt für das Verständnis wie sich granitgebundene Lagerstätten bilden (Hedenquist and Lowenstern, 1994). Die Schmelzbildung und die Mobilisierung von Erz-Elementen (z. B. Sn, W, Nb, Ta) in die Schmelze hängt von der Zusammensetzung der sedimentären Ausgangsgesteine und den Schmelzbedingungen ab. Verschiedene Ausgangsgesteine haben aufgrund ihrer Ablagerungs- und Verwitterungsgeschichte unterschiedliche Zusammensetzungen. Dieses spezifische geochemische „Gedächtnis“ resultiert in unterschiedlichen Mineralparagenesen und Schmelzreaktionen in verschiedenen Ausgangsgesteinen während der prograden Metamorphose. (Brown and Fyfe, 1970; Thompson, 1982; Vielzeuf and Holloway, 1988). Diese Faktoren haben nicht nur einen wichtigen Einfluss auf die Verteilung chemischer Elemente während der Schmelzbildung, sie beeinflussen auch das Volumen an Schmelze, die Extraktion der Schmelze aus dem Ausgangsgestein und deren Aufstieg durch die Erdkruste (Le Breton and Thompson, 1988). Auf einer grösseren Skala unterliegen die Verteilung der Ausgangsgesteine und deren chemische Alteration (Verwitterung), die prograde Metamorphose mit partieller Schmelzbildung, Schmelzextraktion und die Platznahme granitischer Intrusionen einer plattentektonischen Kontrolle. Das Verständnis der einzelnen Schritte und deren Wechselwirkungen ist entscheidend um zu verstehen wie granitgebunden Lagerstätten entstehen und erlaubt es, das Mineralisierungspotential bestimmter Gebiete abzuschätzen. Partielles Aufschmelzen beeinflusst auch die Isotopensystematik der Schmelze und des Restites. Die Zusammensetzungen radiogener und stabiler Isotopen von magmatischen Gesteinen werden im Allgemeinen dazu verwendet um deren Ursprungsgesteine zu identifizieren oder um Mischungsprozesses von Magmen unterschiedlichen Ursprunges zu quantifizieren (DePaolo and Wasserburg, 1979; Lesher, 1990; Chappell, 1996). Diese Anwendungen basieren auf der fundamentalen Annahme, dass die Isotopenzusammensetzung der Schmelze derjenigen des Ausgangsgesteines entspricht. Unterschiedliche Minerale in einem Gestein können unterschiedliche, vom Gesamtgestein abweichende, Isotopenzusammensetzungen haben (Ayres and Harris, 1997; Knesel and Davidson, 2002). Insbesondere für alte Minerale, mit einem unterschiedlichen Mutter-Tochter Nuklidverhältnis, ist eine spezifische Isotopenzusammensetzung zu erwarten. Da im partiellen Schmelzprozess nur bestimmte Minerale eines Gesteines involviert sind, entspricht die Isotopenzusammensetzung der Schmelze derjenigen der Minerale welche an der Schmelzreaktion teilnehmen. Daher sollte die Isotopenzusammensetzung der Schmelze von derjenigen des Ursprungsgesteines abweichen. Ähnliche Überlegungen treffen auch für stabile Isotopen zu. KW - geochemistry KW - trace elements KW - radiogenic isotopes KW - stable isotopes KW - resources KW - Sn Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423702 ER - TY - THES A1 - Döring, Matthias T1 - The public encounter T1 - Dynamiken von Bürger-Staat-Interaktionen BT - dynamics of citizen-state interactions N2 - This thesis puts the citizen-state interaction at its center. Building on a comprehensive model incorporating various perspectives on this interaction, I derive selected research gaps. The three articles, comprising this thesis, tackle these gaps. A focal role plays the citizens’ administrative literacy, the relevant competences and knowledge necessary to successfully interact with public organizations. The first article elaborates on the different dimensions of administrative literacy and develops a survey instrument to assess these. The second study shows that public employees change their behavior according to the competences that citizens display during public encounters. They treat citizens preferentially that are well prepared and able to persuade them of their application’s potential. Thereby, they signal a higher success potential for bureaucratic success criteria which leads to the employees’ cream-skimming behavior. The third article examines the dynamics of employees’ communication strategies when recovering from a service failure. The study finds that different explanation strategies yield different effects on the client’s frustration. While accepting the responsibility and explaining the reasons for a failure alleviates the frustration and anger, refusing the responsibility leads to no or even reinforcing effects on the client’s frustration. The results emphasize the different dynamics that characterize the nature of citizen-state interactions and how they establish their short- and long-term outcomes. N2 - Die vorliegende Arbeit setzt sich mit der direkten Interaktion zwischen BürgerInnen und Verwaltungen auseinander. Auf Basis eines umfassenden Modells, das verschiedene Perspektiven auf die Dynamiken dieser “public encounter” beschreibt, werden ausgewählte Forschungslücken hervorgehoben. Die drei Artikel, die diese Dissertation konstituieren, fokussieren diese Lücken. Dabei spielt die Frage nach den notwendigen Kompetenzen von BürgerInnen, die es ermöglichen, erfolgreich und auf Augenhöhe mit Verwaltungen interagieren zu können, eine wichtige Rolle. Die Relevanz verschiedener Dimensionen wird herausgearbeitet und mit Hilfe eines Survey-Instruments validiert. In einer weiteren Studie zeigt sich, dass VerwaltungsmitarbeiterInnen BürgerInnen bevorzugen, die dank dieser Kompetenzen besser auf Interaktionen vorbereitet sind. Aufgrund der besseren Vorbereitung sowie der Fähigkeit, ihr Gegenüber vom Nutzen des Antrags zu überzeugen, gelingt es BürgerInnen mit einer hohen Kompetenz, eine höhere Erfolgswahrscheinlichkeit im Sinne der organisationalen Ziele zu signalisieren. Der dritte Artikel beleuchtet die Dynamik der Kommunikationsstrategien von MitarbeiterInnen im Falle von Fehlern bei der Erbringung von Dienstleistungen. Die Studie stellt heraus, dass verschiedene Kommunikationsstrategien zur Wiedergutmachung von Fehlern unterschiedliche Effekte auf das Frustrationsniveau der KlientInnen haben. Hierbei zeigt sich, dass die bewusste Übernahme von Verantwortung sowie die Erläuterung der Ursachen des Fehlers die Frustration senken, während das Abwälzen der Verantwortung keinen bzw. sogar einen verstärkenden Effekt auf die Frustration hat. Die Ergebnisse verdeutlichen die Dynamiken, die bei der Interaktion zwischen BürgerInnen und Verwaltungen entstehen und für das kurz- und langfristige Ergebnis dieser Interaktionen maßgeblich sein können. KW - administrative literacy KW - behavioral public administration KW - citizen-state interactions KW - Verwaltungskompetenz KW - Behavioralistische Verwaltungswissenschaft KW - Bürger-Staat-Interaktionen Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-502276 ER - TY - THES A1 - Trautwein, Jutta T1 - The Mental lexicon in acquisition T1 - Das mentale Lexikon im Erwerb BT - assessment, size & structure BT - Messung, Größe und Struktur N2 - The individual’s mental lexicon comprises all known words as well related infor-mation on semantics, orthography and phonology. Moreover, entries connect due to simi-larities in these language domains building a large network structure. The access to lexical information is crucial for processing of words and sentences. Thus, a lack of information in-hibits the retrieval and can cause language processing difficulties. Hence, the composition of the mental lexicon is essential for language skills and its assessment is a central topic of lin-guistic and educational research. In early childhood, measurement of the mental lexicon is uncomplicated, for example through parental questionnaires or the analysis of speech samples. However, with growing content the measurement becomes more challenging: With more and more words in the mental lexicon, the inclusion of all possible known words into a test or questionnaire be-comes impossible. That is why there is a lack of methods to assess the mental lexicon for school children and adults. For the same reason, there are only few findings on the courses of lexical development during school years as well as its specific effect on other language skills. This dissertation is supposed to close this gap by pursuing two major goals: First, I wanted to develop a method to assess lexical features, namely lexicon size and lexical struc-ture, for children of different age groups. Second, I aimed to describe the results of this method in terms of lexical development of size and structure. Findings were intended to help understanding mechanisms of lexical acquisition and inform theories on vocabulary growth. The approach is based on the dictionary method where a sample of words out of a dictionary is tested and results are projected on the whole dictionary to determine an indi-vidual’s lexicon size. In the present study, the childLex corpus, a written language corpus for children in German, served as the basis for lexicon size estimation. The corpus is assumed to comprise all words children attending primary school could know. Testing a sample of words out of the corpus enables projection of the results on the whole corpus. For this purpose, a vocabulary test based on the corpus was developed. Afterwards, test performance of virtual participants was simulated by drawing different lexicon sizes from the corpus and comparing whether the test items were included in the lexicon or not. This allowed determination of the relation between test performance and total lexicon size and thus could be transferred to a sample of real participants. Besides lexicon size, lexical content could be approximated with this approach and analyzed in terms of lexical structure. To pursue the presented aims and establish the sampling method, I conducted three consecutive studies. Study 1 includes the development of a vocabulary test based on the childLex corpus. The testing was based on the yes/no format and included three versions for different age groups. The validation grounded on the Rasch Model shows that it is a valid instrument to measure vocabulary for primary school children in German. In Study 2, I estab-lished the method to estimate lexicon sizes and present results on lexical development dur-ing primary school. Plausible results demonstrate that lexical growth follows a quadratic function starting with about 6,000 words at the beginning of school and about 73,000 words on average for young adults. Moreover, the study revealed large interindividual differences. Study 3 focused on the analysis of network structures and their development in the mental lexicon due to orthographic similarities. It demonstrates that networks possess small-word characteristics and decrease in interconnectivity with age. Taken together, this dissertation provides an innovative approach for the assessment and description of the development of the mental lexicon from primary school onwards. The studies determine recent results on lexical acquisition in different age groups that were miss-ing before. They impressively show the importance of this period and display the existence of extensive interindividual differences in lexical development. One central aim of future research needs to address the causes and prevention of these differences. In addition, the application of the method for further research (e.g. the adaptation for other target groups) and teaching purposes (e.g. adaptation of texts for different target groups) appears to be promising. N2 - Das mentale Lexikon wird als individueller Speicher, der semantische, orthographi-sche und phonologische Informationen über alle bekannten Wörter enthält, verstanden. Die lexikalischen Einträge sind aufgrund von Ähnlichkeiten auf diesen Sprachebenen im Sinne einer Netzwerkstruktur verbunden. Bei der Sprachverarbeitung von Wörtern und Sätzen müssen die Informationen aus dem mentalen Lexikon abgerufen werden. Sind diese nicht oder nur teilweise vorhanden, ist der Prozess erschwert. Die Beschaffenheit des mentalen Lexikons ist damit zentral für sprachliche Fähigkeiten im Allgemeinen, welche wiederum es-senziell für den Bildungserfolg und die Teilhabe an der Gesellschaft sind. Die Erfassung des mentalen Lexikons und die Beschreibung seiner Entwicklung ist demnach ein wichtiger Schwerpunkt linguistischer Forschung. Im frühen Kindesalter ist es noch relativ einfach, den Umfang und Inhalt des menta-len Lexikons eines Individuums zu erfassen – dies kann beispielsweise durch Befragung der Eltern oder durch Aufzeichnung von Äußerungen erfolgen. Mit steigendem Inhalt wird diese Messung allerdings schwieriger: Umso mehr Wörter im mentalen Lexikon gespeichert sind, umso unmöglicher wird es, sie alle abzufragen bzw. zu testen. Dies führt dazu, dass es nur wenige Methoden zur Erfassung lexikalischer Eigenschaften nach Schuleintritt gibt. Aus die-sem Grund bestehen auch nur wenige aktuelle Erkenntnisse über den Verlauf der lexikali-schen Entwicklung in diesem Alter sowie deren spezifischen Einfluss auf andere (sprachliche) Fähigkeiten. Diese Lücke sollte in der vorliegenden Dissertation geschlossen werden. Dazu wurden zwei Ziele verfolgt: Zum einen sollte eine aussagekräftige Methode entwickelt wer-den, mit der Umfang und Inhalt des Wortschatzes von Kindern im Grundschulalter bis ins Erwachsenenalter bestimmt werden können. Zum anderen sollten die Ergebnisse der Me-thode dazu dienen, den lexikalischen Erwerb nach Schuleintritt genauer zu beschreiben und zu verstehen. Dabei wurde neben der Entwicklung der Lexikongröße auch die Struktur des Lexikons, d.h. die Vernetzung der Einträge untereinander, betrachtet. Die grundsätzliche Idee der Arbeit beruht auf der Wörterbuch-Methode, bei der eine Auswahl an Wörtern aus einem Wörterbuch getestet und die Ergebnisse auf das gesamte Wörterbuch übertragen werden, um die Lexikongröße einer Person zu bestimmen. In der vorliegenden Dissertation diente das childLex Korpus, das die linguistische Umwelt von Grundschulkindern enthält, als Grundlage. Zunächst wurde ein Wortschatztest entwickelt, der auf dem Korpus basiert. Anschließend wurde das Testverhalten von virtuellen Versuchs-personen simuliert, indem verschiedene Lexikongrößen aus dem Korpus gezogen wurden und überprüft wurde, welche der Items aus dem Wortschatztest in den Lexika enthalten waren. Dies ermöglichte die Bestimmung der Beziehung zwischen dem Verhalten im Wort-schatztest und der absoluten Lexikongröße und ließ sich dann auf tatsächliche Studienteil-nehmer übertragen. Neben der Wortschatzgröße konnten mit dieser Methode auch der wahrscheinliche Inhalt des mentalen Lexikons und so die Vernetzung des Lexikons zu ver-schiedenen Entwicklungszeitpunkten bestimmt werden. Drei Studien wurden konzipiert, um die vorgestellten Ziele zu erreichen und die prä-sentierte Methode zu etablieren. Studie 1 diente der Entwicklung des Wortschatztests, der auf den childLex Korpus beruht. Hierzu wurde das Ja/Nein-Testformat gewählt und ver-schiedene Versionen für unterschiedliche Altersgruppen erstellt. Die Validierung mithilfe des Rasch-Modells zeigt, dass der Test ein aussagekräftiges Instrument für die Erfassung des Wortschatzes von Grundschuldkindern im Deutschen darstellt. In Studie 2 werden der da-rauf basierende Mechanismus zur Schätzung von Lexikongrößen sowie Ergebnisse zu deren Entwicklung vom Grundschul- bis ins Erwachsenenalter präsentiert. Es ergaben sich plausible Ergebnisse in Bezug auf die Wortschatzentwicklung, die einer quadratischen Funktion folgt und mit etwa 6000 Wörtern in der ersten Klasse beginnt und im Durschnitt 73.000 Wörter im jungen Erwachsenenalter erreicht. Studie 3 befasste sich mit den lexikalischen Inhalten in Bezug auf die Netzwerkstruktur des mentalen Lexikons in verschiedenen Altersgruppen. Dabei zeigt sich, dass die orthographische Vernetzung des mentalen Lexikons im Erwerb ab-nimmt. Zusammengenommen liefert die Dissertation damit einen innovativen Ansatz zur Messung und Beschreibung der Entwicklung des mentalen Lexikons in der späteren Kind-heit. Die Studien bieten aktuelle Ergebnisse zum lexikalischen Erwerb in einer Altersgruppe, in der dazu bisher wenige Erkenntnisse vorlagen. Die Ergebnisse zeigen eindrücklich, wie wichtig diese Phase für den Wortschatzerwerb ist und legen außerdem nahe, dass es starke interindividuelle Unterschiede im lexikalischen Erwerb gibt. Diesen entgegenzuwirken ist eines der Ziele zukünftiger Forschung und Bildung. Zudem ergeben sich aus der Dissertation vielfältige Möglichkeiten zur Anwendung der Methode sowohl zu Forschungszwecken, z.B. in Bezug auf die Übertragung auf andere Zielgruppen und den Effekt der Ergebnisse auf an-dere Fähigkeiten, als auch für die pädagogische Arbeit, z.B. für die Anpassung von Texten an bestimmte Zielgruppen. KW - mental lexicon KW - language acquisition KW - language assessment KW - lexion size KW - lexicon structure KW - mentales Lexikon KW - Spracherwerb KW - Sprachstandserfassung KW - Wortschatzgröße KW - Wortschatzstruktur Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434314 ER - TY - THES A1 - Herrmann, Johannes T1 - The mechanical behavior of shales T1 - Das mechanische Verhalten von Schiefergesteinen N2 - The thesis comprises three experimental studies, which were carried out to unravel the short- as well as the long-term mechanical properties of shale rocks. Short-term mechanical properties such as compressive strength and Young’s modulus were taken from recorded stress-strain curves of constant strain rate tests. Long-term mechanical properties are represented by the time– dependent creep behavior of shales. This was obtained from constant stress experiments, where the test duration ranged from a couple minutes up to two weeks. A profound knowledge of the mechanical behavior of shales is crucial to reliably estimate the potential of a shale reservoir for an economical and sustainable extraction of hydrocarbons (HC). In addition, healing of clay-rich forming cap rocks involving creep and compaction is important for underground storage of carbon dioxide and nuclear waste. Chapter 1 introduces general aspects of the research topic at hand and highlights the motivation for conducting this study. At present, a shift from energy recovered from conventional resources e.g., coal towards energy provided by renewable resources such as wind or water is a big challenge. Gas recovered from unconventional reservoirs (shale plays) is considered a potential bridge technology. In Chapter 2, short-term mechanical properties of two European mature shale rocks are presented, which were determined from constant strain rate experiments performed at ambient and in situ deformation conditions (confining pressure, pc ≤ 100 MPa, temperature, T ≤ 125 °C, representing pc, T - conditions at < 4 km depth) using a Paterson– type gas deformation apparatus. The investigated shales were mainly from drill core material of Posidonia (Germany) shale and weathered material of Bowland (United Kingdom) shale. The results are compared with mechanical properties of North American shales. Triaxial compression tests performed perpendicular to bedding revealed semibrittle deformation behavior of Posidonia shale with pronounced inelastic deformation. This is in contrast to Bowland shale samples that deformed brittle and displayed predominantly elastic deformation. The static Young’s modulus, E, and triaxial compressive strength, σTCS, determined from recorded stress-strain curves strongly depended on the applied confining pressure and sample composition, whereas the influence of temperature and strain rate on E and σTCS was minor. Shales with larger amounts of weak minerals (clay, mica, total organic carbon) yielded decreasing E and σTCS. This may be related to a shift from deformation supported by a load-bearing framework of hard phases (e.g., quartz) towards deformation of interconnected weak minerals, particularly for higher fractions of about 25 – 30 vol% weak phases. Comparing mechanical properties determined at reservoir conditions with mechanical data applying effective medium theories revealed that E and σTCS of Posidonia and Bowland shale are close to the lower (Reuss) bound. Brittleness B is often quoted as a measure indicating the response of a shale formation to stimulation and economic production. The brittleness, B, of Posidonia and Bowland shale, estimated from E, is in good agreement with the experimental results. This correlation may be useful to predict B from sonic logs, from which the (dynamic) Young’s modulus can be retrieved. Chapter 3 presents a study of the long-term creep properties of an immature Posidonia shale. Constant stress experiments (σ = const.) were performed at elevated confining pressures (pc = 50 – 200 MPa) and temperatures (T = 50 – 200 °C) to simulate reservoir pc, T - conditions. The Posidonia shale samples were acquired from a quarry in South Germany. At stresses below ≈ 84 % compressive strength of Posidonia shale, at high temperature and low confining pressure, samples showed pronounced transient (primary) creep with high deformation rates in the semibrittle regime. Sample deformation was mainly accommodated by creep of weak sample constituents and pore space reduction. An empirical power law relation between strain and time, which also accounts for the influence of pc, T and σ on creep strain was formulated to describe the primary creep phase. Extrapolation of the results to a creep period of several years, which is the typical time interval for a large production decline, suggest that fracture closure is unlikely at low stresses. At high stresses as expected for example at the contact between the fracture surfaces and proppants added during stimulation measures, subcritical crack growth may lead to secondary and tertiary creep. An empirical power law is suggested to describe secondary creep of shale rocks as a function of stress, pressure and temperature. The predicted closure rates agree with typical production decline curves recorded during the extraction of hydrocarbons. At the investigated conditions, the creep behavior of Posidonia shale was found to correlate with brittleness, calculated from sample composition. In Chapter 4 the creep properties of mature Posidonia and Bowland shales are presented. The observed long-term creep behavior is compared to the short-term behavior determined in Chapter 2. Creep experiments were performed at simulated reservoir conditions of pc = 50 – 115 MPa and T = 75 – 150 °C. Similar to the mechanical response of immature Posidonia shale samples investigated in Chapter 3, creep strain rates of mature Bowland and Posidonia shales were enhanced with increasing stress and temperature and decreasing confining pressures. Depending on applied deformation conditions, samples displayed either only a primary (decelerating) or in addition also a secondary (quasi-steady state) and subsequently a tertiary (accelerating) creep phase before failure. At the same deformation conditions, creep strain of Posidonia shale, which is rich in weak constituents, is tremendously higher than of quartz-rich Bowland shale. Typically, primary creep strain is again mostly accommodated by deformation of weak minerals and local pore space reduction. At the onset of tertiary creep most of the deformation was accommodated by micro crack growth. A power law was used to characterize the primary creep phase of Posidonia and Bowland shale. Primary creep strain of shale rocks is inversely correlated to triaxial compressive strength and brittleness, as described in Chapter 2. Chapter 5 provides a synthesis of the experimental findings and summarizes the major results of the studies presented in Chapters 2 – 4 and potential applications in the Exploration & Production industry. Chapter 6 gives a brief outlook on potential future experimental research that would help to further improve our understanding of processes leading to fracture closure involving proppant embedment in unconventional shale gas reservoirs. Such insights may allow to improve stimulation techniques aimed at maintaining economical extraction of hydrocarbons over several years. N2 - Die vorliegende Dissertation befasst sich mit drei separaten, experimentellen Studien, die durchgeführt wurden, um die mechanischen Eigenschaften, wie Druckfestigkeit, Elastizitätsmodul und Langzeit-Kriecheigenschaften von Schiefergesteinen zu untersuchen. Dabei wurden die aufgezeichneten Spannungs-Verformungskurven von kurzzeitigen (wenige Minuten) Deformationsexperimenten bei konstanter Verformungsrate genutzt, um mechanische Druckfestigkeit und elastische Parameter zu bestimmen. Um die zeitabhängigen Kriecheigenschaften zu charakterisieren, wurden Deformationstests bei konstanter Spannung durchgeführt. Hier variierte die Testdauer zwischen wenigen Minuten und zwei Wochen. Ein verbesserter Kenntnisstand auf diesem Gebiet ist notwendig, um das Potential eines unkonventionellen Schiefergesteinsreservoirs im Hinblick auf eine wirtschaftliche und nachhaltige Förderung von Kohlenwasserstoffen zuverlässig abzuschätzen. Im ersten Kapitel wird eine allgemeine Einleitung in das Thema der Dissertation gegeben, wobei im Besonderen auf die Motivation für die vorliegende Studie eingegangen wird. Die Einleitung fokussiert sich dabei auf die aktuell vorherrschende Herausforderung, die Energieversorgung durch konventionelle Ressourcen, wie beispielsweise Kohle, durch regenerative Ressourcen, wie z.B. Wind oder Wasser, zu ersetzen. Üblicherweise wird der Energiezeugung aus unkonventionell gewonnenem Erdgas dabei die Rolle einer Brückentechnologie zugewiesen. Die Motivation zur Durchführung dieser Arbeit ist es, das mechanische Verhalten von Gasschiefern zu untersuchen, die auch in Europa einen substantiellen Beitrag zur Gasförderung liefern können. In Kapitel 2 werden die Ergebnisse von Experimenten dargestellt, die exemplarisch auf die Bestimmung der Druckfestigkeit und des Elastizitätsmoduls von zwei reifen, europäischen Schiefergesteinen abzielen. Dazu wurden in einer Gasdruckapparatur Deformationsexperimente an Proben durchgeführt die senkrecht zur Schichtung orientiert entnommen wurden. Die Versuche wurden bei konstanter Verformungsrate und bei nachgestellten in situ Umgebungsbedingungen bis etwa 4 km Tiefe durchgeführt (Manteldruck, pc ≤ 100 MPa, Temperatur, T ≤ 125 °C). Die untersuchten Schieferproben stammen hauptsächlich aus Kernmaterial von erbohrtem Posidonienschiefer aus Niedersachsen und aus englischen Bowlandschiefer, das aus natürlichen Aufschlüssen gewonnen wurde. Zusätzlich wurden einige nordamerikanische Schieferproben zum Vergleich untersucht. Die triaxialen Kompressionstests zeigen ein semi-sprödes Deformationsverhalten mit ausgeprägter inelastischer Verformung des untersuchten Posidonienschiefers, wohingegen sich Bowlandschiefer spröde und bis zum Bruch vorzugsweise elastisch verformt. Der Elastizitätsmodul, E, und die Druckfestigkeit, σTCS, weisen bei erhöhten Drücken und Temperaturen eine starke Abhängigkeit vom Manteldruck und der Gesteinsmineralogie auf. Der Einfluss von Temperatur und Verformungsrate auf E und σTCS ist dagegen vernachlässigbar. Mit ansteigendem Anteil an mechanisch weichen Mineralphasen, z.B. Ton, Glimmer und organisch gebundenem Kohlenstoff, nehmen E und σTCS der untersuchten Schiefergesteine ab. Dies ist durch eine verändertes Verformungsverhalten begründet, das von der Deformation eines lasttragenden Gerüstes aus mechanisch festen Mineralen, wie beispielsweise Quarz, bis zu einer Verformung von miteinander verbundenen mechanisch weichen Mineralen reicht. Der Übergang wurde ab einem Volumenanteil von etwa 25 – 30 vol% weicher Mineralphasen beobachtet. Beim Vergleich der experimentell ermittelten mechanischen Eigenschaften (E, σTCS) mit Vorhersagen, in denen die Zusammensetzung der Schiefer berücksichtigt wird (effective medium theories, Voigt-Reuss Grenzen) ist erkennbar, dass E und σTCS nahe an der unteren (Reuss) Grenze liegen. Die aus dem Elastizitätsmodul berechnete Sprödfestigkeit (brittleness, B) von Posidonien- und Bowlandschiefer stimmt gut mit dem gemessenen Spannungs-Verformungsverhalten überein. Die Sprödfestigkeit eines Gesteins wird oft als Indiz zur Abschätzung des möglichen Erfolges von Stimulationsmaßnahmen betrachtet. Daher ist der Zusammenhang zwischen elastischen Eigenschaften, die sich mit Ultraschallmessungen (sonic-log) in Bohrungen abschätzen lassen und dem mechanischen Verhalten von Gasschiefern für eine schnelle und kostengünstige Beurteilung wichtig. Im dritten Kapitel werden die Langzeit-Kriecheigenschaften von Schiefergesteinen untersucht. Dafür wurden Deformationsexperimente bei konstanter Spannung (σ = konst.) und erhöhten Umlagerungsdrücken (pc = 50 – 200 MPa) und Temperaturen (T = 50 – 200 °C) an einem unreifen Posidonienschiefer, welcher in einem aktiven Steinbruch in Süddeutschland gewonnen wurde, durchgeführt. Bei Spannungen unterhalb ≈ 84 % der Druckfestigkeit des Schiefers und hohen Temperaturen und niedrigen Manteldrücken zeigen die deformierten Schieferproben transientes (primäres) Kriechen im semi-spröden Regime mit relativ hohen Verformungsraten. Der größte Teil der Deformation wird dabei durch die Verformung von mechanisch weichen Mineralphasen und Porenraumreduktion aufgenommen. Ein empirisches Potenzgesetz wurde aufgestellt, um die zeitabhängige primäre Kriechphase in Abhängigkeit von Manteldruck, Temperatur und Spannung zu charakterisieren. Dabei wurde festgestellt, dass ein mögliches Rissschließen über einen typischen Zeitraum von wenigen Jahren bei der Annahme von ausschließlich primären Kriechen unwahrscheinlich ist. Typischerweise entstehen an den Kotaktflächen zwischen hydraulisch stimulierten Rissen innerhalb der Schieferformation und dem Stützmittel, welches dem Stimulationsfluid hinzugefügt wird, um offene Risse aufrecht zu erhalten, hohe Differentialspannungen. Dadurch kann zusätzliches (subkritisches) Risswachstum initiiert werden, welches bei den untersuchten Proben unter hoher Differentialspannung zusätzlich zum primären auch zum sekundären und tertiären Kriechen bis zum Versagen der Probe führte. Bei Verwendung eines empirischen Potenzgesetzes zur Beschreibung der sekundären Kriechphase kann eine, im Vergleich zur primären Kriechregime, substanziell höhere Rissschließungsrate abgeschätzt werden. Diese erscheint wesentlich zuverlässiger, da sie mit den Zeiträumen typische gemessener Produktionsrückgänge einer Bohrung übereinstimmt. Zusätzlich wurde eine inverse Korrelation zwischen gemessener Verformung und Sprödigkeit, basierend auf der Schiefermineralogie, festgestellt. In Kapitel 4 werden weiterführende Untersuchungen vorgestellt, in dem die Kriecheigenschaften von reifem Posidonien-und Bowlandschiefer gemessen und mit den mechanischen Eigenschaften, bestimmt in Kurzzeit-Deformationsversuchen bei konstanter Verformungsrate (Kapitel 2) verglichen werden. Dafür wurden Kriechversuche an Posidonien- und Bowlandschiefermaterial, wie in Kapitel 2 beschrieben, bei simulierten Reservoirdrücken und -temperaturen durchgeführt (pc = 50 – 115 MPa, T = 75 – 150 °C). Auch für diese Schiefergesteine wurde eine erhöhte Verformung bei erhöhten Spannungen und Temperaturen und niedrigen Manteldrücken gemessen. In Abhängigkeit von den vorherrschenden Deformationsbedingungen wiesen die Proben beider Schiefergesteine entweder nur eine primäre oder zusätzlichen zur primären auch eine sekundäre und tertiäre Kriechphase auf. Bei gleichem Umlagerungsdruck und gleicher Temperatur erwies sich der tonreiche Posidonienschiefer als deutlich weniger fest als der quarzreiche Bowlandschiefer. Während der Großteil der Deformation in der primären Kriechphase durch die Verformung von weichen Mineralen und Porenraumreduktion aufgefangen wurde, ist eine Mikrorissbildung bezeichnend für das tertiäre Kriechen. Um das primäre Kriechverhalten der unterschiedlichen Schiefergesteine zu charakterisieren, wurde auch hier ein Potenzgesetz genutzt, welches einen Vergleich mit den Kriecheigenschaften anderer Schiefergesteinen erlaubt. Die gewonnenen Ergebnisse zeigen eine deutliche inverse Korrelation zwischen primärer Verformung und der gemessenen Druckfestigkeit und der berechneten Sprödigkeit. Dies ermöglicht es die Langzeit-Kriecheigenschaften von Schiefergesteinen mit den, aus einem Kurzzeittest gemessenen, mechanischen Eigenschaften grob abzuschätzen, solange die angenommen Zeitintervalle zwischen zwei Stimulationsoperationen in dem in der Praxis typischen Zeitintervall von einigen Jahren liegt. Im fünften Kapitel werden die erzielten Ergebnisse nochmals im Zusammenhang dargestellt. Hier wird im Besonderen auf eine potentielle Anwendung der Ergebnisse in der E & P - Industrie eingegangen. Abschließend wird im sechsten Kapitel auf mögliche Experimente eingegangen, die zukünftig durchgeführt werden könnten, um unser Verständnis in Bezug auf die spannungsinduzierte Rissschließung in Schieferlagerstätten durch die Einbettung der Stützmittel in die Formation zu verbessern. Diese Erkenntnisse wären wiederum hilfreich, um eine ökonomische und nachhaltige Förderung von Kohlenwasserstoffen von stimulierten Bohrungen zu gewährleisten, die in unkonventionelle Lagerstätten abgeteuft wurden. KW - strength KW - Young's modulus KW - creep properties KW - Festigkeit KW - Elastizitätsmodul KW - Kriecheigenschaften Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429683 ER - TY - THES A1 - Kolk, Jens T1 - The long-term legacy of historical land cover changes T1 - Die Langzeitfolgen historischer Landbedeckungsveränderungen BT - patterns and dynamics in herb-layer species richness in deciduous forests of the Prignitz region (NE Germany) BT - Muster und Dynamik der Artenvielfalt von Waldpflanzengemeinschaften in Laubwäldern der Prignitz (Nordostdeutschland) N2 - Over the last years there is an increasing awareness that historical land cover changes and associated land use legacies may be important drivers for present-day species richness and biodiversity due to time-delayed extinctions or colonizations in response to historical environmental changes. Historically altered habitat patches may therefore exhibit an extinction debt or colonization credit and can be expected to lose or gain species in the future. However, extinction debts and colonization credits are difficult to detect and their actual magnitudes or payments have rarely been quantified because species richness patterns and dynamics are also shaped by recent environmental conditions and recent environmental changes. In this thesis we aimed to determine patterns of herb-layer species richness and recent species richness dynamics of forest herb layer plants and link those patterns and dynamics to historical land cover changes and associated land use legacies. The study was conducted in the Prignitz, NE-Germany, where the forest distribution remained stable for the last ca. 100 years but where a) the deciduous forest area had declined by more than 90 per cent (leaving only remnants of "ancient forests"), b) small new forests had been established on former agricultural land ("post-agricultural forests"). Here, we analyzed the relative importance of land use history and associated historical land cover changes for herb layer species richness compared to recent environmental factors and determined magnitudes of extinction debt and colonization credit and their payment in ancient and post-agricultural forests, respectively. We showed that present-day species richness patterns were still shaped by historical land cover changes that ranged back to more than a century. Although recent environmental conditions were largely comparable we found significantly more forest specialists, species with short-distance dispersal capabilities and clonals in ancient forests than in post-agricultural forests. Those species richness differences were largely contingent to a colonization credit in post-agricultural forests that ranged up to 9 species (average 4.7), while the extinction debt in ancient forests had almost completely been paid. Environmental legacies from historical agricultural land use played a minor role for species richness differences. Instead, patch connectivity was most important. Species richness in ancient forests was still dependent on historical connectivity, indicating a last glimpse of an extinction debt, and the colonization credit was highest in isolated post-agricultural forests. In post-agricultural forests that were better connected or directly adjacent to ancient forest patches the colonization credit was way smaller and we were able to verify a gradual payment of the colonization credit from 2.7 species to 1.5 species over the last six decades. N2 - In den vergangenen Jahren reift immer mehr die Erkenntnis, dass historische Landnutzungsveränderungen und deren Folgewirkungen einen wichtigen Einfluss auf die heutige Artenvielfalt und Biodiversität haben können. In Habitaten, deren Landnutzung und Fläche sich in historischer Zeit verändert hat kann aufgrund von verzögerten Aussterbe- und Einwanderungsprozessen eine erhöhte oder verringerte Artenvielfalt vorliegen, die nicht den heutigen Umweltbedingungen entspricht. Es liegen Aussterbeschulden oder Einwanderungs- bzw. Kolonisierungskredite vor, welcher über die Zeit mit Artverlusten oder Zugewinnen von Arten bezahlt werden. Aussterbeschulden oder Einwanderungskredite und deren Bezahlung sind schwierig zu ermitteln, da einerseits Informationen zu historischen Landnutzungsveränderungen oft fehlen und andererseits auch heutige Umweltfaktoren einen wichtigen Einfluss auf die Artenvielfalt haben. Das Ziel dieser Arbeit war es die heutigen Muster der Artenvielfalt von Waldbodenpflanzen in Laub- und Mischwäldern und deren Veränderungen über die letzten 60 Jahre zu ermitteln und diese Muster im Hinblick auf historische Landnutzungsveränderungen zu untersuchen. Das Studiengebiet umfasst große Teile der Prignitz (Brandenburg und angrenzende Teile von Sachsen-Anhalt), ein Gebiet, dessen Waldanteil sich in den letzten 100 Jahren kaum verändert hat, in dem sich jedoch seit dem Ende des 19ten Jahrhunderts der Anteil historisch alter Wälder (ohne historische nachgewiesene agrarliche Nutzung) um mehr als 90% reduziert hat, während an anderer Stelle wenige neue Wälder auf vorigen Agrarflächen etabliert wurden. Im Rahmen dieser Studie wurde zunächst die Artenvielfalt und deren aktuelle Veränderung in historisch-alten Wäldern und neu etablierten Wäldern untersucht und verglichen. Um den Einfluss von historischen Landnutzungsveränderungen auf die Artenvielfalt zu ermittlen, wurde die historische und heutige Vernetzung der Waldflächen analysiert, die Umweltbedingungen in historisch-alten Wäldern und neu etablierten Wäldern verglichen und der Umfang und die Bezahlung der Aussterbeschulden und der Kolonisierungskredite ermittelt. Die Arbeit zeigt, dass historische Landnutzungsveränderungen die heutige Artenvielfalt noch immer beeinflussen. Obwohl die heutigen Umweltbedingungen in historisch-alten und neu etablierten Wäldern vergleichbar waren, war die Gesamtartenzahl in historisch-alten Wäldern signifikant höher und in diesen Wäldern wurden insbesondere mehr Waldspezialisten und sich nur über kurze Enfernung ausbreitende Pflanzenarten gefunden. Die Unterschiede in den Artenzahlen sind vor allem auf einen Kolonisierungskredit in neu etablierten Wäldern zurückzuführen, während die Aussterbeschulden in historisch-alten Wäldern weitgehend bezahlt wurden. Der Kolonisierungskredits war am höchsten in isoliert gelegenen Waldflächen und belief sich auf bis zu 9 Arten (im Mittel 4,7). Der Kolonisierungskredit in besser vernetzten und in direkt an historisch-alten Wäldern angrenzenden Flächen war deutlich geringer. In diesen Wäldern konnte eine Verringerung des Kolonisierungskredites von im Mittel 2,7 zu 1,5 Arten über die letzten sechs Jahrzehnte nachgewiesen werden. KW - ecology KW - plant science KW - extinction debt KW - colonization credit KW - species richness KW - land use history KW - Ökologie KW - Pflanzenwissenschaften KW - Botanik KW - Aussterbeschuld KW - Einwanderungskredit KW - Biodiversität KW - Landnutzungshistorie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439398 ER - TY - THES A1 - Thater, Sabine T1 - The interplay between supermassive black holes and their host galaxies T1 - Das Zusammenspiel zwischen supermassereichen Schwarzen Löchern und ihren Muttergalaxien N2 - Supermassive black holes reside in the hearts of almost all massive galaxies. Their evolutionary path seems to be strongly linked to the evolution of their host galaxies, as implied by several empirical relations between the black hole mass (M BH ) and different host galaxy properties. The physical driver of this co-evolution is, however, still not understood. More mass measurements over homogeneous samples and a detailed understanding of systematic uncertainties are required to fathom the origin of the scaling relations. In this thesis, I present the mass estimations of supermassive black holes in the nuclei of one late-type and thirteen early-type galaxies. Our SMASHING sample extends from the intermediate to the massive galaxy mass regime and was selected to fill in gaps in number of galaxies along the scaling relations. All galaxies were observed at high spatial resolution, making use of the adaptive-optics mode of integral field unit (IFU) instruments on state-of-the-art telescopes (SINFONI, NIFS, MUSE). I extracted the stellar kinematics from these observations and constructed dynamical Jeans and Schwarzschild models to estimate the mass of the central black holes robustly. My new mass estimates increase the number of early-type galaxies with measured black hole masses by 15%. The seven measured galaxies with nuclear light deficits (’cores’) augment the sample of cored galaxies with measured black holes by 40%. Next to determining massive black hole masses, evaluating the accuracy of black hole masses is crucial for understanding the intrinsic scatter of the black hole- host galaxy scaling relations. I tested various sources of systematic uncertainty on my derived mass estimates. The M BH estimate of the single late-type galaxy of the sample yielded an upper limit, which I could constrain very robustly. I tested the effects of dust, mass-to-light ratio (M/L) variation, and dark matter on my measured M BH . Based on these tests, the typically assumed constant M/L ratio can be an adequate assumption to account for the small amounts of dark matter in the center of that galaxy. I also tested the effect of a variable M/L variation on the M BH measurement on a second galaxy. By considering stellar M/L variations in the dynamical modeling, the measured M BH decreased by 30%. In the future, this test should be performed on additional galaxies to learn how an as constant assumed M/L flaws the estimated black hole masses. Based on our upper limit mass measurement, I confirm previous suggestions that resolving the predicted BH sphere-of-influence is not a strict condition to measure black hole masses. Instead, it is only a rough guide for the detection of the black hole if high-quality, and high signal-to-noise IFU data are used for the measurement. About half of our sample consists of massive early-type galaxies which show nuclear surface brightness cores and signs of triaxiality. While these types of galaxies are typically modeled with axisymmetric modeling methods, the effects on M BH are not well studied yet. The massive galaxies of our presented galaxy sample are well suited to test the effect of different stellar dynamical models on the measured black hole mass in evidently triaxial galaxies. I have compared spherical Jeans and axisymmetric Schwarzschild models and will add triaxial Schwarzschild models to this comparison in the future. The constructed Jeans and Schwarzschild models mostly disagree with each other and cannot reproduce many of the triaxial features of the galaxies (e.g., nuclear sub-components, prolate rotation). The consequence of the axisymmetric-triaxial assumption on the accuracy of M BH and its impact on the black hole - host galaxy relation needs to be carefully examined in the future. In the sample of galaxies with published M BH , we find measurements based on different dynamical tracers, requiring different observations, assumptions, and methods. Crucially, different tracers do not always give consistent results. I have used two independent tracers (cold molecular gas and stars) to estimate M BH in a regular galaxy of our sample. While the two estimates are consistent within their errors, the stellar-based measurement is twice as high as the gas-based. Similar trends have also been found in the literature. Therefore, a rigorous test of the systematics associated with the different modeling methods is required in the future. I caution to take the effects of different tracers (and methods) into account when discussing the scaling relations. I conclude this thesis by comparing my galaxy sample with the compilation of galaxies with measured black holes from the literature, also adding six SMASHING galaxies, which were published outside of this thesis. None of the SMASHING galaxies deviates significantly from the literature measurements. Their inclusion to the published early-type galaxies causes a change towards a shallower slope for the M BH - effective velocity dispersion relation, which is mainly driven by the massive galaxies of our sample. More unbiased and homogenous measurements are needed in the future to determine the shape of the relation and understand its physical origin. N2 - Supermassereiche schwarze Löcher befinden sich in den Herzen von fast allen massiven Galaxien. Ihr evolutionärer Werdegang scheint stark mit dem Wachstum ihrer Muttergalaxien in Verbindung zu stehen, wie mehrere empirische Beziehungen zwischen der Masse der schwarzen Löcher (M BH ) und verschiedenen Eigenschaften der Muttergalaxien andeuten. Der physikalische Ursprung dieser Koevolution ist jedoch immer noch nicht verstanden. Weitere Massenmessungen über homogene Galaxienproben und ein detailliertes Verständnis der systematischen Unsicherheiten sind erforderlich, um den Ursprung dieser Skalierungsbeziehungen zu ergründen. In dieser Arbeit präsentiere ich die Massenabschätzungen von Supermassereichen Schwarzen Löchern der Zentren einer Spiral- und dreizehn elliptischer und linsenförmiger Galaxien. Meine SMASHING-Probe erstreckt sich vom mittleren bis zum hohen Galaxienmassenbereich und wurde ausgewählt, um Lücken entlang der Skalierungsbeziehungen zu schließen. Alle Galaxien wurden mit hoher räumlicher Auflösung beobachtet, wobei der adaptivoptische Modus von Integralfeldspektrographen (IFU) modernster Teleskope (SINFONI, NIFS, MUSE) verwendet wurde. Aus diesen Beobachtungen habe ich die Sternenkinematik extrahiert und dynamische Jeans- und Schwarzschildmodelle konstruiert, um die Masse der zentralen Schwarzen Löcher robust zu bestimmen. Meine neuen Massenschätzungen erhöhen die Anzahl elliptischer Galaxien mit vermessenen Schwarzen Löchern um 15%. Die sieben vermessenen Galaxien mit inneren Lichtdefiziten ("Cores") ergänzen die Probe der Core-Galaxien mit gemessenen schwarzen Löchern um 40%. Neben der Bestimmung ist die Beurteilung der Genauigkeit von Schwarzlochmassen entscheidend für das Verständnis der intrinsischen Streuung der Beziehungen zwischen schwarzem Loch und Muttergalaxie. Ich habe meine abgeleiteten Massenabschätzungen auf verschiedene systematische Fehlerquellen getestet. Dabei habe ich Bezug genommen auf die Auswirkungen von Staub, Variation des Masse-Licht-Verhältnisses (M/L), Dunkler Materie, verschiedener dynamischer Modelle und verschiedener dynamischer Tracer. Die Ergebnisse präsentiere ich in dieser Arbeit. Ich schließe diese Arbeit, indem ich meine Galaxienprobe mit der den in der Forschungsliteratur zusammengestellten Galaxien mit bereits vermessenen Schwarzen Löchern vergleiche und auch sechs SMASHING-Galaxien hinzufüge, die außerhalb dieser Arbeit veröffentlicht wurden. Keine der SMASHING-Galaxien weicht signifikant von den veröffentlichten Messungen ab. Eine gemeinsame Analyse meiner Messungen und der veröffentlichten elliptischen Galaxien ergibt eine Abflachung der Steigung für die M BH - effektive Geschwindigkeitsdispersionsbeziehung, die hauptsächlich von den massiven Galaxien meiner Probe bewirkt wird. In Zukunft sind unvoreingenommene und homogenere Messungen erforderlich, um die Form der Skalierungsbeziehung zu bestimmen und ihren physikalischen Ursprung zu verstehen. KW - supermassive black holes KW - galaxy evolution KW - stellar kinematics KW - galaxy dynamics KW - integral field spectroscopy KW - supermassereiche Schwarze Löcher KW - Galaxienentwicklung KW - stellare Kinematik KW - Galaxiendynamik KW - Integralfieldspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437570 ER - TY - THES A1 - Kehm, Richard T1 - The impact of metabolic stress and aging on functionality and integrity of pancreatic islets and beta-cells T1 - Der Einfluss von metabolischem Stress und Alterung auf die Funktionalität und Integrität von Langerhans-Inseln und β-Zellen N2 - The increasing age of worldwide population is a major contributor for the rising prevalence of major pathologies and disease, such as type 2 diabetes, mediated by massive insulin resistance and a decline in functional beta-cell mass, highly associated with an elevated incidence of obesity. Thus, the impact of aging under physiological conditions and in combination with diet-induced metabolic stress on characteristics of pancreatic islets and beta-cells, with the focus on functionality and structural integrity, were investigated in the present dissertation. Primarily induced by malnutrition due to chronic and excess intake of high caloric diets, containing large amounts of carbohydrates and fats, obesity followed by systemic inflammation and peripheral insulin resistance occurs over time, initiating metabolic stress conditions. Elevated insulin demands initiate an adaptive response by beta-cell mass expansion due to increased proliferation, but prolonged stress conditions drive beta-cell failure and loss. Aging has been also shown to affect beta-cell functionality and morphology, in particular by proliferative limitations. However, most studies in rodents were performed under beta-cell challenging conditions, such as high-fat diet interventions. Thus, in the first part of the thesis (publication I), a characterization of age-related alterations on pancreatic islets and beta-cells was performed by using plasma samples and pancreatic tissue sections of standard diet-fed C57BL/6J wild-type mice in several age groups (2.5, 5, 10, 15 and 21 months). Aging was accompanied by decreased but sustained islet proliferative potential as well as an induction of cellular senescence. This was associated with a progressive islet expansion to maintain normoglycemia throughout lifespan. Moreover, beta-cell function and mass were not impaired although the formation and accumulation of AGEs occurred, located predominantly in the islet vasculature, accompanied by an induction of oxidative and nitrosative (redox) stress. The nutritional behavior throughout human lifespan; however, is not restricted to a balanced diet. This emphasizes the significance to investigate malnutrition by the intake of high-energy diets, inducing metabolic stress conditions that synergistically with aging might amplify the detrimental effects on endocrine pancreas. Using diabetes-prone NZO mice aged 7 weeks, fed a dietary regimen of carbohydrate restriction for different periods (young mice - 11 weeks, middle-aged mice - 32 weeks) followed by a carbohydrate intervention for 3 weeks, offered the opportunity to distinguish the effects of diet-induced metabolic stress in different ages on the functionality and integrity of pancreatic islets and their beta-cells (publication II, manuscript). Interestingly, while young NZO mice exhibited massive hyperglycemia in response to diet-induced metabolic stress accompanied by beta-cell dysfunction and apoptosis, middle-aged animals revealed only moderate hyperglycemia by the maintenance of functional beta-cells. The loss of functional beta-cell mass in islets of young mice was associated with reduced expression of PDX1 transcription factor, increased endocrine AGE formation and related redox stress as well as TXNIP-dependent induction of the mitochondrial death pathway. Although the amounts of secreted insulin and the proliferative potential were comparable in both age groups, islets of middle-aged mice exhibited sustained PDX1 expression, almost regular insulin secretory function, increased capacity for cell cycle progression as well as maintained redox potential. The results of the present thesis indicate a loss of functional beta-cell mass in young diabetes-prone NZO mice, occurring by redox imbalance and induction of apoptotic signaling pathways. In contrast, aging under physiological conditions in C57BL/6J mice and in combination with diet-induced metabolic stress in NZO mice does not appear to have adverse effects on the functionality and structural integrity of pancreatic islets and beta-cells, associated with adaptive responses on changing metabolic demands. However, considering the detrimental effects of aging, it has to be assumed that the compensatory potential of mice might be exhausted at a later point of time, finally leading to a loss of functional beta-cell mass and the onset and progression of type 2 diabetes. The polygenic, diabetes-prone NZO mouse is a suitable model for the investigation of human obesity-associated type 2 diabetes. However, mice at advanced age attenuated the diabetic phenotype or do not respond to the dietary stimuli. This might be explained by the middle age of mice, corresponding to the human age of about 38-40 years, in which the compensatory mechanisms of pancreatic islets and beta cells towards metabolic stress conditions are presumably more active. N2 - Das steigende Alter der Weltbevölkerung ist ein wesentlicher Faktor für die zunehmende Prävalenz bedeutsamer Pathologien und Krankheiten, wie dem Typ-2-Diabetes, der durch eine massive Insulinresistenz und eine Abnahme der funktionellen Beta-Zellmasse hervorgerufen wird und in hohem Maße mit einem verstärkten Auftreten von Fettleibigkeit assoziiert ist. Daher wurde in der vorliegenden Dissertation der Einfluss der Alterung unter physiologischen Bedingungen und in Kombination mit ernährungs-bedingtem, metabolischem Stress auf die Eigenschaften von Langerhans-Inseln und Beta-Zellen, mit dem Schwerpunkt auf Funktionalität und strukturelle Integrität, untersucht. Primär induziert durch Fehlernährung infolge des chronischen und übermäßigen Konsums von kalorienreichen Diäten, die große Mengen an Kohlenhydraten und Fetten enthalten, kann Adipositas, gefolgt von systemischen Entzündungen und peripherer Insulinresistenz, im Laufe des Lebens entstehen und metabolische Stresszustände auslösen. Daraus resultiert ein erhöhter Insulinbedarf, der eine adaptive Reaktion durch die Vergrößerung der Beta-Zellmasse infolge gesteigerter Proliferation auslöst. Längere Stressbedingungen führen hingegen zu Schäden an und Verlust von Beta-Zellen. Es wurde zudem gezeigt, dass das Altern die Funktionalität und Morphologie von Beta-Zellen, insbesondere durch proliferative Limitationen, beeinflusst. Die meisten Studien in Nagetieren wurden jedoch unter erhöhten Stressbedingungen für Beta-Zellen, beispielsweise durch die Fütterung von Hochfett-Diäten, durchgeführt. Deshalb wurde im ersten Teil der Arbeit (Publikation I) eine Charakterisierung von altersbedingten Veränderungen auf die Langerhans-Inseln und Beta-Zellen unter Verwendung von Plasmaproben und Pankreasgewebeschnitten von C57BL/6J-Wildtyp-Mäusen verschiedener Altersgruppen (2,5; 5; 10; 15 und 21 Monate), die mit einer Standarddiät gefüttert wurden, durchgeführt. Das Altern ging mit einem reduzierten, jedoch anhaltenden Proliferationspotential der Langerhans-Inseln sowie einer Induktion der zellulären Seneszenz einher. Dies war mit einem fortschreitenden Wachstum der Langerhans-Inseln verbunden, um eine Normoglykämie während der gesamten Lebensdauer aufrechtzuerhalten. Zudem wurden die Beta-Zell-Masse und die Funktionalität nicht beeinträchtigt, obwohl eine Bildung und Akkumulation von AGEs, die vorwiegend im Gefäßsystem der Langerhans-Inseln lokalisiert und von einer Induktion von oxidativem und nitrosativem (redox) Stress begleitet war, auftrat. Das Ernährungsverhalten während der gesamten Lebensspanne ist jedoch nicht auf eine ausgewogene Ernährung beschränkt. Dies unterstreicht die Bedeutung der Untersuchung von Fehlernährung durch die Einnahme energiereicher Diäten, wodurch metabolische Stresszustände induziert werden, die synergistisch mit dem Altern schädigende Effekte auf das endokrine Pankreas verstärken können. Verwendet wurden 7 Wochen alte, zur Entwicklung von Typ-2-Diabetes neigende NZO-Mäuse, die unterschiedlich langen kohlenhydratrestriktiven Fütterungsperioden (junge Mäuse - 11 Wochen, Mäuse mittleren Alters - 32 Wochen), gefolgt von einer 3-wöchigen Kohlenhydratintervention ausgesetzt waren. Dadurch konnten die Auswirkungen von ernährungsbedingtem metabolischem Stress auf die Funktionalität und Integrität von Langerhans-Inseln und deren Beta-Zellen in verschiedenen Altersstufen untersucht werden (Publikation II, Manuskript). Interessanterweise zeigten junge NZO-Mäuse eine massive Hyperglykämie als Reaktion auf den ernährungsbedingten, metabolischen Stress was von Beta-Zelldysfunktion und Apoptose begleitet war. Tiere mittleren Alters zeigten hingegen nur eine moderate Hyperglykämie durch den Erhalt funktioneller Beta-Zellen. Der Verlust funktioneller Beta-Zellmasse in jungen Mäusen war mit einer verminderten Expression des PDX1-Transkriptionsfaktors, einer erhöhten endokrinen AGE-Bildung und damit verbundenem Redox Stress sowie einer TXNIP-abhängigen Induktion des mitochondrialen Apoptosewegs verbunden. Obwohl die Mengen an sekretiertem Insulin sowie das Proliferationspotential in beiden Altersgruppen vergleichbar waren, zeigten die Langerhans-Inseln der Mäuse im mittleren Alter eine anhaltende PDX1-Expression, eine nahezu reguläre Insulinsekretionsfunktion, eine erhöhte Kapazität für das Fortschreiten des Zellzyklus sowie einen Erhalt des Redoxpotentials. Die Ergebnisse der vorliegenden Arbeit zeigen einen Verlust funktioneller Beta-Zellmasse bei jungen, diabetogenen NZO-Mäusen, der durch ein Redox-Ungleichgewicht und die Induktion apoptotischer Signalwege verursacht wurde. Im Gegensatz dazu scheint das Altern unter physiologischen Bedingungen bei C57BL/6J-Mäusen und in Kombination mit ernährungsbedingtem metabolischem Stress bei NZO-Mäusen keine nachteiligen Auswirkungen auf die Funktionalität und strukturelle Integrität von Langerhans und Beta-Zellen zu haben, was mit adaptiven Reaktionen auf wechselnde Stoffwechsel-anforderungen assoziiert war. In Anbetracht der negativen Auswirkungen der Alterung muss jedoch berücksichtigt werden, dass das Kompensationsverhalten von Mäusen zu einem späteren Zeitpunkt erschöpft sein könnte, was schließlich zu einem Verlust der funktionellen Beta-Zellmasse und dem Auftreten und Fortschreiten von Typ-2-Diabetes führt. Die polygene, zu Typ-2-Diabetes neigende NZO-Maus ist ein geeignetes Modell für die Untersuchung von mit Adipositas-assoziiertem Typ-2-Diabetes beim Menschen. Mäuse im fortgeschrittenen Alter zeigten jedoch einen verminderten diabetischen Phänotyp oder reagierten nicht auf die diätetischen Reize. Dies könnte durch das mittlere Alter der Mäuse erklärt werden, das dem menschlichen Alter von etwa 38 bis 40 Jahren entspricht, in dem die Kompensationsmechanismen von Langerhans-Inseln und Beta-Zellen gegenüber metabolischen Stressbedingungen möglicherweise aktiver sind. KW - Alterung KW - aging KW - Beta-Zelle KW - beta-cell KW - metabolischer Stress KW - metabolic stress Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441099 ER - TY - THES A1 - Kerutt, Josephine Victoria T1 - The high-redshift voyage of Lyman alpha and Lyman continuum emission as told by MUSE T1 - Die Reise der Lyman alpha- und Lyman Kontinuumsemission bei hoher Rotverschiebung erzählt von MUSE N2 - Most of the matter in the universe consists of hydrogen. The hydrogen in the intergalactic medium (IGM), the matter between the galaxies, underwent a change of its ionisation state at the epoch of reionisation, at a redshift roughly between 6>z>10, or ~10^8 years after the Big Bang. At this time, the mostly neutral hydrogen in the IGM was ionised but the source of the responsible hydrogen ionising emission remains unclear. In this thesis I discuss the most likely candidates for the emission of this ionising radiation, which are a type of galaxy called Lyman alpha emitters (LAEs). As implied by their name, they emit Lyman alpha radiation, produced after a hydrogen atom has been ionised and recombines with a free electron. The ionising radiation itself (also called Lyman continuum emission) which is needed for this process inside the LAEs could also be responsible for ionising the IGM around those galaxies at the epoch of reionisation, given that enough Lyman continuum escapes. Through this mechanism, Lyman alpha and Lyman continuum radiation are closely linked and are both studied to better understand the properties of high redshift galaxies and the reionisation state of the universe. Before I can analyse their Lyman alpha emission lines and the escape of Lyman continuum emission from them, the first step is the detection and correct classification of LAEs in integral field spectroscopic data, specifically taken with the Multi-Unit Spectroscopic Explorer (MUSE). After detecting emission line objects in the MUSE data, the task of classifying them and determining their redshift is performed with the graphical user interface QtClassify, which I developed during the work on this thesis. It uses the strength of the combination of spectroscopic and photometric information that integral field spectroscopy offers to enable the user to quickly identify the nature of the detected emission lines. The reliable classification of LAEs and determination of their redshifts is a crucial first step towards an analysis of their properties. Through radiative transfer processes, the properties of the neutral hydrogen clouds in and around LAEs are imprinted on the shape of the Lyman alpha line. Thus after identifying the LAEs in the MUSE data, I analyse the properties of the Lyman alpha emission line, such as the equivalent width (EW) distribution, the asymmetry and width of the line as well as the double peak fraction. I challenge the common method of displaying EW distributions as histograms without taking the limits of the survey into account and construct a more independent EW distribution function that better reflects the properties of the underlying population of galaxies. I illustrate this by comparing the fraction of high EW objects between the two surveys MUSE-Wide and MUSE-Deep, both consisting of MUSE pointings (each with the size of one square arcminute) of different depths. In the 60 MUSE-Wide fields of one hour exposure time I find a fraction of objects with extreme EWs above EW_0>240A of ~20%, while in the MUSE-Deep fields (9 fields with an exposure time of 10 hours and one with an exposure time of 31 hours) I find a fraction of only ~1%, which is due to the differences in the limiting line flux of the surveys. The highest EW I measure is EW_0 = 600.63 +- 110A, which hints at an unusual underlying stellar population, possibly with a very low metallicity. With the knowledge of the redshifts and positions of the LAEs detected in the MUSE-Wide survey, I also look for Lyman continuum emission coming from these galaxies and analyse the connection between Lyman continuum emission and Lyman alpha emission. I use ancillary Hubble Space Telescope (HST) broadband photometry in the bands that contain the Lyman continuum and find six Lyman continuum leaker candidates. To test whether the Lyman continuum emission of LAEs is coming only from those individual objects or the whole population, I select LAEs that are most promising for the detection of Lyman continuum emission, based on their rest-frame UV continuum and Lyman alpha line shape properties. After this selection, I stack the broadband data of the resulting sample and detect a signal in Lyman continuum with a significance of S/N = 5.5, pointing towards a Lyman continuum escape fraction of ~80%. If the signal is reliable, it strongly favours LAEs as the providers of the hydrogen ionising emission at the epoch of reionisation and beyond. N2 - Die Materie zwischen den Galaxien im Universum, das sogenannte intergalaktische Medium, besteht zum größten Teil aus Wasserstoff, welcher sich zusammensetzt aus einem Proton und einem Elektron. Etwa ~10^8 Jahre nach dem Urknall änderte sich der Ionisationszustand des Wasserstoffs im intergalaktischen Medium. Durch Strahlung wurden Proton und Elektronen getrennt, der Wasserstoff wurde ionisiert. Die Strahlung mit der nötigen Energie um Wasserstoff zu ionisieren nennt man Lyman Kontinuum Strahlung. Woher diese stammt ist bis heute eine offene Frage. In der vorliegenden Arbeit diskutiere ich die wahrscheinlichsten Kandidaten für die Emission dieser ionisierenden Strahlung: die Lyman alpha Emitter (LAE), eine Gruppe von Galaxien die man im frühen Universum antrifft. Hat nämlich ein Lyman Kontinuum Photon ein Wasserstoffatom ionisiert, kommt es häufig vor, dass sich Proton und Elektron wieder zu einem neutralen Wasserstoffatom verbinden. Bei diesem Prozess wird dann ein Lyman alpha Photon freigesetzt, was den LAE ihren Namen gibt. Da wir in den Spektren dieser Galaxien die Lyman alpha Photonen beobachten können, deren Voraussetzung die Existenz von Lyman Kontinuum Emission in der Galaxie ist, liegt es nahe anzunehmen, dass die Lyman Kontinuum Emission auch in das intergalaktische Medium vordringen kann um den Wasserstoff dort ebenfalls zu ionisieren. Durch diesen Mechanismus sind Lyman alpha und Lyman-Kontinuumsstrahlung eng miteinander verbunden und werden in dieser Arbeit beide untersucht, um die Eigenschaften von Galaxien im frühen Universum und den Zustand des Wasserstoffs im intergalaktischen Medium besser zu verstehen. Der erste Schritt ist jedoch die Detektion und korrekte Klassifizierung von LAE. Dafür benutze ich Daten des Multi-Unit Spectroscopic Explorer (MUSE), ein Instrument mit dem Beobachtungen möglich sind, die zwei räumliche Dimensionen mit einer spektralen Dimension verbinden. Somit ist in jedem Pixel der Daten ein Spektrum zur Verfügung, in dem nach Emissionslinien gesucht werden kann. Nach der Detektion von Emissionslinien in den MUSE-Daten wird die Aufgabe der Klassifizierung von der grafischen Benutzeroberfläche QtClassify unterstützt, die ich in dieser Arbeit entwickelt habe. Sie bietet dem Benutzer eine schnelle und übersichtliche Identifizierung der gefundenen Emissionslinien, was einen entscheidenden ersten Schritt zur Analyse der Eigenschaften der LAE darstellt. Da Lyman alpha Photonen in neutralem Wasserstoff, der im Inneren von Galaxien in Gaswolken vorkommt, gestreut wird, verändert sich die Form der Lyman alpha Emissionslinie im Spektrum. Nachdem also die LAE mit Hilfe von QtClassify identifiziert werden konnten, analysiere ich die Lyman alpha Linie hinsichtlich ihrer Breite, ihrer Symmetrie und ihrer Stärke und suche nach Doppellinien, die Hinweise auf die Kinematik der Wasserstoff Gaswolken geben. Besonders wichtig dabei ist die Stärke der Linie im Vergleich zum restlichen Spektrum, die sogenannte Äquivalentbreite. Dabei zeige ich, dass die übliche Methode die Verteilung der Äquivalentbreiten als Histogramme darzustellen ohne die Detektionsgrenzen der Beobachtungen miteinzubeziehen keine Aussage über die Eigenschaften der LAE, sondern lediglich über die Grenzen der Beobachtungen treffen. Daher konstruiere ich eine unabhängigere Verteilungsfunktion, die diese Grenzen mit einbezieht. Ich verdeutliche dies durch einen Vergleich des Anteils von Objekten mit hoher Äquivalentbreite in zwei verschiedenen Datensätzen, die auf Beobachtungen mit unterschiedlicher Belichtungszeit beruhen. Dabei finde ich in dem Datensatz mit der kürzeren Belichtungszeit einen Anteil von ~20% an Objekten mit hohen Äquivalentbreiten (über >240A) und nur ~1% im Datensatz mit der zehnfach längeren Belichtungszeit obwohl die Eigenschaften der LAE gleich sind. Zudem finde ich eine Galaxie mit einer Äquivalentbreite der Lyman alpha Linie von 600 +- 110A, was auf eine ungewöhnliche Sternpopulation hindeutet. Als letzten Schritt suche ich in den klassifizierten LAE nach Lyman Kontinuum, was für die Ionisierung des Wasserstoffs im intergalaktischen Medium verantwortlich ist, und untersuche den Zusammenhang zwischen der Lyman alpha und der Lyman Kontinuumsstrahlung. Um das Lyman Kontinuum detektieren zu können benutze ich Daten des Hubble-Weltraumteleskops (HST) und finde sechs Lyman Kontinuum Kandidaten unter den LAE. Um zu testen ob die Lyman Kontinuumsstrahlung lediglich von diesen Objekten ausgeht oder auch im der Gesamtheit der LAE zu finden ist, addiere ich die Daten des HST und finde ein Signal, was darauf hindeutet, dass ~80% der Lyman Kontinuumsstrahlung aus den Galaxien entkommen und in das intergalaktische Medium vordringen kann. Wenn das gefundene Signal zuverlässig ist deutet es darauf hin, dass in der Tat LAE für die Ionisierung des Wasserstoffs im Universum verantwortlich sein könnten. KW - astronomy KW - LAEs KW - reionization KW - Lyman alpha KW - Lyman continuum KW - VLT/MUSE KW - emission line classification KW - QtClassify KW - LAEs KW - Lyman alpha KW - Lyman Kontinuum KW - QtClassify KW - VLT/MUSE KW - Astronomie KW - Emissionslinienklassifikation KW - Reionisierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-478816 ER - TY - THES A1 - Rector, Michael V. T1 - The acute effect of exercise on flow-mediated dilation in young people with cystic fibrosis T1 - Der akute Effekt des Trainings auf den Fluss vermittelte Dilatation bei jungen Menschen mit Mukoviszidose N2 - Introduction: Cystic fibrosis (CF) is a genetic disease which disrupts the function of an epithelial surface anion channel, CFTR (cystic fibrosis transmembrane conductance regulator). Impairment to this channel leads to inflammation and infection in the lung causing the majority of morbidity and mortality. However, CF is a multiorgan disease affecting many tissues, including vascular smooth muscle. Studies have revealed young people with cystic fibrosis lacking inflammation and infection still demonstrate vascular endothelial dysfunction, measured per flow-mediated dilation (FMD). In other disease cohorts, i.e. diabetic and obese, endurance exercise interventions have been shown improve or taper this impairment. However, long-term exercise interventions are risky, as well as costly in terms of time and resources. Nevertheless, emerging research has correlated the acute effects of exercise with its long-term benefits and advocates the study of acute exercise effects on FMD prior to longitudinal studies. The acute effects of exercise on FMD have previously not been examined in young people with CF, but could yield insights on the potential benefits of long-term exercise interventions. The aims of these studies were to 1) develop and test the reliability of the FMD method and its applicability to study acute exercise effects; 2) compare baseline FMD and the acute exercise effect on FMD between young people with and without CF; and 3) explore associations between the acute effects of exercise on FMD and demographic characteristics, physical activity levels, lung function, maximal exercise capacity or inflammatory hsCRP levels. Methods: Thirty young volunteers (10 people with CF, 10 non-CF and 10 non-CF active matched controls) between the ages of 10 and 30 years old completed blood draws, pulmonary function tests, maximal exercise capacity tests and baseline FMD measurements, before returning approximately 1 week later and performing a 30-min constant load training at 75% HRmax. FMD measurements were taken prior, immediately after, 30 minutes after and 1 hour after constant load training. ANOVAs and repeated measures ANOVAs were employed to explore differences between groups and timepoints, respectively. Linear regression was implemented and evaluated to assess correlations between FMD and demographic characteristics, physical activity levels, lung function, maximal exercise capacity or inflammatory hsCRP levels. For all comparisons, statistical significance was set at a p-value of α < 0.05. Results: Young people with CF presented with decreased lung function and maximal exercise capacity compared to matched controls. Baseline FMD was also significantly decreased in the CF group (CF: 5.23% v non-CF: 8.27% v non-CF active: 9.12%). Immediately post-training, FMD was significantly attenuated (approximately 40%) in all groups with CF still demonstrating the most minimal FMD. Follow-up measurements of FMD revealed a slow recovery towards baseline values 30 min post-training and improvements in the CF and non-CF active groups 60 min post-training. Linear regression exposed significant correlations between maximal exercise capacity (VO2 peak), BMI and FMD immediately post-training. Conclusion: These new findings confirm that CF vascular endothelial dysfunction can be acutely modified by exercise and will aid in underlining the importance of exercise in CF populations. The potential benefits of long-term exercise interventions on vascular endothelial dysfunction in young people with CF warrants further investigation. N2 - Einleitung: Mukoviszidose (CF) ist eine genetische Erkrankung, die die Funktion eines Epithelien Oberflächenanionenkanals, CFTR (cystic fibrosis transmembrane conductance regulator), stört. Eine Beeinträchtigung dieses Kanals führt zu Entzündungen und Infektionen in der Lunge, die den Großteil der Morbidität und Mortalität verursachen. CF ist jedoch eine Multiorganerkrankung, die viele Gewebe einschließlich vaskulärer glatter Muskeln betrifft. Studien haben gezeigt, dass junge Menschen mit Mukoviszidose, die keine Entzündung und Infektion aufweisen, immer noch eine vaskuläre Dysfunktion aufweisen, gemessen anhand der durchflussbedingten Dilatation (FMD). In anderen Krankheitskohorten, u.a. Diabetes und Fettleibigkeit, wurde gezeigt, dass Ausdauersporteingriffe diese Beeinträchtigungen verbessern oder reduzieren. Langfristige Bewegungseingriffe sind jedoch riskant und kostenintensiv in Bezug auf Zeit und Ressourcen. Nichtsdestotrotz hat die aufkommende Forschung die akuten Auswirkungen von körperlicher Bewegung mit ihren langfristigen Vorteilen korreliert und befürwortet die Untersuchung akuter Bewegungseffekte auf FMD vor longitudinalen Studien. Die akuten Auswirkungen von körperlicher Bewegung auf FMD wurden bisher bei jungen Menschen mit Mukoviszidose nicht untersucht, konnten jedoch Erkenntnisse über die potenziellen Vorteile langfristiger Bewegungseingriffe liefern. Die Ziele dieser Studien waren, 1) die Zuverlässigkeit der FMD-Methode und ihre Anwendbarkeit zu entwickeln, um akute Übungseffekte zu untersuchen; 2) Vergleich der Grundlinien-FMD und der Akutübungswirkung bei FMD zwischen Jugendlichen mit und ohne CF; und 3) Zusammenhänge zwischen den akuten Auswirkungen von körperlicher Bewegung auf FMD und demographischen Merkmalen, der körperlichen Aktivität, der Lungenfunktion, der maximalen körperlichen Belastbarkeit oder den entzündlichen hsCRP-Spiegeln zu untersuchen. Methoden: Dreißig junge Freiwillige (10 CF-Patienten, 10 gesunde und 10 aktive, gesunde Kontrollpersonen) im Alter von 10 bis 30 Jahren führten zuvor Blutabnahmen, Lungenfunktionstests, maximale Belastungstests und Grundlinien-FMD-Messungen durch Rückkehr etwa 1 Woche später und Durchführung eines 30-minütigen Dauerlasttrainings bei 75% HFmax durch. FMD-Messungen wurden vor, unmittelbar nach, 30 Minuten nach und 1 Stunde nach konstantem Belastungstraining durchgeführt. ANOVAs und ANOVAs mit wiederholten Messungen wurden verwendet, um Unterschiede zwischen Gruppen bzw. Zeitpunkten zu untersuchen. Die lineare Regression wurde implementiert und evaluiert, um Korrelationen zwischen FMD und demographischen Merkmalen, körperlichen Aktivitätsniveaus, Lungenfunktion, maximaler Belastungskapazität oder inflammatorischen hsCRP-Spiegeln zu bestimmen. Für alle Vergleiche wurde die statistische Signifikanz auf einen p-Wert von α < 0,05 eingestellt. Ergebnisse: Jugendliche mit Mukoviszidose zeigten eine verminderte Lungenfunktion und maximale Belastbarkeit im Vergleich zu Kontrollpersonen. Baseline FMD (%) war auch in der CF-Gruppe (CF: 5.23% v nicht-CF: 8.27% v nicht-CF-aktive: 9.12%) signifikant verringert. Unmittelbar nach dem Training war die FMD in allen Gruppen mit CF, die immer noch die minimalste FMD aufwiesen, signifikant abgeschwächt (~40%). Follow-up-Messungen von FMD zeigte eine langsame Erholung in Richtung Baseline-Werte 30 Minuten nach dem Training und Verbesserungen in der CF-und nicht-CF-aktive Gruppen 60 Minuten nach dem Training. Die lineare Regression zeigte signifikante Korrelationen zwischen maximaler Belastungsfähigkeit (VO2-Peak), BMI und FMD unmittelbar nach dem Training. Feststellung: Diese neuen Ergebnisse bestätigen, dass die vaskuläre Dysfunktion der CF durch sportliche Betätigung akut verändert werden kann und dazu beitragen wird, die Bedeutung von Bewegung in CF-Populationen zu unterstreichen. Die potenziellen Vorteile von Langzeitübungsinterventionen bei vaskulärer Dysfunktion bei jungen CF-Patienten rechtfertigen weitere Untersuchungen. KW - cystic fibrosis KW - flow-mediated dilation KW - vascular dysfunction KW - exercise KW - Mukoviszidose KW - Fluss vermittelte Dilatation KW - vaskuläre Dysfunktion KW - Sporttraining Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-438938 ER - TY - THES A1 - Civitillo, Sauro T1 - Teachers’ cultural diversity beliefs and culturally responsive practices T1 - Überzeugungen von Lehrern zur kulturellen Vielfalt und kultursensiblen Unterricht N2 - The present dissertation about teachers’ cultural diversity beliefs and culturally responsive practices includes a general introduction (Chapter 1), a systematic literature review (Chapter 2), three empirical studies (Chapter 3, 4, and 5) and it ends with a general discussion and conclusion (Chapter 6). The major focus of investigation laid in creating a deeper understanding of teachers’ beliefs about cultural diversity and how those beliefs are related to teaching practices, which could or could not be considered to be culturally responsive. In this dissertation, I relied on insights from theoretical perspectives that derived from the field of psychology such as social cognitive theory and intergroup ideologies, as well as from the field of multicultural education such as culturally responsive teaching. In Chapter 1, I provide the background of this dissertation, with contextual information regarding the German educational system, the theoretical framework used and the main research objectives of each study. In Chapter 2, I conducted a systematic review of the existing international studies on trainings addressing cultural diversity beliefs with pre-service teachers. More specifically, the aims of the systematic literature review were (1) to provide a description of main components and contextual characteristics of teacher trainings targeting cultural diversity beliefs, (2) report the training effects, and (3) detail the methodological strengths and weaknesses of these studies. By examining the main components and contextual characteristics of teacher trainings, the effects on beliefs about cultural diversity as well as the methodological strengths and weaknesses of these studies in a single review, I took an integrated approach to these three processes. To review the final pool of studies (N = 36) I used a descriptive and narrative approach, relying primarily on the use of words and text to summarise and explain findings of the synthesis. The three empirical studies that follow, all highlight aspects of how far and how teacher beliefs about cultural diversity translate into real-world practices in schools. In Chapter 3, to expand the validity of culturally responsive teaching to the German context, I aimed at verifying the dimensional structure of German version of the Culturally Responsive Classroom Management Self-Efficacy Scale (CRCMSES; Siwatu, Putman, Starker-Glass, & Lewis, 2015). I conducted Exploratory and Confirmatory Factor Analysis, and run correlations between the subscales of the CRCMSES and a measure of cultural diversity- related stress. Data (n = 504) used for the first empirical study (Chapter 3) were collected in the InTePP-project (Inclusive Teaching Professionalization Panel) in which pre-service teachers’ competencies and beliefs were assessed longitudinally at two universities: the University of Potsdam and the University of Cologne. In the second empirical study, which forms Chapter 4, the focus is on teachers’ practices resembling school approaches to cultural diversity. In this study, I investigated two research questions: (1a) What types of descriptive norms regarding cultural diversity are perceived by teachers and students with and without an immigrant background and (1b) what is their degree of congruence? Additionally, I was also interested in how are teachers’ and students’ perceptions of descriptive norms about cultural diversity related to practices and artefacts in the physical and virtual school environment? Data for the second empirical study (Chapter 4) were previously collected in a dissertation project of doctor Maja Schachner funded by the federal program “ProExzellenz” of the Free State of Thuringia. Adopting a mixed-methods research design I conducted a secondary analysis of data from teachers’ (n = 207) and students’ (n = 1,644) gathered in 22 secondary schools in south-west Germany. Additional sources of data in this study were based on pictures of school interiors (hall and corridors) and sixth-grade classrooms’ walls (n = 2,995), and screenshots from each school website (n = 6,499). Chapter 5 addresses the question of how culturally responsive teaching, teacher cultural diversity beliefs, and self-reflection on own teaching are related. More specifically, in this study I addressed two research questions: (1) How does CRT relate to teachers’ beliefs about incorporating cultural diversity content into daily teaching and learning activities? And (2) how does the level of teachers’ self-reflection on their own teaching relate to CRT? For this last empirical chapter, I conducted a multiple case study with four ethnic German teachers who work in one culturally and ethnically diverse high school in Berlin, using classroom video observations and post-observation interviews. In the final chapter (Chapter 6), I summarised the main findings of the systematic literature review and three empirical studies, and discuss their scientific and practical implications. This dissertation makes a significant contribution to the field of educational science to understanding culturally responsive teaching in terms of its measurement, focus on both beliefs and practices and the link between the two, and theoretical, practical, and future study implications. N2 - Die vorliegende Dissertation über Überzeugungen von Lehrern zur kulturellen Vielfalt und zum kultursensiblen Unterricht beinhaltet eine allgemeine Einführung (Kapitel 1), eine systematische Literaturübersicht (Kapitel 2), drei empirische Studien (Kapitel 3, 4 und 5) und endet mit einer allgemeinen Diskussion und dem Fazit (Kapitel 6). Der Schwerpunkt der Untersuchung sollte auf der Schaffung eines tieferen Verständnisses und Überzeugungen der Lehrer über kulturelle Vielfalt liegen und wie diese Überzeugungen mit den Unterrichtspraktiken zusammenhängen, die als kulturell ansprechend angesehen werden konnten oder nicht. In dieser Dissertation stützte ich mich auf Erkenntnisse aus theoretischen Perspektiven, die sich aus dem Bereich der Psychologie, insb. wie der sozialen Kognitionstheorie und gruppenübergreifenden Ideologien sowie aus dem Bereich der multikulturellen Bildungsarbeit und des kultursensiblen Unterrichts, ableiten. In Kapitel 1 stelle ich den Hintergrund dieser Dissertation mit kontextuellen Informationen über das deutsche Bildungssystem, den theoretischen Rahmen und die Forschungsziele der einzelnen Studien dar. In Kapitel 2 habe ich mit Lehrern in der Ausbildung eine systematische Review der bestehenden internationalen Studien zu Schulungen, die sich mit den Überzeugungen zur kulturellen Vielfalt befassen, durchgeführt. Insbesondere waren Ziele der systematischen Literaturrecherche: (1) die Beschreibung der Hauptkomponenten und kontextuellen Merkmale von Lehrerausbildungen, die sich an den Überzeugungen der kulturellen Vielfalt orientieren; (2) die Schulungseffekte zu berichten und (3) die methodischen Stärken und Schwächen dieser Studien zu beschreiben. Durch die Prüfung der Hauptkomponenten und kontextuellen Merkmale der Lehrerausbildung, der Auswirkungen auf die Überzeugungen von kulltureller Vielfalt sowie der methodischen Stärken und Schwächen dieser Studien in einer einzigen Untersuchung, habe ich einen ganzheitlichen Ansatz für diese drei Prozesse gewählt. Um die endgültige Kette von Studien (N = 36) zu untersuchen, benutzte ich einen deskriptiven und narrativen Ansatz, der sich hauptsächlich auf die Verwendung von Wörtern und Texten stützte, um die Ergebnisse der Synthese zusammenzufassen und zu erläutern. Die drei folgenden empirischen Studien zeigen Aspekte auf, inwieweit sich die Überzeugungen der Lehrer über kulturelle Vielfalt in reale Praktiken in Schulen umsetzen lassen. In Kapitel 3, zielte ich darauf ab, die Gültigkeit der Schulung bei kultureller Herausforderung auf den deutschen Kontext auszudehnen und die dimensionale Struktur der deutschen Version der Culturally Responsive Classroom Management Self-Efficacy Scale (CRCMSES; Siwatu, Putman, Starker-Glass, & Lewis, 2015) nachzuprüfen. Ich habe eine Exploratory und Contirmatory Factor Analysis durchgeführt, und um Korrelationen zwischen den Subskalen der CRCMSES und einem Maß für den Stress im Zusammenhang mit kultureller Vielfalt zu ermitteln. Die Daten (n = 504) für die erste empirische Studie (Kapitel 3) wurden im InTePP-Projekt (Inclusive Teaching Professionalization Panel) gesammelt, in dem die Kompetenzen und Überzeugungen der Lehrkräfte in Ausbildung an zwei Universitäten, der Universität Potsdam und der Universität Köln, longitudinal bewertet wurden. In der zweiten empirischen Studie, die Kapitel 4 bildet, liegt der Schwerpunkt auf den Praktiken der Lehrer, die den schulischen Ansätzen zur kulturellen Vielfalt ähneln. In dieser Studie bin ich zwei Forschungsfragen nachfegangen: (1a) Welche Arten von beschreibenden Normen zur kulturellen Vielfalt werden von Lehrern und Schülern mit und ohne Migrationshintergrund wahrgenommen und (1b) wie hoch ist ihr Grad der Kongruenz? Darüber hinaus interessierte mich auch, wie die Wahrnehmungen von Lehrern und Schülern über die Normen zur kulturellen Vielfalt mit Praktiken und Unterrichtsergebnessen in der physischen und virtuellen Schulumgebung zusammen hängen? Die Daten für die zweite empirische Studie (Kapitel 4) wurden zuvor in einem vom Landesprogramm "ProExzellenz" des Freistaates Thüringen geförderten Dissertationsprojekt von Doktor Maja Schachner gesammelt. Mit Hilfe einer gemischten Forschungsmethode habe ich eine Sekundäranalyse der Daten von Lehrern (n = 207) und Schülern (n = 1.644) an 22 Sekundarschulen im Südwesten Deutschlands durchgeführt. Weitere Datenquellen in dieser Studie basierten auf Bildern von Schulinnenräumen (Halle und Flure) und Wänden von Klassenzimmern der sechsten Klasse (n = 2,995) sowie Screenshots von jeder Schul-Website (n = 6,499). Kapitel 5 befasst sich mit der Frage, wie kulturell ansprechender Unterricht, mit den Überzeugungen von Lehrern zur kulturellen Vielfalt und Selbstreflexion über den eigenen Unterricht zusammenhängen. Genauer gesagt, habe ich in dieser Studie zwei Forschungsfragen angesprochen: (1) Wie verhält sich CRT zu den Überzeugungen der Lehrer über die Einbeziehung von Inhalten zur kulturellen Vielfalt in die täglichen Lehr- und Lernaktivitäten? Und (2) Inwiefern bezieht sich das Niveau der Selbstreflexion der Lehrer über ihren eigenen Unterricht auf CRT? Für dieses letzte empirische Kapitel habe ich eine mehrfache Fallstudie mit vier ethnischen Deutschlehrern durchgeführt, die an einem kulturell und ethnisch vielfältigen Gymnasium in Berlin arbeiten, wobei ich Videobeobachtungen im Klassenzimmer und Interviews nach der Beobachtung verwendete. Im letzten Kapitel (Kapitel 6) habe ich die wichtigsten Ergebnisse der systematischen Literaturrecherche und den drei empirischen Studien zusammengefasst und deren wissenschaftliche und praktische Auswirkungen diskutiert. Diese Dissertation leistet einen wichtigen Beitrag auf dem Gebiet der Erziehungswissenschaft zum Verständnis einer Schulung mit kultureller Herausforderung in Bezug auf ihre Messbarkeit, die sich konzentrieren auf beides: Überzeugungen und Praktiken und die Verbindung zwischen den beiden und auf theoretische, praktische und zukünftige Auswirkungen der Studie. Stichworte: kulturelle Vielfalt, Überzeugungen von Lehrern, kultursensibler Unterricht. KW - cultural diversity KW - kulturelle Vielfalt KW - teacher beliefs KW - culturally responsive teaching KW - Überzeugungen von Lehrern KW - kultursensibler Unterricht Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427763 ER - TY - THES A1 - Schürings, Marco Philipp Hermann T1 - Synthesis of 1D microgel strands and their motion analysis in solution T1 - Synthese von 1D-Mikrogelsträngen und ihre Bewegungsanalyse in der Lösung N2 - The fabrication of 1D nanostrands composed of stimuli responsive microgels has been shown in this work. Microgels are well known materials able to respond to various stimuli from outer environment. Since these microgels respond via a volume change to an external stimulus, a targeted mechanical response can be achieved. Through carefully choosing the right composition of the polymer matrix, microgels can be designed to react precisely to the targeted stimuli (e.g. drug delivery via pH and temperature changes, or selective contractions through changes in electrical current125). In this work, it was aimed to create flexible nano-filaments which are capable of fast anisotropic contractions similar to muscle filaments. For the fabrication of such filaments or strands, nanostructured templates (PDMS wrinkles) were chosen due to a facile and low-cost fabrication and versatile tunability of their dimensions. Additionally, wrinkling is a well-known lithography-free method which enables the fabrication of nanostructures in a reproducible manner and with a high long-range periodicity. In Chapter 2.1, it was shown for the first time that microgels as soft matter particles can be aligned to densely packed microgel arrays of various lateral dimensions. The alignment of microgels with different compositions (e.g. VCL/AAEM, NIPAAm, NIPAAm/VCL and charged microgels) was shown by using different assembly techniques (e.g. spin-coating, template confined molding). It was chosen to set one experimental parameter constant which was the SiOx surface composition of the templates and substrates (e.g. oxidized PDMS wrinkles, Si-wafers and glass slides). It was shown that the fabrication of nanoarrays was feasible with all tested microgel types. Although the microgels exhibited different deformability when aligned on a flat surface, they retained their thermo-responsivity and swelling behavior. Towards the fabrication of 1D microgel strands interparticle connectivity was aspired. This was achieved via different cross-linking methods (i.e. cross-linking via UV-irradiation and host-guest complexation) discussed in Chapter 2.2. The microgel arrays created by different assembly methods and microgel types were tested for their cross-linking suitability. It was observed that NIPAAm based microgels cannot be cross-linked with UV light. Furthermore, it was found that these microgels exhibit a strong surface-particle-interaction and therefore could not be detached from the given substrates. In contrast to the latter, with VCL/AAEM based microgels it was possible to both UV cross-link them based on the keto-enol tautomerism of the AAEM copolymer, and to detach them from the substrate due to the lower adhesion energy towards SiOx surfaces. With VCL/AAEM microgels long, one-dimensional microgel strands could be re-dispersed in water for further analysis. It has also been shown that at least one lateral dimension of the free dispersed 1D microgel strands is easily controllable by adjusting the wavelength of the wrinkled template. For further work, only VCL/AAEM based microgels were used to focus on the main aim of this work, i.e. the fabrication of 1D microgel nanostrands. As an alternative to the unspecific and harsh UV cross-linking, the host-guest complexation via diazobenzene cross-linkers and cyclodextrin hosts was explored. The idea behind this approach was to give means to a future construction kit-like approach by incorporation of cyclodextrin comonomers in a broad variety of particle systems (e.g. microgels, nanoparticles). For this purpose, VCL/AAEM microgels were copolymerized with different amounts of mono-acrylate functionalized β-cyclodextrin (CD). After successfully testing the cross-linking capability in solution, the cross-linking of aligned VCL/AAEM/CD microgels was tried. Although the cross-linking worked well, once the single arrays came into contact to each other, they agglomerated. As a reason for this behavior residual amounts of mono-complexed diazobenzene linkers were suspected. Thus, end-capping strategies were tried out (e.g. excess amounts of β-cyclodextrin and coverage with azobenzene functionalized AuNPs) but were unsuccessful. With deeper thought, entropy effects were taken into consideration which favor the release of complexed diazobenzene linker leading to agglomerations. To circumvent this entropy driven effect, a multifunctional polymer with 50% azobenzene groups (Harada polymer) was used. First experiments with this polymer showed promising results regarding a less pronounced agglomeration (Figure 77). Thus, this approach could be pursued in the future. In this chapter it was found out that in contrast to pearl necklace and ribbon like formations, particle alignment in zigzag formation provided the best compromise in terms of stability in dispersion (see Figure 44a and Figure 51) while maintaining sufficient flexibility. For this reason, microgel strands in zigzag formation were used for the motion analysis described in Chapter 2.3. The aim was to observe the properties of unrestrained microgel strands in solution (e.g. diffusion behavior, rotational properties and ideally, anisotropic contraction after temperature increase). Initially, 1D microgel strands were manipulated via AFM in a liquid cell setup. It could be observed that the strands required a higher load force compared to single microgels to be detached from the surface. However, with the AFM it was not possible to detach the strands in a controllable manner but resulted in a complete removal of single microgel particles and a tearing off the strands from the surface, respectively. For this reason, to observe the motion behavior of unrestrained microgel strands in solution, confocal microscopy was used. Furthermore, to hinder an adsorption of the strands, it was found out that coating the surface of the substrates with a repulsive polymer film was beneficial. Confocal and wide-field microscopy videos showed that the microgel strands exhibit translational and rotational diffusive motion in solution without perceptible bending. Unfortunately, with these methods the detection of the anisotropic stimuli responsive contraction of the free moving microgel strands was not possible. To summarize, the flexibility of microgel strands is more comparable to the mechanical behavior of a semi flexible cable than to a yarn. The strands studied here consist of dozens or even hundreds of discrete submicron units strung together by cross-linking, having few parallels in nanotechnology. With the insights gained in this work on microgel-surface interactions, in the future, a targeted functionalization of the template and substrate surfaces can be conducted to actively prevent unwanted microgel adsorption for a given microgel system (e.g. PVCL and polystyrene coating235). This measure would make the discussed alignment methods more diverse. As shown herein, the assembly methods enable a versatile microgel alignment (e.g. microgel meshes, double and triple strands). To go further, one could use more complex templates (e.g. ceramic rhombs and star shaped wrinkles (Figure 14) to expand the possibilities of microgel alignment and to precisely control their aspect ratios (e.g. microgel rods with homogeneous size distributions). N2 - In dieser Arbeit wurde die Herstellung von Nanostrukturen aus stimuli-responsiven Mikrogelen gezeigt. Mikrogele sind bekannt dafür auf verschiedene Reize aus der Umgebung reagieren zu können, so werden sie z.B. in der Industrie seit langem als Superabsorber eingesetzt. Da diese Mikrogele über eine Volumenäderung auf den externen Reiz reagieren, kann so eine gezielte mechanische Antwort erreicht werden. Durch eine sorgfältige Auswahl der Polymermatrix ist es möglich die Mikrogele so zu gestalten, dass sie präzise auf die gesetzten Stimuli reagieren (z.B. Wirkstoffabgabe über pH- und Temperaturänderungen oder selektive Kontraktionen durch Zufuhr von elektrischem Strom). In dieser Arbeit wurde das Ziel verfolgt, flexible Nanofilamente zu schaffen, die ähnlich wie Muskelfilamente zu schnellen anisotropen Kontraktionen fähig sind. Für die Herstellung solcher Stränge wurden nanostrukturierte Template (PDMS-Wrinkles) verwendet, da diese einfach und kostengünstig herzustellen und in ihren Abmessungen vielseitig skalierbar sind. Darüber hinaus ist die Strukturbildung via Wrinkles ein bekanntes lithographiefreies Verfahren, das die Herstellung von Nanostrukturen in reproduzierbarer Weise und mit hoher Fernordnung auf Nanoskala ermöglicht. In Kapitel 2.1 wurde erstmals gezeigt, dass Mikrogele als weiche bzw. schwammartige Materialien zu dicht gepackten Mikrogelarrays mit einstellbaren lateralen Dimensionen ausgerichtet werden können. Obwohl die Mikrogele bei der Anordnung auf ebene Oberflächen unterschiedliche Verformbarkeiten zeigten, behielten sie ihre Thermoresponsivität und ihr Quellverhalten bei. Zur Herstellung von Mikrogelsträngen wurde eine interpartikuläre Konnektivität angestrebt. In Kapitel 2.2 wurde dies durch verschiedene Vernetzungsmethoden (d.h. Vernetzung durch UV-Bestrahlung und Wirt-Gast-Komplexierung) erreicht. Mit VCL/AAEM-Mikrogelen ist es möglich stabile, eindimensionale Mikrogelstränge herzustellen und zur weiteren Analyse in Wasser zu redispergieren. In diesem Kapitel wurde gezeigt, dass eindimensionale Partikelanordnungen in der Zickzackformation im Gegensatz zu Anordnungen in einer Perlenkettenstruktur oder zweidimensionaler Bandstruktur den besten Kompromiss in Bezug auf die Stabilität der Mikrogelstränge in Lösung bei gleichzeitigem Erhalt einer ausreichenden Flexibilität darstellt. In Kapitel 2.3 wurden für die Bewegungsanalysen Mikrogelstränge in Zickzackformation verwendet. Zusammenfassend lässt sich sagen, dass die Flexibilität der Mikrogelstränge eher mit der mechanischen Biegefähigkeit eines halbflexiblen Kabels als mit dem eines Fadens vergleichbar ist. Die hier untersuchten Stränge bestehen aus Dutzenden oder sogar Hunderten von diskreten Einzelpartikeln, die durch Vernetzung miteinander verbunden sind und für die es in der Nanotechnologie nur wenige Parallelen gibt. Wie hier dargestellt, ermöglichen die diversen Anordnungsmethoden eine vielseitige Mikrogelarchitektur (z.B. Mikrogelnetze, Doppel- und Dreifachstränge). In Zukunft könnte man komplexere Template (z.B. keramische Rhomben und sternförmige Wrinkles) verwenden, um die Möglichkeiten der nanoskaligen Mikrogelanordnungen zu erweitern und deren Seitenverhältnisse präzise zu steuern (z.B. zur Herstellung von homogenen Mikrogelstäbchen). KW - anisotropic microgels KW - microgel strands KW - microgel chains KW - template assisted alignment of soft particles KW - microgel array KW - Mikrogele KW - Mikrogelstränge KW - Mikrogelketten KW - tamplat unterstütze Anordnung von weichen Partikeln KW - Mikrogel-Array Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439532 ER - TY - THES A1 - Riemer, Janine T1 - Synthese und Charakterisierung selektiver Fluoroionophore für intra- und extrazelluläre Bestimmungen von Kalium- und Natrium-Ionen T1 - Synthesis and characterization of selective fluoroionophores for intra- and extracellular determinations of potassium and sodium ions N2 - Im Rahmen dieser Dissertation konnten neue Kalium- und Natrium-Ionen Fluoreszenzfarbstoffe von der Klasse der Fluoroionophore synthetisiert und charakterisiert werden. Sie bestehen aus einem N Phenylazakronenether als Ionophor und unterschiedlichen Fluorophoren und sind über einen π-konjugierten 1,2,3-Triazol-1,4-diyl Spacer verbunden. Dabei lag der Fokus während ihrer Entwicklung darauf, diese in ihrer Sensitivität, Selektivität und in ihren photophysikalischen Eigenschaften so zu funktionalisieren, dass sie für intra- bzw. extrazelluläre Konzentrationsbestimmungen geeignet sind. Durch Variation der in ortho Position der N-Phenylazakronenether befindlichen Alkoxy-Gruppen und der fluorophoren Gruppe der Fluoroionophore konnte festgestellt werden, dass die Sensitivität und Selektivität für Kalium- bzw. Natrium-Ionen jeweils durch eine bestimmte Isomerie der 1,2,3-Triazol-1,4-diyl-Einheit erhöht wird. Des Weiteren wurde gezeigt, dass durch eine erhöhte Einschränkung der N,N-Diethylamino-Gruppe des Fluorophors eine Steigerung der Fluoreszenzquantenausbeute und eine Verschiebung des Emissionsmaximums auf über 500 nm erreicht werden konnte. Die Einführung einer Isopropoxy-Gruppe an einem N-Phenylaza-[18]krone-6-ethers resultierte dabei in einem hoch selektiven Kalium-Ionen Fluoroionophor und ermöglichte eine in vitro Überwachung von 10 – 80 mM Kalium-Ionen. Die Substitution einer Methoxy-Gruppe an einem N-Phenylaza-[15]krone-5-ether kombiniert mit unterschiedlich N,N-Diethylamino-Coumarinen lieferte hingegen zwei Natrium-Ionen Fluoroionophore, die für die Überwachung von intra- bzw. extrazellulären Natrium-Ionen Konzentrationen geeignet sind. In einem weiteren Schritt wurden N-Phenylaza-[18]krone-6-ether mit einem Fluorophor, basierend auf einem [1,3]-Dioxolo[4,5-f][1,3]benzodioxol-(DBD)-Grundgerüst, funktionalisiert. Die im Anschluss durchgeführten spektroskopischen Untersuchungen ergaben, dass die Isopropoxy-Gruppe in ortho Position des N-Phenylaza-[18]krone-6-ether in einen für extrazelluläre Kalium-Ionen Konzentrationen selektiven Fluoroionophor resultierte, der die Konzentrationsbestimmungen über die Fluoreszenzintensität und -lebensdauer ermöglicht. In einem abschließenden Schritt konnte unter Verwendung eines Pyrens als fluorophore Gruppe ein weiterer für extrazelluläre Kalium-Ionen Konzentrationen geeigneter Fluoroionophor entwickelt werden. Die Bestimmung der Kalium-Ionen Konzentration erfolgte hierbei anhand der Fluoreszenzintensitätsverhältnisse bei zwei Emissionswellenlängen. Insgesamt konnten 17 verschiedene neue Fluoroionophore für die Bestimmung von Kalium- bzw. Natrium-Ionen synthetisiert und charakterisiert werden. Sechs dieser neuen Moleküle ermöglichen in vitro Messungen der intra- oder extrazellulären Kalium- und Natrium-Ionen Konzentrationen und könnten zukünftig für in vivo Konzentrationsmessungen verwendet werden. N2 - In this thesis, new potassium and sodium ion fluorescent probes from the class of fluoroionophores were synthesized and characterized. They consist of an N-phenylazacrown lariat ether and several fluorophores, connected through a π-conjugated 1,2,3-triazole-1,4-diyl spacer. The focus of their development was to optimize their sensitivity, selectivity and their photophysical properties, making them suitable for detecting intra- or extracellular ion levels. Variation of the alkoxy groups in the ortho position of the N-phenylazacrown lariat ether and the fluorophoric group of the fluoroionophores showed that the sensitivity and selectivity for potassium or sodium ions was preferred by a specific isomerism of the 1,2,3-triazole-1,4-diyl unit. Furthermore it was possible to show that an increased hindrance of the N,N-diethylamino group of the fluorophore led to a higher fluorescence quantum yield and a shift of the emission maximum to over 500 nm. The introduction of an isopropoxy group to an N phenylaza-[18]crown-6 lariat ether resulted in a highly selective potassium ion fluoroionophore suitable for in vitro monitoring of potassium ion levels (10 – 80 mM). However, a substitution of a methoxy group on an N-phenylaza-[15] crown-5 lariat ether combined with different degrees of hindrance of N,N diethylamino coumarins gave sodium ion fluoroionophores which are suitable for monitoring intracellular and extracellular sodium ion levels. In a following step N-phenylaza-[18]crown-6 lariat ethers were functionalized with a fluorophore, which was based on a [1,3]-dioxolo[4,5-f [1,3]benzodioxole (DBD) backbone. Following spectroscopic studies it was shown that an isopropoxy group in the ortho position of the N-phenylaza-[18]crown-6 lariat ether resulted in a selective fluoroionophore for extracellular potassium ion levels, which allows measurements of the fluorescence intensity and -lifetime. In a final step an additional fluoroionophore, suitable for extracellular potassium ion levels, was developed by using a pyrene as the fluorophoric group. This fluoroionophore was used to measure potassium ion levels by analyzing the fluorescence intensity ratios at two emission wavelengths. In this work 17 new fluoroionophores were synthesized and characterized. Six of these novel molecules allow in vitro measurements of intra- or extracellular potassium and sodium ion levels and could be used for in vivo concentration measurements in the future. KW - Fluoroionophore KW - fluoroionophore KW - intra- und extrazellulär KW - intra- and extracellular KW - Kalium- und Natrium-Ionen KW - potassium and sodium ions Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441932 ER - TY - THES A1 - Gong, Chen Chris T1 - Synchronization of coupled phase oscillators BT - theory and modelling BT - Theorie und Modellierung N2 - Oscillatory systems under weak coupling can be described by the Kuramoto model of phase oscillators. Kuramoto phase oscillators have diverse applications ranging from phenomena such as communication between neurons and collective influences of political opinions, to engineered systems such as Josephson Junctions and synchronized electric power grids. This thesis includes the author's contribution to the theoretical framework of coupled Kuramoto oscillators and to the understanding of non-trivial N-body dynamical systems via their reduced mean-field dynamics. The main content of this thesis is composed of four parts. First, a partially integrable theory of globally coupled identical Kuramoto oscillators is extended to include pure higher-mode coupling. The extended theory is then applied to a non-trivial higher-mode coupled model, which has been found to exhibit asymmetric clustering. Using the developed theory, we could predict a number of features of the asymmetric clustering with only information of the initial state provided. The second part consists of an iterated discrete-map approach to simulate phase dynamics. The proposed map --- a Moebius map --- not only provides fast computation of phase synchronization, it also precisely reflects the underlying group structure of the dynamics. We then compare the iterated-map dynamics and various analogous continuous-time dynamics. We are able to replicate known phenomena such as the synchronization transition of the Kuramoto-Sakaguchi model of oscillators with distributed natural frequencies, and chimera states for identical oscillators under non-local coupling. The third part entails a particular model of repulsively coupled identical Kuramoto-Sakaguchi oscillators under common random forcing, which can be shown to be partially integrable. Via both numerical simulations and theoretical analysis, we determine that such a model cannot exhibit stationary multi-cluster states, contrary to the numerical findings in previous literature. Through further investigation, we find that the multi-clustering states reported previously occur due to the accumulation of discretization errors inherent in the integration algorithms, which introduce higher-mode couplings into the model. As a result, the partial integrability condition is violated. Lastly, we derive the microscopic cross-correlation of globally coupled non-identical Kuramoto oscillators under common fluctuating forcing. The effect of correlation arises naturally in finite populations, due to the non-trivial fluctuations of the meanfield. In an idealized model, we approximate the finite-sized fluctuation by a Gaussian white noise. The analytical approximation qualitatively matches the measurements in numerical experiments, however, due to other periodic components inherent in the fluctuations of the mean-field there still exist significant inconsistencies. N2 - Oszillatorische Systeme unter schwacher Kopplung können durch das Kuramoto-Modell beschrieben werden. Kuramoto-Phasenoszillatoren besitzen eine Vielzahl von Modellanwendungsfällen von der Kommunikation zwischen Nervenzellen bis zu kollektiven Einflüssen auf die politische Meinungsbildung sowie ingenieurwissenschaftlichen Anwendungen wie Josephson-Kontakten und synchronisierten elektrischen Übertragungsnetzen. In dieser Dissertation werden die Beiträge der Autorin zur Theorie der Kuramoto-Oszillatorensysteme und zum Verständnis nichttrivialer dynamischer NKörpersysteme durch die Analyse ihrer reduzierten Mittelfelddynamik zusammengefasst. Der Hauptinhalt dieser Dissertation umfasst vier Teile: Zuerst wird eine teilweise integrable Theorie global gekoppelter, identischer Kuramoto-Oszillatoren so erweitert, dass sie auch den Fall reiner Phasenkopplung höherer Ordnung umfasst. Die erweiterte Theorie wird anschließend auf ein nichttriviales Modell mit harmonischer Kopplung höherer Ordnung angewendet, welches asymmetrisches Clustering aufweist. Die Theorie sagt rein auf Basis der Anfangssystembedingungen einige Eigenschaften des asymmetrischen Clustering erfolgreich voraus. Im zweiten Teil wird die Phasendynamik von Kuramoto-Oszillatoren mithilfe einer iterierten diskreten Abbildung simuliert. Diese Abbildung – eine Möbius-Abbildung – erlaubt nicht nur eine schnelle Berechnung der Phasensynchronisation sondern spiegelt die zugrundeliegende Gruppenstruktur der Phasendynamik auch exakt wieder. Die Dynamik der iterierten Abbildung wird mit verschiedenen analogen Dynamiken mit kontinuierlicher Zeitachse verglichen. Hierbei werden bekannte Phänomene, wie etwa der Phasenübergang im Kuramoto-Sakaguchi-Oszillatormodell mit einer Verteilung der natürlichen Frequenzen und “Chimärenzustände” (chimera states) bei identischen Oszillatoren nichtlokalen Kopplungstypen, repliziert. Im dritten Teil wird ein Modell von repulsiv gekoppelten, identischen, gemeinsam stochastisch getriebenen Kuramoto-Sakaguchi-Oszillatoren beschrieben, dass teilweise integrabel ist. Sowohl durch numerische Simulationen als auch theoretische Analyse wird gezeigt, dass dieses Modell keine stationären Multi-Cluster-Zustände einnehmen kann, was den Ergebnissen anderer numerischer Studien in der Literatur widerspricht. Durch eine weitergehende Analyse wird gezeigt, dass das scheinbare Auftreten von Multi-Cluster-Zuständen der Akkumulation von inhärenten Diskretisierungsfehlern der verwendeten Integrationsalgorithmen zuzuschreiben ist, welche dem Modell Phasenkopplungen höher Ordnung hinzufügen. Als Resultat dieser Effekte wird die Bedingung der teilweisen Integrabilität verletzt. Zuletzt wird die mikroskopische Kreuzkorrelation zwischen global gekoppelten, nicht identischen gemeinsam fluktuierend getriebenen Kuramoto-Oszillatoren hergeleitet. Der Korrelationseffekt entsteht auf natürliche Art und Weise in endlichen Populationen aufgrund der nichttrivialen Fluktuation des Mittelfelds. Die endliche Fluktuation wird in einem idealisierten Modell mittels gaußschem weißem Rauschen approximiert. Die analytische Annährung stimmt mit den Ergebnissen numerischer Simulationen gut überein, die inhärenten periodischen Komponenten der Fluktuation des Mittelfels verursachen allerdings trotzdem signifikante Inkonsistenzen. T2 - Synchronisation der gekoppelten Oszillatoren KW - Synchronization KW - Nonlinear Dynamics KW - Nichtlineare Dynamik KW - Synchronisation KW - Kuramoto Oscillators KW - Kuramoto-Oszillatore KW - Complex Network KW - Komplexes Netzwerk Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-487522 ER - TY - THES A1 - Pohlenz, Julia T1 - Structural insights into sodium-rich silicate - carbonate glasses and melts T1 - Strukturelle Eigenschaften von natriumreichen silikatisch-karbonatischen Gläsern und Schmelzen mittels in-situ XAFS an Spurenelementen und Molekular Dynamik BT - a combined study of trace element in-situ XAFS and Molecular Dynamics N2 - Carbonate-rich silicate and carbonate melts play a crucial role in deep Earth magmatic processes and their melt structure is a key parameter, as it controls physical and chemical properties. Carbonate-rich melts can be strongly enriched in geochemically important trace elements. The structural incorporation mechanisms of these elements are difficult to study because such melts generally cannot be quenched to glasses, which are usually employed for structural investigations. This thesis investigates the influence of CO2 on the local environments of trace elements contained in silicate glasses with variable CO2 concentrations as well as in silicate and carbonate melts. The compositions studied include sodium-rich peralkaline silicate melts and glasses and carbonate melts similar to those occurring naturally at Oldoinyo Lengai volcano, Tanzania. The local environments of the three elements yttrium (Y), lanthanum (La) and strontium (Sr) were investigated in synthesized glasses and melts using X-ray absorption fine structure (XAFS) spectroscopy. Especially extended X-ray absorption fine structure spectroscopy (EXAFS) provides element specific information on local structure, such as bond lengths, coordination numbers and the degree of disorder. To cope with the enhanced structural disorder present in glasses and melts, EXAFS analysis was based on fitting approaches using an asymmetric distribution function as well as a correlation model according to bond valence theory. Firstly, silicate glasses quenched from high pressure/temperature melts with up to 7.6 wt % CO2 were investigated. In strongly and extremely peralkaline glasses the local structure of Y is unaffected by the CO2 content (with oxygen bond lengths of ~ 2.29 Å). Contrary, the bond lengths for Sr-O and La-O increase with increasing CO2 content in the strongly peralkaline glasses from ~ 2.53 to ~ 2.57 Å and from ~ 2.52 to ~ 2.54 Å, respectively, while they remain constant in extremely peralkaline glasses (at ~ 2.55 Å and 2.54 Å, respectively). Furthermore, silicate and unquenchable carbonate melts were investigated in-situ at high pressure/temperature conditions (2.2 to 2.6 GPa, 1200 to 1500 °C) using a Paris-Edinburgh press. A novel design of the pressure medium assembly for this press was developed, which features increased mechanical stability as well as enhanced transmittance at relevant energies to allow for low content element EXAFS in transmission. Compared to glasses the bond lengths of Y-O, La-O and Sr-O are elongated by up to + 3 % in the melt and exhibit higher asymmetric pair distributions. For all investigated silicate melt compositions Y-O bond lengths were found constant at ~ 2.37 Å, while in the carbonate melt the Y-O length increases slightly to 2.41 Å. The La-O bond lengths in turn, increase systematically over the whole silicate – carbonate melt joint from 2.55 to 2.60 Å. Sr-O bond lengths in melts increase from ~ 2.60 to 2.64 Å from pure silicate to silicate-bearing carbonate composition with constant elevated bond length within the carbonate region. For comparison and deeper insight, glass and melt structures of Y and Sr bearing sodium-rich silicate to carbonate compositions were simulated in an explorative ab initio molecular dynamics (MD) study. The simulations confirm observed patterns of CO2-dependent local changes around Y and Sr and additionally provide further insights into detailed incorporation mechanisms of the trace elements and CO2. Principle findings include that in sodium-rich silicate compositions carbon either is mainly incorporated as a free carbonate-group or shares one oxygen with a network former (Si or [4]Al) to form a non-bridging carbonate. Of minor importance are bridging carbonates between two network formers. Here, a clear preference for two [4]Al as adjacent network formers occurs, compared to what a statistical distribution would suggest. In C-bearing silicate melts minor amounts of molecular CO2 are present, which is almost totally dissolved as carbonate in the quenched glasses. The combination of experiment and simulation provides extraordinary insights into glass and melt structures. The new data is interpreted on the basis of bond valence theory and is used to deduce potential mechanisms for structural incorporation of investigated elements, which allow for prediction on their partitioning behavior in natural melts. Furthermore, it provides unique insights into the dissolution mechanisms of CO2 in silicate melts and into the carbonate melt structure. For the latter, a structural model is suggested, which is based on planar CO3-groups linking 7- to 9-fold cation polyhedra, in accordance to structural units as found in the Na-Ca carbonate nyerereite. Ultimately, the outcome of this study contributes to rationalize the unique physical properties and geological phenomena related to carbonated silicate-carbonate melts. N2 - Karbonatische und karbonatreiche silikatische Schmelzen spielen eine entscheidende Rolle in den magmatischen Prozessen der Erde. Die interne Schmelzstruktur bestimmt dabei maßgeblich ihre physikalischen und chemischen Eigenschaften. Karbonatreiche Schmelzen können sehr stark mit geochemisch wichtigen Spurenelementen angereichert sein. Die strukturellen Einbaumechanismen sind jedoch kaum verstanden, da diese Schmelzen nicht zu homogenen Gläsern abgeschreckt werden können, welche üblicherweise für strukturelle Untersuchungen genutzt werden. Die vorliegende Arbeit widmet sich dem Einfluss von CO2 auf die lokale Umgebung von ausgewählten Spurenelementen in karbonathaltigen silikatischen Gläsern sowie silikatisch bis karbonatischen Schmelzen. Untersucht werden natriumreiche, stark bis extrem peralkaline silikatische und karbonatische Zusammensetzungen, wie sie vom Vulkan Oldoinyo Lengai, Tansania, bekannt sind. Zum einen werden die lokale Umgebungen von Yttrium (Y), Lanthan (La) und Strontium (Sr) in synthetisierten Gläsern und Schmelzen mit Röntgen-Absorption-Feinstruktur-Spektroskopie (engl. X-ray absorption fine structure (XAFS) spectroscopy) untersucht. Insbesondere extended X-ray absorption fine structure (EXAFS) spectroscopy liefert elementspezifisch strukturelle Informationen über Bindungslängen, Koordinationszahlen und Ordnungsgrad. Dem hohen Grad struktureller Unordnung in Gläsern und Schmelzen wird in den vorliegenden EXAFS-Analysen mit der Verwendung einer asymmetrischen Verteilungsfunktion und eines Korrelationsmodells, basierend auf der Bindungsvalenztheorie, Rechnung getragen. Für silikatische Gläser mit steigendem CO2-Gehalt zwischen 0 und bis zu 7,6 Gew.-% ist festzustellen: (1) Konstante Bindungslängen für Sr-O (~ 2,55 Å) und La-O (~ 2,54 Å) in extrem peralkaliner Zusammensetzung, sowie für Y-O (~ 2,29 Å) in stark und extrem peralkaliner Zusammensetzung. (2) Zunehmende Bindungslängen für Sr-O (~ von 2,53 auf 2,57 Å) und La-O in stark peralkaliner Zusammensetzung (~ von 2,52 auf 2,54 Å). Weiterhin werden silikatische sowie nicht-abschreckbare karbonatische Schmelzen in-situ unter hohem Druck und hoher Temperatur (2,2 bis 2,6 GPa, 1200 bis 1500 °C, untersucht in einer Paris-Edinburgh-Presse) analysiert. Ein neu entwickelter Aufbau des Druckübertragungsmediums garantiert eine hohe mechanische Festigkeit und ermöglicht aufgrund hervorragender Transmissivität im relevanten Energiebereich Transmissions-EXAFS an niedrigkonzentrierten Elementen. Im Vergleich zu den Gläsern zeigen die Schmelzen generell ~ 3 % höhere Y-O-, La-O-, und Sr-O-Bindungslängen und eine erhöhte Asymmetrie in der Paarverteilung. In silikatischen Schmelzen sind Y-O-Bindungslängen konstant (~ 2,37 Å), wohingegen sie in karbonatischen Schmelzen zunehmen (bis zu 2,41 Å). La-O-Abstände vergrößern sich systematisch von silikatischen zu karbonatischen Schmelzen (von 2,55 auf 2,60 Å). Sr-O-Abstände steigen von 2,60 auf 2,64 Å in silikatischen Zusammensetzungen mit steigendem CO2-Gehalt und sind für alle karbonatischen Zusammensetzungen konstant. Zum Vergleich und besserem Verständnis wurden Y- und Sr-haltige, silikatische und karbonatische Glas- und Schmelzstrukturen in einer explorativen ab-initio Molekular Dynamik (MD) Studie simuliert. Die MD-Studie bestätigt die CO2-abhängigen lokalen Veränderungen um Y und Sr und liefert zusätzliche Einblicke in silikatische und karbonatische Glas- und Schmelzstrukturen. In natriumreicher silikatischer Zusammensetzung wird CO2 hauptsächlich als freie Karbonatgruppe eingebaut oder teilt sich als nicht-brückenbildendes Karbonat genau ein Sauerstoffatom mit einem Netzwerkbildner (Si oder [4]Al). Seltener tritt es als brückenbildendes Karbonat zwischen zwei Netzwerkbildnern auf; dabei allerdings mit einer gegenüber der statistischen Verteilung deutlich erhöhten Präferenz für zwei [4]Al als anliegende Netzwerkbildner. C-haltige Schmelzen weisen geringe Mengen an molekularem CO2 auf, welches in den abgeschreckten Gläsern fast vollständig als Karbonat gelöst ist. Die Kombination aus Experiment und Simulation gewährt außerordentliche Einblicke in nur schwierig zu untersuchende Glas- und Schmelzstrukturen. Die gewonnenen Daten werden auf Grundlage der Bindungsvalenztheorie gedeutet und hinsichtlich potentieller Mechanismen des strukturellen Spurenelementeinbaus sowie dem daraus ableitbaren Fraktionierungsverhalten in natürlichen Schmelzen diskutiert. Neue Erkenntnisse über den strukturellen CO2-Einbau werden genutzt, um ein Strukturmodell für karbonatische Schmelzen abzuleiten. Dieses basiert auf der Verknüpfung von 7- bis 9-fach koordinierten Kationenpolyedern durch die planaren Karbonat-Gruppen, ähnlich wie es im Na-Ca-Karbonat Nyerereite zu beobachten ist. Letztendlich leisten die Erkenntnisse der Arbeit somit ihren Beitrag, das Verständnis um die einzigartigen physikalischen Eigenschaften und geologischen Phänomene dieser Schmelzen zu vertiefen. KW - glass structure KW - melt structure KW - X-ray absorption spectroscopy KW - Glasstruktur KW - Schmelzstruktur KW - Röntgenabsorptionsspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423826 ER - TY - THES A1 - Ghani, Humaad T1 - Structural evolution of the Kohat and Potwar fold and thrust belts of Pakistan T1 - Strukturelle Entwicklung des Kohat und Potwar Falten- und Überschiebungsgürtel in Pakistan N2 - Fold and thrust belts are characteristic features of collisional orogen that grow laterally through time by deforming the upper crust in response to stresses caused by convergence. The deformation propagation in the upper crust is accommodated by shortening along major folds and thrusts. The formation of these structures is influenced by the mechanical strength of décollements, basement architecture, presence of preexisting structures and taper of the wedge. These factors control not only the sequence of deformation but also cause differences in the structural style. The Himalayan fold and thrust belt exhibits significant differences in the structural style from east to west. The external zone of the Himalayan fold and thrust belt, also called the Subhimalaya, has been extensively studied to understand the temporal development and differences in the structural style in Bhutan, Nepal and India; however, the Subhimalaya in Pakistan remains poorly studied. The Kohat and Potwar fold and thrust belts (herein called Kohat and Potwar) represent the Subhimalaya in Pakistan. The Main Boundary Thrust (MBT) marks the northern boundary of both Kohat and Potwar, showing that these belts are genetically linked to foreland-vergent deformation within the Himalayan orogen, despite the pronounced contrast in structural style. This contrast becomes more pronounced toward south, where the active strike-slip Kalabagh Fault Zone links with the Kohat and Potwar range fronts, known as the Surghar Range and the Salt Range, respectively. The Surghar and Salt Ranges developed above the Surghar Thrust (SGT) and Main Frontal Thrust (MFT). In order to understand the structural style and spatiotemporal development of the major structures in Kohat and Potwar, I have used structural modeling and low temperature thermochronolgy methods in this study. The structural modeling is based on construction of balanced cross-sections by integrating surface geology, seismic reflection profiles and well data. In order to constrain the timing and magnitude of exhumation, I used apatite (U-Th-Sm)/He (AHe) and apatite fission track (AFT) dating. The results obtained from both methods are combined to document the Paleozoic to Recent history of Kohat and Potwar. The results of this research suggest two major events in the deformation history. The first major deformation event is related to Late Paleozoic rifting associated with the development of the Neo-Tethys Ocean. The second major deformation event is related to the Late Miocene to Pliocene development of the Himalayan fold and thrust belt in the Kohat and Potwar. The Late Paleozoic rifting is deciphered by inverse thermal modelling of detrital AFT and AHe ages from the Salt Range. The process of rifting in this area created normal faulting that resulted in the exhumation/erosion of Early to Middle Paleozoic strata, forming a major unconformity between Cambrian and Permian strata that is exposed today in the Salt Range. The normal faults formed in Late Paleozoic time played an important role in localizing the Miocene-Pliocene deformation in this area. The combination of structural reconstructions and thermochronologic data suggest that deformation initiated at 15±2 Ma on the SGT ramp in the southern part of Kohat. The early movement on the SGT accreted the foreland into the Kohat deforming wedge, forming the range front. The development of the MBT at 12±2 Ma formed the northern boundary of Kohat and Potwar. Deformation propagated south of the MBT in the Kohat on double décollements and in the Potwar on a single basal décollement. The double décollement in the Kohat adopted an active roof-thrust deformation style that resulted in the disharmonic structural style in the upper and lower parts of the stratigraphic section. Incremental shortening resulted in the development of duplexes in the subsurface between two décollements and imbrication above the roof thrust. Tectonic thickening caused by duplexes resulted in cooling and exhumation above the roof thrust by removal of a thick sequence of molasse strata. The structural modelling shows that the ramps on which duplexes formed in Kohat continue as tip lines of fault propagation folds in the Potwar. The absence of a double décollement in the Potwar resulted in the preservation of a thick sequence of molasse strata there. The temporal data suggest that deformation propagated in-sequence from ~ 8 to 3 Ma in the northern part of Kohat and Potwar; however, internal deformation in the Kohat was more intense, probably required for maintaining a critical taper after a significant load was removed above the upper décollement. In the southern part of Potwar, a steeper basement slope (β≥3°) and the presence of salt at the base of the stratigraphic section allowed for the complete preservation of the stratigraphic wedge, showcased by very little internal deformation. Activation of the MFT at ~4 Ma allowed the Salt Range to become the range front of the Potwar. The removal of a large amount of molasse strata above the MFT ramp enhanced the role of salt in shaping the structural style of the Salt Range and Kalabagh Fault Zone. Salt accumulation and migration resulted in the formation of normal faults in both areas. Salt migration in the Kalabagh fault zone has triggered out-of-sequence movement on ramps in the Kohat. The amount of shortening calculated between the MBT and the SGT in Kohat is 75±5 km and between the MBT and the MFT in Potwar is 65±5 km. A comparable amount of shortening is accommodated in the Kohat and Potwar despite their different widths: 70 km Kohat and 150 km Potwar. In summary, this research suggests that deformation switched between different structures during the last ~15 Ma through different modes of fault propagation, resulting in different structural styles and the out-of-sequence development of Kohat and Potwar. N2 - Falten- und Überschiebungsgürtel sind charakteristische Merkmale von Kollisionsorogenen, die sich im Laufe der Zeit als Reaktion auf konvergente Spannungen in das Vorland vorbauen. Die Deformationsausbreitung in der oberen Kruste erfolgt durch die Verkürzung entlang von Falten und Überschiebungen. Die Bildung dieser Strukturen wird durch die mechanische Eigenschaft des Décollements (Abscherhorizonts), dem Aufbau des Grundgebirges, der strukturellen Vorprägung und der Geometrie des Verfomungskeils beeinflusst. Diese Faktoren steuern nicht nur die Verformungsabfolge, sondern führen auch zu unterschiedlichen Strukturen im Falten- und Überschiebungsgürtel. Der Himalaya Falten- und Überschiebungsgürtel zeigt signifikante Unterschiede im strukturellen Bau von Ost nach West. Die äußere Zone des Himalaya Falten- und Überschiebungsgürtel, auch Subhimalaya genannt, ist hinsichtlich der zeitliche Entwicklung und des strukturellen Baus in der Region von Bhutan, Nepal und Indien gut untersucht. Im Gegensatz dazu ist die Geologie des pakistanischen Subhimalayas erst in groben Zügen verstanden. Der Kohat- und der Potwar- Falten- und Überschiebungsgürtel (im Folgenden einfach Kohat und Potwar genannt) sind Teil der externe Sedimentationszone des Himalaya- Falten- und Überschiebungsgürtel in Pakistan. Die „Main Boundary Thrust“ (MBT) markiert ihre nördliche Grenze und zeigt, dass beide, sowohl Kohat als auch Potwar, trotz ihres unterschiedlichen strukturellen Baus durch eine gemeinsame, ins Vorland gerichteten Verformung des Himalaya-Orogens entstanden sind. Der Kontrast im strukturelle Bau wird nach Süden ausgeprägter, wo die aktive Kalabagh Seitenverschiebung die frontalen Deformationszonen Kohats und Potwars verbindet, die als „Surghar Range“ bzw. „Salt Range“ bekannt sind. Die „Surghar Range“ und die „Salt Range“ entwickeln sich oberhalb der Surghar Überschiebung (Surghar Thrust, SGT) und der frontalen Hauptüberschiebung (Main Frontal Thrust, MFT). Ziel dieser Studie ist es, die Deformationsentwicklung und den strukturellen Bau Kohats und Potwars als Beispiel für die Vielfalt der Entwicklung im frontalen Bereich von Orogenen zu entschlüsseln. Um den strukturellen Stil und die räumlich-zeitliche Entwicklung der Hauptstrukturen in Kohat und Potwar zu untersuchen, werden in dieser Studie Strukturmodellierungs- und Niedertemperatur-Thermochronologie-Methoden verwendet. Die Strukturmodellierung basiert auf der Erstellung bilanzierter Profile, deren Grundlage die Kombination von Oberflächengeologie, seismischen Reflexionsprofilen und Bohrlochdaten bildet. Die Niedertemperatur-Thermochronologie-Methoden gründen einerseits auf Apatit (U-Th-Sm)/He (AHe) und andererseits auf Apatit-Spaltspur (AFT) Datierungen. Die Resultate beider Methoden erlauben die zeitliche Rekonstruktion von Kohat und Potwar vom Paläozoikum bis zur jüngsten Geschichte. Die Ergebnisse dieser Studie deuten auf zwei Hauptereignisse in der Verformungsgeschichte hin. Das erste große Deformationsereignis steht im Zusammenhang mit der spätpaläozoischen Riftbildung im Zuge der Öffnung der Neotethys. Das zweite große Deformationsereignis steht im Zusammenhang mit der spätmiozänen bis pliozänen Entwicklung des Himalaya Falten- und Überschiebungsgürtel. Die spät-paläozoische Riftbildung wird mittels einer inversen thermischen Modellierung der Apatit-AFT und AHe-Alter aus der „Salt Range“ rekonstruiert. Der Prozess des Riftbildung verursachte Abschiebungen, die zur Exhumierung bzw. Erosion früh- bis mittelpaläozoischer Schichten führte und eine bedeutende Diskordanz zwischen kambrischen und permischen Schichten ausbildet, die heute in der „Salt Range“ aufgeschlossen ist. Diese im Spätpaläozoikum entstandenen Abschiebungen wurden dann während der miozän-pliozänen Bildung des Falten- und Überschiebungsgürtel reakiviert. Die Rekonstruktion der Strukturen, kombiniert mit der Datierung (AFT, AHe), deutet darauf hin, dass die Verformung um ca. 15±2 Ma auf der SGT-Rampe im südlichen Teil Kohats aktiv war. Diese erste Deformation entlang der SGT hat das Vorland an den Kohat-Verformungskeil geschweisst und bildet damit die neue Verformungsfront. Die MBT bildete um ca. 12±2 Ma die nördliche Grenze von Kohat und Potwar. Die Deformation breitete sich in südlicher Richtung von der MBT aus in Kohat auf zwei Décollements aus, während sich in Potwar ein einziges basales Décollement bildete. Die beiden parallelen Décollements in Kohat formten aktive Dachüberschiebungen aus, die zum disharmonischen Stil im oberen und unteren Teil des Profils führten. Die inkrementelle Verkürzung formte Duplex-Strukturen zwischen den beiden Décollements und Schuppen oberhalb der Dachüberschiebung. Auf die tektonische Verdickung durch die Duplex-Strukturen folgte die Abkühlung bzw. Exhumation oberhalb der Dachüberschiebung durch die Abtragung mächtiger Molasseschichten. Die Rekonstruktion der Strukturen zeigt, dass die Rampen, auf denen die Duplex-Strukturen in Kohat gebildet wurden, sich in Potwar als Frontallinien der frontalen Knickung fortsetzen. Das Fehlen der beiden parallelen Décollements in Potwar führte zur Erhaltung dicker Molassenschichten in der stratigraphischen Abfolge. Die Ergebnisse der Datierung deuten darauf hin, dass sich die Verformung dann von ca. 8 bis 3 Ma normal im nördlichen Teil von Kohat und Potwar in Richtung Süden ausbreitete. Die Verformung in Kohat war intensiver durch die Bildung eines kritischen Winkels im Deformationskeil, als die signifikante Auflast über dem oberen Décollement entfernt wurde. Der südliche Teil Potwars dagegen ist durch eine geringe interne Verfomung gekennzeichnet, hervorgerufen durch eine geringere Neigung der basalen Überschiebung (β≥3°) und das Vorhandensein von Salz an der Basis der stratigraphischen Abfolge. Dabei ist stratigraphische Abfolge innerhalb des Deformationskeils erhalten. Mit der Deformation entlang der MFT um ca. 4 Ma begann die Entwicklung der „Salt Range“ als frontale Deformationszone von Potwar. Die Abtragung dicker Molassenschichten über der MFT-Rampe verstärkte die Rolle des Salzes bei der Deformation der „Salt Range“ und der Kalabagh-Störungszone. In beiden Gebieten kam es zu Abschiebungen duch Salzakkumulation und Salzmigration. Die Salzmigration in der Kalabagh- Störungszone hat durchbrechende Überschiebungen entlang der Rampen in Kohat ausgelöst. Der Verkürzungsbetrag zwischen MBT und SGT beträgt für Kohat 75±5 km und für Potwar zwischen MBT und MFT 65±5 km. Sowohl Kohat und Potwar haben trotz ihrer unterschiedlichen räumlichen Ausdehnung (70 km Kohat und 150 km Potwar) eine vergleichbare Verkürzung erfahren. Zusammenfassend lässt sich sagen, dass diese Studie aufzeigt, wie die Verformung zwischen den einzelnen Strukturen in den letzten ~15 Ma, verursacht durch unterschiedliche Deformationsausbreitung, gesprungen ist und damit für die unterschiedlichen spezifischen Struktur-Stile und durchbrechende Deformationssequenzen in Kohat und Potwar verantwortlich ist. KW - Himalaya KW - folds KW - faults KW - décollement KW - exhumation KW - Himalaja KW - Falten KW - Störungen KW - Abschiebungshorizonte KW - Exhumierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440775 ER - TY - THES A1 - Raatz, Michael T1 - Strategies within predator-prey interactions – from individuals to ecosystems T1 - Strategien in Räuber-Beute Interaktionen – vom Individuum bis zum Ökosystem N2 - Predator-prey interactions provide central links in food webs. These interaction are directly or indirectly impacted by a number of factors. These factors range from physiological characteristics of individual organisms, over specifics of their interaction to impacts of the environment. They may generate the potential for the application of different strategies by predators and prey. Within this thesis, I modelled predator-prey interactions and investigated a broad range of different factors driving the application of certain strategies, that affect the individuals or their populations. In doing so, I focused on phytoplankton-zooplankton systems as established model systems of predator-prey interactions. At the level of predator physiology I proposed, and partly confirmed, adaptations to fluctuating availability of co-limiting nutrients as beneficial strategies. These may allow to store ingested nutrients or to regulate the effort put into nutrient assimilation. We found that these two strategies are beneficial at different fluctuation frequencies of the nutrients, but may positively interact at intermediate frequencies. The corresponding experiments supported our model results. We found that the temporal structure of nutrient fluctuations indeed has strong effects on the juvenile somatic growth rate of {\itshape Daphnia}. Predator colimitation by energy and essential biochemical nutrients gave rise to another physiological strategy. High-quality prey species may render themselves indispensable in a scenario of predator-mediated coexistence by being the only source of essential biochemical nutrients, such as cholesterol. Thereby, the high-quality prey may even compensate for a lacking defense and ensure its persistence in competition with other more defended prey species. We found a similar effect in a model where algae and bacteria compete for nutrients. Now, being the only source of a compound that is required by the competitor (bacteria) prevented the competitive exclusion of the algae. In this case, the essential compounds were the organic carbon provided by the algae. Here again, being indispensable served as a prey strategy that ensured its coexistence. The latter scenario also gave rise to the application of the two metabolic strategies of autotrophy and heterotrophy by algae and bacteria, respectively. We found that their coexistence allowed the recycling of resources in a microbial loop that would otherwise be lost. Instead, these resources were made available to higher trophic levels, increasing the trophic transfer efficiency in food webs. The predation process comprises the next higher level of factors shaping the predator-prey interaction, besides these factors that originated from the functioning or composition of individuals. Here, I focused on defensive mechanisms and investigated multiple scenarios of static or adaptive combinations of prey defense and predator offense. I confirmed and extended earlier reports on the coexistence-promoting effects of partially lower palatability of the prey community. When bacteria and algae are coexisting, a higher palatability of bacteria may increase the average predator biomass, with the side effect of making the population dynamics more regular. This may facilitate experimental investigations and interpretations. If defense and offense are adaptive, this allows organisms to maximize their growth rate. Besides this fitness-enhancing effect, I found that co-adaptation may provide the predator-prey system with the flexibility to buffer external perturbations. On top of these rather internal factors, environmental drivers also affect predator-prey interactions. I showed that environmental nutrient fluctuations may create a spatio-temporal resource heterogeneity that selects for different predator strategies. I hypothesized that this might favour either storage or acclimation specialists, depending on the frequency of the environmental fluctuations. We found that many of these factors promote the coexistence of different strategies and may therefore support and sustain biodiversity. Thus, they might be relevant for the maintenance of crucial ecosystem functions that also affect us humans. Besides this, the richness of factors that impact predator-prey interactions might explain why so many species, especially in the planktonic regime, are able to coexist. N2 - Organismen interagieren miteinander und mit ihrer Umwelt. Innerhalb dieses Netzwerks von Interaktionen sind Fraßbeziehungen zwischen Räubern und ihrer Beute von zentraler Bedeutung. Sie werden auf verschiedenen Ebenen von unterschiedlichen Faktoren beeinflusst, was zur Ausprägung von diversen Strategien von Räuber oder Beute führen kann. Diese Faktoren und die Strategien die sie hervor bringen sind Gegenstand dieser Doktorarbeit. In mehreren Modellierungsstudien habe ich vielseitige Faktoren untersucht, die sich dem Aufbau einzelner Organismen, Verteidigungs- und Angriffsmechanismen sowie Umwelteinflüssen zuordnen lassen. Dabei konzentrierte ich mich auf ein etabliertes Modellsystem zur Erforschung von Räuber-Beute-Dynamiken und untersuchte die Fraßbeziehung zwischen Phytoplankton als Beute und Zooplankton als Räuber. Ich fand heraus, dass die Bereitstellung von essentiellen Ressourcen für Konkurrenten oder Räuber eine Strategie sein kann, mit der Beutearten sich vor dem Aussterben schützen können. Auch die direkte Verteidigung gegen den Räuber ist eine häufige Strategie zur Verringerung des Fraßdrucks und kann ebenfalls Koexistenz fördern. Für anpassungsfähige Verteidigung der Beute und Angriffsstärke des Räubers konnte ich zeigen, dass dies sowohl die Fitness erhöhen, als auch die Robustheit der Räuber-Beute-Dynamiken gegen äußere Störungen erhöhen kann. Weiterhin fand ich heraus, dass physiologische Anpassungsmechanismen wie Speicherung oder anpassungsfähige Aufnahme von Nährstoffen die Wachstumsrate des Räubers verbessern können, wenn die Qualität der verfügbaren Beute in der Umwelt des Räubers fluktuiert. Viele der Strategien, die ich in dieser Arbeit herausgestellt habe, können die Koexistenz von verschiedenen Arten fördern und damit zu erhöhter Biodiversität beitragen, welche wiederum entscheidend ist für die Stabilität von Ökosystemen und deren Nutzbarkeit. KW - predator-prey KW - biodiversity KW - modelling KW - Räuber-Beute KW - Biodiversität KW - Modellierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426587 ER - TY - THES A1 - Hanschmann, Raffael Tino T1 - Stalling the engine? EU climate politics after the ‘Great Recession’ T1 - Den Motor abgewürgt? EU-Klimapolitik nach der Großen Rezession BT - investigating the impact of economic shocks on EU climate policy-making in three case studies BT - eine Untersuchung des Einflusses von Wirtschaftskrisen auf Prozesse in der EU-Klimapolitik in drei Fallstudien N2 - This dissertation investigates the impact of the economic and fiscal crisis starting in 2008 on EU climate policy-making. While the overall number of adopted greenhouse gas emission reduction policies declined in the crisis aftermath, EU lawmakers decided to introduce new or tighten existing regulations in some important policy domains. Existing knowledge about the crisis impact on EU legislative decision-making cannot explain these inconsistencies. In response, this study develops an actor-centred conceptual framework based on rational choice institutionalism that provides a micro-level link to explain how economic crises translate into altered policy-making patterns. The core theoretical argument draws on redistributive conflicts, arguing that tensions between ‘beneficiaries’ and ‘losers’ of a regulatory initiative intensify during economic crises and spill over to the policy domain. To test this hypothesis and using social network analysis, this study analyses policy processes in three case studies: The introduction of carbon dioxide emission limits for passenger cars, the expansion of the EU Emissions Trading System to aviation, and the introduction of a regulatory framework for biofuels. The key finding is that an economic shock causes EU policy domains to polarise politically, resulting in intensified conflict and more difficult decision-making. The results also show that this process of political polarisation roots in the industry that is the subject of the regulation, and that intergovernmental bargaining among member states becomes more important, but also more difficult in times of crisis. N2 - Diese Dissertation untersucht den Einfluss der in 2008 beginnenden globalen Wirtschaftskrise auf die Prozesse der EU-Klimapolitik. Während die Zahl der verabschiedeten Gesetze zur Treibhausgasreduktion nach Krisenausbruch insgesamt sank, entschieden die EU-Gesetzgeber, in mehreren wichtigen Politikfeldern neue Regulierungen einzuführen oder existierende zu verschärfen. Bestehendes Wissen zum Einfluss der Krise auf EU-Gesetzgebungsprozesse kann diese Inkonsistenzen nicht erklären. Daher entwickelt diese Arbeit ein auf Rational-Choice-Institutionalismus basierendes konzeptionelles Gerüst, das auf der Mikro-Ebene eine kausale Verbindung zwischen Wirtschaftskrise und veränderten Politikprozessen herstellt. Das zentrale theoretische Argument beruht auf Verteilungskonflikten innerhalb der regulierten Wirtschaftsbranchen: Die Spannung zwischen „Nutznießern“ und „Verlierern“ einer geplanten Regulierung intensiviert sich in Krisenzeiten und setzt sich im politischen Raum fort. Diese Hypothese wird an drei Fallstudien mittels sozialer Netzwerkanalyse getestet. Die drei Fallstudien untersuchen politische Entscheidungsprozesse in den folgenden EU-Politikfeldern: Kohlenstoffdioxid-Emissionsgrenzen für PKW, die Ausweitung des Emissionshandels auf Flugverkehr und die Einführung eines Regulierungsrahmens für Biokraftstoffe. Die wichtigste Erkenntnis der Untersuchung ist, dass makroökonomische Schocks eine Polarisierung der politischen Interessen innerhalb eines Politikfeldes auslösen, dadurch Konflikte intensivieren und letztlich Entscheidungsfindungen erschweren. Die Ergebnisse zeigen zudem, dass dieser Polarisierungsprozess in der regulierten Wirtschaftsbranche wurzelt. Außerdem werden Verhandlungen zwischen den Regierungen der Mitgliedsstaaten in Krisenzeiten wichtiger, aber auch schwieriger.  KW - EU KW - European Union KW - policy-making KW - network analysis KW - policy preferences KW - economic crisis KW - crisis KW - climate KW - climate change KW - climate policy KW - climate politics KW - environmental policy KW - EU KW - Europäische Union KW - Politikgestaltung KW - Netzwerkanalyse KW - Politikpräferenzen KW - Wirtschaftskrise KW - Krise KW - Klima KW - Klimawandel KW - Klimapolitik KW - Umweltpolitik Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440441 ER - TY - THES A1 - Brase, Alexa Kristin T1 - Spiele um Studium und Lehre? Zur mikropolitischen Nutzung von Qualitätsmanagementsystemen an Hochschulen in Deutschland T1 - About the micropolitical use of quality management systems in German higher education N2 - Die Wissenschaftsfreiheit ist ein Grundrecht, dessen Sinn und Auslegung im Rahmen von Reformen des Hochschulsystems nicht nur der Justiz, sondern auch der Wissenschaft selbst immer wieder Anlass zur Diskussion geben, so auch im Zuge der Einführung des so genannten Qualitätsmanagements von Studium und Lehre an deutschen Hochschulen. Die vorliegende Dissertationsschrift stellt die Ergebnisse einer empirischen Studie vor, die mit einer soziologischen Betrachtung des Qualitätsmanagements unterschiedlicher Hochschulen zu dieser Diskussion beiträgt. Auf Grundlage der Prämisse, dass Verlauf und Folgen einer organisationalen Innovation nur verstanden werden können, wenn der alltägliche Umgang der Organisationsmitglieder mit den neuen Strukturen und Prozessen in die Analyse einbezogen wird, geht die Studie von der Frage aus, wie Akteurinnen und Akteure an deutschen Hochschulen die Qualitätsmanagementsysteme ihrer Organisationen nutzen. Die qualitative inhaltsanalytische Auswertung von 26 Leitfaden-Interviews mit Prorektorinnen und -rektoren, Qualitätsmanagement-Personal und Studiendekaninnen und -dekanen an neun Hochschulen ergibt, dass die Strategien der Akteursgruppen an den Hochschulen im Zusammenspiel mit strukturellen Aspekten unterschiedliche Dynamiken entstehen lassen, mit denen Implikationen für die Lehrfreiheit verbunden sind: Während die Autonomie der Lehrenden durch das Qualitätsmanagement an einigen Hochschulen unterstützt wird, sind sowohl Autonomie als auch Verantwortung für Studium und Lehre an anderen Hochschulen Gegenstand andauernder Konflikte, die auch das Qualitätsmanagement einschließen. N2 - The meaning and interpretation of academic freedom in the context of higher education reforms in Germany create legal disputes as well as discussions within higher education itself. The introduction of quality management for study programs and teaching at German universities is one of the current topics related to these discussions. This dissertation contributes to them by presenting the results of an empirical study on different universities’ quality management systems. The study is based on the premise that the course and consequences of an organisational innovation can only be understood by including the day-to-day work of the organisation’s members with the new structures and processes in the analysis. It starts, therefore, with the question: How do actors at German universities use the quality management systems of their organisations? Twenty-six interviews were conducted with vice-rectors, quality management staff and deans of studies at nine universities. A qualitative content analysis shows that the strategies of the different groups of actors create different dynamics in interaction with structural characteristics. There are implications for academic freedom associated with this: At some universities, the autonomy of university teachers is supported by quality management, while at other universities, both autonomy and responsibility for study programs and teaching are the subject of ongoing conflicts also involving quality management. KW - Hochschulen KW - Qualitätsmanagement KW - Mikropolitik KW - higher education KW - quality management KW - micropolitics Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437377 ER - TY - THES A1 - Sablowski, Daniel T1 - Spectroscopic analysis of the benchmark system Alpha Aurigae T1 - Spektroskopische Analysen des Vergleichssystems alpha Aurigae N2 - Binaries play an important role in observational and theoretical astrophysics. Since the mass and the chemical composition are key ingredients for stellar evolution, high-resolution spectroscopy is an important and necessary tool to derive those parameters to high confidence in binaries. This involves carefully measured orbital motion by the determination of radial velocity (RV) shifts and sophisticated techniques to derive the abundances of elements within the stellar atmosphere. A technique superior to conventional cross-correlation methods to determine RV shifts in known as spectral disentangling. Hence, a major task of this thesis was the design of a sophisticated software package for this approach. In order to investigate secondary effects, such as flux and line-profile variations, imprinting changes on the spectrum the behavior of spectral disentangling on such variability is a key to understand the derived values, to improve them, and to get information about the variability itself. Therefore, the spectral disentangling code presented in this thesis and available to the community combines multiple advantages: separation of the spectra for detailed chemical analysis, derivation of orbital elements, derivation of individual RVs in order to investigate distorted systems (either by third body interaction or relativistic effects), the suppression of telluric contaminations, the derivation of variability, and the possibility to apply the technique to eclipsing binaries (important for orbital inclination) or in general to systems that undergo flux-variations. This code in combination with the spectral synthesis codes MOOG and SME was used in order to derive the carbon 12C/13C isotope ratio (CIR) of the benchmark binary Capella. The observational result will be set into context with theoretical evolution by the use of MESA models and resolves the discrepancy of theory and observations existing since the first measurement of Capella's CIR in 1976. The spectral disentangling code has been made available to the community and its applicability to completely different behaving systems, Wolf-Rayet stars, have also been investigated and resulted in a published article. Additionally, since this technique relies strongly on data quality, continues development of scientific instruments to achieve best observational data is of great importance in observational astrophysics. That is the reason why there has also been effort in astronomical instrumentation during the work on this thesis. N2 - Doppelsterne spielen eine wichtige Rolle in der beobachtenden und theoretischen Astrophysik. Die Massen und die chemische Zusammensetzung der Sterne sind dabei ausschlaggebende Parameter. Die wichtige und notwendige Methode um diese zu bestimmen ist hochaufgelöste Spektroskopie. Dies beinhaltet eine penible Bestimmung der orbitalen Bewegung durch die Vermessung von Radialgeschwindigkeitsverschiebungen (RV) und fortgeschrittene Techniken zur Bestimmung der Häufigkeiten der in der Sternatmosphäre vorhandenen Elemente. Gegenüber der konventionellen Kreuzkorrelation zur Bestimmung der RV-Verschiebungen, gilt die Methode des sogenannten 'spectral disentanglings' als überlegen. Daher bestand ein Großteil der vorliegenden Arbeit darin, eine solche Methode in einem weiterentwickelten Softwarepacket zu realisieren. Um sekundäre Effekte zu verstehen, welche zu weiteren Änderungen im Spektrum führen, also insbesondere solche wie Fluss- und Linienprofilvariationen, ist es von zentraler Bedeutung das Verhalten des spectral disentangling durch solche Variabilitäten zu verstehen, sodass die ermittelten Größen besser interpretiert und verbessert, sowie Informationen über die Variabilität selbst abgeleitet werden können. Daher vereint der in dieser Arbeit vorgestellte und der Allgemeinheit offen stehende Algorithmus für das spectral disentangling mehrere Vorteile: Separation der Spektren für detaillierte chemische Analysen, Ableitung der orbitalen Bahnelemente, Ableitung der einzelnen RV-Verschiebungen um auch gestörte Systeme (z.B. durch einen dritten Körper oder relativistische Effekte) analysieren zu können, die Reduktion des Einflusses tellurischer Kontamination, Ableitung der Variabilität und die Möglichkeit der Anwendung auf Bedeckungsveränderliche (wichtig zur Bestimmung der Inklination) bzw. allgemeiner auf Systeme mit Flussvariationen. Der vorgestellte Algorithmus wurde zusammen mit MOOG und SME zur Erzeugung synthetischer Spektren verwendet um das Kohlenstoff-12C/13C Isotopen-Verhältnis (KIV) des Referenzsystems Capella zu bestimmen. Dieses Ergebnis aus Beobachtungen wird in Kontext zur theoretischen Entwicklung durch Verwendung von MESA Modellen gesetzt und löst die Unstimmigkeit zwischen Beobachtung und Theorie die bereits seit der ersten Messung des KIV von Kapella von 1976 existiert. Der Algorithmus für das spectral disentangling ist der Allgemeinheit zugänglich gemacht und wurde auf vollkommen anders verhaltende Objekte, den Wolf-Rayet-Sternen, angewendet, was in einer publizierten Arbeit resultierte. Da die Methode stark von der Qualität der Beobachtungsdaten abhängt, ist eine kontinuierliche Weiterentwicklung der wissenschaftlichen Messtechnik der beobachtenden Astrophysik sehr wichtig um die bestmöglichsten Beobachtungsdaten gewinnen zu können. Daher wurden auch große Anstrengungen in der astronomischen Instrumentierung während dieser Arbeit unternommen. KW - Stellar physics KW - Stellar evolution KW - spectroscopy KW - instrumentation KW - carbon-isotope-ratio KW - Capella KW - Stellarphysik KW - Sternentwicklung KW - Spektroskopie KW - Instrumentierung KW - Kohlenstoff-Isotopen-Verhältnis KW - Kapella Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432396 ER - TY - THES A1 - Batoulis, Kimon T1 - Sound integration of process and decision models T1 - Korrekte Integration von Prozess- und Entscheidungsmodellen N2 - Business process management is an established technique for business organizations to manage and support their processes. Those processes are typically represented by graphical models designed with modeling languages, such as the Business Process Model and Notation (BPMN). Since process models do not only serve the purpose of documentation but are also a basis for implementation and automation of the processes, they have to satisfy certain correctness requirements. In this regard, the notion of soundness of workflow nets was developed, that can be applied to BPMN process models in order to verify their correctness. Because the original soundness criteria are very restrictive regarding the behavior of the model, different variants of the soundness notion have been developed for situations in which certain violations are not even harmful. All of those notions do only consider the control-flow structure of a process model, however. This poses a problem, taking into account the fact that with the recent release and the ongoing development of the Decision Model and Notation (DMN) standard, an increasing number of process models are complemented by respective decision models. DMN is a dedicated modeling language for decision logic and separates the concerns of process and decision logic into two different models, process and decision models respectively. Hence, this thesis is concerned with the development of decisionaware soundness notions, i.e., notions of soundness that build upon the original soundness ideas for process models, but additionally take into account complementary decision models. Similar to the various notions of workflow net soundness, this thesis investigates different notions of decision soundness that can be applied depending on the desired degree of restrictiveness. Since decision tables are a standardized means of DMN to represent decision logic, this thesis also puts special focus on decision tables, discussing how they can be translated into an unambiguous format and how their possible output values can be efficiently determined. Moreover, a prototypical implementation is described that supports checking a basic version of decision soundness. The decision soundness notions were also empirically evaluated on models from participants of an online course on process and decision modeling as well as from a process management project of a large insurance company. The evaluation demonstrates that violations of decision soundness indeed occur and can be detected with our approach. N2 - Das Prozessmanagement ist eine etablierte Methode für Unternehmen zur Verwaltung und Unterstützung ihrer Geschäftsprozesse. Solche Prozesse werden typischerweise durch graphische Modelle dargestellt, welche mit Modellierungssprachen wie etwa der Business Process Model and Notation (BPMN) erstellt werden. Da Prozessmodelle nicht nur der Dokumentation der Prozesse dienen, sondern auch die Grundlage für deren Implementierung und Automatisierung sind, müssen sie bestimmte Korrektheitsanforderungen erfüllen. In dieser Hinsicht wurde der Begriff der Soundness einesWorkflow-Netzes entwickelt, welcher auch auf BPMN-Prozessmodelle angewendet werden kann, um deren Korrektheit zu prüfen. Da die ursprünglichen Soundness-Kriterien sehr restriktiv bezüglich des Verhaltens des Modells sind, wurden zudem Varianten des Soundness-Begriffs entwickelt. Diese können in Situationen verwendet werden, in denen bestimmte Verletzungen der Kriterien tolerabel sind. Diese Soundness-Begriffe berücksichtigen allerdings ausschließlich den Kontrollfluss der Prozessmodelle. Dies stellt ein Problem dar, weil viele Prozessmodelle heutzutage durch Entscheidungsmodelle ergänzt werden. In diesem Kontext ist die Decision Model and Notation (DMN) eine dedizierte Sprache zur Modellierung von Entscheidungen und unterstüzt die Trennung von Kontrollfluss- und Entscheidungslogik. Die vorliegende Dissertation befasst sich daher mit der Entwicklung von erweiterten Soundness-Begriffen, die sowohl Prozess- als auch Entscheidungsmodelle berücksichtigen. Ähnlich zu den bestehenden Soundness-Varianten, werden in dieser Arbeit Varianten des erweiterten Soundness-Begriffs untersucht, die je nach gewünschtem Restriktionsgrad angewendet werden können. Da Entscheidungstabellen eine in der DMN standadisierte Form sind, um Entscheidungslogik auszudrücken, fokussiert sich diese Arbeit inbesondere auf Entscheidungstabellen. So wird diskutiert wie DMN-Tabellen in ein eindeutiges Format übersetzt werden können und wie sich deren möglichen Rückgabewerte effizient bestimmen lassen. Ferner beschreibt die Arbeit eine prototypische Implementierung, die das Prüfen einer elementaren Variante des erweiterten Soundness-Begriffs erlaubt. Die Begriffe wurden außerdem empirisch evaluiert. Dazu dienten zum einen Modelle von Teilnehmern eines Online-Kurses zur Prozess- und Entscheidungsmodellierung. Zum anderen wurden Modelle eines Versicherungsunternehmens analysiert. Die Evaluierung zeigt, das Verstöße gegen den erweiterten Soundness-Begriff in der Tat auftreten und durch den hier beschriebenen Ansatz erkannt werden können. KW - decision-aware process models KW - soundness KW - decision soundness KW - formal verification KW - entscheidungsbewusste Prozessmodelle KW - Korrektheit KW - Entscheidungskorrektheit KW - formale Verifikation Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437386 ER - TY - THES A1 - Reeg, Jette T1 - Simulating the impact of herbicide drift exposure on non-target terrestrial plant communities T1 - Simulation der Auswirkungen von Herbizid-Drift-Expositionen auf Gemeinschaften von Nichtzielpflanzen N2 - In Europe, almost half of the terrestrial landscape is used for agriculture. Thus, semi-natural habitats such as field margins are substantial for maintaining diversity in intensively managed farmlands. However, plants located at field margins are threatened by agricultural practices such as the application of pesticides within the fields. Pesticides are chemicals developed to control for undesired species within agricultural fields to enhance yields. The use of pesticides implies, however, effects on non-target organisms within and outside of the agricultural fields. Non-target organisms are organisms not intended to be sprayed or controlled for. For example, plants occurring in field margins are not intended to be sprayed, however, can be impaired due to herbicide drift exposure. The authorization of plant protection products such as herbicides requires risk assessments to ensure that the application of the product has no unacceptable effects on the environment. For non-target terrestrial plants (NTTPs), the risk assessment is based on standardized greenhouse studies on plant individual level. To account for the protection of plant populations and communities under realistic field conditions, i.e. extrapolating from greenhouse studies to field conditions and from individual-level to community-level, assessment factors are applied. However, recent studies question the current risk assessment scheme to meet the specific protection goals for non-target terrestrial plants as suggested by the European Food Safety Authority (EFSA). There is a need to clarify the gaps of the current risk assessment and to include suitable higher tier options in the upcoming guidance document for non-target terrestrial plants. In my thesis, I studied the impact of herbicide drift exposure on NTTP communities using a mechanistic modelling approach. I addressed main gaps and uncertainties of the current risk assessment and finally suggested this modelling approach as a novel higher tier option in future risk assessments. Specifically, I extended the plant community model IBC-grass (Individual-based community model for grasslands) to reflect herbicide impacts on plant individuals. In the first study, I compared model predictions of short-term herbicide impacts on artificial plant communities with empirical data. I demonstrated the capability of the model to realistically reflect herbicide impacts. In the second study, I addressed the research question whether or not reproductive endpoints need to be included in future risk assessments to protect plant populations and communities. I compared the consequences of theoretical herbicide impacts on different plant attributes for long-term plant population dynamics in the community context. I concluded that reproductive endpoints only need to be considered if the herbicide effect is assumed to be very high. The endpoints measured in the current vegetative vigour and seedling emergence studies had high impacts for the dynamic of plant populations and communities already at lower effect intensities. Finally, the third study analysed long-term impacts of herbicide application for three different plant communities. This study highlighted the suitability of the modelling approach to simulate different communities and thus detecting sensitive environmental conditions. Overall, my thesis demonstrates the suitability of mechanistic modelling approaches to be used as higher tier options for risk assessments. Specifically, IBC-grass can incorporate available individual-level effect data of standardized greenhouse experiments to extrapolate to community-level under various environmental conditions. Thus, future risk assessments can be improved by detecting sensitive scenarios and including worst-case impacts on non-target plant communities. N2 - Fast die Hälfte der gesamten Landfläche in Europa wird für landwirtschaftliche Zwecke genutzt. Daher sind halb-natürliche Gebiete, wie zum Beispiel Ackerränder, von besonderer Bedeutung für den Artenreichtum in intensiv genutzten Ackerlandschaften. Vor allem in den intensiv genutzten Äckern werden Chemikalien eingesetzt um die Erträge zu erhöhen. So werden zum Beispiel Pflanzenschutzmittel eingesetzt, um Unkräuter im Acker zu vernichten. Allerdings kann dieser Einsatz auch Auswirkungen auf sogenannte Nicht-Zielarten haben. Dies sind solche Arten oder Artindividuen, die z.B. innerhalb vom Acker nicht in Konkurrenz mit den darauf wachsenden Getreidesorten stehen oder sich nicht innerhalb vom Feld befinden aber dennoch den Pflanzenschutzmitteln ausgesetzt sind. Um den Artenreichtum in halb-natürlichen Gebieten zu schützen, ist es daher notwendig eine Risikoabschätzung durchzuführen bevor ein Pflanzenschutzmittel für den Verkauf und die Anwendung zugelassen wird. Für terrestrische Nicht-Zielpflanzen erfolgt eine solche Risikoabschätzung basierend auf standardisierten Gewächshausexperimenten, in denen die Effekte auf der Ebene von Einzelindividuen gemessen werden. Um das letztliche Risiko im Freiland für ganze Pflanzengemeinschaften abzuschätzen, werden sogenannte Unsicherheitsfaktoren hinzugenommen. Allerdings stellen neuere Studien in Frage, ob der derzeitige Ansatz ausreichend sicher ist. Dies gilt vor allem in Bezug auf die aktuellen speziellen Schutzziele, die den Fokus auf den Schutz von Pflanzengemeinschaften und Artenreichtum legen. Es ist daher zwingend notwendig die Wissenslücken der derzeitigen Risikoabschätzung zu schließen und Optionen zu weiteren Studien zu geben, die das Risiko vom Einsatz von Pflanzenschutzmitteln für Nicht-Zielpflanzen realistischer abschätzen können. In meiner Dissertation nutze ich einen mechanistischen Modellierungsansatz um den Einfluss von Pflanzenschutzmitteln auf Nicht-Zielpflanzengemeinschaften zu untersuchen. Hierbei spreche ich die wesentlichen Wissenslücken und Unklarheiten der aktuellen Risikoabschätzung an und schlage zusammenfassend eine neue Option für eine realistischere Abschätzung des Risikos vor. Hierzu integriere ich den Einfluss von Herbiziden auf Einzelindividuen in das Pflanzengemeinschaftsmodell IBC-grass. In meiner ersten Studie vergleiche ich Modellvorhersagen von kurzzeitigen Herbizideffekten in künstlichen Artgemeinschaften mit experimentellen Daten. Mit der Studie zeige ich, dass das Modell den Einfluss von Herbiziden auf die Pflanzengemeinschaft realistisch vorhersagen kann. In der zweiten Studie fokussiere ich mich auf die Frage, ob Effekte auf weitere Pflanzeneigenschaften, insbesondere Fortpflanzungseigenschaften, wie zum Beispiel die Samenproduktion, im Rahmen der standardisierten Gewächshausstudien gemessen werden sollten. Die Studie zeigt, dass die derzeitig gemessenen Pflanzeneigenschaften am meisten Einfluss auf die Dynamiken einer Pflanzengesellschaft haben und somit schon geringe Schädigungen dieser Eigenschaften auf Individuenebene Auswirkungen für die Gemeinschaft haben. Dahingegen führten nur sehr starke Effekte auf die Fortpflanzungseigenschaften zu einem Einfluss auf Gemeinschaftsebene. Mit der letzten Studie zeige ich, dass der Modellansatz dazu genutzt werden kann Auswirkungen für unterschiedliche Pflanzengemeinschaften darzustellen. Zusammengefasst zeigen die Studien meiner Dissertation, dass mechanistische Modellierung eine geeignete Option für eine realistischere Risikoabschätzung ist. Auf Grund des besonderen Designs von IBC-grass können die durch derzeitige Gewächshausstudien zur Verfügung stehenden empirischen Daten in das Modell eingearbeitet werden und somit das Risiko auf Gemeinschaftsebene abgeschätzt werden. Mit Hilfe des Modells können mehrere Umweltbedingungen getestet werden und somit Extremszenarien abgedeckt werden. Meine Studien tragen dazu bei, zukünftige Risikoabschätzungen für Nicht-Zielpflanzen zu verbessern. KW - ecological modelling KW - pesticide KW - risk assessment KW - plant community KW - non-target organisms KW - ökologische Modellierung KW - Pestizide KW - Risikoabschätzung KW - Pflanzengemeinschaft KW - Nicht-Zielorganismen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429073 ER - TY - THES A1 - Sidarenka, Uladzimir T1 - Sentiment analysis of German Twitter T1 - Sentimentanalyse des deutschen Twitters N2 - The immense popularity of online communication services in the last decade has not only upended our lives (with news spreading like wildfire on the Web, presidents announcing their decisions on Twitter, and the outcome of political elections being determined on Facebook) but also dramatically increased the amount of data exchanged on these platforms. Therefore, if we wish to understand the needs of modern society better and want to protect it from new threats, we urgently need more robust, higher-quality natural language processing (NLP) applications that can recognize such necessities and menaces automatically, by analyzing uncensored texts. Unfortunately, most NLP programs today have been created for standard language, as we know it from newspapers, or, in the best case, adapted to the specifics of English social media. This thesis reduces the existing deficit by entering the new frontier of German online communication and addressing one of its most prolific forms—users’ conversations on Twitter. In particular, it explores the ways and means by how people express their opinions on this service, examines current approaches to automatic mining of these feelings, and proposes novel methods, which outperform state-of-the-art techniques. For this purpose, I introduce a new corpus of German tweets that have been manually annotated with sentiments, their targets and holders, as well as lexical polarity items and their contextual modifiers. Using these data, I explore four major areas of sentiment research: (i) generation of sentiment lexicons, (ii) fine-grained opinion mining, (iii) message-level polarity classification, and (iv) discourse-aware sentiment analysis. In the first task, I compare three popular groups of lexicon generation methods: dictionary-, corpus-, and word-embedding–based ones, finding that dictionary-based systems generally yield better polarity lists than the last two groups. Apart from this, I propose a linear projection algorithm, whose results surpass many existing automatically-generated lexicons. Afterwords, in the second task, I examine two common approaches to automatic prediction of sentiment spans, their sources, and targets: conditional random fields (CRFs) and recurrent neural networks, obtaining higher scores with the former model and improving these results even further by redefining the structure of CRF graphs. When dealing with message-level polarity classification, I juxtapose three major sentiment paradigms: lexicon-, machine-learning–, and deep-learning–based systems, and try to unite the first and last of these method groups by introducing a bidirectional neural network with lexicon-based attention. Finally, in order to make the new classifier aware of microblogs' discourse structure, I let it separately analyze the elementary discourse units of each tweet and infer the overall polarity of a message from the scores of its EDUs with the help of two new approaches: latent-marginalized CRFs and Recursive Dirichlet Process. N2 - Die enorme Popularität von Online-Kommunikationsdiensten in den letzten Jahrzehnten hat nicht unser Leben massiv geändert (sodass Nachrichten sich wie Fegefeuer übers Internet ausbreiten, Präsidenten ihre Entscheidungen auf Twitter ankündigen, und Ergebnisse politischer Wahlen auf Facebook entschieden werden) sondern auch zu einem dramatischen Anstieg der Datenmenge geführt, die über solche Plattformen ausgetauscht werden. Deswegen braucht man heutzutage dringend zuverlässige, qualitätvolle NLP-Programme, um neue gesellschaftliche Bedürfnisse und Risiken in unzensierten Nutzernachrichten automatisch erkennen und abschätzen zu können. Leider sind die meisten modernen NLP-Anwendungen entweder auf die Analyse der Standardsprache (wie wir sie aus Zeitungstexten kennen) ausgerichtet oder im besten Fall an die Spezifika englischer Social Media angepasst. Diese Dissertation reduziert den bestehenden Rückstand, indem sie das "Neuland" der deutschen Online-Kommunikation betritt und sich einer seiner produktivsten Formen zuwendet—den User-Diskussionen auf Twitter. Diese Arbeit erforscht insbesondere die Art und Weise, wie Leute ihre Meinungen auf diesem Online-Service äußern, analysiert existierende Verfahren zur automatischen Erkennung ihrer Gefühle und schlägt neue Verfahren vor, die viele heutige State-of-the-Art-Systeme übertreffen. Zu diesem Zweck stelle ich ein neues Korpus deutscher Tweets vor, die manuell von zwei menschlichen Experten mit Sentimenten (polaren Meinungen), ihren Quellen (sources) und Zielen (targets) sowie lexikalischen polaren Termen und deren kontextuellen Modifizierern annotiert wurden. Mithilfe dieser Daten untersuche ich vier große Teilgebiete der Sentimentanalyse: (i) automatische Generierung von Sentiment-Lexika, (ii) aspekt-basiertes Opinion-Mining, (iii) Klassifizierung der Polarität von ganzen Nachrichten und (iv) diskurs-bewusste Sentimentanalyse. In der ersten Aufgabe vergleiche ich drei populäre Gruppen von Lexikongenerierungsmethoden: wörterbuch-, corpus- und word-embedding-basierte Verfahren, und komme zu dem Schluss, dass wörterbuch-basierte Ansätze generell bessere Polaritätslexika liefern als die letzten zwei Gruppen. Abgesehen davon, schlage ich einen neuen Linearprojektionsalgorithmus vor, dessen Resultate deutlich besser als viele automatisch generierte Polaritätslisten sind. Weiterhin, in der zweiten Aufgabe, untersuche ich zwei gängige Herangehensweisen an die automatische Erkennung der Textspannen von Sentimenten, Sources und Targets: Conditional Random Fields (CRFs) und rekurrente neuronale Netzwerke. Ich erziele bessere Ergebnisse mit der ersten Methode und verbessere diese Werte noch weiter durch alternative Topologien der CRF-Graphen. Bei der Analyse der Nachrichtenpolarität stelle ich drei große Sentiment-Paradigmen gegenüber: lexikon-, Machine-Learning–, und Deep-Learning–basierte Systeme, und versuche die erste und die letzte dieser Gruppen in einem Verfahren zu vereinigen, indem ich eine neue neuronale Netzwerkarchitektur vorschlage: bidirektionales rekurrentes Netzwerk mit lexikon-basierter Attention (LBA). Im letzten Kapitel unternehme ich einen Versuch, die Prädiktion der Gesamtpolarität von Tweets über die Diskursstruktur der Nachrichten zu informieren. Zu diesem Zweck wende ich den vorgeschlagenen LBA-Klassifikator separat auf jede einzelne elementare Diskurs-Einheit (EDU) eines Microblogs an und induziere die allgemeine semantische Ausrichtung dieser Nachricht mithilfe von zwei neuen Methoden: latenten marginalisierten CRFs und rekursivem Dirichlet-Prozess. KW - sentiment analysis KW - opinion mining KW - social media KW - Twitter KW - natural language processing KW - discourse analysis KW - NLP KW - computational linguistics KW - machine learning KW - Sentimentanalyse KW - Computerlinguistik KW - Meinungsforschung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437422 ER - TY - THES A1 - Nikaj, Adriatik T1 - Restful choreographies T1 - REST-Choreografien N2 - Business process management has become a key instrument to organize work as many companies represent their operations in business process models. Recently, business process choreography diagrams have been introduced as part of the Business Process Model and Notation standard to represent interactions between business processes, run by different partners. When it comes to the interactions between services on the Web, Representational State Transfer (REST) is one of the primary architectural styles employed by web services today. Ideally, the RESTful interactions between participants should implement the interactions defined at the business choreography level. The problem, however, is the conceptual gap between the business process choreography diagrams and RESTful interactions. Choreography diagrams, on the one hand, are modeled from business domain experts with the purpose of capturing, communicating and, ideally, driving the business interactions. RESTful interactions, on the other hand, depend on RESTful interfaces that are designed by web engineers with the purpose of facilitating the interaction between participants on the internet. In most cases however, business domain experts are unaware of the technology behind web service interfaces and web engineers tend to overlook the overall business goals of web services. While there is considerable work on using process models during process implementation, there is little work on using choreography models to implement interactions between business processes. This thesis addresses this research gap by raising the following research question: How to close the conceptual gap between business process choreographies and RESTful interactions? This thesis offers several research contributions that jointly answer the research question. The main research contribution is the design of a language that captures RESTful interactions between participants---RESTful choreography modeling language. Formal completeness properties (with respect to REST) are introduced to validate its instances, called RESTful choreographies. A systematic semi-automatic method for deriving RESTful choreographies from business process choreographies is proposed. The method employs natural language processing techniques to translate business interactions into RESTful interactions. The effectiveness of the approach is shown by developing a prototypical tool that evaluates the derivation method over a large number of choreography models. In addition, the thesis proposes solutions towards implementing RESTful choreographies. In particular, two RESTful service specifications are introduced for aiding, respectively, the execution of choreographies' exclusive gateways and the guidance of RESTful interactions. N2 - Das Prozessmanagement hat sich zu einer wichtigen Methode zur Organisation von Arbeitsabläufen entwickelt, sodass viele Unternehmen ihre Tätigkeiten mittlerweile in Prozessmodellen darstellen. Unlängst wurden zudem im Kontext der Business Process Model and Notation Choreographiediagramme eingeführt, um Interaktionen zwischen Prozessen verschiedener Partner zu beschreiben. Im Web nutzen interagierende Dienste heutzutage den Representational State Transfer (REST) als primären Architekturstil. Idealerweise implementieren die REST-Interaktionen der Dienste also die Interaktionen, die im Choreographiediagramm definiert wurden. Allerdings besteht zwischen Choreographiediagrammen und RESTInteraktionen eine konzeptuelle Diskrepanz. Auf der einen Seite werden Choreographiediagramme von Domänenexperten mit dem Ziel modelliert, die Interaktionen zu erfassen, zu kommunizieren und, idealerweise, voranzutreiben. Auf der anderen Seite sind REST-Interaktionen abhängig von REST-Schnittstellen, welche von Web-Entwicklern mit dem Ziel entworfen werden, Interaktionen zwischen Diensten im Internet zu erleichtern. In den meisten Fällen sind sich Domänenexperten jedoch der Technologien, die Web-Schnittstellen zu Grunde liegen, nicht bewusst, wohingegenWeb-Entwickler die Unternehmensziele der Web-Dienste nicht kennen. Während es umfangreiche Arbeiten zur Implementierung von Prozessmodellen gibt, existieren nur wenige Untersuchungen zur Implementierung von interagierenden Prozessen auf Basis von Choreographiemodellen. Die vorliegende Dissertation adressiert diese Forschungslücke, indem sie die folgende Forschungsfrage aufwirft: Wie kann die konzeptuelle Diskrepanz zwischen Choreographiediagrammen und REST-Interaktionen beseitigt werden? Somit enthält diese Arbeit mehrere Forschungsbeiträge, um diese Frage zu adressieren. Der primäre Beitrag besteht in dem Design einer Modellierungssprache, um REST-Interaktionen zwischen Diensten zu erfassen—der RESTful Choreography Modeling Language. Formale Vollständigkeitseigenschaften (in Bezug auf REST) werden eingeführt, um Instanzen dieser Modelle, sogennante REST-Choreographien, zu validieren. Ferner wird eine systematische, halb-automatische Methode vorgestellt, um RESTChoreographien von Choreographiediagrammen abzuleiten. Diese Methode setzt Techniken des Natural Language Processing ein, um Interaktionen in REST-Interaktionen zu übersetzen. Die Wirksamkeit des Ansatzes wird durch die Entwicklung eines prototypischen Werkzeugs demonstriert, welches die Ableitungsmethode anhand einer großen Anzahl von Choreographiediagrammen evaluiert. Darüber hinaus stellt diese Arbeit Lösungen zur Implementierung von REST-Choreographien bereit. Insbesondere werden zwei REST-Dienstspezifikationen vorgestellt, welche die korrekte Ausführung von exklusiven Gateways eines Choreographiediagramms und die Führung der REST-Interaktionen unterstützen. KW - business process choreographies KW - RESTful interactions KW - Geschäftsprozess-Choreografien KW - REST-Interaktionen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-438903 ER - TY - THES A1 - Kochlik, Bastian Max T1 - Relevance of biomarkers for the diagnosis of the frailty syndrome T1 - Die Bedeutung von Biomarkern für die Diagnose des Frailty-Syndroms BT - focus on parameters of muscle protein turnover, micronutrients and oxidative stress BT - 3-Methylhistidine, Mikronährstoffe und oxidativer Stress im Fokus N2 - Frailty and sarcopenia share some underlying characteristics like loss of muscle mass, low muscle strength, and low physical performance. Imaging parameters and functional examinations mainly assess frailty and sarcopenia criteria; however, these measures can have limitations in clinical settings. Therefore, finding suitable biomarkers that reflect a catabolic muscle state e.g. an elevated muscle protein turnover as suggested in frailty, are becoming more relevant concerning frailty diagnosis and risk assessment. 3-Methylhistidine (3-MH) and its ratios 3-MH-to-creatinine (3-MH/Crea) and 3 MH-to-estimated glomerular filtration rate (3-MH/eGFR) are under discussion as possible biomarkers for muscle protein turnover and might support the diagnosis of frailty. However, there is some skepticism about the reliability of 3-MH measures since confounders such as meat and fish intake might influence 3-MH plasma concentrations. Therefore, the influence of dietary habits and an intervention with white meat on plasma 3-MH was determined in young and healthy individuals. In another study, the cross-sectional associations of plasma 3-MH, 3-MH/Crea and 3-MH/eGFR with the frailty status (robust, pre-frail and frail) were investigated. Oxidative stress (OS) is a possible contributor to frailty development, and high OS levels as well as low micronutrient levels are associated with the frailty syndrome. However, data on simultaneous measures of OS biomarkers together with micronutrients are lacking in studies including frail, pre-frail and robust individuals. Therefore, cross-sectional associations of protein carbonyls (PrCarb), 3-nitrotyrosine (3-NT) and several micronutrients with the frailty status were determined. A validated UPLC-MS/MS (ultra-performance liquid chromatography tandem mass spectrometry) method for the simultaneous quantification of 3-MH and 1-MH (1 methylhistidine, as marker for meat and fish consumption) was presented and used for further analyses. Omnivores showed higher plasma 3-MH and 1-MH concentrations than vegetarians and a white meat intervention resulted in an increase in plasma 3-MH, 3 MH/Crea, 1-MH and 1-MH/Crea in omnivores. Elevated 3-MH and 3-MH/Crea levels declined significantly within 24 hours after this white meat intervention. Thus, 3-MH and 3-MH/Crea might be used as biomarker for muscle protein turnover when subjects did not consume meat 24 hours prior to blood samplings. Plasma 3-MH, 3-MH/Crea and 3-MH/eGFR were higher in frail individuals than in robust individuals. Additionally, these biomarkers were positively associated with frailty in linear regression models, and higher odds to be frail were found for every increase in 3 MH and 3-MH/eGFR quintile in multivariable logistic regression models adjusted for several confounders. This was the first study using 3-MH/eGFR and it is concluded that plasma 3-MH, 3-MH/Crea and 3-MH/eGFR might be used to identify frail individuals or individuals at higher risk to be frail, and that there might be threshold concentrations or ratios to support these diagnoses. Higher vitamin D3, lutein/zeaxanthin, γ-tocopherol, α-carotene, β-carotene, lycopene and β-cryptoxanthin concentrations and additionally lower PrCarb concentrations were found in robust compared to frail individuals in multivariate linear models. Frail subjects had higher odds to be in the lowest than in the highest tertile for vitamin D3 α-tocopherol, α-carotene, β-carotene, lycopene, lutein/zeaxanthin, and β cryptoxanthin, and had higher odds to be in the highest than in the lowest tertile for PrCarb than robust individuals in multivariate logistic regression models. Thus, a low micronutrient together with a high PrCarb status is associated with pre-frailty and frailty. N2 - Gebrechlichkeit (englisch: frailty) und Sarkopenie teilen einige zugrundeliegende Merkmale wie einen Verlust von Muskelmasse, eine geringe Muskelkraft und eine geringe körperliche Leistungsfähigkeit, welche durch einen erhöhten Muskelproteinumsatz entstehen können. Kriterien der Gebrechlichkeit und Sarkopenie werden hauptsächlich durch bildgebende Verfahren sowie funktionelle Untersuchungen gemessen, die in ihrer Durchführbarkeit im klinischen Alltag jedoch eingeschränkt sein können. Daher gewinnt das Finden geeigneter Biomarker zur Anzeige eines erhöhten Muskelproteinumsatzes (kataboler Muskelzustand) in Bezug auf Diagnose und Risikobewertung der Gebrechlichkeit zunehmend an Bedeutung. 3-Methylhistidin (3-MH) und die Verhältnisse 3-MH zu Kreatinin (3-MH/Crea) und 3-MH zu geschätzter glomerulärer Filtrationsrate (3-MH/eGFR) werden als solche möglichen Biomarker diskutiert und könnten folglich die Diagnose und Risikobewertung von Gebrechlichkeit unterstützen. Es herrscht jedoch eine gewisse Skepsis hinsichtlich der Zuverlässigkeit von 3-MH-Messungen, da 3-MH-Plasmakonzentrationen durch Fleisch- und Fischaufnahme beeinflusst werden können. Daher wurde der Einfluss von Ernährungsgewohnheiten (Mischkost oder vegetarisch) und einer Intervention mit Hähnchenfleisch auf Plasma-3-MH bei jungen und gesunden Personen untersucht. In einer weiteren Studie wurden die Querschnittsassoziationen von 3-MH, 3-MH/Crea und 3-MH/eGFR im Plasma mit dem Frailty-Status (robust, pre-frail und frail) untersucht. Oxidativer Stress (OS) ist ein potentieller Faktor der zur Entwicklung von Gebrechlichkeit beiträgt, und sowohl hohe OS-Konzentrationen als auch niedrige Mikronährstoffkonzentrationen sind mit Gebrechlichkeit assoziiert. Daten zu simultanen Messungen von OS und Mikronährstoffen in Personen aller drei Frailty-Kategorien (robust, pre-frail und frail) fehlen jedoch. Aus diesem Grund wurden Querschnittsassoziationen von Proteincarbonylen (PrCarb), 3-Nitrotyrosin (3-NT) und mehrerer fettlöslicher Mikronährstoffe mit dem Frailty-Status bestimmt. Eine validierte UPLC-MS/MS-Methode (ultra-performance liquid chromatography tandem mass spectrometry) zur simultanen Bestimmung von 3-MH und 1-MH (1 Methylhistidin als Marker für den Fleisch- und Fischkonsum) in Plasma wurde beschrieben und für die weiteren Analysen verwendet. Mischköstler wiesen höhere 3 MH- und 1-MH-Konzentrationen in Plasma auf als Vegetarier. Die Intervention mit Hähnchenfleisch führte zu einem Anstieg von Plasma 3-MH, 3-MH/Crea, 1-MH und 1 MH/Crea bei Mischköstlern. Diese erhöhten 3-MH- und 3-MH/Crea-Spiegel sanken innerhalb von 24 Stunden nach der Intervention signifikant ab. Folglich stellen 3-MH und 3-MH/Crea potentielle Biomarker für den Muskelproteinumsatz dar, wenn Personen für 24 Stunden vor der Blutentnahme kein Fleisch verzehrt haben. Gebrechliche Teilnehmer wiesen höhere Plasma 3-MH-, 3-MH/Crea- und 3 MH/eGFR-Werte auf als robuste Teilnehmer und zusätzlich waren diese Biomarker in linearen Regressionsmodellen positiv mit Gebrechlichkeit assoziiert. In multivariablen logistischen Regressionsmodellen (adjustiert für mehrere Confounder) waren gebrechliche Personen im Vergleich zu robusten Personen mit einer höheren Wahrscheinlichkeit in einer höheren 3-MH- und 3-MH/eGFR-Quintile. Diese erste Studie, die 3-MH/eGFR als Biomarker für Gebrechlichkeit untersucht hat, erlaubt die Schlussfolgerung, dass Plasma-3-MH, -3-MH/Crea und -3-MH/eGFR verwendet werden könnte, um gebrechliche Personen oder Personen mit einem erhöhten Frailty-Risiko zu identifizieren. Möglicherweise gibt es auch Schwellenwerte, die diese Diagnosen unterstützen können. In multivariaten Regressionsanalysen wiesen robuste Personen höhere Vitamin D3-, Lutein/Zeaxanthin-, γ-Tocopherol-, α-Carotin-, β-Carotin-, Lycopin- und β Cryptoxanthin-Konzentrationen sowie niedrigere PrCarb-Konzentrationen auf als gebrechliche Personen. Zudem waren in multinomialen logistischen Regressionsanalysen gebrechliche Personen mit einer höheren Wahrscheinlichkeit sowohl in der niedrigsten Vitamin D3-, α-Tocopherol-, α-Carotin-, β-Carotin-, Lycopin-, Lutein/Zeaxanthin- und β Cryptoxanthin-Tertil als auch im höchsten PrCarb-Tertil zu finden als robuste Personen. Es wird daher geschlussfolgert, dass niedrige Mikronährstoffkonzentrationen zusammen mit hohen PrCarb-Konzentrationen mit Gebrechlichkeit und dessen Vorstufe (pre-frailty) assoziiert sind. KW - biomarker KW - Biomarker KW - frailty KW - Frailty KW - micronutrients KW - Mikronährstoffe KW - oxidative stress KW - oxidativer Stress KW - 3-methylhistidine KW - 3-Methylhistidin KW - muscle protein turnover KW - Muskelproteinumsatz Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441186 ER - TY - THES A1 - Le Bot, Nils T1 - Quel avenir pour les gares métropolitaines françaises et allemandes ? T1 - Welche Zukunft für die französischen und deutschen Metropol-Bahnhöfe? T1 - What future for French and German metropolitan train stations ? BT - analyse prospective de la dialectique « système gare » / ville, face au devenir des politiques publiques françaises & allemandes en matière de transport BT - prospektive Analyse der Dialektik "Bahnhofssystem" / Stadt, Angesichts der Zukunft der französischen und deutschen öffentlichen Politik im Bereich des Verkehrs BT - prospective analysis of the dialectic "station system" / city, with regard to the future of French & German public transport policies N2 - Cette thèse d’urbanisme s’est donnée pour objectif de réfléchir à l’avenir des gares métropolitaines françaises et allemandes à horizon 2050. Elle porte une interrogation sur les fondements de la gare comme objet urbain conceptuel (abordé comme un système) et pose comme hypothèse qu’il serait en quelque sorte doté de propriétés autonomes. Parmi ces propriétés, c’est le processus d’expansion et de dialogue sans cesse renouvelé et conflictuel, entre la gare et son tissu urbain environnant, qui guide cette recherche ; notamment dans le rapport qu’il entretient avec l’hypermobilité des métropoles. Pour ce faire, cette thèse convoque quatre terrains d’études : les gares principales de Cologne et de Stuttgart en Allemagne et les gares de Paris-Montparnasse et Lyon-Part-Dieu en France ; et commence par un historique détaillé de leurs évolutions morphologiques, pour dégager une série de variables architectoniques et urbaines. Il procède dans un deuxième temps à une série d’analyse prospective, permettant de juger de l’influence possible des politiques publiques en matière transports et de mobilité, sur l’avenir conceptuel des gares. Cette thèse propose alors le concept de système-gare, pour décrire l’expansion et l’intégration des gares métropolitaines avec leur environnement urbain ; un processus de négociation dialectique qui ne trouve pas sa résolution dans le concept de gare comme lieu de vie/ville. Elle invite alors à penser la gare comme une hétérotopie, et propose une lecture dépolarisée et déhiérarchisée de ces espaces, en introduisant les concepts d’orchestre de gares et de métagare. Cette recherche propose enfin une lecture critique de la « ville numérique » et du concept de « mobilité comme service. » Pour éviter une mise en flux tendus potentiellement dommageables, l’application de ces concepts en gare ne pourra se soustraire à une augmentation simultanée des espaces physiques. N2 - Diese Doktorarbeit im Bereich der Stadtplanung zielt darauf ab, sich mit der Zukunft der französischen und deutschen Metropol-Großbahnhöfe bis zum Jahr 2050 auseinanderzusetzen. Sie hinterfragt die Grundprinzipien des Bahnhofs als konzeptuelles urbanes Objekt (welchem sich als System angenähert wird) und formuliert die Hypothese, dass der Bahnhof als Objekt oder System in gewisser Weise autonome Eigenschaften hat. Zu diesen Eigenschaften gehört der diese Forschungsarbeit prägende Prozess der Expansion und des ständig erneuerten und konfliktgeladenen Dialogs zwischen Bahnhof und umliegenden städtischen Strukturen. Ein Augenmerk liegt hierbei auf der Beziehung dieses Expansionsprozesses und Dialoges zur Hypermobilität von Ballungsräumen. Zu diesem Zweck beschäftigt sich diese Arbeit mit vier Forschungsgegenständen: den Hauptbahnhöfen Köln und Stuttgart in Deutschland und den Großbahnhöfen Paris-Montparnasse und Lyon-Part-Dieu in Frankreich; und stellt zu Beginn eine detaillierte Geschichte der morphologischen Entwicklung derselben dar, um eine Reihe von architektonischen und urbanen Variablen zu identifizieren. Anschließend werden prospektive Analysen durchgeführt, die es ermöglichen, den möglichen Einfluss der aktuellen und geplanten Verkehrspolitik auf die Zukunft des Konzepts Bahnhof zu bewerten. Sodann wird das Konzept des Bahnhofssystems (système-gare) vorgeschlagen, um die Expansion von Großbahnhöfen und deren Integration in ihr urbanes Umfeld zu beschreiben; ein dialektischer Verhandlungsprozess, der vom Konzept des Bahnhofs als Lebensraum und Stadtraum/-ort nicht hinreichend erfasst wird. Die Arbeit lädt dazu ein, Bahnhöfe als Heterotopien zu betrachten und schlägt eine entpolarisierte und de-hierarchische Lesart dieser Räume vor, indem die Konzepte Bahnhofs- Orchester und Meta-Bahnhof eingeführt werden. Schließlich erfolgt eine Auseinandersetzung mit der “Smart City” und dem Konzept der “Mobilität als Dienstleistung”, die sich insbesondere kritisch mit dem Umstand befasst, dass beide Ansätze den aufgrund der Zunahme des Verkehrs und zur Vermeidung einer potentiell schädlichen Just-in-time Organisation in Bahnhöfen notwendigen Ausbau der Bahnhöfe nicht vermeiden können. N2 - This urban planning thesis aims to reflect on the future of French and German metropolitan stations by 2050. It questions the foundations of the station as a conceptual urban thing (considered as a system) and suggests as a hypothesis that it might somehow have autonomous properties. Among these properties, it is the process of expansion and ever renewed and conflictual dialogue between the station and its surrounding urban fabric which guides this research; particularly its link to metropolises’ hypermobility. To do this, this thesis calls up four study sites: the main stations in Cologne and Stuttgart in Germany, and the Paris-Montparnasse and Lyon-Part-Dieu stations in France; and starts with a detailed history of their morphological evolutions, to identify a series of architectonic and urban variables. In a second stage, it proceeds to a series of prospective analyses, allowing us to evaluate the possible influence of public transport and mobility policies on the conceptual future of stations. This thesis then puts forward the concept of a station-system, to describe the expansion and integration of metropolitan stations within their urban environment; a process of dialectic negotiation which does not resolve itself within the concept of stations as a living/urban space. It therefore invites us to think of stations as a heterotopia, and puts forward a depolarised and dehierarchised reading of these spaces, introducing the concepts of station orchestras and metastations. Finally, this research suggests a critical reading of the “smart city” and the concept of “mobility as a service”. To avoid that stations move to a just-in-time model which could potentially be damaging, the application of these concepts to stations cannot avoid a simultaneous increase of physical spaces. KW - gare KW - Bahnhof KW - railway station KW - hypermobilité KW - Hypermobilität KW - hypermobility KW - prospective KW - Zukunftsforschung KW - prospective KW - politiques publiques KW - Verkehrspolitik KW - transport public policies KW - ville intelligente KW - Smart City KW - smart city KW - MaaS KW - MaaS KW - MaaS Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442201 ER -