TY - THES A1 - Kehm, Richard T1 - The impact of metabolic stress and aging on functionality and integrity of pancreatic islets and beta-cells T1 - Der Einfluss von metabolischem Stress und Alterung auf die Funktionalität und Integrität von Langerhans-Inseln und β-Zellen N2 - The increasing age of worldwide population is a major contributor for the rising prevalence of major pathologies and disease, such as type 2 diabetes, mediated by massive insulin resistance and a decline in functional beta-cell mass, highly associated with an elevated incidence of obesity. Thus, the impact of aging under physiological conditions and in combination with diet-induced metabolic stress on characteristics of pancreatic islets and beta-cells, with the focus on functionality and structural integrity, were investigated in the present dissertation. Primarily induced by malnutrition due to chronic and excess intake of high caloric diets, containing large amounts of carbohydrates and fats, obesity followed by systemic inflammation and peripheral insulin resistance occurs over time, initiating metabolic stress conditions. Elevated insulin demands initiate an adaptive response by beta-cell mass expansion due to increased proliferation, but prolonged stress conditions drive beta-cell failure and loss. Aging has been also shown to affect beta-cell functionality and morphology, in particular by proliferative limitations. However, most studies in rodents were performed under beta-cell challenging conditions, such as high-fat diet interventions. Thus, in the first part of the thesis (publication I), a characterization of age-related alterations on pancreatic islets and beta-cells was performed by using plasma samples and pancreatic tissue sections of standard diet-fed C57BL/6J wild-type mice in several age groups (2.5, 5, 10, 15 and 21 months). Aging was accompanied by decreased but sustained islet proliferative potential as well as an induction of cellular senescence. This was associated with a progressive islet expansion to maintain normoglycemia throughout lifespan. Moreover, beta-cell function and mass were not impaired although the formation and accumulation of AGEs occurred, located predominantly in the islet vasculature, accompanied by an induction of oxidative and nitrosative (redox) stress. The nutritional behavior throughout human lifespan; however, is not restricted to a balanced diet. This emphasizes the significance to investigate malnutrition by the intake of high-energy diets, inducing metabolic stress conditions that synergistically with aging might amplify the detrimental effects on endocrine pancreas. Using diabetes-prone NZO mice aged 7 weeks, fed a dietary regimen of carbohydrate restriction for different periods (young mice - 11 weeks, middle-aged mice - 32 weeks) followed by a carbohydrate intervention for 3 weeks, offered the opportunity to distinguish the effects of diet-induced metabolic stress in different ages on the functionality and integrity of pancreatic islets and their beta-cells (publication II, manuscript). Interestingly, while young NZO mice exhibited massive hyperglycemia in response to diet-induced metabolic stress accompanied by beta-cell dysfunction and apoptosis, middle-aged animals revealed only moderate hyperglycemia by the maintenance of functional beta-cells. The loss of functional beta-cell mass in islets of young mice was associated with reduced expression of PDX1 transcription factor, increased endocrine AGE formation and related redox stress as well as TXNIP-dependent induction of the mitochondrial death pathway. Although the amounts of secreted insulin and the proliferative potential were comparable in both age groups, islets of middle-aged mice exhibited sustained PDX1 expression, almost regular insulin secretory function, increased capacity for cell cycle progression as well as maintained redox potential. The results of the present thesis indicate a loss of functional beta-cell mass in young diabetes-prone NZO mice, occurring by redox imbalance and induction of apoptotic signaling pathways. In contrast, aging under physiological conditions in C57BL/6J mice and in combination with diet-induced metabolic stress in NZO mice does not appear to have adverse effects on the functionality and structural integrity of pancreatic islets and beta-cells, associated with adaptive responses on changing metabolic demands. However, considering the detrimental effects of aging, it has to be assumed that the compensatory potential of mice might be exhausted at a later point of time, finally leading to a loss of functional beta-cell mass and the onset and progression of type 2 diabetes. The polygenic, diabetes-prone NZO mouse is a suitable model for the investigation of human obesity-associated type 2 diabetes. However, mice at advanced age attenuated the diabetic phenotype or do not respond to the dietary stimuli. This might be explained by the middle age of mice, corresponding to the human age of about 38-40 years, in which the compensatory mechanisms of pancreatic islets and beta cells towards metabolic stress conditions are presumably more active. N2 - Das steigende Alter der Weltbevölkerung ist ein wesentlicher Faktor für die zunehmende Prävalenz bedeutsamer Pathologien und Krankheiten, wie dem Typ-2-Diabetes, der durch eine massive Insulinresistenz und eine Abnahme der funktionellen Beta-Zellmasse hervorgerufen wird und in hohem Maße mit einem verstärkten Auftreten von Fettleibigkeit assoziiert ist. Daher wurde in der vorliegenden Dissertation der Einfluss der Alterung unter physiologischen Bedingungen und in Kombination mit ernährungs-bedingtem, metabolischem Stress auf die Eigenschaften von Langerhans-Inseln und Beta-Zellen, mit dem Schwerpunkt auf Funktionalität und strukturelle Integrität, untersucht. Primär induziert durch Fehlernährung infolge des chronischen und übermäßigen Konsums von kalorienreichen Diäten, die große Mengen an Kohlenhydraten und Fetten enthalten, kann Adipositas, gefolgt von systemischen Entzündungen und peripherer Insulinresistenz, im Laufe des Lebens entstehen und metabolische Stresszustände auslösen. Daraus resultiert ein erhöhter Insulinbedarf, der eine adaptive Reaktion durch die Vergrößerung der Beta-Zellmasse infolge gesteigerter Proliferation auslöst. Längere Stressbedingungen führen hingegen zu Schäden an und Verlust von Beta-Zellen. Es wurde zudem gezeigt, dass das Altern die Funktionalität und Morphologie von Beta-Zellen, insbesondere durch proliferative Limitationen, beeinflusst. Die meisten Studien in Nagetieren wurden jedoch unter erhöhten Stressbedingungen für Beta-Zellen, beispielsweise durch die Fütterung von Hochfett-Diäten, durchgeführt. Deshalb wurde im ersten Teil der Arbeit (Publikation I) eine Charakterisierung von altersbedingten Veränderungen auf die Langerhans-Inseln und Beta-Zellen unter Verwendung von Plasmaproben und Pankreasgewebeschnitten von C57BL/6J-Wildtyp-Mäusen verschiedener Altersgruppen (2,5; 5; 10; 15 und 21 Monate), die mit einer Standarddiät gefüttert wurden, durchgeführt. Das Altern ging mit einem reduzierten, jedoch anhaltenden Proliferationspotential der Langerhans-Inseln sowie einer Induktion der zellulären Seneszenz einher. Dies war mit einem fortschreitenden Wachstum der Langerhans-Inseln verbunden, um eine Normoglykämie während der gesamten Lebensdauer aufrechtzuerhalten. Zudem wurden die Beta-Zell-Masse und die Funktionalität nicht beeinträchtigt, obwohl eine Bildung und Akkumulation von AGEs, die vorwiegend im Gefäßsystem der Langerhans-Inseln lokalisiert und von einer Induktion von oxidativem und nitrosativem (redox) Stress begleitet war, auftrat. Das Ernährungsverhalten während der gesamten Lebensspanne ist jedoch nicht auf eine ausgewogene Ernährung beschränkt. Dies unterstreicht die Bedeutung der Untersuchung von Fehlernährung durch die Einnahme energiereicher Diäten, wodurch metabolische Stresszustände induziert werden, die synergistisch mit dem Altern schädigende Effekte auf das endokrine Pankreas verstärken können. Verwendet wurden 7 Wochen alte, zur Entwicklung von Typ-2-Diabetes neigende NZO-Mäuse, die unterschiedlich langen kohlenhydratrestriktiven Fütterungsperioden (junge Mäuse - 11 Wochen, Mäuse mittleren Alters - 32 Wochen), gefolgt von einer 3-wöchigen Kohlenhydratintervention ausgesetzt waren. Dadurch konnten die Auswirkungen von ernährungsbedingtem metabolischem Stress auf die Funktionalität und Integrität von Langerhans-Inseln und deren Beta-Zellen in verschiedenen Altersstufen untersucht werden (Publikation II, Manuskript). Interessanterweise zeigten junge NZO-Mäuse eine massive Hyperglykämie als Reaktion auf den ernährungsbedingten, metabolischen Stress was von Beta-Zelldysfunktion und Apoptose begleitet war. Tiere mittleren Alters zeigten hingegen nur eine moderate Hyperglykämie durch den Erhalt funktioneller Beta-Zellen. Der Verlust funktioneller Beta-Zellmasse in jungen Mäusen war mit einer verminderten Expression des PDX1-Transkriptionsfaktors, einer erhöhten endokrinen AGE-Bildung und damit verbundenem Redox Stress sowie einer TXNIP-abhängigen Induktion des mitochondrialen Apoptosewegs verbunden. Obwohl die Mengen an sekretiertem Insulin sowie das Proliferationspotential in beiden Altersgruppen vergleichbar waren, zeigten die Langerhans-Inseln der Mäuse im mittleren Alter eine anhaltende PDX1-Expression, eine nahezu reguläre Insulinsekretionsfunktion, eine erhöhte Kapazität für das Fortschreiten des Zellzyklus sowie einen Erhalt des Redoxpotentials. Die Ergebnisse der vorliegenden Arbeit zeigen einen Verlust funktioneller Beta-Zellmasse bei jungen, diabetogenen NZO-Mäusen, der durch ein Redox-Ungleichgewicht und die Induktion apoptotischer Signalwege verursacht wurde. Im Gegensatz dazu scheint das Altern unter physiologischen Bedingungen bei C57BL/6J-Mäusen und in Kombination mit ernährungsbedingtem metabolischem Stress bei NZO-Mäusen keine nachteiligen Auswirkungen auf die Funktionalität und strukturelle Integrität von Langerhans und Beta-Zellen zu haben, was mit adaptiven Reaktionen auf wechselnde Stoffwechsel-anforderungen assoziiert war. In Anbetracht der negativen Auswirkungen der Alterung muss jedoch berücksichtigt werden, dass das Kompensationsverhalten von Mäusen zu einem späteren Zeitpunkt erschöpft sein könnte, was schließlich zu einem Verlust der funktionellen Beta-Zellmasse und dem Auftreten und Fortschreiten von Typ-2-Diabetes führt. Die polygene, zu Typ-2-Diabetes neigende NZO-Maus ist ein geeignetes Modell für die Untersuchung von mit Adipositas-assoziiertem Typ-2-Diabetes beim Menschen. Mäuse im fortgeschrittenen Alter zeigten jedoch einen verminderten diabetischen Phänotyp oder reagierten nicht auf die diätetischen Reize. Dies könnte durch das mittlere Alter der Mäuse erklärt werden, das dem menschlichen Alter von etwa 38 bis 40 Jahren entspricht, in dem die Kompensationsmechanismen von Langerhans-Inseln und Beta-Zellen gegenüber metabolischen Stressbedingungen möglicherweise aktiver sind. KW - Alterung KW - aging KW - Beta-Zelle KW - beta-cell KW - metabolischer Stress KW - metabolic stress Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441099 ER - TY - THES A1 - Grafe, Marianne Erika T1 - Analysis of supramolecular assemblies of NE81, the first lamin protein in a non-metazoan organism T1 - Analyse von supramolekularen Komplexen von NE81, dem ersten Lamin in einem nicht-metazoischen Organismus N2 - Lamine sind Proteine an der inneren Kernhülle und bilden zusammen mit verbundenen Proteinen die nukleäre Lamina. Dieses Netzwerk sorgt für die Stabilität des Zellkerns und unterstützt die Organisation des Zell-Zytoskeletts. Zusätzlich sind Lamine und ihre verbundenen Proteine in viele Prozesse wie Genregulation und Zelldifferenzierung involviert. Bis 2012 war der Stand der Forschung, dass nur bei mehrzelligen Organismen eine nukleäre Lamina zu finden ist. NE81 ist das erste lamin-ähnliche Protein, das in einem nicht-mehrzelligen Organismus (Dictyostelium discoideum) entdeckt wurde. Es hat viele Eigenschaften und Strukturmerkmale mit Laminen gemeinsam. Dazu zählt der dreiteilige Aufbau des Proteins, eine Phosphorylierungsstelle für ein Zellzyklus-abhängiges Enzym, ein Kernlokalisationssignal, wodurch das Protein in den Kern transportiert wird, sowie eine C-terminale Sequenz zur Verankerung des Proteins in der Kernhülle. In dieser Arbeit wurden verschiedene Methoden zur vereinfachten Untersuchung von Laminstrukturen getestet, um zu zeigen, dass sich NE81 wie bereits bekannte Lamin-Proteine verhält und supramolekulare Netzwerke aus Laminfilamenten bildet. Zur Analyse der Struktur supramolekularer Anordnungen wurde das Protein durch Entfernen des Kernlokalisationssignals auf der äußeren Kernhülle von Dictyostelium gebildet. Die anschließende Untersuchung der Oberfläche der Kerne mit einem Rasterelektronenmikroskop zeigte, dass NE81 Strukturen in der Größe von Laminen bildet, allerdings nicht in regelmäßigen filamentösen Anordnungen. Um die Entstehung der Laminfilamente zu untersuchen, wurde lösliches NE81 aus Dictyostelium aufgereinigt und mit verschiedenen mikroskopischen Methoden untersucht. Dabei wurde festgestellt, dass NE81 unter Niedrigsalz-Bedingungen dünne, fadenförmige Strukturen und Netzwerke ausbildet, die denen von Säugetier-Laminen sehr ähnlich sind. Die Mutation der Phosphorylierungsstelle von NE81 zu einer imitierenden dauerhaften Phosphorylierung von NE81 in der Zelle, zeigte zunächst ein gelöstes Protein, das überraschenderweise unter Blaulichtbestrahlung der Zelle wieder lamin-ähnliche Anordnungen formte. Die Ergebnisse dieser Arbeit zeigen, dass NE81 echte Laminstrukturen ausbilden kann und hebt Dictyostelium als Nicht-Säugetier-Modellorganismus mit einer gut charakterisierten Kernhülle, mit allen relevanten, aus tierischen Zellen bekannten Proteinen, hervor. N2 - Nuclear lamins are nucleus-specific intermediate filaments forming a network located at the inner nuclear membrane of the nuclear envelope. They form the nuclear lamina together with proteins of the inner nuclear membrane regulating nuclear shape and gene expression, among others. The amoebozoan Dictyostelium NE81 protein is a suitable candidate for an evolutionary conserved lamin protein in this non-metazoan organism. It shares the domain organization of metazoan lamins and is fulfilling major lamin functions in Dictyostelium. Moreover, field-emission scanning electron microscopy (feSEM) images of NE81 expressed on Xenopus oocytes nuclei revealed filamentous structures with an overall appearance highly reminiscent to that of metazoan Xenopus lamin B2. For the classification as a lamin-like or a bona fide lamin protein, a better understanding of the supramolecular NE81 structure was necessary. Yet, NE81 carrying a large N-terminal GFP-tag turned out as unsuitable source for protein isolation and characterization; GFP-NE81 expressed in Dictyostelium NE81 knock-out cells exhibited an abnormal distribution, which is an indicator for an inaccurate assembly of GFP-tagged NE81. Hence, a shorter 8×HisMyc construct was the tag of choice to investi-gate formation and structure of NE81 assemblies. One strategy was the structural analysis of NE81 in situ at the outer nuclear membrane in Dictyostelium cells; NE81 without a func-tional nuclear localization signal (NLS) forms assemblies at the outer face of the nucleus. Ultrastructural feSEM pictures of NE81ΔNLS nuclei showed a few filaments of the expected size but no repetitive filamentous structures. The former strategy should also be established for metazoan lamins in order to facilitate their structural analysis. However, heterologously expressed Xenopus and C. elegans lamins showed no uniform localization at the outer nucle-ar envelope of Dictyostelium and hence, no further ultrastructural analysis was undertaken. For in vitro assembly experiments a Dictyostelium mutant was generated, expressing NE81 without the NLS and the membrane-anchoring isoprenylation site (HisMyc-NE81ΔNLSΔCLIM). The cytosolic NE81 clusters were soluble at high ionic strength and were purified from Dictyostelium extracts using Ni-NTA Agarose. Widefield immunofluorescence microscopy, super-resolution light microscopy and electron microscopy images of purified NE81 showed its capability to form filamentous structures at low ionic strength, as described previously for metazoan lamins. Introduction of a phosphomimetic point mutation (S122E) into the CDK1-consensus sequence of NE81 led to disassembled NE81 protein in vivo, which could be reversibly stimulated to form supramolecular assemblies by blue light exposure. The results of this work reveal that NE81 has to be considered a bona fide lamin, since it is able to form filamentous assemblies. Furthermore, they highlight Dictyostelium as a non-mammalian model organism with a well-characterized nuclear envelope containing all rele-vant protein components known in animal cells. KW - lamin KW - NE81 KW - Dictyostelium KW - nuclear envelope KW - nuclear lamina KW - expansion microscopy KW - Lamin KW - NE81 KW - Dictyostelium KW - Kernhülle KW - nukleäre Lamina KW - Expansions-Mikroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441802 ER - TY - THES A1 - Rector, Michael V. T1 - The acute effect of exercise on flow-mediated dilation in young people with cystic fibrosis T1 - Der akute Effekt des Trainings auf den Fluss vermittelte Dilatation bei jungen Menschen mit Mukoviszidose N2 - Introduction: Cystic fibrosis (CF) is a genetic disease which disrupts the function of an epithelial surface anion channel, CFTR (cystic fibrosis transmembrane conductance regulator). Impairment to this channel leads to inflammation and infection in the lung causing the majority of morbidity and mortality. However, CF is a multiorgan disease affecting many tissues, including vascular smooth muscle. Studies have revealed young people with cystic fibrosis lacking inflammation and infection still demonstrate vascular endothelial dysfunction, measured per flow-mediated dilation (FMD). In other disease cohorts, i.e. diabetic and obese, endurance exercise interventions have been shown improve or taper this impairment. However, long-term exercise interventions are risky, as well as costly in terms of time and resources. Nevertheless, emerging research has correlated the acute effects of exercise with its long-term benefits and advocates the study of acute exercise effects on FMD prior to longitudinal studies. The acute effects of exercise on FMD have previously not been examined in young people with CF, but could yield insights on the potential benefits of long-term exercise interventions. The aims of these studies were to 1) develop and test the reliability of the FMD method and its applicability to study acute exercise effects; 2) compare baseline FMD and the acute exercise effect on FMD between young people with and without CF; and 3) explore associations between the acute effects of exercise on FMD and demographic characteristics, physical activity levels, lung function, maximal exercise capacity or inflammatory hsCRP levels. Methods: Thirty young volunteers (10 people with CF, 10 non-CF and 10 non-CF active matched controls) between the ages of 10 and 30 years old completed blood draws, pulmonary function tests, maximal exercise capacity tests and baseline FMD measurements, before returning approximately 1 week later and performing a 30-min constant load training at 75% HRmax. FMD measurements were taken prior, immediately after, 30 minutes after and 1 hour after constant load training. ANOVAs and repeated measures ANOVAs were employed to explore differences between groups and timepoints, respectively. Linear regression was implemented and evaluated to assess correlations between FMD and demographic characteristics, physical activity levels, lung function, maximal exercise capacity or inflammatory hsCRP levels. For all comparisons, statistical significance was set at a p-value of α < 0.05. Results: Young people with CF presented with decreased lung function and maximal exercise capacity compared to matched controls. Baseline FMD was also significantly decreased in the CF group (CF: 5.23% v non-CF: 8.27% v non-CF active: 9.12%). Immediately post-training, FMD was significantly attenuated (approximately 40%) in all groups with CF still demonstrating the most minimal FMD. Follow-up measurements of FMD revealed a slow recovery towards baseline values 30 min post-training and improvements in the CF and non-CF active groups 60 min post-training. Linear regression exposed significant correlations between maximal exercise capacity (VO2 peak), BMI and FMD immediately post-training. Conclusion: These new findings confirm that CF vascular endothelial dysfunction can be acutely modified by exercise and will aid in underlining the importance of exercise in CF populations. The potential benefits of long-term exercise interventions on vascular endothelial dysfunction in young people with CF warrants further investigation. N2 - Einleitung: Mukoviszidose (CF) ist eine genetische Erkrankung, die die Funktion eines Epithelien Oberflächenanionenkanals, CFTR (cystic fibrosis transmembrane conductance regulator), stört. Eine Beeinträchtigung dieses Kanals führt zu Entzündungen und Infektionen in der Lunge, die den Großteil der Morbidität und Mortalität verursachen. CF ist jedoch eine Multiorganerkrankung, die viele Gewebe einschließlich vaskulärer glatter Muskeln betrifft. Studien haben gezeigt, dass junge Menschen mit Mukoviszidose, die keine Entzündung und Infektion aufweisen, immer noch eine vaskuläre Dysfunktion aufweisen, gemessen anhand der durchflussbedingten Dilatation (FMD). In anderen Krankheitskohorten, u.a. Diabetes und Fettleibigkeit, wurde gezeigt, dass Ausdauersporteingriffe diese Beeinträchtigungen verbessern oder reduzieren. Langfristige Bewegungseingriffe sind jedoch riskant und kostenintensiv in Bezug auf Zeit und Ressourcen. Nichtsdestotrotz hat die aufkommende Forschung die akuten Auswirkungen von körperlicher Bewegung mit ihren langfristigen Vorteilen korreliert und befürwortet die Untersuchung akuter Bewegungseffekte auf FMD vor longitudinalen Studien. Die akuten Auswirkungen von körperlicher Bewegung auf FMD wurden bisher bei jungen Menschen mit Mukoviszidose nicht untersucht, konnten jedoch Erkenntnisse über die potenziellen Vorteile langfristiger Bewegungseingriffe liefern. Die Ziele dieser Studien waren, 1) die Zuverlässigkeit der FMD-Methode und ihre Anwendbarkeit zu entwickeln, um akute Übungseffekte zu untersuchen; 2) Vergleich der Grundlinien-FMD und der Akutübungswirkung bei FMD zwischen Jugendlichen mit und ohne CF; und 3) Zusammenhänge zwischen den akuten Auswirkungen von körperlicher Bewegung auf FMD und demographischen Merkmalen, der körperlichen Aktivität, der Lungenfunktion, der maximalen körperlichen Belastbarkeit oder den entzündlichen hsCRP-Spiegeln zu untersuchen. Methoden: Dreißig junge Freiwillige (10 CF-Patienten, 10 gesunde und 10 aktive, gesunde Kontrollpersonen) im Alter von 10 bis 30 Jahren führten zuvor Blutabnahmen, Lungenfunktionstests, maximale Belastungstests und Grundlinien-FMD-Messungen durch Rückkehr etwa 1 Woche später und Durchführung eines 30-minütigen Dauerlasttrainings bei 75% HFmax durch. FMD-Messungen wurden vor, unmittelbar nach, 30 Minuten nach und 1 Stunde nach konstantem Belastungstraining durchgeführt. ANOVAs und ANOVAs mit wiederholten Messungen wurden verwendet, um Unterschiede zwischen Gruppen bzw. Zeitpunkten zu untersuchen. Die lineare Regression wurde implementiert und evaluiert, um Korrelationen zwischen FMD und demographischen Merkmalen, körperlichen Aktivitätsniveaus, Lungenfunktion, maximaler Belastungskapazität oder inflammatorischen hsCRP-Spiegeln zu bestimmen. Für alle Vergleiche wurde die statistische Signifikanz auf einen p-Wert von α < 0,05 eingestellt. Ergebnisse: Jugendliche mit Mukoviszidose zeigten eine verminderte Lungenfunktion und maximale Belastbarkeit im Vergleich zu Kontrollpersonen. Baseline FMD (%) war auch in der CF-Gruppe (CF: 5.23% v nicht-CF: 8.27% v nicht-CF-aktive: 9.12%) signifikant verringert. Unmittelbar nach dem Training war die FMD in allen Gruppen mit CF, die immer noch die minimalste FMD aufwiesen, signifikant abgeschwächt (~40%). Follow-up-Messungen von FMD zeigte eine langsame Erholung in Richtung Baseline-Werte 30 Minuten nach dem Training und Verbesserungen in der CF-und nicht-CF-aktive Gruppen 60 Minuten nach dem Training. Die lineare Regression zeigte signifikante Korrelationen zwischen maximaler Belastungsfähigkeit (VO2-Peak), BMI und FMD unmittelbar nach dem Training. Feststellung: Diese neuen Ergebnisse bestätigen, dass die vaskuläre Dysfunktion der CF durch sportliche Betätigung akut verändert werden kann und dazu beitragen wird, die Bedeutung von Bewegung in CF-Populationen zu unterstreichen. Die potenziellen Vorteile von Langzeitübungsinterventionen bei vaskulärer Dysfunktion bei jungen CF-Patienten rechtfertigen weitere Untersuchungen. KW - cystic fibrosis KW - flow-mediated dilation KW - vascular dysfunction KW - exercise KW - Mukoviszidose KW - Fluss vermittelte Dilatation KW - vaskuläre Dysfunktion KW - Sporttraining Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-438938 ER - TY - THES A1 - Bieri, Pascal T1 - Topmanager im Kreuzfeuer ihrer Dilemmata T1 - Top managers in the crossfire of their dilemmas BT - Ursachen, Bewältigungsstrategien und Resultate von empfundenen Dilemmata im Habitat der Schweizer Topmanager sowie das Kontinuum derer Typen in Bezug auf Dilemmata-Arten BT - causes, coping strategies and results of perceived dilemmas in the habitat of Swiss top managers as well as the continuum of their types in relation to species of dilemmas N2 - Die vorliegende Forschungsarbeit untersucht den Umgang mit Dilemmata von Topmanagern. Dilemmata sind ein alltägliches Geschäft im Topmanagement. Die entsprechenden Akteure sind daher immer wieder mit diesen konfrontiert und mit ihnen umzugehen, gehört gewissermaßen zu ihrer Berufsbeschreibung. Hinzu kommen Dilemmata im nicht direkt geschäftlichen Bereich, wie zum Beispiel jene zwischen Familien- und Arbeitszeit. Doch stellt dieses Feld ein kaum untersuchtes Forschungsgebiet dar. Während Dilemmata in anderen Bereichen eine zunehmende Aufmerksamkeit erfuhren, wurden deren Besonderheiten im Topmanagement genauso wenig differenziert betrachtet wie zugehörige Umgangsweisen. Theorie und Praxis stellen bezüglich Dilemmata von Topmanagern vor allem einen Gegensatz dar, beziehungsweise fehlt es an einer theoretischen Fundierung der Empirie. Diesem Umstand wird mittels dieser Studie begegnet. Auf der Grundlage einer differenzierten und breiten Erfassung von Theorien zu Dilemmata, so diese auch noch nicht auf Topmanager bezogen wurden, und einer empirischen Erhebung, die im Mittelpunkt dieser Arbeit stehen, soll das Feld Dilemmata von Topmanagern der Forschung geöffnet werden. Empirische Grundlage sind vor allem narrative Interviews mit Topmanagern über ihre Dilemmata-Wahrnehmung, ausgemachte Ursachen, Umgangsweisen und Resultate. Dies erlaubt es, Topmanagertypen sowie Dilemmata-Arten, mit denen sie konfrontiert sind oder waren, analytisch herauszuarbeiten. Angesichts der Praxisrelevanz von Dilemmata von Topmanagern wird jedoch nicht nur ein theoretisches Modell zu dieser Thematik erarbeitet, es werden auch Reflexionen auf die Praxis in Form von Handlungsempfehlungen vorgenommen. Schließlich gilt es, die allgemeine Theorie zu Dilemmata, ohne konkreten Bezug zu Topmanagern, mit den theoretischen Erkenntnissen dieser Studie auf empirischer Basis zu kontrastieren. Dabei wird im Rahmen der empirischen Erfassung und Auswertung dem Ansatz der Grounded-Theory-Methodologie gefolgt. N2 - This scientific study examines the handling of dilemmas of top managers. Handling dilemmas is daily business of top managers, again and again they are confronted with various dilemmas. But handling dilemmas is not only part of the job description of top managers, they also must handle dilemmas out of their direct business, as between family and business time. But this area has not been focused on in studies so far; while dilemmas in general have been broadly studied and were in the focus of attention in different scientific areas, they and their handling have not been studied in connection with top managers. Here, theory and practice are far away from each other; it lacks a theoretical base for the empirical handling of dilemmas of top managers. This circumstance is tackled by this study, which is based on a broad and differentiated discussion of theories about dilemmas, even though they are not directly linked to top management. What follows is an empirical study as centre of this work to bring the field of dilemma of top managers into scientific focus, based on narrative interviews with top managers. With the interviews it is possible to analyze the perception of dilemmas of top managers, see causes of dilemmas, ways to handle them and their results. Building on this, types of top managers can be distinguished from each other as well as kinds of dilemmas they are confronted with respectively have been confronted with. Considering the relevance of the topic of dilemmas for the practice of top managers, in the end not only a theoretical model shall be developed based on the empirical data, but reflections towards practice shall be undertaken in form of recommended procedures. Finally, the covered general theory about dilemmas, without explicit connection to top managers, is to be contrasted with the theoretical insights based on the empiricism of this study. Behind the empirical analysis here stands a Grounded Theory Methodology approach. KW - Topmanager KW - Dilemmata KW - Dilemma KW - Topmanager Typen KW - Dilemmata Arten KW - Ursachen KW - Bewältigungsstrategien KW - Resultate KW - Kontinuum KW - top manager KW - dilemma KW - dilemmas KW - top manager types KW - dilemmas species KW - causes KW - coping strategies KW - results KW - continuum Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441062 ER - TY - THES A1 - Riemer, Janine T1 - Synthese und Charakterisierung selektiver Fluoroionophore für intra- und extrazelluläre Bestimmungen von Kalium- und Natrium-Ionen T1 - Synthesis and characterization of selective fluoroionophores for intra- and extracellular determinations of potassium and sodium ions N2 - Im Rahmen dieser Dissertation konnten neue Kalium- und Natrium-Ionen Fluoreszenzfarbstoffe von der Klasse der Fluoroionophore synthetisiert und charakterisiert werden. Sie bestehen aus einem N Phenylazakronenether als Ionophor und unterschiedlichen Fluorophoren und sind über einen π-konjugierten 1,2,3-Triazol-1,4-diyl Spacer verbunden. Dabei lag der Fokus während ihrer Entwicklung darauf, diese in ihrer Sensitivität, Selektivität und in ihren photophysikalischen Eigenschaften so zu funktionalisieren, dass sie für intra- bzw. extrazelluläre Konzentrationsbestimmungen geeignet sind. Durch Variation der in ortho Position der N-Phenylazakronenether befindlichen Alkoxy-Gruppen und der fluorophoren Gruppe der Fluoroionophore konnte festgestellt werden, dass die Sensitivität und Selektivität für Kalium- bzw. Natrium-Ionen jeweils durch eine bestimmte Isomerie der 1,2,3-Triazol-1,4-diyl-Einheit erhöht wird. Des Weiteren wurde gezeigt, dass durch eine erhöhte Einschränkung der N,N-Diethylamino-Gruppe des Fluorophors eine Steigerung der Fluoreszenzquantenausbeute und eine Verschiebung des Emissionsmaximums auf über 500 nm erreicht werden konnte. Die Einführung einer Isopropoxy-Gruppe an einem N-Phenylaza-[18]krone-6-ethers resultierte dabei in einem hoch selektiven Kalium-Ionen Fluoroionophor und ermöglichte eine in vitro Überwachung von 10 – 80 mM Kalium-Ionen. Die Substitution einer Methoxy-Gruppe an einem N-Phenylaza-[15]krone-5-ether kombiniert mit unterschiedlich N,N-Diethylamino-Coumarinen lieferte hingegen zwei Natrium-Ionen Fluoroionophore, die für die Überwachung von intra- bzw. extrazellulären Natrium-Ionen Konzentrationen geeignet sind. In einem weiteren Schritt wurden N-Phenylaza-[18]krone-6-ether mit einem Fluorophor, basierend auf einem [1,3]-Dioxolo[4,5-f][1,3]benzodioxol-(DBD)-Grundgerüst, funktionalisiert. Die im Anschluss durchgeführten spektroskopischen Untersuchungen ergaben, dass die Isopropoxy-Gruppe in ortho Position des N-Phenylaza-[18]krone-6-ether in einen für extrazelluläre Kalium-Ionen Konzentrationen selektiven Fluoroionophor resultierte, der die Konzentrationsbestimmungen über die Fluoreszenzintensität und -lebensdauer ermöglicht. In einem abschließenden Schritt konnte unter Verwendung eines Pyrens als fluorophore Gruppe ein weiterer für extrazelluläre Kalium-Ionen Konzentrationen geeigneter Fluoroionophor entwickelt werden. Die Bestimmung der Kalium-Ionen Konzentration erfolgte hierbei anhand der Fluoreszenzintensitätsverhältnisse bei zwei Emissionswellenlängen. Insgesamt konnten 17 verschiedene neue Fluoroionophore für die Bestimmung von Kalium- bzw. Natrium-Ionen synthetisiert und charakterisiert werden. Sechs dieser neuen Moleküle ermöglichen in vitro Messungen der intra- oder extrazellulären Kalium- und Natrium-Ionen Konzentrationen und könnten zukünftig für in vivo Konzentrationsmessungen verwendet werden. N2 - In this thesis, new potassium and sodium ion fluorescent probes from the class of fluoroionophores were synthesized and characterized. They consist of an N-phenylazacrown lariat ether and several fluorophores, connected through a π-conjugated 1,2,3-triazole-1,4-diyl spacer. The focus of their development was to optimize their sensitivity, selectivity and their photophysical properties, making them suitable for detecting intra- or extracellular ion levels. Variation of the alkoxy groups in the ortho position of the N-phenylazacrown lariat ether and the fluorophoric group of the fluoroionophores showed that the sensitivity and selectivity for potassium or sodium ions was preferred by a specific isomerism of the 1,2,3-triazole-1,4-diyl unit. Furthermore it was possible to show that an increased hindrance of the N,N-diethylamino group of the fluorophore led to a higher fluorescence quantum yield and a shift of the emission maximum to over 500 nm. The introduction of an isopropoxy group to an N phenylaza-[18]crown-6 lariat ether resulted in a highly selective potassium ion fluoroionophore suitable for in vitro monitoring of potassium ion levels (10 – 80 mM). However, a substitution of a methoxy group on an N-phenylaza-[15] crown-5 lariat ether combined with different degrees of hindrance of N,N diethylamino coumarins gave sodium ion fluoroionophores which are suitable for monitoring intracellular and extracellular sodium ion levels. In a following step N-phenylaza-[18]crown-6 lariat ethers were functionalized with a fluorophore, which was based on a [1,3]-dioxolo[4,5-f [1,3]benzodioxole (DBD) backbone. Following spectroscopic studies it was shown that an isopropoxy group in the ortho position of the N-phenylaza-[18]crown-6 lariat ether resulted in a selective fluoroionophore for extracellular potassium ion levels, which allows measurements of the fluorescence intensity and -lifetime. In a final step an additional fluoroionophore, suitable for extracellular potassium ion levels, was developed by using a pyrene as the fluorophoric group. This fluoroionophore was used to measure potassium ion levels by analyzing the fluorescence intensity ratios at two emission wavelengths. In this work 17 new fluoroionophores were synthesized and characterized. Six of these novel molecules allow in vitro measurements of intra- or extracellular potassium and sodium ion levels and could be used for in vivo concentration measurements in the future. KW - Fluoroionophore KW - fluoroionophore KW - intra- und extrazellulär KW - intra- and extracellular KW - Kalium- und Natrium-Ionen KW - potassium and sodium ions Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441932 ER - TY - THES A1 - Debsharma, Tapas T1 - Cellulose derived polymers T1 - Polymere aus Cellulose BT - synthesis of functional and degradable polymers from cellulose N2 - Plastics, such as polyethylene, polypropylene, and polyethylene terephthalate are part of our everyday lives in the form of packaging, household goods, electrical insulation, etc. These polymers are non-degradable and create many environmental problems and public health concerns. Additionally, these polymers are produced from finite fossils resources. With the continuous utilization of these limited resources, it is important to look towards renewable sources along with biodegradation of the produced polymers, ideally. Although many bio-based polymers are known, such as polylactic acid, polybutylene succinate adipate or polybutylene succinate, none have yet shown the promise of replacing conventional polymers like polyethylene, polypropylene and polyethylene terephthalate. Cellulose is one of the most abundant renewable resources produced in nature. It can be transformed into various small molecules, such as sugars, furans, and levoglucosenone. The aim of this research is to use the cellulose derived molecules for the synthesis of polymers. Acid-treated cellulose was subjected to thermal pyrolysis to obtain levoglucosenone, which was reduced to levoglucosenol. Levoglucosenol was polymerized, for the first time, by ring-opening metathesis polymerization (ROMP) yielding high molar mass polymers of up to ~150 kg/mol. The poly(levoglucosenol) is thermally stable up to ~220 ℃, amorphous, and is exhibiting a relatively high glass transition temperature of ~100 ℃. The poly(levoglucosenol) can be converted to a transparent film, resembling common plastic, and was found to degrade in a moist acidic environment. This means that poly(levoglucosenol) may find its use as an alternative to conventional plastic, for instance, polystyrene. Levoglucosenol was also converted into levoglucosenyl methyl ether, which was polymerized by cationic ring-opening metathesis polymerization (CROP). Polymers were obtained with molar masses up to ~36 kg/mol. These polymers are thermally stable up to ~220 ℃ and are semi-crystalline thermoplastics, having a glass transition temperature of ~35 ℃ and melting transition of 70-100 ℃. Additionally, the polymers underwent cross-linking, hydrogenation and thiol-ene click chemistry. N2 - Kunststoffe wie Polyethylen, Polypropylen und Polyethylenterephthalat sind ein großer Bestandteil unseres Alltags und finden Verwendung unter anderem als Verpackungsmaterialien, Haushaltswaren und Elektroisolierungen. Diese Polymere werden aus fossilen Ressourcen hergestellt, sind nicht abbaubar und verursachen nicht nur viele Umweltprobleme sondern können auch zu Gesundheitsschäden führen. Aufgrund dessen muss die Verwendung von erneuerbaren Ressourcen geachtet werden, wobei die hergestellten Polymere im Idealfall komplett biologisch abbaubar sind. Obwohl viele biobasierte Polymere, wie Polymilchsäure, Polybutylensuccinatadipat oder Polybutylensuccinat, bekannt sind, hat noch keines das Potential gezeigt, herkömmliche Polymere zu ersetzen. Cellulose ist einer der am häufigsten in der Natur produzierten nachwachsenden Rohstoffe und kann in verschiedene kleine organische Moleküle wie Zucker (Saccharide), Furan und auch Levoglucosenon umgewandelt werden. Ziel dieser Arbeit ist die Verwendung von Levoglucosenon als Monomer für die Synthese von Polymeren. Säurebehandelte Cellulose wurde einer thermischen Pyrolyse unterzogen, um Levoglucosenon zu erhalten, das dann weiter zu Levoglucosenol reduziert wurde. Das Levoglucosenol wurde zum ersten Mal erfolgreich über eine Ringöffnungsmetathese-Polymerisation (ROMP) polymerisiert. Die Molmassen der hergestellten Polymere erreichten Werte von bis zu ~150 kg/mol. Die thermische Analyse von Poly(levoglucosenol) zeigt, dass es bis zu einer Temperatur von ~220 ℃ stabil ist, eine Glasübergangstemperatur bei ~100 ℃ hat und ein amorphes Polymer ist. Weiterhin kann das Poly(levoglucosenol) in feuchter saurer Umgebung in kurzer Zeit abgebaut werden. Aufgrund dieser Eigenschaften kann Poly(levoglucosenol) als Alternative zu konventionellem Kunststoff, wie z.B. Polystyrol, eingesetzt werden kann. Levoglucosenol wurde weiter in Levoglucosenylmethylether umgewandelt. Levoglucosenylmethylether kann mit kationischer Ringöffnungs-Polymerisation (CROP) polymerisiert werden. Es wurden Polymere mit Molmassen von bis zu ~36 kg/mol hergestellt. Die Polymere weisen eine thermische Stabilität bis zu einer Temperatur von ~220 °C auf. Es handelt sich bei den hergestellten Poly(levoglucosenylmethylethern) um teilkristalline Thermoplaste, deren Glasüberganstemperatur bei ~35 °C und der Schmelzbereich bei 70-100 °C liegt. Die Doppelbindungen des Levoglucosenylmethylethers wurden genutzt um das Polymer zu vernetzen und zu funktionalisieren. KW - biomass valorization KW - levoglucosenol KW - ring-opening polymerization KW - degradable polymer KW - sustainable chemistry KW - Biomasseverwertung KW - Levoglucosenol KW - ringöffnende Polymerisation KW - abbaubares Polymer KW - nachhaltige Chemie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441312 ER - TY - THES A1 - Meinig, Michael T1 - Bedrohungsanalyse für militärische Informationstechnik T1 - Threat analysis for military information technology N2 - Risiken für Cyberressourcen können durch unbeabsichtigte oder absichtliche Bedrohungen entstehen. Dazu gehören Insider-Bedrohungen von unzufriedenen oder nachlässigen Mitarbeitern und Partnern, eskalierende und aufkommende Bedrohungen aus aller Welt, die stetige Weiterentwicklung der Angriffstechnologien und die Entstehung neuer und zerstörerischer Angriffe. Informationstechnik spielt mittlerweile in allen Bereichen des Lebens eine entscheidende Rolle, u. a. auch im Bereich des Militärs. Ein ineffektiver Schutz von Cyberressourcen kann hier Sicherheitsvorfälle und Cyberattacken erleichtern, welche die kritischen Vorgänge stören, zu unangemessenem Zugriff, Offenlegung, Änderung oder Zerstörung sensibler Informationen führen und somit die nationale Sicherheit, das wirtschaftliche Wohlergehen sowie die öffentliche Gesundheit und Sicherheit gefährden. Oftmals ist allerdings nicht klar, welche Bedrohungen konkret vorhanden sind und welche der kritischen Systemressourcen besonders gefährdet ist. In dieser Dissertation werden verschiedene Analyseverfahren für Bedrohungen in militärischer Informationstechnik vorgeschlagen und in realen Umgebungen getestet. Dies bezieht sich auf Infrastrukturen, IT-Systeme, Netze und Anwendungen, welche Verschlusssachen (VS)/Staatsgeheimnisse verarbeiten, wie zum Beispiel bei militärischen oder Regierungsorganisationen. Die Besonderheit an diesen Organisationen ist das Konzept der Informationsräume, in denen verschiedene Datenelemente, wie z. B. Papierdokumente und Computerdateien, entsprechend ihrer Sicherheitsempfindlichkeit eingestuft werden, z. B. „STRENG GEHEIM“, „GEHEIM“, „VS-VERTRAULICH“, „VS-NUR-FÜR-DEN-DIENSTGEBRAUCH“ oder „OFFEN“. Die Besonderheit dieser Arbeit ist der Zugang zu eingestuften Informationen aus verschiedenen Informationsräumen und der Prozess der Freigabe dieser. Jede in der Arbeit entstandene Veröffentlichung wurde mit Angehörigen in der Organisation besprochen, gegengelesen und freigegeben, so dass keine eingestuften Informationen an die Öffentlichkeit gelangen. Die Dissertation beschreibt zunächst Bedrohungsklassifikationsschemen und Angreiferstrategien, um daraus ein ganzheitliches, strategiebasiertes Bedrohungsmodell für Organisationen abzuleiten. Im weiteren Verlauf wird die Erstellung und Analyse eines Sicherheitsdatenflussdiagramms definiert, welches genutzt wird, um in eingestuften Informationsräumen operationelle Netzknoten zu identifizieren, die aufgrund der Bedrohungen besonders gefährdet sind. Die spezielle, neuartige Darstellung ermöglicht es, erlaubte und verbotene Informationsflüsse innerhalb und zwischen diesen Informationsräumen zu verstehen. Aufbauend auf der Bedrohungsanalyse werden im weiteren Verlauf die Nachrichtenflüsse der operationellen Netzknoten auf Verstöße gegen Sicherheitsrichtlinien analysiert und die Ergebnisse mit Hilfe des Sicherheitsdatenflussdiagramms anonymisiert dargestellt. Durch Anonymisierung der Sicherheitsdatenflussdiagramme ist ein Austausch mit externen Experten zur Diskussion von Sicherheitsproblematiken möglich. Der dritte Teil der Arbeit zeigt, wie umfangreiche Protokolldaten der Nachrichtenflüsse dahingehend untersucht werden können, ob eine Reduzierung der Menge an Daten möglich ist. Dazu wird die Theorie der groben Mengen aus der Unsicherheitstheorie genutzt. Dieser Ansatz wird in einer Fallstudie, auch unter Berücksichtigung von möglichen auftretenden Anomalien getestet und ermittelt, welche Attribute in Protokolldaten am ehesten redundant sind. N2 - Risks to cyber resources can arise from unintentional or deliberate threats. These include insider threats from dissatisfied or negligent employees and partners, escalating and emerging threats from around the world, the evolving nature of attack technologies, and the emergence of new and destructive attacks. Information technology now plays a decisive role in all areas of life, including the military. Ineffective protection of cyber resources can facilitate security incidents and cyberattacks that disrupt critical operations, lead to inappropriate access, disclosure, alteration or destruction of sensitive information, and endanger national security, economic welfare and public health and safety. However, it is often unclear which threats are present and which of the critical system resources are particularly at risk. In this dissertation different analysis methods for threats in military information technology are proposed and tested in real environments. This refers to infrastructures, IT systems, networks and applications that process classified information/state secrets, such as in military or governmental organizations. The special characteristic of these organizations is the concept of classification zones in which different data elements, such as paper documents and computer files, are classified according to their security sensitivity, e.g. „TOP SECRET“, „SECRET“, „CONFIDENTIAL“, „RESTRICTED“ or „UNCLASSIFIED“. The peculiarity of this work is the access to classified information from different classification zones and the process of releasing it. Each publication created during the work was discussed, proofread and approved by members of the organization, so that no classified information is released to the public. The dissertation first describes threat classification schemes and attacker strategies in order to derive a holistic, strategy-based threat model for organizations. In the further course, the creation and analysis of a security data flow diagram is defined, which is used to identify operational network nodes in classification zones, which are particularly endangered due to the threats. The special, novel representation makes it possible to understand permitted and prohibited information flows within and between these classification zones. Based on the threat analysis, the message flows of the operational network nodes are analyzed for violations of security policies and the results are presented anonymously using the security data flow diagram. By anonymizing the security data flow diagrams, it is possible to exchange information with external experts to discuss security problems. The third part of the dissertation shows how extensive log data of message flows can be examined to determine whether a reduction in the amount of data is possible. The rough set theory from the uncertainty theory is used for this purpose. This approach is tested in a case study, also taking into account possible anomalies, and determines which attributes are most likely to be redundant in the protocol data. KW - Informationsraum KW - classification zone KW - Bedrohungsmodell KW - threat model KW - Informationsflüsse KW - information flows KW - sichere Datenflussdiagramme (DFDsec) KW - secure data flow diagrams (DFDsec) KW - Informationsraumverletzungen KW - classification zone violations KW - grobe Protokolle KW - rough logs KW - Bedrohungsanalyse KW - threat analysis Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441608 ER - TY - THES A1 - Knöchel, Jane T1 - Model reduction of mechanism-based pharmacodynamic models and its link to classical drug effect models T1 - Modellreduktion von mechanistischen pharmacodynamischen Modellen und deren Verbindung zu klassischen Wirkstoff-Effekt-Modellen N2 - Continuous insight into biological processes has led to the development of large-scale, mechanistic systems biology models of pharmacologically relevant networks. While these models are typically designed to study the impact of diverse stimuli or perturbations on multiple system variables, the focus in pharmacological research is often on a specific input, e.g., the dose of a drug, and a specific output related to the drug effect or response in terms of some surrogate marker. To study a chosen input-output pair, the complexity of the interactions as well as the size of the models hinders easy access and understanding of the details of the input-output relationship. The objective of this thesis is the development of a mathematical approach, in specific a model reduction technique, that allows (i) to quantify the importance of the different state variables for a given input-output relationship, and (ii) to reduce the dynamics to its essential features -- allowing for a physiological interpretation of state variables as well as parameter estimation in the statistical analysis of clinical data. We develop a model reduction technique using a control theoretic setting by first defining a novel type of time-limited controllability and observability gramians for nonlinear systems. We then show the superiority of the time-limited generalised gramians for nonlinear systems in the context of balanced truncation for a benchmark system from control theory. The concept of time-limited controllability and observability gramians is subsequently used to introduce a state and time-dependent quantity called the input-response (ir) index that quantifies the importance of state variables for a given input-response relationship at a particular time. We subsequently link our approach to sensitivity analysis, thus, enabling for the first time the use of sensitivity coefficients for state space reduction. The sensitivity based ir-indices are given as a product of two sensitivity coefficients. This allows not only for a computational more efficient calculation but also for a clear distinction of the extent to which the input impacts a state variable and the extent to which a state variable impacts the output. The ir-indices give insight into the coordinated action of specific state variables for a chosen input-response relationship. Our developed model reduction technique results in reduced models that still allow for a mechanistic interpretation in terms of the quantities/state variables of the original system, which is a key requirement in the field of systems pharmacology and systems biology and distinguished the reduced models from so-called empirical drug effect models. The ir-indices are explicitly defined with respect to a reference trajectory and thereby dependent on the initial state (this is an important feature of the measure). This is demonstrated for an example from the field of systems pharmacology, showing that the reduced models are very informative in their ability to detect (genetic) deficiencies in certain physiological entities. Comparing our novel model reduction technique to the already existing techniques shows its superiority. The novel input-response index as a measure of the importance of state variables provides a powerful tool for understanding the complex dynamics of large-scale systems in the context of a specific drug-response relationship. Furthermore, the indices provide a means for a very efficient model order reduction and, thus, an important step towards translating insight from biological processes incorporated in detailed systems pharmacology models into the population analysis of clinical data. N2 - Die kontinuierliche Erforschung von biologischen Prozessen hat zur Entwicklung umfangreicher, mechanistischer systembiologischer Modelle von pharmakologisch relevanten Netzwerken beigetragen. Während diese Modelle in der Regel darauf ausgelegt sind, die Auswirkung von Stimuli oder Störungen auf die Systemdynamik zu untersuchen, liegt der Fokus in der pharmakologis- chen Forschung häufig auf einer bestimmten Kontrolle, z.B. der Dosis eines Wirkstoffes, und einer bestimmten Ausgangsgröße, welche in Bezug steht zu dem Wirkstoff-Effekt oder das Ansprechen auf einen Wirkstoff über einen Surrogatmarker. Die Untersuchung und ein einfaches Verständnis einer spezifischen Eingabe-Ausgabe-Beziehung wird durch die Komplexität der Interaktionen sowie der Größe des Modells erschwert. Das Ziel dieser vorliegenden Arbeit ist die Entwicklung eines mathematischen Ansatzes, insbesondere eines Modellreduktionsverfahrens, der es ermöglicht, (i) die Bedeutung der verschiedenen Zustandsvariablen für eine gegebene Eingabe-Ausgabe-Beziehung zu quantifizieren, und (ii) die Dynamik des Systems auf seine wesentlichen Merkmale zu reduzieren, während gleichzeitig die physiologische Interpretierbarkeit von Zustandsvariablen sowie eine Parameterschätzung im Rahmen von einer statistischen Analyse klinischer Daten ermöglicht wird. Unter Verwendung eines kontrolltheoretischen Settings entwickeln wir eine Modellreduktionstechnik, indem wir vorerst einen neuartigen Typ von zeitlich begrenzten Kontrolllierbarkeits- und Beobachtbarkeitsgramian für nichtlineare Systeme definieren. Anschließend zeigen wir die Überlegenkeit der zeitlich begrenzten verallgemeinerten Gramian für nichtlineare Systeme im Kontext von Balanced Truncation am Beispiel eines Benchmark-Systems aus der Kontrolltheorie. Wir nutzten das Konzept der zeitlich begrenzten Kontrolllierbarkeits- und Beobachtbarkeitsgramian, um eine neue Zustands- und zeitabhängige Größe, die als Input-Response (IR-) Index bezeichnet wird, einzuführen. Dieser Index quantifiziert die Bedeutung von Zustandsvariablen zu einem bestimmten Zeitpunkt für eine bestimmte Eingabe-Ausgabe-Beziehung. Schließlich verknüpfen wir unseren Ansatz mit der Sensitivitätsanalyse und ermöglichen so erstmals die Verwendung von Sensitivitätskoeffizienten im Rahmen der Reduktion des Zustandsraumes. Wir erhalten die sensitivitätsbasierten IR-Indizes als Produkt zweier Sensitivitätskoeffizienten. Dies ermöglicht nicht nur eine effizientere Berechnung, sondern auch eine klare Unterscheidung, inwieweit die Eingabe eine Zustandsvariable beeinflusst und inwieweit eine Zustandsvariable die Ausgabe beeinflusst. Mit Hilfe der IR-Indizes erhalten wir einen Einblick in den koordinierten Ablauf der Aktivierung von spezifischen Zustandsvariablen für eine ausgewählte Eingabe-Ausgabe-Beziehung. Unser entwickeltes Modellreduktionsverfahren resultiert in reduzierten Modelle, welche eine mechanistische Interpretation hinsichtlich der Originalgrößen und Zustandsvariablen des Ursprungssystems zulassen. Dies war eine wichtige Anforderung an das Verfahren von Seiten der Systempharmakologie und -biologie. Die reduzierten Modelle unterscheiden sich damit wesentlich von den so genannten empirischen Wirkstoff-Effekt-Modellen. Die IR-Indizes sind explizit in Bezug auf eine Referenzlösung definiert und damit vom Anfangszustand abhängig (dies ist ein wichtiges Merkmal der Indizes). Wir zeigen anhand eines Beispiels aus dem Bereich der Systempharmakologie, dass die reduzierten Modelle sehr aussagekräftig sind, um (genetische) Mängel in bestimmten physiologischen Einheiten festzustellen. Der Vergleich unseres neuartigen Modellreduktionsverfahrens mit den bereits vorhandenen Verfahren zeigt dessen Überlegenheit. Der neuartige IR-Index als Maß für die Wichtigkeit von Zustandsvariablen bietet ein leistungsfähiges mathematisches Werkzeug zum Verständnis und der Analyse der komplexen Dynamik von großen Systemen im Kontext einer bestimmten Wirkstoff-Effekt-Beziehung. Darüber hinaus sind die Indizes eine wichtige Grundlage für das eingeführte und sehr effiziente Modellreduktionsverfahren. Insgesamt stellt dies einen wichtigen Schritt zur Nutzung von Erkenntnissen über biologische Prozesse in Form von detaillierten systempharmakologischen Modellen in der Populationsanalyse klinischer Daten dar. KW - model order reduction KW - control theory KW - large-scale mechanistic systems KW - systems pharmacology KW - Modellreduktion KW - Kontrolltheorie KW - komplexe mechanistische Systeme KW - Systempharmakologie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440598 ER - TY - THES A1 - Hanschmann, Raffael Tino T1 - Stalling the engine? EU climate politics after the ‘Great Recession’ T1 - Den Motor abgewürgt? EU-Klimapolitik nach der Großen Rezession BT - investigating the impact of economic shocks on EU climate policy-making in three case studies BT - eine Untersuchung des Einflusses von Wirtschaftskrisen auf Prozesse in der EU-Klimapolitik in drei Fallstudien N2 - This dissertation investigates the impact of the economic and fiscal crisis starting in 2008 on EU climate policy-making. While the overall number of adopted greenhouse gas emission reduction policies declined in the crisis aftermath, EU lawmakers decided to introduce new or tighten existing regulations in some important policy domains. Existing knowledge about the crisis impact on EU legislative decision-making cannot explain these inconsistencies. In response, this study develops an actor-centred conceptual framework based on rational choice institutionalism that provides a micro-level link to explain how economic crises translate into altered policy-making patterns. The core theoretical argument draws on redistributive conflicts, arguing that tensions between ‘beneficiaries’ and ‘losers’ of a regulatory initiative intensify during economic crises and spill over to the policy domain. To test this hypothesis and using social network analysis, this study analyses policy processes in three case studies: The introduction of carbon dioxide emission limits for passenger cars, the expansion of the EU Emissions Trading System to aviation, and the introduction of a regulatory framework for biofuels. The key finding is that an economic shock causes EU policy domains to polarise politically, resulting in intensified conflict and more difficult decision-making. The results also show that this process of political polarisation roots in the industry that is the subject of the regulation, and that intergovernmental bargaining among member states becomes more important, but also more difficult in times of crisis. N2 - Diese Dissertation untersucht den Einfluss der in 2008 beginnenden globalen Wirtschaftskrise auf die Prozesse der EU-Klimapolitik. Während die Zahl der verabschiedeten Gesetze zur Treibhausgasreduktion nach Krisenausbruch insgesamt sank, entschieden die EU-Gesetzgeber, in mehreren wichtigen Politikfeldern neue Regulierungen einzuführen oder existierende zu verschärfen. Bestehendes Wissen zum Einfluss der Krise auf EU-Gesetzgebungsprozesse kann diese Inkonsistenzen nicht erklären. Daher entwickelt diese Arbeit ein auf Rational-Choice-Institutionalismus basierendes konzeptionelles Gerüst, das auf der Mikro-Ebene eine kausale Verbindung zwischen Wirtschaftskrise und veränderten Politikprozessen herstellt. Das zentrale theoretische Argument beruht auf Verteilungskonflikten innerhalb der regulierten Wirtschaftsbranchen: Die Spannung zwischen „Nutznießern“ und „Verlierern“ einer geplanten Regulierung intensiviert sich in Krisenzeiten und setzt sich im politischen Raum fort. Diese Hypothese wird an drei Fallstudien mittels sozialer Netzwerkanalyse getestet. Die drei Fallstudien untersuchen politische Entscheidungsprozesse in den folgenden EU-Politikfeldern: Kohlenstoffdioxid-Emissionsgrenzen für PKW, die Ausweitung des Emissionshandels auf Flugverkehr und die Einführung eines Regulierungsrahmens für Biokraftstoffe. Die wichtigste Erkenntnis der Untersuchung ist, dass makroökonomische Schocks eine Polarisierung der politischen Interessen innerhalb eines Politikfeldes auslösen, dadurch Konflikte intensivieren und letztlich Entscheidungsfindungen erschweren. Die Ergebnisse zeigen zudem, dass dieser Polarisierungsprozess in der regulierten Wirtschaftsbranche wurzelt. Außerdem werden Verhandlungen zwischen den Regierungen der Mitgliedsstaaten in Krisenzeiten wichtiger, aber auch schwieriger.  KW - EU KW - European Union KW - policy-making KW - network analysis KW - policy preferences KW - economic crisis KW - crisis KW - climate KW - climate change KW - climate policy KW - climate politics KW - environmental policy KW - EU KW - Europäische Union KW - Politikgestaltung KW - Netzwerkanalyse KW - Politikpräferenzen KW - Wirtschaftskrise KW - Krise KW - Klima KW - Klimawandel KW - Klimapolitik KW - Umweltpolitik Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440441 ER - TY - THES A1 - Ghani, Humaad T1 - Structural evolution of the Kohat and Potwar fold and thrust belts of Pakistan T1 - Strukturelle Entwicklung des Kohat und Potwar Falten- und Überschiebungsgürtel in Pakistan N2 - Fold and thrust belts are characteristic features of collisional orogen that grow laterally through time by deforming the upper crust in response to stresses caused by convergence. The deformation propagation in the upper crust is accommodated by shortening along major folds and thrusts. The formation of these structures is influenced by the mechanical strength of décollements, basement architecture, presence of preexisting structures and taper of the wedge. These factors control not only the sequence of deformation but also cause differences in the structural style. The Himalayan fold and thrust belt exhibits significant differences in the structural style from east to west. The external zone of the Himalayan fold and thrust belt, also called the Subhimalaya, has been extensively studied to understand the temporal development and differences in the structural style in Bhutan, Nepal and India; however, the Subhimalaya in Pakistan remains poorly studied. The Kohat and Potwar fold and thrust belts (herein called Kohat and Potwar) represent the Subhimalaya in Pakistan. The Main Boundary Thrust (MBT) marks the northern boundary of both Kohat and Potwar, showing that these belts are genetically linked to foreland-vergent deformation within the Himalayan orogen, despite the pronounced contrast in structural style. This contrast becomes more pronounced toward south, where the active strike-slip Kalabagh Fault Zone links with the Kohat and Potwar range fronts, known as the Surghar Range and the Salt Range, respectively. The Surghar and Salt Ranges developed above the Surghar Thrust (SGT) and Main Frontal Thrust (MFT). In order to understand the structural style and spatiotemporal development of the major structures in Kohat and Potwar, I have used structural modeling and low temperature thermochronolgy methods in this study. The structural modeling is based on construction of balanced cross-sections by integrating surface geology, seismic reflection profiles and well data. In order to constrain the timing and magnitude of exhumation, I used apatite (U-Th-Sm)/He (AHe) and apatite fission track (AFT) dating. The results obtained from both methods are combined to document the Paleozoic to Recent history of Kohat and Potwar. The results of this research suggest two major events in the deformation history. The first major deformation event is related to Late Paleozoic rifting associated with the development of the Neo-Tethys Ocean. The second major deformation event is related to the Late Miocene to Pliocene development of the Himalayan fold and thrust belt in the Kohat and Potwar. The Late Paleozoic rifting is deciphered by inverse thermal modelling of detrital AFT and AHe ages from the Salt Range. The process of rifting in this area created normal faulting that resulted in the exhumation/erosion of Early to Middle Paleozoic strata, forming a major unconformity between Cambrian and Permian strata that is exposed today in the Salt Range. The normal faults formed in Late Paleozoic time played an important role in localizing the Miocene-Pliocene deformation in this area. The combination of structural reconstructions and thermochronologic data suggest that deformation initiated at 15±2 Ma on the SGT ramp in the southern part of Kohat. The early movement on the SGT accreted the foreland into the Kohat deforming wedge, forming the range front. The development of the MBT at 12±2 Ma formed the northern boundary of Kohat and Potwar. Deformation propagated south of the MBT in the Kohat on double décollements and in the Potwar on a single basal décollement. The double décollement in the Kohat adopted an active roof-thrust deformation style that resulted in the disharmonic structural style in the upper and lower parts of the stratigraphic section. Incremental shortening resulted in the development of duplexes in the subsurface between two décollements and imbrication above the roof thrust. Tectonic thickening caused by duplexes resulted in cooling and exhumation above the roof thrust by removal of a thick sequence of molasse strata. The structural modelling shows that the ramps on which duplexes formed in Kohat continue as tip lines of fault propagation folds in the Potwar. The absence of a double décollement in the Potwar resulted in the preservation of a thick sequence of molasse strata there. The temporal data suggest that deformation propagated in-sequence from ~ 8 to 3 Ma in the northern part of Kohat and Potwar; however, internal deformation in the Kohat was more intense, probably required for maintaining a critical taper after a significant load was removed above the upper décollement. In the southern part of Potwar, a steeper basement slope (β≥3°) and the presence of salt at the base of the stratigraphic section allowed for the complete preservation of the stratigraphic wedge, showcased by very little internal deformation. Activation of the MFT at ~4 Ma allowed the Salt Range to become the range front of the Potwar. The removal of a large amount of molasse strata above the MFT ramp enhanced the role of salt in shaping the structural style of the Salt Range and Kalabagh Fault Zone. Salt accumulation and migration resulted in the formation of normal faults in both areas. Salt migration in the Kalabagh fault zone has triggered out-of-sequence movement on ramps in the Kohat. The amount of shortening calculated between the MBT and the SGT in Kohat is 75±5 km and between the MBT and the MFT in Potwar is 65±5 km. A comparable amount of shortening is accommodated in the Kohat and Potwar despite their different widths: 70 km Kohat and 150 km Potwar. In summary, this research suggests that deformation switched between different structures during the last ~15 Ma through different modes of fault propagation, resulting in different structural styles and the out-of-sequence development of Kohat and Potwar. N2 - Falten- und Überschiebungsgürtel sind charakteristische Merkmale von Kollisionsorogenen, die sich im Laufe der Zeit als Reaktion auf konvergente Spannungen in das Vorland vorbauen. Die Deformationsausbreitung in der oberen Kruste erfolgt durch die Verkürzung entlang von Falten und Überschiebungen. Die Bildung dieser Strukturen wird durch die mechanische Eigenschaft des Décollements (Abscherhorizonts), dem Aufbau des Grundgebirges, der strukturellen Vorprägung und der Geometrie des Verfomungskeils beeinflusst. Diese Faktoren steuern nicht nur die Verformungsabfolge, sondern führen auch zu unterschiedlichen Strukturen im Falten- und Überschiebungsgürtel. Der Himalaya Falten- und Überschiebungsgürtel zeigt signifikante Unterschiede im strukturellen Bau von Ost nach West. Die äußere Zone des Himalaya Falten- und Überschiebungsgürtel, auch Subhimalaya genannt, ist hinsichtlich der zeitliche Entwicklung und des strukturellen Baus in der Region von Bhutan, Nepal und Indien gut untersucht. Im Gegensatz dazu ist die Geologie des pakistanischen Subhimalayas erst in groben Zügen verstanden. Der Kohat- und der Potwar- Falten- und Überschiebungsgürtel (im Folgenden einfach Kohat und Potwar genannt) sind Teil der externe Sedimentationszone des Himalaya- Falten- und Überschiebungsgürtel in Pakistan. Die „Main Boundary Thrust“ (MBT) markiert ihre nördliche Grenze und zeigt, dass beide, sowohl Kohat als auch Potwar, trotz ihres unterschiedlichen strukturellen Baus durch eine gemeinsame, ins Vorland gerichteten Verformung des Himalaya-Orogens entstanden sind. Der Kontrast im strukturelle Bau wird nach Süden ausgeprägter, wo die aktive Kalabagh Seitenverschiebung die frontalen Deformationszonen Kohats und Potwars verbindet, die als „Surghar Range“ bzw. „Salt Range“ bekannt sind. Die „Surghar Range“ und die „Salt Range“ entwickeln sich oberhalb der Surghar Überschiebung (Surghar Thrust, SGT) und der frontalen Hauptüberschiebung (Main Frontal Thrust, MFT). Ziel dieser Studie ist es, die Deformationsentwicklung und den strukturellen Bau Kohats und Potwars als Beispiel für die Vielfalt der Entwicklung im frontalen Bereich von Orogenen zu entschlüsseln. Um den strukturellen Stil und die räumlich-zeitliche Entwicklung der Hauptstrukturen in Kohat und Potwar zu untersuchen, werden in dieser Studie Strukturmodellierungs- und Niedertemperatur-Thermochronologie-Methoden verwendet. Die Strukturmodellierung basiert auf der Erstellung bilanzierter Profile, deren Grundlage die Kombination von Oberflächengeologie, seismischen Reflexionsprofilen und Bohrlochdaten bildet. Die Niedertemperatur-Thermochronologie-Methoden gründen einerseits auf Apatit (U-Th-Sm)/He (AHe) und andererseits auf Apatit-Spaltspur (AFT) Datierungen. Die Resultate beider Methoden erlauben die zeitliche Rekonstruktion von Kohat und Potwar vom Paläozoikum bis zur jüngsten Geschichte. Die Ergebnisse dieser Studie deuten auf zwei Hauptereignisse in der Verformungsgeschichte hin. Das erste große Deformationsereignis steht im Zusammenhang mit der spätpaläozoischen Riftbildung im Zuge der Öffnung der Neotethys. Das zweite große Deformationsereignis steht im Zusammenhang mit der spätmiozänen bis pliozänen Entwicklung des Himalaya Falten- und Überschiebungsgürtel. Die spät-paläozoische Riftbildung wird mittels einer inversen thermischen Modellierung der Apatit-AFT und AHe-Alter aus der „Salt Range“ rekonstruiert. Der Prozess des Riftbildung verursachte Abschiebungen, die zur Exhumierung bzw. Erosion früh- bis mittelpaläozoischer Schichten führte und eine bedeutende Diskordanz zwischen kambrischen und permischen Schichten ausbildet, die heute in der „Salt Range“ aufgeschlossen ist. Diese im Spätpaläozoikum entstandenen Abschiebungen wurden dann während der miozän-pliozänen Bildung des Falten- und Überschiebungsgürtel reakiviert. Die Rekonstruktion der Strukturen, kombiniert mit der Datierung (AFT, AHe), deutet darauf hin, dass die Verformung um ca. 15±2 Ma auf der SGT-Rampe im südlichen Teil Kohats aktiv war. Diese erste Deformation entlang der SGT hat das Vorland an den Kohat-Verformungskeil geschweisst und bildet damit die neue Verformungsfront. Die MBT bildete um ca. 12±2 Ma die nördliche Grenze von Kohat und Potwar. Die Deformation breitete sich in südlicher Richtung von der MBT aus in Kohat auf zwei Décollements aus, während sich in Potwar ein einziges basales Décollement bildete. Die beiden parallelen Décollements in Kohat formten aktive Dachüberschiebungen aus, die zum disharmonischen Stil im oberen und unteren Teil des Profils führten. Die inkrementelle Verkürzung formte Duplex-Strukturen zwischen den beiden Décollements und Schuppen oberhalb der Dachüberschiebung. Auf die tektonische Verdickung durch die Duplex-Strukturen folgte die Abkühlung bzw. Exhumation oberhalb der Dachüberschiebung durch die Abtragung mächtiger Molasseschichten. Die Rekonstruktion der Strukturen zeigt, dass die Rampen, auf denen die Duplex-Strukturen in Kohat gebildet wurden, sich in Potwar als Frontallinien der frontalen Knickung fortsetzen. Das Fehlen der beiden parallelen Décollements in Potwar führte zur Erhaltung dicker Molassenschichten in der stratigraphischen Abfolge. Die Ergebnisse der Datierung deuten darauf hin, dass sich die Verformung dann von ca. 8 bis 3 Ma normal im nördlichen Teil von Kohat und Potwar in Richtung Süden ausbreitete. Die Verformung in Kohat war intensiver durch die Bildung eines kritischen Winkels im Deformationskeil, als die signifikante Auflast über dem oberen Décollement entfernt wurde. Der südliche Teil Potwars dagegen ist durch eine geringe interne Verfomung gekennzeichnet, hervorgerufen durch eine geringere Neigung der basalen Überschiebung (β≥3°) und das Vorhandensein von Salz an der Basis der stratigraphischen Abfolge. Dabei ist stratigraphische Abfolge innerhalb des Deformationskeils erhalten. Mit der Deformation entlang der MFT um ca. 4 Ma begann die Entwicklung der „Salt Range“ als frontale Deformationszone von Potwar. Die Abtragung dicker Molassenschichten über der MFT-Rampe verstärkte die Rolle des Salzes bei der Deformation der „Salt Range“ und der Kalabagh-Störungszone. In beiden Gebieten kam es zu Abschiebungen duch Salzakkumulation und Salzmigration. Die Salzmigration in der Kalabagh- Störungszone hat durchbrechende Überschiebungen entlang der Rampen in Kohat ausgelöst. Der Verkürzungsbetrag zwischen MBT und SGT beträgt für Kohat 75±5 km und für Potwar zwischen MBT und MFT 65±5 km. Sowohl Kohat und Potwar haben trotz ihrer unterschiedlichen räumlichen Ausdehnung (70 km Kohat und 150 km Potwar) eine vergleichbare Verkürzung erfahren. Zusammenfassend lässt sich sagen, dass diese Studie aufzeigt, wie die Verformung zwischen den einzelnen Strukturen in den letzten ~15 Ma, verursacht durch unterschiedliche Deformationsausbreitung, gesprungen ist und damit für die unterschiedlichen spezifischen Struktur-Stile und durchbrechende Deformationssequenzen in Kohat und Potwar verantwortlich ist. KW - Himalaya KW - folds KW - faults KW - décollement KW - exhumation KW - Himalaja KW - Falten KW - Störungen KW - Abschiebungshorizonte KW - Exhumierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440775 ER - TY - THES A1 - Meeßen, Christian T1 - The thermal and rheological state of the Northern Argentinian foreland basins T1 - Der thermische und rheologische Zustand der Nordargentinischen Vorlandbecken N2 - The foreland of the Andes in South America is characterised by distinct along strike changes in surface deformational styles. These styles are classified into two end-members, the thin-skinned and the thick-skinned style. The superficial expression of thin-skinned deformation is a succession of narrowly spaced hills and valleys, that form laterally continuous ranges on the foreland facing side of the orogen. Each of the hills is defined by a reverse fault that roots in a basal décollement surface within the sedimentary cover, and acted as thrusting ramp to stack the sedimentary pile. Thick-skinned deformation is morphologically characterised by spatially disparate, basement-cored mountain ranges. These mountain ranges are uplifted along reactivated high-angle crustal-scale discontinuities, such as suture zones between different tectonic terranes. Amongst proposed causes for the observed variation are variations in the dip angle of the Nazca plate, variation in sediment thickness, lithospheric thickening, volcanism or compositional differences. The proposed mechanisms are predominantly based on geological observations or numerical thermomechanical modelling, but there has been no attempt to understand the mechanisms from a point of data-integrative 3D modelling. The aim of this dissertation is therefore to understand how lithospheric structure controls the deformational behaviour. The integration of independent data into a consistent model of the lithosphere allows to obtain additional evidence that helps to understand the causes for the different deformational styles. Northern Argentina encompasses the transition from the thin-skinned fold-and-thrust belt in Bolivia, to the thick-skinned Sierras Pampeanas province, which makes this area a well suited location for such a study. The general workflow followed in this study first involves data-constrained structural- and density-modelling in order to obtain a model of the study area. This model was then used to predict the steady-state thermal field, which was then used to assess the present-day rheological state in northern Argentina. The structural configuration of the lithosphere in northern Argentina was determined by means of data-integrative, 3D density modelling verified by Bouguer gravity. The model delineates the first-order density contrasts in the lithosphere in the uppermost 200 km, and discriminates bodies for the sediments, the crystalline crust, the lithospheric mantle and the subducting Nazca plate. To obtain the intra-crustal density structure, an automated inversion approach was developed and applied to a starting structural model that assumed a homogeneously dense crust. The resulting final structural model indicates that the crustal structure can be represented by an upper crust with a density of 2800 kg/m³, and a lower crust of 3100 kg/m³. The Transbrazilian Lineament, which separates the Pampia terrane from the Río de la Plata craton, is expressed as a zone of low average crustal densities. In an excursion, we demonstrate in another study, that the gravity inversion method developed to obtain intra-crustal density structures, is also applicable to obtain density variations in the uppermost lithospheric mantle. Densities in such sub-crustal depths are difficult to constrain from seismic tomographic models due to smearing of crustal velocities. With the application to the uppermost lithospheric mantle in the north Atlantic, we demonstrate in Tan et al. (2018) that lateral density trends of at least 125\,km width are robustly recovered by the inversion method, thereby providing an important tool for the delineation of subcrustal density trends. Due to the genetic link between subduction, orogenesis and retroarc foreland basins the question rises whether the steady-state assumption is valid in such a dynamic setting. To answer this question, I analysed (i) the impact of subduction on the conductive thermal field of the overlying continental plate, (ii) the differences between the transient and steady-state thermal fields of a geodynamic coupled model. Both studies indicate that the assumption of a thermal steady-state is applicable in most parts of the study area. Within the orogenic wedge, where the assumption cannot be applied, I estimated the transient thermal field based on the results of the conducted analyses. Accordingly, the structural model that had been obtained in the first step, could be used to obtain a 3D conductive steady-state thermal field. The rheological assessment based on this thermal field indicates that the lithosphere of the thin-skinned Subandean ranges is characterised by a relatively strong crust and a weak mantle. Contrarily, the adjacent foreland basin consists of a fully coupled, very strong lithosphere. Thus, shortening in northern Argentina can only be accommodated within the weak lithosphere of the orogen and the Subandean ranges. The analysis suggests that the décollements of the fold-and-thrust belt are the shallow continuation of shear zones that reside in the ductile sections of the orogenic crust. Furthermore, the localisation of the faults that provide strain transfer between the deeper ductile crust and the shallower décollement is strongly influenced by crustal weak zones such as foliation. In contrast to the northern foreland, the lithosphere of the thick-skinned Sierras Pampeanas is fully coupled and characterised by a strong crust and mantle. The high overall strength prevents the generation of crustal-scale faults by tectonic stresses. Even inherited crustal-scale discontinuities, such as sutures, cannot sufficiently reduce the strength of the lithosphere in order to be reactivated. Therefore, magmatism that had been identified to be a precursor of basement uplift in the Sierras Pampeanas, is the key factor that leads to the broken foreland of this province. Due to thermal weakening, and potentially lubrication of the inherited discontinuities, the lithosphere is locally weakened such that tectonic stresses can uplift the basement blocks. This hypothesis explains both the spatially disparate character of the broken foreland, as well as the observed temporal delay between volcanism and basement block uplift. This dissertation provides for the first time a data-driven 3D model that is consistent with geophysical data and geological observations, and that is able to causally link the thermo-rheological structure of the lithosphere to the observed variation of surface deformation styles in the retroarc foreland of northern Argentina. N2 - Das Vorland der südamerikanischen Anden ist durch lateral variierende Deformationsregimes des östlichen Vorlands geprägt. Dabei treten zwei grundlegend verschiedene Endglieder mit charakteristischer Architektur auf: flach abgescherte Falten- und Überschiebungsgürtel einerseits und Vorland-Sockelüberschiebungen ("zerbrochenes Vorland") andererseits. Das morphologische Erscheinungsbild der Falten- und Überschiebungsgürtel entspricht lateral ausgedehnten, dicht aneinander gereihten Abfolgen von Hügeln und Tälern. Die Hügel werden durch eine darunter liegende Überschiebung definiert, die in einem subhorizontalen Abscherhorizont in 10 bis 20 km Tiefe endet. Sockelüberschiebungen hingegen sind in Gebieten mit geringer Sedimentmächtigkeit zu finden und sind durch weit auseinander liegende Erhebungen charakterisiert, welche von steil einfallenden, reaktivierten krustenskaligen Verwerfungen begrenzt werden. Als Ursachen der beobachteten Deformationsvariationen wurden präexistente Schwächezonen, Sedimentmächtigkeiten, Lithosphärenverdickung, Vulkanismus oder kompositionelle Eigenschaften aufgeführt. Diese Vorschläge waren überwiegend konzeptuell und meist auf Grundlage von Feldbeobachtungen oder synthetischen numerischen, thermo-mechanischen Modelle abgeleitet. Die vorliegende Dissertation beleuchtet zum ersten mal die Ursachen der beobachteten Deformationsstile aus der Perspektive von dreidimensionaler, Daten-integrativer Modellierung. Durch die Integration voneinander unabhängiger Daten erlaubt diese Art der Beschreibung des physikalischen Zustands der Lithosphäre die Erlangung zusätzliche Hinweise auf die zugrundeliegenden Ursachen der verschiedenen Derformationsregimes. Für eine solche Studie bietet sich Nord-Argentinien an, da dort beide Vorland-Endglieder vorzufinden sind. Die dafür im wesentlichen durchgeführten Arbeitsschritte beinhalten die Erstellung eines strukturellen Dichtemodells des Untersuchungsgebiets, die Berechnung des 3D stationären thermischen Feldes, sowie die Analyse der rheologischen Eigenschaften der Lithosphäre. Das datenbasierte strukturelle Dichtemodell ist mit verschiedenen geologischen und geophysikalischen Beobachtungen sowie dem Bouguer-Schwerefeld konsistent. Dieses Modell bildet die primären Dichtekontraste der oberen 200 km der Lithosphäre ab und differenziert Körper für die Sedimente, die kristalline Kruste, den lithosphärischen Mantel, und die subduzierende Nazca-Platte. Um die krusteninterne Dichteverteilung zu erhalten wurde ein automatisierter Inversionsprozess entworfen der es erlaubt eine leichtere Oberkruste und eine schwerere Unterkruste geometrisch zu definieren. Die Modellierung zeigt, dass die Kruste in Nord-Argentinien durch eine leichtere Oberkruste (2800 kg/m³) und eine dichtere Unterkruste (3100 kg/m³) repräsentiert werden kann. Das Transbrasilianische Linement, welches das Pampia Terran im Westen vom Río de La Plata Kraton im Osten trennt, ist durch eine im Vergleich zur Umgebung geringere durchschnittliche Krustendichte charakterisiert. In einem Exkurs wird anschließend demonstriert, dass die hier entwickelte Inversionsmethodik zur Ermittlung von intrakrustalen Dichtekontrasten auch im obersten lithosphärischen Mantel angewandt werden kann. Dichten zwischen der Kruste-Mantel-Grenze und etwa 50\,km Tiefe sind besonders schwer zu bestimmen, da tomographische Modelle die Geschwindigkeitsvariationen von seismischen Wellen in diesen Bereichen nicht auflösen. In Tan u.a. (2018) demonstrieren wir, dass die Inversionsmethode Dichteverläufe mit einer lateralen Ausdehnung von 125 km oder weniger ermitteln kann, und somit einen wichtigen Beitrag zur Bestimmung von subkrustalen Dichteverteilungen im Mantel liefert. Wegen der genetischen Verbindung zwischen Subduktion, Orogenese und Retroarc Vorlandbecken stellt sich die Frage, ob die Annahme eines stationären thermischen Feldes für solch ein dynamisches Modelliergebiet zulässig ist. Um diese Frage zu beantworten wurde zum einen der Einfluss von Subduktion auf das konduktive thermische Feld auf die kontinentale Lithosphäre untersucht. Zum anderen wurde die Abweichung zwischen transientem und stationären thermischen Feld eines gekoppelten geodynamischen Modells untersucht. Beide Untersuchungen weisen darauf hin, dass die Annahme eines stationären thermischen Felds für den Großteil des Modelliergebiets zulässig ist. Im orogenen Keil, in dem diese Annahme nicht gilt, wurde das transiente thermische Feld mithilfe der erfolgten Untersuchungen abgeschätzt. Entsprechend kann für das Arbeitsgebiet im Vorland das strukturelle Modell aus dem ersten Schritt zur Berechnung des stationären 3D konduktiven thermischen Feldes herangezogen werden. Basierend auf der ermittelten Dichte- und Temperatur-Konfigurationen konnte anschließend die rheologische Konfiguration berechnet werden. Die rheologischen Analysen zeigen, dass die Lithosphäre in Falten- und Überschiebungsgürteln nur eine gerine Festigkeit besitzt und die Kruste Großteil zur integrierten Festigkeit beiträgt. Das benachbarte Vorlandbecken jedoch weist eine vollständig gekoppelte und starke Lithosphäre auf, weshalb Krustenverkürzung nur im vergleichsweise schwachen orogenen Keil aufgenommen werden kann. Daher komme ich zu der Schlussfolgerung, dass die Abscherhorizonte der Falten- und Überschiebungsgürtel die oberflächennahe Fortsetzung von Scherzonen in der duktilen Kruste unterhalb des Orogens sind. Die Lokalisation der Transferzonen zwischen der duktilen Kruste und dem Abscherhorizont sind dabei maßgeblich durch präexistente Schwächezonen in der Kruste beeinflusst. Im zerbrochenen Vorland der Sierras Pampeanas ist die Lithosphäre vollständig gekoppelt und durch einen Mantel hoher Festigkeit charakterisiert. Die sehr hohe integrierte lithosphärische Festigkeit des zerbrochenen Vorlands verhindert die Bildung von Störungen durch tektonische Kräfte. Selbst krustenskalige Schwächezonen können die Festigkeit nicht ausreichend reduzieren, weshalb eine thermische Schwächung benötigt wird. Daher spielt der Magmatismus, der in direkter Nachbarschaft zu den Schwächezonen in der Sierras Pampeanas nachgewiesen wurde, eine Schlüsselrolle in der Entstehung des zerbrochenen Vorlands. Diese Hypothese erklärt die große räumliche Distanz zwischen den Vorlandsockelüberschiebungen, sowie die beobachtete zeitliche Verzögerung zwischen Magmatismus und Hebung der Gebirgskämme. Die vorliegende Studie kann somit aufgrund Daten-integrativer Modellierung einen kausalen Zusammenhang zwischen der Lithosphärenstruktur, den beobachteten Deformationsmechanismen und unabhängigen geologischen Beobachtungen herstellen. KW - Argentina KW - Rheology KW - Foreland basin KW - Foreland basins KW - Density modelling KW - Chaco-Paraná basin KW - Andes KW - Argentinien KW - Rheologie KW - Vorlandbecken KW - Dichtemodellierung KW - Chaco-Paraná Becken KW - Anden Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439945 ER - TY - THES A1 - Schürings, Marco Philipp Hermann T1 - Synthesis of 1D microgel strands and their motion analysis in solution T1 - Synthese von 1D-Mikrogelsträngen und ihre Bewegungsanalyse in der Lösung N2 - The fabrication of 1D nanostrands composed of stimuli responsive microgels has been shown in this work. Microgels are well known materials able to respond to various stimuli from outer environment. Since these microgels respond via a volume change to an external stimulus, a targeted mechanical response can be achieved. Through carefully choosing the right composition of the polymer matrix, microgels can be designed to react precisely to the targeted stimuli (e.g. drug delivery via pH and temperature changes, or selective contractions through changes in electrical current125). In this work, it was aimed to create flexible nano-filaments which are capable of fast anisotropic contractions similar to muscle filaments. For the fabrication of such filaments or strands, nanostructured templates (PDMS wrinkles) were chosen due to a facile and low-cost fabrication and versatile tunability of their dimensions. Additionally, wrinkling is a well-known lithography-free method which enables the fabrication of nanostructures in a reproducible manner and with a high long-range periodicity. In Chapter 2.1, it was shown for the first time that microgels as soft matter particles can be aligned to densely packed microgel arrays of various lateral dimensions. The alignment of microgels with different compositions (e.g. VCL/AAEM, NIPAAm, NIPAAm/VCL and charged microgels) was shown by using different assembly techniques (e.g. spin-coating, template confined molding). It was chosen to set one experimental parameter constant which was the SiOx surface composition of the templates and substrates (e.g. oxidized PDMS wrinkles, Si-wafers and glass slides). It was shown that the fabrication of nanoarrays was feasible with all tested microgel types. Although the microgels exhibited different deformability when aligned on a flat surface, they retained their thermo-responsivity and swelling behavior. Towards the fabrication of 1D microgel strands interparticle connectivity was aspired. This was achieved via different cross-linking methods (i.e. cross-linking via UV-irradiation and host-guest complexation) discussed in Chapter 2.2. The microgel arrays created by different assembly methods and microgel types were tested for their cross-linking suitability. It was observed that NIPAAm based microgels cannot be cross-linked with UV light. Furthermore, it was found that these microgels exhibit a strong surface-particle-interaction and therefore could not be detached from the given substrates. In contrast to the latter, with VCL/AAEM based microgels it was possible to both UV cross-link them based on the keto-enol tautomerism of the AAEM copolymer, and to detach them from the substrate due to the lower adhesion energy towards SiOx surfaces. With VCL/AAEM microgels long, one-dimensional microgel strands could be re-dispersed in water for further analysis. It has also been shown that at least one lateral dimension of the free dispersed 1D microgel strands is easily controllable by adjusting the wavelength of the wrinkled template. For further work, only VCL/AAEM based microgels were used to focus on the main aim of this work, i.e. the fabrication of 1D microgel nanostrands. As an alternative to the unspecific and harsh UV cross-linking, the host-guest complexation via diazobenzene cross-linkers and cyclodextrin hosts was explored. The idea behind this approach was to give means to a future construction kit-like approach by incorporation of cyclodextrin comonomers in a broad variety of particle systems (e.g. microgels, nanoparticles). For this purpose, VCL/AAEM microgels were copolymerized with different amounts of mono-acrylate functionalized β-cyclodextrin (CD). After successfully testing the cross-linking capability in solution, the cross-linking of aligned VCL/AAEM/CD microgels was tried. Although the cross-linking worked well, once the single arrays came into contact to each other, they agglomerated. As a reason for this behavior residual amounts of mono-complexed diazobenzene linkers were suspected. Thus, end-capping strategies were tried out (e.g. excess amounts of β-cyclodextrin and coverage with azobenzene functionalized AuNPs) but were unsuccessful. With deeper thought, entropy effects were taken into consideration which favor the release of complexed diazobenzene linker leading to agglomerations. To circumvent this entropy driven effect, a multifunctional polymer with 50% azobenzene groups (Harada polymer) was used. First experiments with this polymer showed promising results regarding a less pronounced agglomeration (Figure 77). Thus, this approach could be pursued in the future. In this chapter it was found out that in contrast to pearl necklace and ribbon like formations, particle alignment in zigzag formation provided the best compromise in terms of stability in dispersion (see Figure 44a and Figure 51) while maintaining sufficient flexibility. For this reason, microgel strands in zigzag formation were used for the motion analysis described in Chapter 2.3. The aim was to observe the properties of unrestrained microgel strands in solution (e.g. diffusion behavior, rotational properties and ideally, anisotropic contraction after temperature increase). Initially, 1D microgel strands were manipulated via AFM in a liquid cell setup. It could be observed that the strands required a higher load force compared to single microgels to be detached from the surface. However, with the AFM it was not possible to detach the strands in a controllable manner but resulted in a complete removal of single microgel particles and a tearing off the strands from the surface, respectively. For this reason, to observe the motion behavior of unrestrained microgel strands in solution, confocal microscopy was used. Furthermore, to hinder an adsorption of the strands, it was found out that coating the surface of the substrates with a repulsive polymer film was beneficial. Confocal and wide-field microscopy videos showed that the microgel strands exhibit translational and rotational diffusive motion in solution without perceptible bending. Unfortunately, with these methods the detection of the anisotropic stimuli responsive contraction of the free moving microgel strands was not possible. To summarize, the flexibility of microgel strands is more comparable to the mechanical behavior of a semi flexible cable than to a yarn. The strands studied here consist of dozens or even hundreds of discrete submicron units strung together by cross-linking, having few parallels in nanotechnology. With the insights gained in this work on microgel-surface interactions, in the future, a targeted functionalization of the template and substrate surfaces can be conducted to actively prevent unwanted microgel adsorption for a given microgel system (e.g. PVCL and polystyrene coating235). This measure would make the discussed alignment methods more diverse. As shown herein, the assembly methods enable a versatile microgel alignment (e.g. microgel meshes, double and triple strands). To go further, one could use more complex templates (e.g. ceramic rhombs and star shaped wrinkles (Figure 14) to expand the possibilities of microgel alignment and to precisely control their aspect ratios (e.g. microgel rods with homogeneous size distributions). N2 - In dieser Arbeit wurde die Herstellung von Nanostrukturen aus stimuli-responsiven Mikrogelen gezeigt. Mikrogele sind bekannt dafür auf verschiedene Reize aus der Umgebung reagieren zu können, so werden sie z.B. in der Industrie seit langem als Superabsorber eingesetzt. Da diese Mikrogele über eine Volumenäderung auf den externen Reiz reagieren, kann so eine gezielte mechanische Antwort erreicht werden. Durch eine sorgfältige Auswahl der Polymermatrix ist es möglich die Mikrogele so zu gestalten, dass sie präzise auf die gesetzten Stimuli reagieren (z.B. Wirkstoffabgabe über pH- und Temperaturänderungen oder selektive Kontraktionen durch Zufuhr von elektrischem Strom). In dieser Arbeit wurde das Ziel verfolgt, flexible Nanofilamente zu schaffen, die ähnlich wie Muskelfilamente zu schnellen anisotropen Kontraktionen fähig sind. Für die Herstellung solcher Stränge wurden nanostrukturierte Template (PDMS-Wrinkles) verwendet, da diese einfach und kostengünstig herzustellen und in ihren Abmessungen vielseitig skalierbar sind. Darüber hinaus ist die Strukturbildung via Wrinkles ein bekanntes lithographiefreies Verfahren, das die Herstellung von Nanostrukturen in reproduzierbarer Weise und mit hoher Fernordnung auf Nanoskala ermöglicht. In Kapitel 2.1 wurde erstmals gezeigt, dass Mikrogele als weiche bzw. schwammartige Materialien zu dicht gepackten Mikrogelarrays mit einstellbaren lateralen Dimensionen ausgerichtet werden können. Obwohl die Mikrogele bei der Anordnung auf ebene Oberflächen unterschiedliche Verformbarkeiten zeigten, behielten sie ihre Thermoresponsivität und ihr Quellverhalten bei. Zur Herstellung von Mikrogelsträngen wurde eine interpartikuläre Konnektivität angestrebt. In Kapitel 2.2 wurde dies durch verschiedene Vernetzungsmethoden (d.h. Vernetzung durch UV-Bestrahlung und Wirt-Gast-Komplexierung) erreicht. Mit VCL/AAEM-Mikrogelen ist es möglich stabile, eindimensionale Mikrogelstränge herzustellen und zur weiteren Analyse in Wasser zu redispergieren. In diesem Kapitel wurde gezeigt, dass eindimensionale Partikelanordnungen in der Zickzackformation im Gegensatz zu Anordnungen in einer Perlenkettenstruktur oder zweidimensionaler Bandstruktur den besten Kompromiss in Bezug auf die Stabilität der Mikrogelstränge in Lösung bei gleichzeitigem Erhalt einer ausreichenden Flexibilität darstellt. In Kapitel 2.3 wurden für die Bewegungsanalysen Mikrogelstränge in Zickzackformation verwendet. Zusammenfassend lässt sich sagen, dass die Flexibilität der Mikrogelstränge eher mit der mechanischen Biegefähigkeit eines halbflexiblen Kabels als mit dem eines Fadens vergleichbar ist. Die hier untersuchten Stränge bestehen aus Dutzenden oder sogar Hunderten von diskreten Einzelpartikeln, die durch Vernetzung miteinander verbunden sind und für die es in der Nanotechnologie nur wenige Parallelen gibt. Wie hier dargestellt, ermöglichen die diversen Anordnungsmethoden eine vielseitige Mikrogelarchitektur (z.B. Mikrogelnetze, Doppel- und Dreifachstränge). In Zukunft könnte man komplexere Template (z.B. keramische Rhomben und sternförmige Wrinkles) verwenden, um die Möglichkeiten der nanoskaligen Mikrogelanordnungen zu erweitern und deren Seitenverhältnisse präzise zu steuern (z.B. zur Herstellung von homogenen Mikrogelstäbchen). KW - anisotropic microgels KW - microgel strands KW - microgel chains KW - template assisted alignment of soft particles KW - microgel array KW - Mikrogele KW - Mikrogelstränge KW - Mikrogelketten KW - tamplat unterstütze Anordnung von weichen Partikeln KW - Mikrogel-Array Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439532 ER - TY - THES A1 - Kolk, Jens T1 - The long-term legacy of historical land cover changes T1 - Die Langzeitfolgen historischer Landbedeckungsveränderungen BT - patterns and dynamics in herb-layer species richness in deciduous forests of the Prignitz region (NE Germany) BT - Muster und Dynamik der Artenvielfalt von Waldpflanzengemeinschaften in Laubwäldern der Prignitz (Nordostdeutschland) N2 - Over the last years there is an increasing awareness that historical land cover changes and associated land use legacies may be important drivers for present-day species richness and biodiversity due to time-delayed extinctions or colonizations in response to historical environmental changes. Historically altered habitat patches may therefore exhibit an extinction debt or colonization credit and can be expected to lose or gain species in the future. However, extinction debts and colonization credits are difficult to detect and their actual magnitudes or payments have rarely been quantified because species richness patterns and dynamics are also shaped by recent environmental conditions and recent environmental changes. In this thesis we aimed to determine patterns of herb-layer species richness and recent species richness dynamics of forest herb layer plants and link those patterns and dynamics to historical land cover changes and associated land use legacies. The study was conducted in the Prignitz, NE-Germany, where the forest distribution remained stable for the last ca. 100 years but where a) the deciduous forest area had declined by more than 90 per cent (leaving only remnants of "ancient forests"), b) small new forests had been established on former agricultural land ("post-agricultural forests"). Here, we analyzed the relative importance of land use history and associated historical land cover changes for herb layer species richness compared to recent environmental factors and determined magnitudes of extinction debt and colonization credit and their payment in ancient and post-agricultural forests, respectively. We showed that present-day species richness patterns were still shaped by historical land cover changes that ranged back to more than a century. Although recent environmental conditions were largely comparable we found significantly more forest specialists, species with short-distance dispersal capabilities and clonals in ancient forests than in post-agricultural forests. Those species richness differences were largely contingent to a colonization credit in post-agricultural forests that ranged up to 9 species (average 4.7), while the extinction debt in ancient forests had almost completely been paid. Environmental legacies from historical agricultural land use played a minor role for species richness differences. Instead, patch connectivity was most important. Species richness in ancient forests was still dependent on historical connectivity, indicating a last glimpse of an extinction debt, and the colonization credit was highest in isolated post-agricultural forests. In post-agricultural forests that were better connected or directly adjacent to ancient forest patches the colonization credit was way smaller and we were able to verify a gradual payment of the colonization credit from 2.7 species to 1.5 species over the last six decades. N2 - In den vergangenen Jahren reift immer mehr die Erkenntnis, dass historische Landnutzungsveränderungen und deren Folgewirkungen einen wichtigen Einfluss auf die heutige Artenvielfalt und Biodiversität haben können. In Habitaten, deren Landnutzung und Fläche sich in historischer Zeit verändert hat kann aufgrund von verzögerten Aussterbe- und Einwanderungsprozessen eine erhöhte oder verringerte Artenvielfalt vorliegen, die nicht den heutigen Umweltbedingungen entspricht. Es liegen Aussterbeschulden oder Einwanderungs- bzw. Kolonisierungskredite vor, welcher über die Zeit mit Artverlusten oder Zugewinnen von Arten bezahlt werden. Aussterbeschulden oder Einwanderungskredite und deren Bezahlung sind schwierig zu ermitteln, da einerseits Informationen zu historischen Landnutzungsveränderungen oft fehlen und andererseits auch heutige Umweltfaktoren einen wichtigen Einfluss auf die Artenvielfalt haben. Das Ziel dieser Arbeit war es die heutigen Muster der Artenvielfalt von Waldbodenpflanzen in Laub- und Mischwäldern und deren Veränderungen über die letzten 60 Jahre zu ermitteln und diese Muster im Hinblick auf historische Landnutzungsveränderungen zu untersuchen. Das Studiengebiet umfasst große Teile der Prignitz (Brandenburg und angrenzende Teile von Sachsen-Anhalt), ein Gebiet, dessen Waldanteil sich in den letzten 100 Jahren kaum verändert hat, in dem sich jedoch seit dem Ende des 19ten Jahrhunderts der Anteil historisch alter Wälder (ohne historische nachgewiesene agrarliche Nutzung) um mehr als 90% reduziert hat, während an anderer Stelle wenige neue Wälder auf vorigen Agrarflächen etabliert wurden. Im Rahmen dieser Studie wurde zunächst die Artenvielfalt und deren aktuelle Veränderung in historisch-alten Wäldern und neu etablierten Wäldern untersucht und verglichen. Um den Einfluss von historischen Landnutzungsveränderungen auf die Artenvielfalt zu ermittlen, wurde die historische und heutige Vernetzung der Waldflächen analysiert, die Umweltbedingungen in historisch-alten Wäldern und neu etablierten Wäldern verglichen und der Umfang und die Bezahlung der Aussterbeschulden und der Kolonisierungskredite ermittelt. Die Arbeit zeigt, dass historische Landnutzungsveränderungen die heutige Artenvielfalt noch immer beeinflussen. Obwohl die heutigen Umweltbedingungen in historisch-alten und neu etablierten Wäldern vergleichbar waren, war die Gesamtartenzahl in historisch-alten Wäldern signifikant höher und in diesen Wäldern wurden insbesondere mehr Waldspezialisten und sich nur über kurze Enfernung ausbreitende Pflanzenarten gefunden. Die Unterschiede in den Artenzahlen sind vor allem auf einen Kolonisierungskredit in neu etablierten Wäldern zurückzuführen, während die Aussterbeschulden in historisch-alten Wäldern weitgehend bezahlt wurden. Der Kolonisierungskredits war am höchsten in isoliert gelegenen Waldflächen und belief sich auf bis zu 9 Arten (im Mittel 4,7). Der Kolonisierungskredit in besser vernetzten und in direkt an historisch-alten Wäldern angrenzenden Flächen war deutlich geringer. In diesen Wäldern konnte eine Verringerung des Kolonisierungskredites von im Mittel 2,7 zu 1,5 Arten über die letzten sechs Jahrzehnte nachgewiesen werden. KW - ecology KW - plant science KW - extinction debt KW - colonization credit KW - species richness KW - land use history KW - Ökologie KW - Pflanzenwissenschaften KW - Botanik KW - Aussterbeschuld KW - Einwanderungskredit KW - Biodiversität KW - Landnutzungshistorie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439398 ER - TY - THES A1 - Perlich, Anja T1 - Digital collaborative documentation in mental healthcare T1 - Digitale Mittel zur kooperativen Dokumentation im Bereich der psychischen Gesundheit N2 - With the growth of information technology, patient attitudes are shifting – away from passively receiving care towards actively taking responsibility for their well- being. Handling doctor-patient relationships collaboratively and providing patients access to their health information are crucial steps in empowering patients. In mental healthcare, the implicit consensus amongst practitioners has been that sharing medical records with patients may have an unpredictable, harmful impact on clinical practice. In order to involve patients more actively in mental healthcare processes, Tele-Board MED (TBM) allows for digital collaborative documentation in therapist-patient sessions. The TBM software system offers a whiteboard-inspired graphical user interface that allows therapist and patient to jointly take notes during the treatment session. Furthermore, it provides features to automatically reuse the digital treatment session notes for the creation of treatment session summaries and clinical case reports. This thesis presents the development of the TBM system and evaluates its effects on 1) the fulfillment of the therapist’s duties of clinical case documentation, 2) patient engagement in care processes, and 3) the therapist-patient relationship. Following the design research methodology, TBM was developed and tested in multiple evaluation studies in the domains of cognitive behavioral psychotherapy and addiction care. The results show that therapists are likely to use TBM with patients if they have a technology-friendly attitude and when its use suits the treatment context. Support in carrying out documentation duties as well as fulfilling legal requirements contributes to therapist acceptance. Furthermore, therapists value TBM as a tool to provide a discussion framework and quick access to worksheets during treatment sessions. Therapists express skepticism, however, regarding technology use in patient sessions and towards complete record transparency in general. Patients expect TBM to improve the communication with their therapist and to offer a better recall of discussed topics when taking a copy of their notes home after the session. Patients are doubtful regarding a possible distraction of the therapist and usage in situations when relationship-building is crucial. When applied in a clinical environment, collaborative note-taking with TBM encourages patient engagement and a team feeling between therapist and patient. Furthermore, it increases the patient’s acceptance of their diagnosis, which in turn is an important predictor for therapy success. In summary, TBM has a high potential to deliver more than documentation support and record transparency for patients, but also to contribute to a collaborative doctor-patient relationship. This thesis provides design implications for the development of digital collaborative documentation systems in (mental) healthcare as well as recommendations for a successful implementation in clinical practice. N2 - Die Verbreitung von Informationstechnologie kann die Rolle von Patienten verändern: weg vom passiven Erhalt ärztlicher Zuwendung hin zur eigenverantwortlichen Mitwirkung an ihrer Genesung. Wesentliche Schritte zur Ermündigung von Patienten sind eine gute Zusammenarbeit mit dem behandelnden Arzt und der Zugang zu den eigenen Akten. Unter Psychotherapeuten gibt es jedoch einen impliziten Konsens darüber, dass die Einsicht in psychiatrische Akten unvorhersehbare, nachteilige Effekte auf die klinische Praxis hervorrufen könnte. Um auch Patienten aktiver an der Erhaltung und Wiederherstellung ihrer mentalen Gesundheit zu beteiligen, ermöglicht Tele-Board MED (TBM) das gemeinschaftliche Erstellen von digitalen Notizen. Diese Dissertation beschreibt die Entwicklung des TBM Software-Systems, das es Therapeut und Patient ermöglicht, gemeinsam während der Sitzung wie auf einem Whiteboard Notizen zu machen. Außerdem bietet TBM Funktionen, um auf Grundlage der digitalen Gesprächsnotizen automatisch Sitzungsprotokolle und klinische Fallberichte zu erstellen. Methodologisch basiert die Entwicklung und Evaluierung von TBM auf dem Paradigma für Design Research. Es wurden vielfältige Studien in den Bereichen der Verhaltens- und Suchttherapie durchgeführt, um die Auswirkungen auf folgende Aspekte zu evaluieren: 1) die Erfüllung der Dokumentationspflichten von Therapeuten, 2) das Engagement von Patienten in Behandlungsprozessen und 3) die Beziehung zwischen Patient und Therapeut. Die Studien haben gezeigt, dass Therapeuten dazu geneigt sind, TBM mit ihren Patienten zu nutzen, wenn sie technologie-freundlich eingestellt sind und wenn es zum Behandlungskontext passt. Zur Akzeptanz tragen auch die schnelle Erstellung von klinischen Dokumenten sowie die Erfüllung der gesetzlichen Forderung nach Aktentransparenz bei. Weiterhin schätzen Therapeuten TBM als Werkzeug, um Therapiegespräche zu strukturieren und während der Sitzung schnell auf Arbeitsblätter zuzugreifen. Therapeuten äußerten hingegen auch Skepsis gegenüber der Technologienutzung im Patientengespräch und vollständiger Aktentransparenz. Patienten erhoffen sich von TBM eine verbesserte Kommunikation mit ihrem Therapeuten und denken, dass sie sich besser an die Gesprächsinhalte erinnern können, wenn sie eine Kopie ihrer Akte erhalten. Patienten brachten Bedenken zum Ausdruck, TBM in Situationen zu nutzen, in denen der Beziehungsaufbau im Vordergrund steht, und darüber, dass Therapeuten sich abgelenkt fühlen könnten. Als TBM im klinischen Umfeld eingesetzt wurde, wurde ein erhöhtes Patientenengagement und ein gesteigertes Teamgefühl beobachtet. Außerdem stieg bei Patienten die Akzeptanz ihrer Diagnosen, welche wiederum ein wichtiger Prädiktor für Therapieerfolg ist. Zusammenfassend lässt sich festhalten, dass TBM großes Potential hat: Über die damit mögliche Dokumentationsunterstützung und Aktentransparenz hinaus wird auch die Zusammenarbeit von Therapeut und Patient unterstützt. Diese Dissertation fasst Kriterien zur Entwicklung von gemeinschaftlichen Dokumentationssystemen in der (psychischen) Gesundheitsfürsorge sowie Empfehlungen für eine erfolgreiche Implementierung in der klinischen Praxis zusammen. KW - medical documentation KW - psychotherapy KW - addiction care KW - computer-mediated therapy KW - digital whiteboard KW - patient empowerment KW - doctor-patient relationship KW - design research KW - user experience KW - evaluation KW - medizinische Dokumentation KW - Psychotherapie KW - Suchtberatung und -therapie KW - computervermittelte Therapie KW - digitales Whiteboard KW - Patientenermündigung KW - Arzt-Patient-Beziehung KW - Design-Forschung KW - User Experience KW - Evaluation Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440292 ER - TY - THES A1 - Nikaj, Adriatik T1 - Restful choreographies T1 - REST-Choreografien N2 - Business process management has become a key instrument to organize work as many companies represent their operations in business process models. Recently, business process choreography diagrams have been introduced as part of the Business Process Model and Notation standard to represent interactions between business processes, run by different partners. When it comes to the interactions between services on the Web, Representational State Transfer (REST) is one of the primary architectural styles employed by web services today. Ideally, the RESTful interactions between participants should implement the interactions defined at the business choreography level. The problem, however, is the conceptual gap between the business process choreography diagrams and RESTful interactions. Choreography diagrams, on the one hand, are modeled from business domain experts with the purpose of capturing, communicating and, ideally, driving the business interactions. RESTful interactions, on the other hand, depend on RESTful interfaces that are designed by web engineers with the purpose of facilitating the interaction between participants on the internet. In most cases however, business domain experts are unaware of the technology behind web service interfaces and web engineers tend to overlook the overall business goals of web services. While there is considerable work on using process models during process implementation, there is little work on using choreography models to implement interactions between business processes. This thesis addresses this research gap by raising the following research question: How to close the conceptual gap between business process choreographies and RESTful interactions? This thesis offers several research contributions that jointly answer the research question. The main research contribution is the design of a language that captures RESTful interactions between participants---RESTful choreography modeling language. Formal completeness properties (with respect to REST) are introduced to validate its instances, called RESTful choreographies. A systematic semi-automatic method for deriving RESTful choreographies from business process choreographies is proposed. The method employs natural language processing techniques to translate business interactions into RESTful interactions. The effectiveness of the approach is shown by developing a prototypical tool that evaluates the derivation method over a large number of choreography models. In addition, the thesis proposes solutions towards implementing RESTful choreographies. In particular, two RESTful service specifications are introduced for aiding, respectively, the execution of choreographies' exclusive gateways and the guidance of RESTful interactions. N2 - Das Prozessmanagement hat sich zu einer wichtigen Methode zur Organisation von Arbeitsabläufen entwickelt, sodass viele Unternehmen ihre Tätigkeiten mittlerweile in Prozessmodellen darstellen. Unlängst wurden zudem im Kontext der Business Process Model and Notation Choreographiediagramme eingeführt, um Interaktionen zwischen Prozessen verschiedener Partner zu beschreiben. Im Web nutzen interagierende Dienste heutzutage den Representational State Transfer (REST) als primären Architekturstil. Idealerweise implementieren die REST-Interaktionen der Dienste also die Interaktionen, die im Choreographiediagramm definiert wurden. Allerdings besteht zwischen Choreographiediagrammen und RESTInteraktionen eine konzeptuelle Diskrepanz. Auf der einen Seite werden Choreographiediagramme von Domänenexperten mit dem Ziel modelliert, die Interaktionen zu erfassen, zu kommunizieren und, idealerweise, voranzutreiben. Auf der anderen Seite sind REST-Interaktionen abhängig von REST-Schnittstellen, welche von Web-Entwicklern mit dem Ziel entworfen werden, Interaktionen zwischen Diensten im Internet zu erleichtern. In den meisten Fällen sind sich Domänenexperten jedoch der Technologien, die Web-Schnittstellen zu Grunde liegen, nicht bewusst, wohingegenWeb-Entwickler die Unternehmensziele der Web-Dienste nicht kennen. Während es umfangreiche Arbeiten zur Implementierung von Prozessmodellen gibt, existieren nur wenige Untersuchungen zur Implementierung von interagierenden Prozessen auf Basis von Choreographiemodellen. Die vorliegende Dissertation adressiert diese Forschungslücke, indem sie die folgende Forschungsfrage aufwirft: Wie kann die konzeptuelle Diskrepanz zwischen Choreographiediagrammen und REST-Interaktionen beseitigt werden? Somit enthält diese Arbeit mehrere Forschungsbeiträge, um diese Frage zu adressieren. Der primäre Beitrag besteht in dem Design einer Modellierungssprache, um REST-Interaktionen zwischen Diensten zu erfassen—der RESTful Choreography Modeling Language. Formale Vollständigkeitseigenschaften (in Bezug auf REST) werden eingeführt, um Instanzen dieser Modelle, sogennante REST-Choreographien, zu validieren. Ferner wird eine systematische, halb-automatische Methode vorgestellt, um RESTChoreographien von Choreographiediagrammen abzuleiten. Diese Methode setzt Techniken des Natural Language Processing ein, um Interaktionen in REST-Interaktionen zu übersetzen. Die Wirksamkeit des Ansatzes wird durch die Entwicklung eines prototypischen Werkzeugs demonstriert, welches die Ableitungsmethode anhand einer großen Anzahl von Choreographiediagrammen evaluiert. Darüber hinaus stellt diese Arbeit Lösungen zur Implementierung von REST-Choreographien bereit. Insbesondere werden zwei REST-Dienstspezifikationen vorgestellt, welche die korrekte Ausführung von exklusiven Gateways eines Choreographiediagramms und die Führung der REST-Interaktionen unterstützen. KW - business process choreographies KW - RESTful interactions KW - Geschäftsprozess-Choreografien KW - REST-Interaktionen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-438903 ER - TY - THES A1 - Lewandowski, Max T1 - Hadamard states for bosonic quantum field theory on globally hyperbolic spacetimes T1 - Hadamard-Zustände für bosonische Quantenfeldtheorie auf global hyperbolischen Raumzeiten N2 - Quantenfeldtheorie auf gekrümmten Raumzeiten ist eine semiklassische Näherung einer Quantentheorie der Gravitation, im Rahmen derer ein Quantenfeld unter dem Einfluss eines klassisch modellierten Gravitationsfeldes, also einer gekrümmten Raumzeit, beschrieben wird. Eine der bemerkenswertesten Vorhersagen dieses Ansatzes ist die Erzeugung von Teilchen durch die gekrümmte Raumzeit selbst, wie zum Beispiel durch Hawkings Verdampfen schwarzer Löcher und den Unruh Effekt. Andererseits deuten diese Aspekte bereits an, dass fundamentale Grundpfeiler der Theorie auf dem Minkowskiraum, insbesondere ein ausgezeichneter Vakuumzustand und damit verbunden der Teilchenbegriff, für allgemeine gekrümmte Raumzeiten keine sinnvolle Entsprechung besitzen. Gleichermaßen benötigen wir eine alternative Implementierung von Kovarianz in die Theorie, da gekrümmte Raumzeiten im Allgemeinen keine nicht-triviale globale Symmetrie aufweisen. Letztere Problematik konnte im Rahmen lokal-kovarianter Quantenfeldtheorie gelöst werden, wohingegen die Abwesenheit entsprechender Konzepte für Vakuum und Teilchen in diesem allgemeinen Fall inzwischen sogar in Form von no-go-Aussagen manifestiert wurde. Beim algebraischen Ansatz für eine Quantenfeldtheorie werden zunächst Observablen eingeführt und erst anschließend Zustände via Zuordnung von Erwartungswerten. Obwohl die Observablen unter physikalischen Gesichtspunkten konstruiert werden, existiert dennoch eine große Anzahl von möglichen Zuständen, von denen viele, aus physikalischen Blickwinkeln betrachtet, nicht sinnvoll sind. Dieses Konzept von Zuständen ist daher noch zu allgemein und bedarf weiterer physikalisch motivierter Einschränkungen. Beispielsweise ist es natürlich, sich im Falle freier Quantenfeldtheorien mit linearen Feldgleichungen auf quasifreie Zustände zu konzentrieren. Darüber hinaus ist die Renormierung von Erwartungswerten für Produkte von Feldern von zentraler Bedeutung. Dies betrifft insbesondere den Energie-Impuls-Tensor, dessen Erwartungswert durch distributionelle Bilösungen der Feldgleichungen gegeben ist. Tatsächlich liefert J. Hadamard Theorie hyperbolischer Differentialgleichungen Bilösungen mit festem singulären Anteil, so dass ein geeignetes Renormierungsverfahren definiert werden kann. Die sogenannte Hadamard-Bedingung an Bidistributionen steht für die Forderung einer solchen Singularitätenstruktur und sie hat sich etabliert als natürliche Verallgemeinerung der für flache Raumzeiten formulierten Spektralbedingung. Seit Radzikowskis wegweisenden Resultaten lässt sie sich außerdem lokal ausdrücken, nämlich als eine Bedingung an die Wellenfrontenmenge der Bilösung. Diese Formulierung schlägt eine Brücke zu der von Duistermaat und Hörmander entwickelten mikrolokalen Analysis, die seitdem bei der Überprüfung der Hadamard-Bedingung sowie der Konstruktion von Hadamard Zuständen vielfach Verwendung findet und rasante Fortschritte auf diesem Gebiet ausgelöst hat. Obwohl unverzichtbar für die Analyse der Charakteristiken von Operatoren und ihrer Parametrizen sind die Methoden und Aussagen der mikrolokalen Analysis ungeeignet für die Analyse von nicht-singulären Strukturen und zentrale Aussagen sind typischerweise bis auf glatte Anteile formuliert. Beispielsweise lassen sich aus Radzikowskis Resultaten nahezu direkt Existenzaussagen und sogar ein konkretes Konstruktionsschema für Hadamard Zustände ableiten, die übrigen Eigenschaften (Bilösung, Kausalität, Positivität) können jedoch auf diesem Wege nur modulo glatte Funktionen gezeigt werden. Es ist das Ziel dieser Dissertation, diesen Ansatz für lineare Wellenoperatoren auf Schnitten in Vektorbündeln über global-hyperbolischen Lorentz-Mannigfaltigkeiten zu vollenden und, ausgehend von einer lokalen Hadamard Reihe, Hadamard Zustände zu konstruieren. Beruhend auf Wightmans Lösung für die d'Alembert-Gleichung auf dem Minkowski-Raum und der Herleitung der avancierten und retardierten Fundamentallösung konstruieren wir lokal Parametrizen in Form von Hadamard-Reihen und fügen sie zu globalen Bilösungen zusammen. Diese besitzen dann die Hadamard-Eigenschaft und wir zeigen anschließend, dass glatte Bischnitte existieren, die addiert werden können, so dass die verbleibenden Bedingungen erfüllt sind. N2 - Quantum field theory on curved spacetimes is understood as a semiclassical approximation of some quantum theory of gravitation, which models a quantum field under the influence of a classical gravitational field, that is, a curved spacetime. The most remarkable effect predicted by this approach is the creation of particles by the spacetime itself, represented, for instance, by Hawking's evaporation of black holes or the Unruh effect. On the other hand, these aspects already suggest that certain cornerstones of Minkowski quantum field theory, more precisely a preferred vacuum state and, consequently, the concept of particles, do not have sensible counterparts within a theory on general curved spacetimes. Likewise, the implementation of covariance in the model has to be reconsidered, as curved spacetimes usually lack any non-trivial global symmetry. Whereas this latter issue has been resolved by introducing the paradigm of locally covariant quantum field theory (LCQFT), the absence of a reasonable concept for distinct vacuum and particle states on general curved spacetimes has become manifest even in the form of no-go-theorems. Within the framework of algebraic quantum field theory, one first introduces observables, while states enter the game only afterwards by assigning expectation values to them. Even though the construction of observables is based on physically motivated concepts, there is still a vast number of possible states, and many of them are not reasonable from a physical point of view. We infer that this notion is still too general, that is, further physical constraints are required. For instance, when dealing with a free quantum field theory driven by a linear field equation, it is natural to focus on so-called quasifree states. Furthermore, a suitable renormalization procedure for products of field operators is vitally important. This particularly concerns the expectation values of the energy momentum tensor, which correspond to distributional bisolutions of the field equation on the curved spacetime. J. Hadamard's theory of hyperbolic equations provides a certain class of bisolutions with fixed singular part, which therefore allow for an appropriate renormalization scheme. By now, this specification of the singularity structure is known as the Hadamard condition and widely accepted as the natural generalization of the spectral condition of flat quantum field theory. Moreover, due to Radzikowski's celebrated results, it is equivalent to a local condition, namely on the wave front set of the bisolution. This formulation made the powerful tools of microlocal analysis, developed by Duistermaat and Hörmander, available for the verification of the Hadamard property as well as the construction of corresponding Hadamard states, which initiated much progress in this field. However, although indispensable for the investigation in the characteristics of operators and their parametrices, microlocal analyis is not practicable for the study of their non-singular features and central results are typically stated only up to smooth objects. Consequently, Radzikowski's work almost directly led to existence results and, moreover, a concrete pattern for the construction of Hadamard bidistributions via a Hadamard series. Nevertheless, the remaining properties (bisolution, causality, positivity) are ensured only modulo smooth functions. It is the subject of this thesis to complete this construction for linear and formally self-adjoint wave operators acting on sections in a vector bundle over a globally hyperbolic Lorentzian manifold. Based on Wightman's solution of d'Alembert's equation on Minkowski space and the construction for the advanced and retarded fundamental solution, we set up a Hadamard series for local parametrices and derive global bisolutions from them. These are of Hadamard form and we show existence of smooth bisections such that the sum also satisfies the remaining properties exactly. KW - mathematische Physik KW - Quantenfeldtheorie KW - Differentialgeometrie KW - mathematical physics KW - quantum field theory KW - differential geometry Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439381 ER - TY - THES A1 - Schäfer, Merlin T1 - Understanding and predicting global change impacts on migratory birds T1 - Verständnis und Vorhersage von Auswirkungen des globalen Wandels auf Zugvögel N2 - This is a publication-based dissertation comprising three original research stud-ies (one published, one submitted and one ready for submission; status March 2019). The dissertation introduces a generic computer model as a tool to investigate the behaviour and population dynamics of animals in cyclic environments. The model is further employed for analysing how migratory birds respond to various scenarios of altered food supply under global change. Here, ecological and evolutionary time-scales are considered, as well as the biological constraints and trade-offs the individual faces, which ultimately shape response dynamics at the population level. Further, the effect of fine-scale temporal patterns in re-source supply are studied, which is challenging to achieve experimentally. My findings predict population declines, altered behavioural timing and negative carry-over effects arising in migratory birds under global change. They thus stress the need for intensified research on how ecological mechanisms are affected by global change and for effective conservation measures for migratory birds. The open-source modelling software created for this dissertation can now be used for other taxa and related research questions. Overall, this thesis improves our mechanistic understanding of the impacts of global change on migratory birds as one prerequisite to comprehend ongoing global biodiversity loss. The research results are discussed in a broader ecological and scientific context in a concluding synthesis chapter. N2 - Dies ist eine publikationsbasierte Dissertation, welche aus drei wissenschaftlichen Originalstudien (eine publiziert, eine eingereicht und eine einreichbar; Stand März 2019) besteht. Die Dissertation stellt ein generisches Computermodell bereit, um das Verhalten und die Populationsdynamik von Tieren zu untersuchen, welche saisonale Umweltbedingungen erfahren. Mit diesem Computermodell untersuche ich in der vorliegenden Thesis, wie Zugvögel auf verschiedene Szenarien veränderter Nahrungsverfügbarkeit reagieren, welche im Rahmen des globalen Wandels wahrscheinlich sind. Dabei werden ökologische und evolutionäre Zeitskalen berücksichtigt. Außerdem werden biologisch bedingte Einschränkungen und Zielkonflikte einbezogen, welche das einzelne Individuum erfährt, die aber letztendlich auch das Geschehen auf Populationsebene bestimmen. Weiterhin studiere ich mit dem erstellten Computermodell am Beispiel des Weißstorchs, wie sich feinskalige Zeitmuster in der Nahrungsverfügbarkeit auf Zugvögel auswirken. Solche Studien würden eine enorme experimentelle Herausforderung darstellen. Die im Rahmen dieser Dissertation entstandene frei verfügbare Modellierungs-Software kann nun für andere Taxa und verwandte Forschungsfragen eingesetzt werden. Nach meinen Ergebnissen ist im Zuge des globalen Wandels mit verstärkten Populationsabnahmen bei Zugvögeln zu rechnen, sowie mit Änderungen im zeitlichen Verhaltensablauf und nichtlinearen negativen Carry-over-Effekten. Dies verdeutlicht, wie wichtig es ist, die vom globalen Wandel betroffenen ökologischen Mechanismen näher zu erforschen sowie effektive Schutzmaßnahmen für Zugvögel zu entwickeln. Allgemein erhöht die Dissertation unser mechanistisches Verständnis davon, wie sich der globale Wandel auf bedrohte Zugvogelarten auswirkt und damit die globale Biodiversität beeinflusst. Die Forschungsergebnisse werden in einem abschließenden Synthese-Kapitel zusammenführend diskutiert. KW - global change KW - migratory birds KW - life-history theory KW - movement ecology KW - bird migration KW - optimal annual routine model KW - stochastic dynamic programming KW - full annual cycle KW - population dynamics KW - carry-over effects KW - white stork KW - behavioural ecology KW - adaptation KW - mechanistic model KW - energetics KW - behavioural timing KW - reproduction KW - globaler Wandel KW - Zugvögel KW - Lebenszyklustheorie KW - Bewegungsökologie KW - Vogelzug KW - "Optimal annual routine"-Modell KW - stochastisch-dynamische Optimierung KW - vollständiger Jahreszyklus KW - Populationsdynamik KW - Carry-over-Effekte KW - Weißstorch KW - Verhaltensökologie KW - Anpassung KW - mechanistisches Modell KW - Energetik KW - Verhaltens-Timing KW - Reproduktion Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439256 ER - TY - THES A1 - Krentz, Konrad-Felix T1 - A Denial-of-Sleep-Resilient Medium Access Control Layer for IEEE 802.15.4 Networks T1 - Eine Denial-of-Sleep-Resiliente Mediumzugriffsschicht für IEEE-802.15.4-Netzwerke N2 - With the emergence of the Internet of things (IoT), plenty of battery-powered and energy-harvesting devices are being deployed to fulfill sensing and actuation tasks in a variety of application areas, such as smart homes, precision agriculture, smart cities, and industrial automation. In this context, a critical issue is that of denial-of-sleep attacks. Such attacks temporarily or permanently deprive battery-powered, energy-harvesting, or otherwise energy-constrained devices of entering energy-saving sleep modes, thereby draining their charge. At the very least, a successful denial-of-sleep attack causes a long outage of the victim device. Moreover, to put battery-powered devices back into operation, their batteries have to be replaced. This is tedious and may even be infeasible, e.g., if a battery-powered device is deployed at an inaccessible location. While the research community came up with numerous defenses against denial-of-sleep attacks, most present-day IoT protocols include no denial-of-sleep defenses at all, presumably due to a lack of awareness and unsolved integration problems. After all, despite there are many denial-of-sleep defenses, effective defenses against certain kinds of denial-of-sleep attacks are yet to be found. The overall contribution of this dissertation is to propose a denial-of-sleep-resilient medium access control (MAC) layer for IoT devices that communicate over IEEE 802.15.4 links. Internally, our MAC layer comprises two main components. The first main component is a denial-of-sleep-resilient protocol for establishing session keys among neighboring IEEE 802.15.4 nodes. The established session keys serve the dual purpose of implementing (i) basic wireless security and (ii) complementary denial-of-sleep defenses that belong to the second main component. The second main component is a denial-of-sleep-resilient MAC protocol. Notably, this MAC protocol not only incorporates novel denial-of-sleep defenses, but also state-of-the-art mechanisms for achieving low energy consumption, high throughput, and high delivery ratios. Altogether, our MAC layer resists, or at least greatly mitigates, all denial-of-sleep attacks against it we are aware of. Furthermore, our MAC layer is self-contained and thus can act as a drop-in replacement for IEEE 802.15.4-compliant MAC layers. In fact, we implemented our MAC layer in the Contiki-NG operating system, where it seamlessly integrates into an existing protocol stack. N2 - Mit dem Aufkommen des Internets der Dinge (IoT), werden immer mehr batteriebetriebene und energieerntende Geräte in diversen Anwendungsbereichen eingesetzt, etwa in der Heimautomatisierung, Präzisionslandwirtschaft, Industrieautomatisierung oder intelligenten Stadt. In diesem Kontext stellen sogenannte Denial-of-Sleep-Angriffe eine immer kritischer werdende Bedrohung dar. Solche Angriffe halten batteriebetriebene, energieerntende oder anderweitig energiebeschränkte Geräte zeitweise oder chronisch ab, in energiesparende Schlafmodi überzugehen. Erfolgreiche Denial-of-Sleep-Angriffe führen zumindest zu einer langen Ausfallzeit der betroffenen Geräte. Um betroffene batteriebetriebene Geräte wieder in Betrieb zu nehmen, müssen zudem deren Batterien gewechselt werden. Dies ist mühsam oder eventuell sogar unmöglich, z.B. wenn solche Geräte an unzugänglichen Orten installiert sind. Obwohl die Forschungsgemeinschaft bereits viele Denial-of-Sleep-Abwehrmechanismen vorgeschlagen hat, besitzen die meisten aktuellen IoT-Protokolle überhaupt keine Denial-of-Sleep-Abwehrmechanismen. Dies kann zum einen daran liegen, dass man des Problems noch nicht gewahr ist, aber zum anderen auch daran, dass viele Integrationsfragen bislang ungeklärt sind. Des Weiteren existieren bisher sowieso noch keine effektiven Abwehrmechanismen gegen bestimmte Denial-of-Sleep-Angriffe. Der Hauptbeitrag dieser Dissertation ist die Entwicklung einer Denial-of-Sleep-resilienten Mediumzugriffsschicht für IoT-Geräte, die via IEEE-802.15.4-Funkverbindungen kommunizieren. Die entwickelte Mediumzugriffsschicht besitzt zwei Hauptkomponenten. Die erste Hauptkomponente ist ein Denial-of-Sleep-resilientes Protokoll zur Etablierung von Sitzungsschlüsseln zwischen benachbarten IEEE-802.15.4-Knoten. Diese Sitzungsschlüssel dienen einerseits der grundlegenden Absicherung des Funkverkehrs und andererseits der Implementierung zusätzlicher Denial-of-Sleep-Abwehrmechanismen in der zweiten Hauptkomponente. Die zweite Hauptkomponente ist ein Denial-of-Sleep-resilientes Mediumzugriffsprotokoll. Bemerkenswert an diesem Mediumzugriffsprotokoll ist, dass es nicht nur neuartige Denial-of-Sleep-Abwehrmechanismen enthält, sondern auch dem Stand der Technik entsprechende Mechanismen zur Verringerung des Energieverbrauchs, zur Steigerung des Durchsatzes sowie zur Erhöhung der Zuverlässigkeit. Zusammenfassend widersteht bzw. mildert unsere Denial-of-Sleep-resiliente Mediumzugriffsschicht alle uns bekannten Denial-of-Sleep-Angriffe, die gegen sie gefahren werden können. Außerdem kann unsere Denial-of-Sleep-resiliente Mediumzugriffsschicht ohne Weiteres an Stelle von IEEE-802.15.4-konformen Mediumzugriffsschichten eingesetzt werden. Dies zeigen wir durch die nahtlose Integration unserer Mediumzugriffsschicht in den Netzwerk-Stack des Betriebssystems Contiki-NG. KW - medium access control KW - denial of sleep KW - internet of things KW - Mediumzugriffskontrolle KW - Schlafentzugsangriffe KW - Internet der Dinge Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439301 ER - TY - THES A1 - Zapata, Sebastian Henao T1 - Paleozoic to Pliocene evolution of the Andean retroarc between 26 and 28°S: interactions between tectonics, climate, and upper plate architecture T1 - Paläozoische bis pliozäne Entwicklung des andinen Randbeckens zwischen 26 und 28° Süd: Interaktion von Tektonik, Klima und Architektur der kontinentalen Kruste BT - interactions between tectonics, climate, and upper plate architecture N2 - Interactions and feedbacks between tectonics, climate, and upper plate architecture control basin geometry, relief, and depositional systems. The Andes is part of a longlived continental margin characterized by multiple tectonic cycles which have strongly modified the Andean upper plate architecture. In the Andean retroarc, spatiotemporal variations in the structure of the upper plate and tectonic regimes have resulted in marked along-strike variations in basin geometry, stratigraphy, deformational style, and mountain belt morphology. These along-strike variations include high-elevation plateaus (Altiplano and Puna) associated with a thin-skin fold-and-thrust-belt and thick-skin deformation in broken foreland basins such as the Santa Barbara system and the Sierras Pampeanas. At the confluence of the Puna Plateau, the Santa Barbara system and the Sierras Pampeanas, major along-strike changes in upper plate architecture, mountain belt morphology, basement exhumation, and deformation style can be recognized. I have used a source to sink approach to unravel the spatiotemporal tectonic evolution of the Andean retroarc between 26 and 28°S. I obtained a large low-temperature thermochronology data set from basement units which includes apatite fission track, apatite U-Th-Sm/He, and zircon U-Th/He (ZHe) cooling ages. Stratigraphic descriptions of Miocene units were temporally constrained by U-Pb LA-ICP-MS zircon ages from interbedded pyroclastic material. Modeled ZHe ages suggest that the basement of the study area was exhumed during the Famatinian orogeny (550-450 Ma), followed by a period of relative tectonic quiescence during the Paleozoic and the Triassic. The basement experienced horst exhumation during the Cretaceous development of the Salta rift. After initial exhumation, deposition of thick Cretaceous syn-rift strata caused reheating of several basement blocks within the Santa Barbara system. During the Eocene-Oligocene, the Andean compressional setting was responsible for the exhumation of several disconnected basement blocks. These exhumed blocks were separated by areas of low relief, in which humid climate and low erosion rates facilitated the development of etchplains on the crystalline basement. The exhumed basement blocks formed an Eocene to Oligocene broken foreland basin in the back-bulge depozone of the Andean foreland. During the Early Miocene, foreland basin strata filled up the preexisting Paleogene topography. The basement blocks in lower relief positions were reheated; associated geothermal gradients were higher than 25°C/km. Miocene volcanism was responsible for lateral variations on the amount of reheating along the Campo-Arenal basin. Around 12 Ma, a new deformational phase modified the drainage network and fragmented the lacustrine system. As deformation and rock uplift continued, the easily eroded sedimentary cover was efficiently removed and reworked by an ephemeral fluvial system, preventing the development of significant relief. After ~6 Ma, the low erodibility of the basement blocks which began to be exposed caused relief increase, leading to the development of stable fluvial systems. Progressive relief development modified atmospheric circulation, creating a rainfall gradient. After 3 Ma, orographic rainfall and high relief lead to the development of proximal fluvial-gravitational depositional systems in the surrounding basins. N2 - Die Wechselwirkungen zwischen Tektonik, Klima und dem Aufbau der Oberkruste beeinflussen Relief, Beckengeometrien und sedimentäre Systeme. Die geologische Geschichte der Anden ist durch wiederkehrende tektonische Zyklen gekennzeichnet, die nachhaltig den Aufbau der umliegenden Oberkruste geprägt haben. Im Vorlandbecken der Anden (Retro-Arc Typus) führten räumlich und zeitlich variierende strukturgeologische Prozesse in der Oberkruste zu diversen Beckengeometrien, Deformationsvorgängen, sowie stratigraphische und geomorphologische Markern entlang des Streichens des Hochgebirgszuges. Die räumliche Variation beinhaltet unter anderem Hochgebirgsplateaus wie dem Altiplano oder der Puna, die jeweils mit dem thin-skin Aufschiebungsgürtel oder der thick-skin Deformation des zerbrochenen Vorlands im Santa-Barbara-System, bzw. der Sierras Pampeanas assoziiert werden. Besonders am Tripelpunkt zwischen der Puna Plateau, dem Santa-Barbara-System und der Sierras Pampeanas werden deutliche Veränderungen in der Oberkrustenarchitektur, der Oberflächenbeschaffenheit, der dominierenden Deformationsprozesse und der Heraushebung des Grundgebirges ersichtlich. Ich habe einen Quelle-zu-Senke Ansatz genutzt, um die räumliche und zeitliche tektonische Entwicklung der zentralen Ostanden zwischen 26° und 28°S aufzudecken. Dabei habe ich einen umfangreichen Niedertemperaturdatensatz aus Gesteinen des Grundgebirges gewonnen, welche folgende Methoden mit einschließen: Apatit Spaltspur Methode (apatite fission Track, AFT), Apatit U-Th-Sm/He (AHe), und Zirkon U-Th/He (Zhe) Abkühlalter. Für die stratigraphische Besprechung und die exakte Altersbestimmung der Einheiten des Miozäns wurden U-Pb ICP-MS-LA Zirkonalter aus pyroklastisch zwischengelagerten Materialien genutzt. Die modellierten ZHe Altersdatierungen legen den Schluss nahe, dass das Grundgebirge im Untersuchungsgebiet während der Famatinischen Orogenese (vor 550-450 Ma) herausgehoben wurde, woraufhin im Paläozoikum und dem Trias eine Phase von tektonischer Ruhe folgte. Während der Kreide und dem einsetzenden Salta Rift wurde das Grundgebirge in Form von Horststrukturen freigelegt. Nach der ersten Freilegung wurden einige Grundgebirgsblöcke wieder erwärmt durch die rift-parallele Grabenverfüllung im Santa-Barbara-System. Während dem Eozän und dem Oligozän ist der Übergang in ein kompressives Stressregime verantwortlich für die Heraushebung mehrerer losgelöster Grundgebirgszüge. Diese freigelegten Blöcke entstanden zeitgleich wie Gebiete mit flachem Relief, wo feuchtes Klima und geringe Erosionsraten die Herausbildung von „etchplains“ im kristallinem Grundgebirge ermöglichen. Weiterhin durchbrechen diese Gebirgsblöcke das Vorlandbecken, welches sich im Depozentrum des back-bulges der Anden herausgebildet hat. Während des frühen Miozäns füllten Vorlandbeckensedimente die vorher vorhandene paläogene Topographie. Die Grundgebirgsblöcke mit niedrigem Relief wurden wieder erwärmt und wiesen einen Temperaturgradienten von mehr als 25°C/km auf. Der Vulkanismus im Miozän war verantwortlich für laterale Variationen der Intensität der erneuten Erwärmung innerhalb des Campo-Arenal Beckens. Vor etwa 12 Ma modifizierte eine neue Deformationsphase das Abflussnetz und zerstückelte das lakustrische System. Während die Deformation und die Gebirgsbildung anhielt, wurden überlagernde Sedimentschichten einfach erodiert, effizient beseitigt und durch fluviale Prozesse umgelagert, die die weitere Herausbildung von Relief verhinderten. Nach ~6 Ma ermöglichte die geringe Erodierbarkeit des Grundgebirges deren Reliefzunahme, wodurch sich stabile fluviale Systeme herausbildeten. Möglicherweise unterbrach die fortschreitende Reliefzunahme atmosphärische Zirkulationsprozesse, sodass sich laterale Niederschlagsgradienten ausbildeten. Nach 3 Ma führten orographische Niederschlagsbarrieren zu der Entwicklung von nahe liegenden fluvial-gravitationalen Ablagerungssystemen in den umliegenden Becken. KW - climate KW - tectonics KW - Andes KW - inherited structures KW - Klima KW - Tektonik KW - Anden KW - ererbte Strukturen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439036 ER - TY - THES A1 - Sidarenka, Uladzimir T1 - Sentiment analysis of German Twitter T1 - Sentimentanalyse des deutschen Twitters N2 - The immense popularity of online communication services in the last decade has not only upended our lives (with news spreading like wildfire on the Web, presidents announcing their decisions on Twitter, and the outcome of political elections being determined on Facebook) but also dramatically increased the amount of data exchanged on these platforms. Therefore, if we wish to understand the needs of modern society better and want to protect it from new threats, we urgently need more robust, higher-quality natural language processing (NLP) applications that can recognize such necessities and menaces automatically, by analyzing uncensored texts. Unfortunately, most NLP programs today have been created for standard language, as we know it from newspapers, or, in the best case, adapted to the specifics of English social media. This thesis reduces the existing deficit by entering the new frontier of German online communication and addressing one of its most prolific forms—users’ conversations on Twitter. In particular, it explores the ways and means by how people express their opinions on this service, examines current approaches to automatic mining of these feelings, and proposes novel methods, which outperform state-of-the-art techniques. For this purpose, I introduce a new corpus of German tweets that have been manually annotated with sentiments, their targets and holders, as well as lexical polarity items and their contextual modifiers. Using these data, I explore four major areas of sentiment research: (i) generation of sentiment lexicons, (ii) fine-grained opinion mining, (iii) message-level polarity classification, and (iv) discourse-aware sentiment analysis. In the first task, I compare three popular groups of lexicon generation methods: dictionary-, corpus-, and word-embedding–based ones, finding that dictionary-based systems generally yield better polarity lists than the last two groups. Apart from this, I propose a linear projection algorithm, whose results surpass many existing automatically-generated lexicons. Afterwords, in the second task, I examine two common approaches to automatic prediction of sentiment spans, their sources, and targets: conditional random fields (CRFs) and recurrent neural networks, obtaining higher scores with the former model and improving these results even further by redefining the structure of CRF graphs. When dealing with message-level polarity classification, I juxtapose three major sentiment paradigms: lexicon-, machine-learning–, and deep-learning–based systems, and try to unite the first and last of these method groups by introducing a bidirectional neural network with lexicon-based attention. Finally, in order to make the new classifier aware of microblogs' discourse structure, I let it separately analyze the elementary discourse units of each tweet and infer the overall polarity of a message from the scores of its EDUs with the help of two new approaches: latent-marginalized CRFs and Recursive Dirichlet Process. N2 - Die enorme Popularität von Online-Kommunikationsdiensten in den letzten Jahrzehnten hat nicht unser Leben massiv geändert (sodass Nachrichten sich wie Fegefeuer übers Internet ausbreiten, Präsidenten ihre Entscheidungen auf Twitter ankündigen, und Ergebnisse politischer Wahlen auf Facebook entschieden werden) sondern auch zu einem dramatischen Anstieg der Datenmenge geführt, die über solche Plattformen ausgetauscht werden. Deswegen braucht man heutzutage dringend zuverlässige, qualitätvolle NLP-Programme, um neue gesellschaftliche Bedürfnisse und Risiken in unzensierten Nutzernachrichten automatisch erkennen und abschätzen zu können. Leider sind die meisten modernen NLP-Anwendungen entweder auf die Analyse der Standardsprache (wie wir sie aus Zeitungstexten kennen) ausgerichtet oder im besten Fall an die Spezifika englischer Social Media angepasst. Diese Dissertation reduziert den bestehenden Rückstand, indem sie das "Neuland" der deutschen Online-Kommunikation betritt und sich einer seiner produktivsten Formen zuwendet—den User-Diskussionen auf Twitter. Diese Arbeit erforscht insbesondere die Art und Weise, wie Leute ihre Meinungen auf diesem Online-Service äußern, analysiert existierende Verfahren zur automatischen Erkennung ihrer Gefühle und schlägt neue Verfahren vor, die viele heutige State-of-the-Art-Systeme übertreffen. Zu diesem Zweck stelle ich ein neues Korpus deutscher Tweets vor, die manuell von zwei menschlichen Experten mit Sentimenten (polaren Meinungen), ihren Quellen (sources) und Zielen (targets) sowie lexikalischen polaren Termen und deren kontextuellen Modifizierern annotiert wurden. Mithilfe dieser Daten untersuche ich vier große Teilgebiete der Sentimentanalyse: (i) automatische Generierung von Sentiment-Lexika, (ii) aspekt-basiertes Opinion-Mining, (iii) Klassifizierung der Polarität von ganzen Nachrichten und (iv) diskurs-bewusste Sentimentanalyse. In der ersten Aufgabe vergleiche ich drei populäre Gruppen von Lexikongenerierungsmethoden: wörterbuch-, corpus- und word-embedding-basierte Verfahren, und komme zu dem Schluss, dass wörterbuch-basierte Ansätze generell bessere Polaritätslexika liefern als die letzten zwei Gruppen. Abgesehen davon, schlage ich einen neuen Linearprojektionsalgorithmus vor, dessen Resultate deutlich besser als viele automatisch generierte Polaritätslisten sind. Weiterhin, in der zweiten Aufgabe, untersuche ich zwei gängige Herangehensweisen an die automatische Erkennung der Textspannen von Sentimenten, Sources und Targets: Conditional Random Fields (CRFs) und rekurrente neuronale Netzwerke. Ich erziele bessere Ergebnisse mit der ersten Methode und verbessere diese Werte noch weiter durch alternative Topologien der CRF-Graphen. Bei der Analyse der Nachrichtenpolarität stelle ich drei große Sentiment-Paradigmen gegenüber: lexikon-, Machine-Learning–, und Deep-Learning–basierte Systeme, und versuche die erste und die letzte dieser Gruppen in einem Verfahren zu vereinigen, indem ich eine neue neuronale Netzwerkarchitektur vorschlage: bidirektionales rekurrentes Netzwerk mit lexikon-basierter Attention (LBA). Im letzten Kapitel unternehme ich einen Versuch, die Prädiktion der Gesamtpolarität von Tweets über die Diskursstruktur der Nachrichten zu informieren. Zu diesem Zweck wende ich den vorgeschlagenen LBA-Klassifikator separat auf jede einzelne elementare Diskurs-Einheit (EDU) eines Microblogs an und induziere die allgemeine semantische Ausrichtung dieser Nachricht mithilfe von zwei neuen Methoden: latenten marginalisierten CRFs und rekursivem Dirichlet-Prozess. KW - sentiment analysis KW - opinion mining KW - social media KW - Twitter KW - natural language processing KW - discourse analysis KW - NLP KW - computational linguistics KW - machine learning KW - Sentimentanalyse KW - Computerlinguistik KW - Meinungsforschung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437422 ER - TY - THES A1 - Marimon Tarter, Mireia T1 - Word segmentation in German-learning infants and German-speaking adults T1 - Wortsegmentierung bei deutschsprachigen Kindern und Erwachsenen BT - prosodic and statistical cues BT - prosodische und statitistische Hinweisreize N2 - There is evidence that infants start extracting words from fluent speech around 7.5 months of age (e.g., Jusczyk & Aslin, 1995) and that they use at least two mechanisms to segment words forms from fluent speech: prosodic information (e.g., Jusczyk, Cutler & Redanz, 1993) and statistical information (e.g., Saffran, Aslin & Newport, 1996). However, how these two mechanisms interact and whether they change during development is still not fully understood. The main aim of the present work is to understand in what way different cues to word segmentation are exploited by infants when learning the language in their environment, as well as to explore whether this ability is related to later language skills. In Chapter 3 we pursued to determine the reliability of the method used in most of the experiments in the present thesis (the Headturn Preference Procedure), as well as to examine correlations and individual differences between infants’ performance and later language outcomes. In Chapter 4 we investigated how German-speaking adults weigh statistical and prosodic information for word segmentation. We familiarized adults with an auditory string in which statistical and prosodic information indicated different word boundaries and obtained both behavioral and pupillometry responses. Then, we conducted further experiments to understand in what way different cues to word segmentation are exploited by 9-month-old German-learning infants (Chapter 5) and by 6-month-old German-learning infants (Chapter 6). In addition, we conducted follow-up questionnaires with the infants and obtained language outcomes at later stages of development. Our findings from this thesis revealed that (1) German-speaking adults show a strong weight of prosodic cues, at least for the materials used in this study and that (2) German-learning infants weight these two kind of cues differently depending on age and/or language experience. We observed that, unlike English-learning infants, 6-month-old infants relied more strongly on prosodic cues. Nine-month-olds do not show any preference for either of the cues in the word segmentation task. From the present results it remains unclear whether the ability to use prosodic cues to word segmentation relates to later language vocabulary. We speculate that prosody provides infants with their first window into the specific acoustic regularities in the signal, which enables them to master the specific stress pattern of German rapidly. Our findings are a step forwards in the understanding of an early impact of the native prosody compared to statistical learning in early word segmentation. N2 - Es gibt Beweise, dass Babys im Alter um 7.5 Monate anfangen, Wörter aus flüssiger Sprache zu extrahieren (z.B., Jusczyk & Aslin, 1995), dabei werden mindestens zwei Mechanismen angewandt, um Wörter aus dem Sprachfluss zu segmentieren: prosodische Information (z.B. Jusczyk, Cutler & Redanz, 1993) und statistische Information (z.B., Saffran, Aslin & Newport, 1996). Aber wie diese zwei Mechanismen zusammenwirken und ob sie sich während der Entwicklung verändern, wurde noch nicht vollständig geklärt. Das Hauptziel dieser Dissertation ist es zu verstehen, inwiefern sich Kleinkinder die verschiedenen Hinweisreize für die Segmentierung von Wörtern erschließen, wenn sie die Sprache ihres Umfelds lernen, sowie ob diese Fähigkeit in Verbindung mit späteren Sprachfähigkeiten steht. In Kapitel 3 wurde die Zuverlässigkeit der in dieser Dissertation benutzten Methode (the Headturn Preference Procedure) eruiert, sowie die Korrelationen und individuellen Differenzen zwischen den Ergebnissen einzelner Babys und späteren Sprachfähigkeiten untersucht. Im Kapitel 4 wurde untersucht, wie deutschsprachige Erwachsene auf statistische und prosodische Informationen für Wortsegmentierung reagieren. Wir haben Erwachsene mit einer akustischen Sequenz familiarisiert, bei der die statistischen und prosodischen Informationen verschiedene Wortgrenzen anzeigen, und Verhaltens- und Pupillometriedaten erhoben. Anschließend haben wir weitere Experimente durchgeführt, um zu verstehen, wie verschiedene Hinweisreize von 9-Monate (Kapitel 5) und 6-Monate alten deutschsprachigen Säuglingen (Kapitel 6) aufgenommen werden. Außerdem haben wir nach den Versuchen mit Fragebögen Daten über die Sprachfähigkeiten in späteren Entwicklungsstadien gesammelt. Unsere Ergebnisse lassen darauf schließen, dass (1) deutschsprachige Erwachsene eine hohe Gewichtung der prosodischen Hinweisreize zeigen, zumindest bei dem für die Studie genutzten akustischen Material, und dass (2) bei deutschsprachigen Babys in Abhängigkeit von Alter und/oder Spracherfahrung diese zwei Hinweisreize unterschiedlich gewichtet werden. Wir stellen fest, dass sich 6-Monate alte deutschsprachige Babys stärker auf die prosodichen Hinweisreize verlassen haben als die englischsprachigen Babys. Neun Monate alte Babys haben bei der Wortsegmentierung der Audiosequenz gescheitert und haben keine Vorliebe für einen der beiden Hinweisreize gezeigt. Mit den momentanen Ergebnissen bleibt weiterhin unklar, ob die Fähigkeit, prosodische Hinweisreize für die Wortsegmentierung zu nutzen, in Verbindung mit der späteren Weiterentwicklung des Wortschatzes steht. Wir vermuten, dass Prosodie den Babys einen ersten Einblick in die spezifischen akustischen Regelmäßigkeiten des Signals verschafft, was ihnen dabei hilft, das Betonungsmuster der deutsche Sprache schnell zu erlernen. Unsere Ergebnisse sind ein weiterer Schritt vorwärts was das Verständnis eines frühen Einflusses von muttersprachlicher Prosodie im Vergleich zu statistischem Erlernen in der frühen Wortsegmentierung betrifft. KW - word segmentation KW - prosody KW - statistical learning KW - Wortsegmentierung KW - Prosodie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437400 ER - TY - THES A1 - Lozada Gobilard, Sissi Donna T1 - From genes to communities: Assessing plant diversity and connectivity in kettle holes as metaecosystems in agricultural landscapes T1 - Von Genen zu Gemeinschaften: Bewertung der Pflanzenvielfalt und Konnektivität in Söllen als Metaökosystem in Agrarlandschaften N2 - Species assembly from a regional pool into local metacommunities and how they colonize and coexist over time and space is essential to understand how communities response to their environment including abiotic and biotic factors. In highly disturbed landscapes, connectivity of isolated habitat patches is essential to maintain biodiversity and the entire ecosystem functioning. In northeast Germany, a high density of the small water bodies called kettle holes, are good systems to study metacommunities due to their condition as “aquatic islands” suitable for hygrophilous species that are surrounded by in unsuitable matrix of crop fields. The main objective of this thesis was to infer the main ecological processes shaping plant communities and their response to the environment, from biodiversity patterns and key life-history traits involved in connectivity using ecological and genetic approaches; and to provide first insights of the role of kettle holes harboring wild-bee species as important mobile linkers connecting plant communities in this insular system. t a community level, I compared plant diversity patterns and trait composition in ephemeral vs. permanent kettle holes). My results showed that types of kettle holes act as environmental filers shaping plant diversity, community-composition and trait-distribution, suggesting species sorting and niche processes in both types of kettle holes. At a population level, I further analyzed the role of dispersal and reproductive strategies of four selected species occurring in permanent kettle holes. Using microsatellites, I found that breeding system (degree of clonality), is the main factor shaping genetic diversity and genetic divergence. Although, higher gene flow and lower genetic differentiation among populations in wind vs. insect pollinated species was also found, suggesting that dispersal mechanisms played a role related to gene flow and connectivity. For most flowering plants, pollinators play an important role connecting communities. Therefore, as a first insight of the potential mobile linkers of these plant communities, I investigated the diversity wild-bees occurring in these kettle holes. My main results showed that local habitat quality (flower resources) had a positive effect on bee diversity, while habitat heterogeneity (number of natural landscape elements surrounding kettle holes 100–300m), was negatively correlated. This thesis covers from genetic flow at individual and population level to plant community assembly. My results showed how patterns of biodiversity, dispersal and reproduction strategies in plant population and communities can be used to infer ecological processes. In addition, I showed the importance of life-history traits and the relationship between species and their abiotic and biotic interactions. Furthermore, I included a different level of mobile linkers (pollinators) for a better understanding of another level of the system. This integration is essential to understand how communities respond to their surrounding environment and how disturbances such as agriculture, land-use and climate change might affect them. I highlight the need to integrate many scientific areas covering from genes to ecosystems at different spatiotemporal scales for a better understanding, management and conservation of our ecosystems. N2 - Die Zusammenstellung regionaler Artgemeinschaften in eine lokale Metagemeinschaft ist essentiell für das Verständnis artspezifischer Reaktionen auf ihre biotische und abiotische Umwelt als auch, wie sie diese in zeitlichem und räumichem Umfang besiedeln und koexistieren. In fragmentierten Landschaften ist die Verknüpfung isolierter Habitate (Konnektivität) nötig, um die Biodiversität und Funktionalität von Ökosystemen aufrecht zu erhalten. Der Nordosten Deutschlands ist durch eine hohe Dichte von Kleinstgewässern, die solch isolierte Habitate darstellen, charakterisiert. In einer Matrix aus Agrarfeldern dienen diese sogenannten Sölle aquatischen Arten als „Habitatsinsel“. Aufgrund dieser Landschaftsstruktur stellen sie ein geeignetes Untersuchungsgebiet für Metagemeinschaften dar. Das Ziel diser Arbeit ist es ökologische Prozesse zu untersuchen, die zur Vegetationszusammensetzung und deren Reaktion auf sich ändernde Umweltbedingungen führen. Mittels ökologscher und genetischer Methoden wird dies auf der Grundlage von Biodiversitätsmustern und Lebenszyklusmerkmalen untersucht, die in die Konnektivität involviert sind. Auf Pflanzengemeinschaftsebene wurden Diversitätsmuster und Merkmalszusammensetzungen in ephemeren und permanenten Söllen verglichen. Die Ergebnisse zeigen, dass die unterschiedlichen Typen von Söllen als Umweltfilter agieren, die die pflanzliche Artenvielfalt, Gemeinschaftszusammensetzung und Merkmalsverteilung beeinflussen. Dies führt zu der Schlussfolgerung, dass „Species-sorting“ und Prozesse der Nichenbildung in beiden Typen von Söllen vorkommen. Auf Populationsebene wird der Ausbreitungsmeachnismus sowie die Reproduktionsstrategie vier verschiedener Pflanzenarten untersucht. Durch Mikrosatellitenanalysen wird gezeigt, dass der Grad der Klonalität den größten Einfluss auf die genetischen Diversität und den Genfluss hat. Zusätzlich weisen molekulare Analysen auf ein geringes Maß an genetischen Unterschieden zwischen Populationen windbestäubter Arten im Vergleich zu insektenbestäubter Arten hin. Dies bedeutet, dass der Ausbreitungsmechanismus einer Art einen grundlegenden Einfluss auf den Genfluss und die Konnektivität von Populationen hat. Für viele blühende Pflanzen, spielen Bestäuber, wie Wildbienen, eine wesentliche Rolle bei der Vernetzung isolierter Habitate. Um das Potential dieser mobilen Linker zu untersuchen, wird die Wildbienendiversität verschiedener Sölle analysiert. Dadurch konnte gezeigt werden, dass die lokale Habitatsqualität (Blütenressourcen) einen positiven Effekt auf die Artenvielfalt hat, während die Habitatsheterogenität (Anzahl von natürlichen Landschaftselementen in unmittelbarer Nähe) eine negative Korrelation aufweist. Diese Ergebnisse unterstreichen die Bedeutung von Wildbienenpopulationen als mobile Linker zwischen isolierten Habitaten. Die Ergebnisse dieser Arbeit zeigen, wie durch Biodiversitätsmuster, Verbreitungs- und Reproduktionsstrategien pflanzlicher Gemeinschaften auf ökologische Prozesse rückgeschlossen werden kann. Des Weiteren ist die Wichtigkeit der Lebenszyklusmerkmale zwischen Arten und deren Umweltinteraktionen verdeutlicht. Die Berücksichtigung mobiler Linker (Bestäuber) ermöglicht eine zusätzliche Betrachtungsebene. Durch diese Arbeit wird die Notwendigkeit hervorgehoben, verschiedene wissenschaftliche Bereiche, wie Genetik und Ökologie, zu vereinen, um ein allumfassendes Verständnis unserer Ökosysteme zu erlangen und somit zu ihrem Schutz beizutragen. KW - connectivity KW - Konnektivität KW - plant diversity KW - Pflanzendiversitaet Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437684 ER - TY - THES A1 - Brase, Alexa Kristin T1 - Spiele um Studium und Lehre? Zur mikropolitischen Nutzung von Qualitätsmanagementsystemen an Hochschulen in Deutschland T1 - About the micropolitical use of quality management systems in German higher education N2 - Die Wissenschaftsfreiheit ist ein Grundrecht, dessen Sinn und Auslegung im Rahmen von Reformen des Hochschulsystems nicht nur der Justiz, sondern auch der Wissenschaft selbst immer wieder Anlass zur Diskussion geben, so auch im Zuge der Einführung des so genannten Qualitätsmanagements von Studium und Lehre an deutschen Hochschulen. Die vorliegende Dissertationsschrift stellt die Ergebnisse einer empirischen Studie vor, die mit einer soziologischen Betrachtung des Qualitätsmanagements unterschiedlicher Hochschulen zu dieser Diskussion beiträgt. Auf Grundlage der Prämisse, dass Verlauf und Folgen einer organisationalen Innovation nur verstanden werden können, wenn der alltägliche Umgang der Organisationsmitglieder mit den neuen Strukturen und Prozessen in die Analyse einbezogen wird, geht die Studie von der Frage aus, wie Akteurinnen und Akteure an deutschen Hochschulen die Qualitätsmanagementsysteme ihrer Organisationen nutzen. Die qualitative inhaltsanalytische Auswertung von 26 Leitfaden-Interviews mit Prorektorinnen und -rektoren, Qualitätsmanagement-Personal und Studiendekaninnen und -dekanen an neun Hochschulen ergibt, dass die Strategien der Akteursgruppen an den Hochschulen im Zusammenspiel mit strukturellen Aspekten unterschiedliche Dynamiken entstehen lassen, mit denen Implikationen für die Lehrfreiheit verbunden sind: Während die Autonomie der Lehrenden durch das Qualitätsmanagement an einigen Hochschulen unterstützt wird, sind sowohl Autonomie als auch Verantwortung für Studium und Lehre an anderen Hochschulen Gegenstand andauernder Konflikte, die auch das Qualitätsmanagement einschließen. N2 - The meaning and interpretation of academic freedom in the context of higher education reforms in Germany create legal disputes as well as discussions within higher education itself. The introduction of quality management for study programs and teaching at German universities is one of the current topics related to these discussions. This dissertation contributes to them by presenting the results of an empirical study on different universities’ quality management systems. The study is based on the premise that the course and consequences of an organisational innovation can only be understood by including the day-to-day work of the organisation’s members with the new structures and processes in the analysis. It starts, therefore, with the question: How do actors at German universities use the quality management systems of their organisations? Twenty-six interviews were conducted with vice-rectors, quality management staff and deans of studies at nine universities. A qualitative content analysis shows that the strategies of the different groups of actors create different dynamics in interaction with structural characteristics. There are implications for academic freedom associated with this: At some universities, the autonomy of university teachers is supported by quality management, while at other universities, both autonomy and responsibility for study programs and teaching are the subject of ongoing conflicts also involving quality management. KW - Hochschulen KW - Qualitätsmanagement KW - Mikropolitik KW - higher education KW - quality management KW - micropolitics Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437377 ER - TY - THES A1 - Numberger, Daniela T1 - Urban wastewater and lakes as habitats for bacteria and potential vectors for pathogens T1 - Urbane Abwässer und Seen als Habitat für Bakterien und potentielle Vektoren für Krankheitserreger N2 - Wasser ist lebensnotwendig und somit eine essentielle Ressource. Jedoch sind unsere Süßwasser-Ressourcen begrenzt und ihre Erhaltung daher besonders wichtig. Verschmutzungen mit Chemikalien und Krankheitserregern, die mit einer wachsenden Bevölkerung und Urbanisierung einhergehen, verschlechtern die Qualität unseres Süßwassers. Außerdem kann Wasser als Übertragungsvektor für Krankheitserreger dienen und daher wasserbürtige Krankheiten verursachen. Der Leibniz-Forschungsverbund INFECTIONS‘21 untersuchte innerhalb der interdisziplinären Forschungsgruppe III - „Wasser", Gewässer als zentralen Mittelpunkt für Krankheiterreger. Dabei konzentrierte man sich auf Clostridioides difficile sowie aviäre Influenza A-Viren, von denen angenommen wird, dass sie in die Gewässer ausgeschieden werden. Ein weiteres Ziel bestand darin, die bakterielle Gemeinschaften eines Klärwerkes der deutschen Hauptstadt Berlin zu charakterisieren, um anschließend eine Bewertung des potentiellen Gesundheitsrisikos geben zu können. Bakterielle Gemeinschaften des Roh- und Klarwassers aus dem Klärwerk unterschieden sich signifikant voneinander. Der Anteil an Darm-/Fäkalbakterien war relativ niedrig und potentielle Darmpathogene wurden größtenteils aus dem Rohwasser entfernt. Ein potentielles Gesundheitsrisiko konnte allerdings von potentiell pathogenen Legionellen wie L. lytica festgestellt werden, deren relative Abundanz im Klarwasser höher war als im Rohwasser. Es wurden außerdem drei C. difficile-Isolate aus den Klärwerk-Rohwasser und einem städtischen Badesee in Berlin (Weisser See) gewonnen und sequenziert. Die beiden Isolate aus dem Klärwerk tragen keine Toxin-Gene, wohingegen das Isolat aus dem See Toxin-Gene besitzt. Alle drei Isolate sind sehr nah mit humanen Stämmen verwandt. Dies deutet auf ein potentielles, wenn auch sporadisches Gesundheitsrisiko hin. (Aviäre) Influenza A-Viren wurden in 38.8% der untersuchten Sedimentproben mittels PCR detektiert, aber die Virusisolierung schlug fehl. Ein Experiment mit beimpften Wasser- und Sedimentproben zeigte, dass für die Isolierung aus Sedimentproben eine relativ hohe Viruskonzentration nötig ist. In Wasserproben ist jedoch ein niedriger Titer an Influenza A-Viren ausreichend, um eine Infektion auszulösen. Es konnte zudem auch festgestellt werden, dass sich „Madin-Darby Canine Kidney (MDCK)―-Zellkulturen im Gegensatz zu embryonierten Hühnereiern besser eignen, um Influenza A-Viren aus Sediment zu isolieren. Zusammenfassend lässt sich sagen, dass diese Arbeit mögliche Gesundheitsrisiken aufgedeckt hat, wie etwa durch Legionellen im untersuchten Berliner Klärwerk, deren relative Abundanz in geklärtem Abwasser höher ist als im Rohwasser. Desweiteren wird indiziert, dass Abwasser und Gewässer als Reservoir und Vektor für pathogene Organismen dienen können, selbst für nicht-typische Wasser-Pathogene wie C. difficile. N2 - Water is essential to life and thus, an essential resource. However, freshwater resources are limited and their maintenance is crucial. Pollution with chemicals and pathogens through urbanization and a growing population impair the quality of freshwater. Furthermore, water can serve as vector for the transmission of pathogens resulting in water-borne illness. The Interdisciplinary Research Group III – "Water" of the Leibniz alliance project INFECTIONS‘21 investigated water as a hub for pathogens focusing on Clostridioides difficile and avian influenza A viruses that may be shed into the water. Another aim of this study was to characterize the bacterial communities in a wastewater treatment plant (WWTP) of the capital Berlin, Germany to further assess potential health risks associated with wastewater management practices. Bacterial communities of WWTP inflow and effluent differed significantly. The proportion of fecal/enteric bacteria was relatively low and OTUs related to potential enteric pathogens were largely removed from inflow to effluent. However, a health risk might exist as an increased relative abundance of potential pathogenic Legionella spp. such as L. lytica was observed. Three Clostridioides difficile isolates from wastewater inflow and an urban bathing lake in Berlin (‗Weisser See‘) were obtained and sequenced. The two isolates from the wastewater did not carry toxin genes, whereas the isolate from the lake was positive for the toxin genes. All three isolates were closely related to human strains. This indicates a potential, but rather sporadic health risk. Avian influenza A viruses were detected in 38.8% of sediment samples by PCR, but virus isolation failed. An experiment with inoculated freshwater and sediment samples showed that virus isolation from sediment requires relatively high virus concentrations and worked much better in Madin-Darby Canine Kidney (MDCK) cell cultures than in embryonated chicken eggs, but low titre of influenza contamination in freshwater samples was sufficient to recover virus. In conclusion, this work revealed potential health risks coming from bacterial groups with pathogenic potential such as Legionella spp. whose relative abundance is higher in the released effluent than in the inflow of the investigated WWTP. It further indicates that water bodies such as wastewater and lake sediments can serve as reservoir and vector, even for non-typical water-borne or water-transmitted pathogens such as C. difficile. KW - water KW - Wasser KW - bacteria KW - Bakterien KW - influenza A viruses KW - Influenza A Viren KW - pathogens KW - Krankheitserreger Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437095 ER - TY - THES A1 - Thater, Sabine T1 - The interplay between supermassive black holes and their host galaxies T1 - Das Zusammenspiel zwischen supermassereichen Schwarzen Löchern und ihren Muttergalaxien N2 - Supermassive black holes reside in the hearts of almost all massive galaxies. Their evolutionary path seems to be strongly linked to the evolution of their host galaxies, as implied by several empirical relations between the black hole mass (M BH ) and different host galaxy properties. The physical driver of this co-evolution is, however, still not understood. More mass measurements over homogeneous samples and a detailed understanding of systematic uncertainties are required to fathom the origin of the scaling relations. In this thesis, I present the mass estimations of supermassive black holes in the nuclei of one late-type and thirteen early-type galaxies. Our SMASHING sample extends from the intermediate to the massive galaxy mass regime and was selected to fill in gaps in number of galaxies along the scaling relations. All galaxies were observed at high spatial resolution, making use of the adaptive-optics mode of integral field unit (IFU) instruments on state-of-the-art telescopes (SINFONI, NIFS, MUSE). I extracted the stellar kinematics from these observations and constructed dynamical Jeans and Schwarzschild models to estimate the mass of the central black holes robustly. My new mass estimates increase the number of early-type galaxies with measured black hole masses by 15%. The seven measured galaxies with nuclear light deficits (’cores’) augment the sample of cored galaxies with measured black holes by 40%. Next to determining massive black hole masses, evaluating the accuracy of black hole masses is crucial for understanding the intrinsic scatter of the black hole- host galaxy scaling relations. I tested various sources of systematic uncertainty on my derived mass estimates. The M BH estimate of the single late-type galaxy of the sample yielded an upper limit, which I could constrain very robustly. I tested the effects of dust, mass-to-light ratio (M/L) variation, and dark matter on my measured M BH . Based on these tests, the typically assumed constant M/L ratio can be an adequate assumption to account for the small amounts of dark matter in the center of that galaxy. I also tested the effect of a variable M/L variation on the M BH measurement on a second galaxy. By considering stellar M/L variations in the dynamical modeling, the measured M BH decreased by 30%. In the future, this test should be performed on additional galaxies to learn how an as constant assumed M/L flaws the estimated black hole masses. Based on our upper limit mass measurement, I confirm previous suggestions that resolving the predicted BH sphere-of-influence is not a strict condition to measure black hole masses. Instead, it is only a rough guide for the detection of the black hole if high-quality, and high signal-to-noise IFU data are used for the measurement. About half of our sample consists of massive early-type galaxies which show nuclear surface brightness cores and signs of triaxiality. While these types of galaxies are typically modeled with axisymmetric modeling methods, the effects on M BH are not well studied yet. The massive galaxies of our presented galaxy sample are well suited to test the effect of different stellar dynamical models on the measured black hole mass in evidently triaxial galaxies. I have compared spherical Jeans and axisymmetric Schwarzschild models and will add triaxial Schwarzschild models to this comparison in the future. The constructed Jeans and Schwarzschild models mostly disagree with each other and cannot reproduce many of the triaxial features of the galaxies (e.g., nuclear sub-components, prolate rotation). The consequence of the axisymmetric-triaxial assumption on the accuracy of M BH and its impact on the black hole - host galaxy relation needs to be carefully examined in the future. In the sample of galaxies with published M BH , we find measurements based on different dynamical tracers, requiring different observations, assumptions, and methods. Crucially, different tracers do not always give consistent results. I have used two independent tracers (cold molecular gas and stars) to estimate M BH in a regular galaxy of our sample. While the two estimates are consistent within their errors, the stellar-based measurement is twice as high as the gas-based. Similar trends have also been found in the literature. Therefore, a rigorous test of the systematics associated with the different modeling methods is required in the future. I caution to take the effects of different tracers (and methods) into account when discussing the scaling relations. I conclude this thesis by comparing my galaxy sample with the compilation of galaxies with measured black holes from the literature, also adding six SMASHING galaxies, which were published outside of this thesis. None of the SMASHING galaxies deviates significantly from the literature measurements. Their inclusion to the published early-type galaxies causes a change towards a shallower slope for the M BH - effective velocity dispersion relation, which is mainly driven by the massive galaxies of our sample. More unbiased and homogenous measurements are needed in the future to determine the shape of the relation and understand its physical origin. N2 - Supermassereiche schwarze Löcher befinden sich in den Herzen von fast allen massiven Galaxien. Ihr evolutionärer Werdegang scheint stark mit dem Wachstum ihrer Muttergalaxien in Verbindung zu stehen, wie mehrere empirische Beziehungen zwischen der Masse der schwarzen Löcher (M BH ) und verschiedenen Eigenschaften der Muttergalaxien andeuten. Der physikalische Ursprung dieser Koevolution ist jedoch immer noch nicht verstanden. Weitere Massenmessungen über homogene Galaxienproben und ein detailliertes Verständnis der systematischen Unsicherheiten sind erforderlich, um den Ursprung dieser Skalierungsbeziehungen zu ergründen. In dieser Arbeit präsentiere ich die Massenabschätzungen von Supermassereichen Schwarzen Löchern der Zentren einer Spiral- und dreizehn elliptischer und linsenförmiger Galaxien. Meine SMASHING-Probe erstreckt sich vom mittleren bis zum hohen Galaxienmassenbereich und wurde ausgewählt, um Lücken entlang der Skalierungsbeziehungen zu schließen. Alle Galaxien wurden mit hoher räumlicher Auflösung beobachtet, wobei der adaptivoptische Modus von Integralfeldspektrographen (IFU) modernster Teleskope (SINFONI, NIFS, MUSE) verwendet wurde. Aus diesen Beobachtungen habe ich die Sternenkinematik extrahiert und dynamische Jeans- und Schwarzschildmodelle konstruiert, um die Masse der zentralen Schwarzen Löcher robust zu bestimmen. Meine neuen Massenschätzungen erhöhen die Anzahl elliptischer Galaxien mit vermessenen Schwarzen Löchern um 15%. Die sieben vermessenen Galaxien mit inneren Lichtdefiziten ("Cores") ergänzen die Probe der Core-Galaxien mit gemessenen schwarzen Löchern um 40%. Neben der Bestimmung ist die Beurteilung der Genauigkeit von Schwarzlochmassen entscheidend für das Verständnis der intrinsischen Streuung der Beziehungen zwischen schwarzem Loch und Muttergalaxie. Ich habe meine abgeleiteten Massenabschätzungen auf verschiedene systematische Fehlerquellen getestet. Dabei habe ich Bezug genommen auf die Auswirkungen von Staub, Variation des Masse-Licht-Verhältnisses (M/L), Dunkler Materie, verschiedener dynamischer Modelle und verschiedener dynamischer Tracer. Die Ergebnisse präsentiere ich in dieser Arbeit. Ich schließe diese Arbeit, indem ich meine Galaxienprobe mit der den in der Forschungsliteratur zusammengestellten Galaxien mit bereits vermessenen Schwarzen Löchern vergleiche und auch sechs SMASHING-Galaxien hinzufüge, die außerhalb dieser Arbeit veröffentlicht wurden. Keine der SMASHING-Galaxien weicht signifikant von den veröffentlichten Messungen ab. Eine gemeinsame Analyse meiner Messungen und der veröffentlichten elliptischen Galaxien ergibt eine Abflachung der Steigung für die M BH - effektive Geschwindigkeitsdispersionsbeziehung, die hauptsächlich von den massiven Galaxien meiner Probe bewirkt wird. In Zukunft sind unvoreingenommene und homogenere Messungen erforderlich, um die Form der Skalierungsbeziehung zu bestimmen und ihren physikalischen Ursprung zu verstehen. KW - supermassive black holes KW - galaxy evolution KW - stellar kinematics KW - galaxy dynamics KW - integral field spectroscopy KW - supermassereiche Schwarze Löcher KW - Galaxienentwicklung KW - stellare Kinematik KW - Galaxiendynamik KW - Integralfieldspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437570 ER - TY - THES A1 - Batoulis, Kimon T1 - Sound integration of process and decision models T1 - Korrekte Integration von Prozess- und Entscheidungsmodellen N2 - Business process management is an established technique for business organizations to manage and support their processes. Those processes are typically represented by graphical models designed with modeling languages, such as the Business Process Model and Notation (BPMN). Since process models do not only serve the purpose of documentation but are also a basis for implementation and automation of the processes, they have to satisfy certain correctness requirements. In this regard, the notion of soundness of workflow nets was developed, that can be applied to BPMN process models in order to verify their correctness. Because the original soundness criteria are very restrictive regarding the behavior of the model, different variants of the soundness notion have been developed for situations in which certain violations are not even harmful. All of those notions do only consider the control-flow structure of a process model, however. This poses a problem, taking into account the fact that with the recent release and the ongoing development of the Decision Model and Notation (DMN) standard, an increasing number of process models are complemented by respective decision models. DMN is a dedicated modeling language for decision logic and separates the concerns of process and decision logic into two different models, process and decision models respectively. Hence, this thesis is concerned with the development of decisionaware soundness notions, i.e., notions of soundness that build upon the original soundness ideas for process models, but additionally take into account complementary decision models. Similar to the various notions of workflow net soundness, this thesis investigates different notions of decision soundness that can be applied depending on the desired degree of restrictiveness. Since decision tables are a standardized means of DMN to represent decision logic, this thesis also puts special focus on decision tables, discussing how they can be translated into an unambiguous format and how their possible output values can be efficiently determined. Moreover, a prototypical implementation is described that supports checking a basic version of decision soundness. The decision soundness notions were also empirically evaluated on models from participants of an online course on process and decision modeling as well as from a process management project of a large insurance company. The evaluation demonstrates that violations of decision soundness indeed occur and can be detected with our approach. N2 - Das Prozessmanagement ist eine etablierte Methode für Unternehmen zur Verwaltung und Unterstützung ihrer Geschäftsprozesse. Solche Prozesse werden typischerweise durch graphische Modelle dargestellt, welche mit Modellierungssprachen wie etwa der Business Process Model and Notation (BPMN) erstellt werden. Da Prozessmodelle nicht nur der Dokumentation der Prozesse dienen, sondern auch die Grundlage für deren Implementierung und Automatisierung sind, müssen sie bestimmte Korrektheitsanforderungen erfüllen. In dieser Hinsicht wurde der Begriff der Soundness einesWorkflow-Netzes entwickelt, welcher auch auf BPMN-Prozessmodelle angewendet werden kann, um deren Korrektheit zu prüfen. Da die ursprünglichen Soundness-Kriterien sehr restriktiv bezüglich des Verhaltens des Modells sind, wurden zudem Varianten des Soundness-Begriffs entwickelt. Diese können in Situationen verwendet werden, in denen bestimmte Verletzungen der Kriterien tolerabel sind. Diese Soundness-Begriffe berücksichtigen allerdings ausschließlich den Kontrollfluss der Prozessmodelle. Dies stellt ein Problem dar, weil viele Prozessmodelle heutzutage durch Entscheidungsmodelle ergänzt werden. In diesem Kontext ist die Decision Model and Notation (DMN) eine dedizierte Sprache zur Modellierung von Entscheidungen und unterstüzt die Trennung von Kontrollfluss- und Entscheidungslogik. Die vorliegende Dissertation befasst sich daher mit der Entwicklung von erweiterten Soundness-Begriffen, die sowohl Prozess- als auch Entscheidungsmodelle berücksichtigen. Ähnlich zu den bestehenden Soundness-Varianten, werden in dieser Arbeit Varianten des erweiterten Soundness-Begriffs untersucht, die je nach gewünschtem Restriktionsgrad angewendet werden können. Da Entscheidungstabellen eine in der DMN standadisierte Form sind, um Entscheidungslogik auszudrücken, fokussiert sich diese Arbeit inbesondere auf Entscheidungstabellen. So wird diskutiert wie DMN-Tabellen in ein eindeutiges Format übersetzt werden können und wie sich deren möglichen Rückgabewerte effizient bestimmen lassen. Ferner beschreibt die Arbeit eine prototypische Implementierung, die das Prüfen einer elementaren Variante des erweiterten Soundness-Begriffs erlaubt. Die Begriffe wurden außerdem empirisch evaluiert. Dazu dienten zum einen Modelle von Teilnehmern eines Online-Kurses zur Prozess- und Entscheidungsmodellierung. Zum anderen wurden Modelle eines Versicherungsunternehmens analysiert. Die Evaluierung zeigt, das Verstöße gegen den erweiterten Soundness-Begriff in der Tat auftreten und durch den hier beschriebenen Ansatz erkannt werden können. KW - decision-aware process models KW - soundness KW - decision soundness KW - formal verification KW - entscheidungsbewusste Prozessmodelle KW - Korrektheit KW - Entscheidungskorrektheit KW - formale Verifikation Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437386 ER - TY - THES A1 - Veh, Georg T1 - Outburst floods from moraine-dammed lakes in the Himalayas T1 - Ausbruchsfluten von moränen-gestauten Seen im Himalaya BT - detection, frequency, and hazard BT - Erkennung, Häufigkeit, und Gefährdung N2 - The Himalayas are a region that is most dependent, but also frequently prone to hazards from changing meltwater resources. This mountain belt hosts the highest mountain peaks on earth, has the largest reserve of ice outside the polar regions, and is home to a rapidly growing population in recent decades. One source of hazard has attracted scientific research in particular in the past two decades: glacial lake outburst floods (GLOFs) occurred rarely, but mostly with fatal and catastrophic consequences for downstream communities and infrastructure. Such GLOFs can suddenly release several million cubic meters of water from naturally impounded meltwater lakes. Glacial lakes have grown in number and size by ongoing glacial mass losses in the Himalayas. Theory holds that enhanced meltwater production may increase GLOF frequency, but has never been tested so far. The key challenge to test this notion are the high altitudes of >4000 m, at which lakes occur, making field work impractical. Moreover, flood waves can attenuate rapidly in mountain channels downstream, so that many GLOFs have likely gone unnoticed in past decades. Our knowledge on GLOFs is hence likely biased towards larger, destructive cases, which challenges a detailed quantification of their frequency and their response to atmospheric warming. Robustly quantifying the magnitude and frequency of GLOFs is essential for risk assessment and management along mountain rivers, not least to implement their return periods in building design codes. Motivated by this limited knowledge of GLOF frequency and hazard, I developed an algorithm that efficiently detects GLOFs from satellite images. In essence, this algorithm classifies land cover in 30 years (~1988–2017) of continuously recorded Landsat images over the Himalayas, and calculates likelihoods for rapidly shrinking water bodies in the stack of land cover images. I visually assessed such detected tell-tale sites for sediment fans in the river channel downstream, a second key diagnostic of GLOFs. Rigorous tests and validation with known cases from roughly 10% of the Himalayas suggested that this algorithm is robust against frequent image noise, and hence capable to identify previously unknown GLOFs. Extending the search radius to the entire Himalayan mountain range revealed some 22 newly detected GLOFs. I thus more than doubled the existing GLOF count from 16 previously known cases since 1988, and found a dominant cluster of GLOFs in the Central and Eastern Himalayas (Bhutan and Eastern Nepal), compared to the rarer affected ranges in the North. Yet, the total of 38 GLOFs showed no change in the annual frequency, so that the activity of GLOFs per unit glacial lake area has decreased in the past 30 years. I discussed possible drivers for this finding, but left a further attribution to distinct GLOF-triggering mechanisms open to future research. This updated GLOF frequency was the key input for assessing GLOF hazard for the entire Himalayan mountain belt and several subregions. I used standard definitions in flood hydrology, describing hazard as the annual exceedance probability of a given flood peak discharge [m3 s-1] or larger at the breach location. I coupled the empirical frequency of GLOFs per region to simulations of physically plausible peak discharges from all existing ~5,000 lakes in the Himalayas. Using an extreme-value model, I could hence calculate flood return periods. I found that the contemporary 100-year GLOF discharge (the flood level that is reached or exceeded on average once in 100 years) is 20,600+2,200/–2,300 m3 s-1 for the entire Himalayas. Given the spatial and temporal distribution of historic GLOFs, contemporary GLOF hazard is highest in the Eastern Himalayas, and lower for regions with rarer GLOF abundance. I also calculated GLOF hazard for some 9,500 overdeepenings, which could expose and fill with water, if all Himalayan glaciers have melted eventually. Assuming that the current GLOF rate remains unchanged, the 100-year GLOF discharge could double (41,700+5,500/–4,700 m3 s-1), while the regional GLOF hazard may increase largest in the Karakoram. To conclude, these three stages–from GLOF detection, to analysing their frequency and estimating regional GLOF hazard–provide a framework for modern GLOF hazard assessment. Given the rapidly growing population, infrastructure, and hydropower projects in the Himalayas, this thesis assists in quantifying the purely climate-driven contribution to hazard and risk from GLOFs. N2 - In kaum einer anderen Region treten Abhängigkeit, Nutzen und Gefährdung von Gletscher- und Schneeschmelze so deutlich zu Tage wie im Himalaya. Naturgefahren sind hier allgegenwärtig, wobei eine die Wissenschaftler in den vergangen zwei Jahrzehnten besonders beschäftigte: Ausbrüche von Gletscherseen traten in der Vergangenheit zwar selten, aber meist mit katastrophalen Konsequenzen für die darunterliegenden Berggemeinden auf. Gletscherseeausbrüche (englisches Akronym GLOFs – glacial lake outburst floods) beschreiben den plötzlichen Ausfluss von teils mehreren Millionen Kubikmetern Wasser aus natürlich gedämmten Schmelzwasserseen. Anhaltender Gletscherrückgang in vergangenen Jahrzehnten schuf mehrere tausend Hochgebirgsseen, mit ununterbrochenem Wachstum in Anzahl und Fläche, was den Schluss auf ein möglicherweise vermehrtes Auftreten von GLOFs nahelegte. Diese suggerierte Zunahme von GLOFs konnte jedoch bisher weder getestet noch bestätigt werden, vor allem weil Seen überwiegend jenseits von 4,000 m üNN entstehen, was Feldstudien dort erschwert. Unser Wissen über GLOFs ist daher möglicherweise zu größeren, schadensreichen Ereignissen verschoben, wodurch ihre aktuelle Frequenz, und letztlich auch ihr Zusammenhang mit dem Klimawandel, nur schwer quantifizierbar sind. Mit welcher Wiederkehrrate GLOFs auftreten ist nicht zuletzt entscheidend für Risikoanalyse und -management entlang von Flüssen. Um einer Unterschätzung der tatsächlichen GLOF-Aktivität entgegenzuwirken, entwickelte ich einen Algorithmus, der GLOFs automatisch aus Satellitenbildern detektiert. Der Algorithmus greift auf etwa 30 Jahre kontinuierlich aufgenommene Landsat-Bilder (~1988-2017) zu, und berechnet letztlich die Wahrscheinlichkeit, ob Wasserkörper rasch innerhalb dieser Bildzeitreihe geschrumpft sind. An solchen Stellen suchte ich nach Sedimentverlagerungen im Gerinne flussabwärts, was ein zweites Hauptkriterium für GLOFs ist. Tests und Validierung in etwa 10% des Himalayas bestätigten, dass die Methode robust gegenüber atmosphärischen Störeffekten ist. Mit dem Ziel bisher unbekannte GLOFs zu entdecken, wendete ich daher diesen Algorithmus auf den gesamten Himalaya an. Die Suche ergab 22 neu entdeckte GLOFs, was das bestehende Inventar von 16 bekannten GLOFs seit 1988 mehr als verdoppelte. Das aktualisierte räumliche Verbreitungsmuster bestätigte einmal mehr, dass GLOFs vermehrt im Zentral- und Osthimalaya (Bhutan und Ost-Nepal) auftraten, wohingegen im Norden deutlich weniger GLOFs stattfanden. Entgegen der häufigen Annahme stellte ich jedoch fest, dass die jährliche Häufigkeit von GLOFs in den letzten drei Jahrzehnten konstant blieb. Dadurch hat das Verhältnis von GLOFs pro Einheit See(-fläche) in diesem Zeitraum sogar abgenommen. Dieses räumlich aufgelöste GLOF-Inventar bot nun die Möglichkeit, das Gefährdungspotential durch GLOFs für den gesamten Himalaya und einzelne Regionen zu berechnen. Dafür verwendete ich die in der Hochwasseranalyse gebräuchliche Definition von Gefährdung, welche die jährliche Überschreitungswahrscheinlichkeit einer gewissen Abflussmenge, in diesem Fall des Spitzenabflusses [m3 s-1] am Dammbruch, beschreibt. Das GLOF-Inventar liefert demnach die zeitliche Wahrscheinlichkeit für das Auftreten von GLOFs, während Simulationen von möglichen Spitzenabflüssen für alle heute existierenden ~5,000 Seen im Himalaya die zu erwarteten Magnituden beisteuerten. Mit Extremwertstatistik lässt sich so die mittlere Wiederkehrzeit dieser Spitzenabflüsse errechnen. Ich fand heraus, dass der 100-jährliche Abfluss (die Flutmagnitude, die im Durchschnitt einmal in 100 Jahren erreicht oder überschritten wird) derzeit bei rund 20,600+2,200/–2,300 m³ s-1 für den gesamten Himalaya liegt. Entsprechend der heutigen räumlichen und zeitlichen Verteilung von GLOFs ist die Gefährdung im Osthimalaya am höchsten und in Regionen mit wenig dokumentierten GLOFs vergleichsweise niedrig. Für ein Szenario, in dem der gesamte Himalaya in Zukunft eisfrei sein könnte, errechnete ich zudem das Gefährdungspotential von ~9,500 Übertiefungen unterhalb der heutigen Gletschern, die sich nach deren Abschmelzen mit Wasser füllen könnten. Angenommen, dass die zukünftige GLOF-Rate der heutigen entspricht, könnte der 100-jährliche Abfluss sich mehr als verdoppeln (41,700+5,500/–4,700 m3 s-1), wobei der stärkste regionale Anstieg für den Karakorum zu erwarten wäre. Zusammenfassend formen diese drei Schritte–von der Detektion von GLOFs, über die Bestimmung derer Frequenz, bis zur regionalen Abschätzung von Spitzenabflüssen–das Grundgerüst, das ein moderner Ansatz zur Gefahrenabschätzung von GLOFs benötigt. Angesichts einer wachsenden Exposition von Bevölkerung, Infrastruktur und Wasserkraftanlagen liefert diese Arbeit einen entscheidenden Beitrag, den Anteil des Klimawandels in der Gefährdung und Risiko durch GLOFs zu quantifizieren. KW - GLOF KW - frequency KW - Landsat KW - satellite images KW - classification KW - magnitude KW - Himalaya KW - Karakoram KW - climate change KW - atmospheric warming KW - glacial lakes KW - glaciers KW - meltwater KW - natural hazard KW - GLOF KW - Gletscherseeasubruch KW - Häufigkeit KW - Landsat KW - Satellitenbilder KW - Klassifikation KW - Magnitude KW - Himalaya KW - Karakorum KW - Klimawandel KW - atmosphärische Erwärmung KW - Gletscherseen KW - Gletscher KW - Schmelzwasser KW - Naturgefahr Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436071 ER - TY - THES A1 - Behm, Laura Vera Johanna T1 - Thermoresponsive Zellkultursubstrate für zeitlich-räumlich gesteuertes Auswachsen neuronaler Zellen T1 - Thermoresponsive cell culture substrates for spatio-temporal controlled outgrowth of neuronal cells N2 - Ein wichtiges Ziel der Neurowissenschaften ist das Verständnis der komplexen und zugleich faszinierenden, hochgeordneten Vernetzung der Neurone im Gehirn, welche neuronalen Prozessen, wie zum Beispiel dem Wahrnehmen oder Lernen wie auch Neuropathologien zu Grunde liegt. Für verbesserte neuronale Zellkulturmodelle zur detaillierten Untersuchung dieser Prozesse ist daher die Rekonstruktion von geordneten neuronalen Verbindungen dringend erforderlich. Mit Oberflächenstrukturen aus zellattraktiven und zellabweisenden Beschichtungen können neuronale Zellen und ihre Neuriten in vitro strukturiert werden. Zur Kontrolle der neuronalen Verbindungsrichtung muss das Auswachsen der Axone zu benachbarten Zellen dynamisch gesteuert werden, zum Beispiel über eine veränderliche Zugänglichkeit der Oberfläche. In dieser Arbeit wurde untersucht, ob mit thermoresponsiven Polymeren (TRP) beschichtete Zellkultursubstrate für eine dynamische Kontrolle des Auswachsens neuronaler Zellen geeignet sind. TRP können über die Temperatur von einem zellabweisenden in einen zellattraktiven Zustand geschaltet werden, womit die Zugänglichkeit der Oberfläche für Zellen dynamisch gesteuert werden kann. Die TRP-Beschichtung wurde mikrostrukturiert, um einzelne oder wenige neuronale Zellen zunächst auf der Oberfläche anzuordnen und das Auswachsen der Zellen und Neuriten über definierte TRP-Bereiche in Abhängigkeit der Temperatur zeitlich und räumlich zu kontrollieren. Das Protokoll wurde mit der neuronalen Zelllinie SH-SY5Y etabliert und auf humane induzierte Neurone übertragen. Die Anordnung der Zellen konnte bei Kultivierung im zellabweisenden Zustand des TRPs für bis zu 7 Tage aufrecht erhalten werden. Durch Schalten des TRPs in den zellattraktiven Zustand konnte das Auswachsen der Neuriten und Zellen zeitlich und räumlich induziert werden. Immunozytochemische Färbungen und Patch-Clamp-Ableitungen der Neurone demonstrierten die einfache Anwendbarkeit und Zellkompatibilität der TRP-Substrate. Eine präzisere räumliche Kontrolle des Auswachsens der Zellen sollte durch lokales Schalten der TRP-Beschichtung erreicht werden. Dafür wurden Mikroheizchips mit Mikroelektroden zur lokalen Jouleschen Erwärmung der Substratoberfläche entwickelt. Zur Evaluierung der generierten Temperaturprofile wurde eine Temperaturmessmethode entwickelt und die erhobenen Messwerte mit numerisch simulierten Werten abgeglichen. Die Temperaturmessmethode basiert auf einfach zu applizierenden Sol-Gel-Schichten, die den temperatursensitiven Fluoreszenzfarbstoff Rhodamin B enthalten. Sie ermöglicht oberflächennahe Temperaturmessungen in trockener und wässriger Umgebung mit hoher Orts- und Temperaturauflösung. Numerische Simulationen der Temperaturprofile korrelierten gut mit den experimentellen Daten. Auf dieser Basis konnten Geometrie und Material der Mikroelektroden hinsichtlich einer lokal stark begrenzten Temperierung optimiert werden. Ferner wurden für die Kultvierung der Zellen auf den Mikroheizchips eine Zellkulturkammer und Kontaktboard für die elektrische Kontaktierung der Mikroelektroden geschaffen. Die vorgestellten Ergebnisse demonstrieren erstmalig das enorme Potential thermoresponsiver Zellkultursubstrate für die zeitlich und räumlich gesteuerte Formation geordneter neuronaler Verbindungen in vitro. Zukünftig könnte dies detaillierte Studien zur neuronalen Informationsverarbeitung oder zu Neuropathologien an relevanten, humanen Zellmodellen ermöglichen. N2 - An important goal of neurosciences is to understand the fascinating, complex and highly ordered neuronal circuits of the brain that are underlying important neuronal processes such as learning and memory, as well as neuropathologies. For detailed studies of these processes improved neuronal cell culture models that allow a reconstruction of ordered neuronal connections are crucial. Neuronal cells can be patterned in vitro with structured surface coatings of cell repellent and cell attractive substances. For controlling also the direction of neuronal cell connections the outgrowth of the axons towards neighbouring cells needs to be dynamically controlled, which can be achieved for example by surface structures that can be changed due to switchable surface properties. The main goal of this work was to explore if cell culture substrates with coatings of thermoresponsive polymer (TRP) are suitable for dynamically controlling the outgrowth of neuronal cells. TRPs can be switched via temperature between a cell repellent and a cell attractive state, which enables a dynamic change of surface properties. The TRP coating was microstructured in order to pattern neuronal cells and to spatio-temporally control the outgrowth of cells and neurites across defined TRP-coated areas in dependence of the temperature. The protocol was established with the neuronal cell line SH-SY5Y and transferred to human induced neuronal cells. The cell patterns could be maintained for up to 7 days of cultivation when the TRP was kept in the cell repellent state. By switching the TRP to the cell attractive state the outgrowth of neurites and cells was induced at defined time points and areas. Immunocytochemical staining and patch-clamp recordings of the neurons demonstrated the cell compatibility and easy applicability of these TRP-substrates. A more precise spatial control of the outgrowth of cells should be further achieved by local switching of the TRP-coating. Therefore, microheaters comprising microelectrodes were developed for locally heating the substrate surface. For evaluation of the generated temperature profiles a thermometry method was developed and the values obtained were correlated with numerically simulated data. The thermometry method is based on easily applicable sol-gel-films containing the temperature-sensitive fluorophore Rhodamine B. It allows temperature measurements close to the surface under both dry and liquid conditions with high resolution regarding space (lower µm-range) and temperature (≤ 1°C). Numerical simulations of the temperature profiles correlated well with experimental data. On this basis geometry and material of the microelectrodes were optimized with regard to locally restricted temperature changes. Furthermore, a chip environment for cultivating the cells on the microheater chips was developed comprising a cell culture chamber and a contact board for electrically contacting the microelectrodes. The results presented in this work demonstrate for the first time the great potential of thermoresponsive cell culture substrates for a spatio-temporally controlled formation of neuronal connections in vitro. In future this could facilitate detailed studies of information processing in neuronal networks or of neuropathologies using relevant human neuronal cell models. KW - neuronale Netzwerke KW - Mikrostrukturierung KW - Neuritenwachstum KW - thermoresponsive Polymere KW - Lab-on-a-chip KW - Rhodamin B KW - Thermometrie KW - Mikroheizung KW - Oberflächentemperatur KW - Sol-Gel KW - Zelladhäsionskontrolle KW - neuronal networks KW - microstructures KW - neurite outgrowth KW - thermoresponsive polymers KW - lab-on-a-chip KW - Rhodamine B KW - thermometry KW - microheating KW - surface temperature KW - sol-gel KW - cell adhesion control Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436196 ER - TY - THES A1 - Angwenyi, David T1 - Time-continuous state and parameter estimation with application to hyperbolic SPDEs T1 - Zeitkontinuierliche Zustands- und Parameterschätzung bei Anwendung auf hyperbolische SPDEs N2 - Data assimilation has been an active area of research in recent years, owing to its wide utility. At the core of data assimilation are filtering, prediction, and smoothing procedures. Filtering entails incorporation of measurements' information into the model to gain more insight into a given state governed by a noisy state space model. Most natural laws are governed by time-continuous nonlinear models. For the most part, the knowledge available about a model is incomplete; and hence uncertainties are approximated by means of probabilities. Time-continuous filtering, therefore, holds promise for wider usefulness, for it offers a means of combining noisy measurements with imperfect model to provide more insight on a given state. The solution to time-continuous nonlinear Gaussian filtering problem is provided for by the Kushner-Stratonovich equation. Unfortunately, the Kushner-Stratonovich equation lacks a closed-form solution. Moreover, the numerical approximations based on Taylor expansion above third order are fraught with computational complications. For this reason, numerical methods based on Monte Carlo methods have been resorted to. Chief among these methods are sequential Monte-Carlo methods (or particle filters), for they allow for online assimilation of data. Particle filters are not without challenges: they suffer from particle degeneracy, sample impoverishment, and computational costs arising from resampling. The goal of this thesis is to:— i) Review the derivation of Kushner-Stratonovich equation from first principles and its extant numerical approximation methods, ii) Study the feedback particle filters as a way of avoiding resampling in particle filters, iii) Study joint state and parameter estimation in time-continuous settings, iv) Apply the notions studied to linear hyperbolic stochastic differential equations. The interconnection between Itô integrals and stochastic partial differential equations and those of Stratonovich is introduced in anticipation of feedback particle filters. With these ideas and motivated by the variants of ensemble Kalman-Bucy filters founded on the structure of the innovation process, a feedback particle filter with randomly perturbed innovation is proposed. Moreover, feedback particle filters based on coupling of prediction and analysis measures are proposed. They register a better performance than the bootstrap particle filter at lower ensemble sizes. We study joint state and parameter estimation, both by means of extended state spaces and by use of dual filters. Feedback particle filters seem to perform well in both cases. Finally, we apply joint state and parameter estimation in the advection and wave equation, whose velocity is spatially varying. Two methods are employed: Metropolis Hastings with filter likelihood and a dual filter comprising of Kalman-Bucy filter and ensemble Kalman-Bucy filter. The former performs better than the latter. N2 - Die Datenassimilation war in den letzten Jahren aufgrund ihres breiten Nutzens ein aktives Forschungsgebiet. Im Zentrum der Datenassimilation stehen Filter-, Vorhersage- und Glättungsverfahren. Die Filterung beinhaltet die Einbeziehung von Messinformationen in das Modell, um einen besseren Einblick in einen gegebenen Zustand zu erhalten, der durch ein verrauschtes Zustandsraummodell gesteuert wird. Die meisten Naturgesetze werden von zeitkontinuierlichen nichtlinearen Modellen bestimmt. Das verfügbare Wissen über ein Modell ist größtenteils unvollständig; und daher werden Unsicherheiten mittels Wahrscheinlichkeiten angenähert. Die zeitkontinuierliche Filterung verspricht daher eine größere Nützlichkeit, denn sie bietet die Möglichkeit, verrauschte Messungen mit einem unvollkommenen Modell zu kombinieren, um mehr Einblick in einen bestimmten Zustand zu erhalten. Das Problem der zeitkontinuierlichen nichtlinearen Gaußschen Filterung wird durch die Kushner-Stratonovich-Gleichung gelöst. Leider fehlt der Kushner-Stratonovich-Gleichung eine geschlossene Lösung. Darüber hinaus sind die numerischen Näherungen, die auf der Taylor-Erweiterung über der dritten Ordnung basieren, mit rechnerischen Komplikationen behaftet. Aus diesem Grund wurde auf numerische Methoden zurückgegriffen, die auf Monte-Carlo-Methoden basieren. Die wichtigsten dieser Methoden sind sequentielle Monte-Carlo-Methoden (oder Partikelfilter), da sie die Online-Assimilation von Daten ermöglichen. Partikelfilter sind nicht unproblematisch: Sie leiden unter Partikelentartung, Probenverarmung und Rechenkosten, die sich aus der Neuabtastung ergeben. Das Ziel dieser Arbeit ist es, i) die Ableitung der Kushner-Stratonovich-Gleichung aus den ersten Prinzipien und ihre vorhandenen numerischen Approximationsmethoden zu überprüfen, ii) die Rückkopplungs-Partikelfilter zu untersuchen, um eine Neuabtastung in Partikelfiltern zu vermeiden, iii) Studieren Sie die Zustands- und Parameterschätzung in zeitkontinuierlichen Einstellungen, iv) Wenden Sie die untersuchten Begriffe auf lineare hyperbolische stochastische Differentialgleichungen an. Die Verbindung zwischen Itô Integralen und stochastischen partiellen Differentialgleichungen und denen von Stratonovich wird in Erwartung von Rückkopplungs-Partikelfiltern eingeführt. Mit diesen Ideen und motiviert durch die Varianten von Kalman-Bucy-Filtern, die auf der Struktur des Innovationsprozesses gegründet, wird ein Feedback-Partikelfilter mit zufällig gestörter Innovation vorgeschlagen. Darüber hinaus werden Rückkopplungspartikelfilter basierend auf der Kopplung von Vorhersage- und Analysemaßnahmen vorgeschlagen. Diese Feedback-Partikelfiltern haben eine bessere Leistung als der Bootstrap-Partikelfilter bei niedrigeren Ensemble-Größen. Wir untersuchen gemeinsame Zustands- und Parameterschätzungen, sowohl durch erweiterte Zustandsräume als auch durch Verwendung von Doppelfiltern. Rückkopplungs-Partikelfilter scheinen in beiden Fällen gut zu funktionieren. Schließlich wenden wir eine gemeinsame Zustands- und Parameterschätzung in der Advektions-und Wellengleichung an, deren Geschwindigkeit räumlich variiert. Es werden zwei Verfahren verwendet: Metropolis-Hastings mit Filterwahrscheinlichkeit und ein Doppelfilter bestehend aus Kalman-Bucy-Filter und Ensemble-Kalman-Bucy-Filter. Ersteres schneidet besser ab als letzteres. KW - state estimation KW - filtering KW - parameter estimation KW - Zustandsschätzung KW - Filterung KW - Parameter Schätzung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436542 ER - TY - THES A1 - Noack, Sebastian T1 - Poly(lactide)-based amphiphilic block copolymers T1 - Polylactid-basierte amphiphile Blockcopolymere BT - self-assembly and stereocomplexation in aqueous media BT - Selbstorganisation und Stereokomplexierung in wässrigem Medium N2 - Due to its bioavailability and (bio)degradability, poly(lactide) (PLA) is an interesting polymer that is already being used as packaging material, surgical seam, and drug delivery system. Dependent on various parameters such as polymer composition, amphiphilicity, sample preparation, and the enantiomeric purity of lactide, PLA in an amphiphilic block copolymer can affect the self-assembly behavior dramatically. However, sizes and shapes of aggregates have a critical effect on the interactions between biological and drug delivery systems, where the general understanding of these polymers and their ability to influence self-assembly is of significant interest in science. The first part of this thesis describes the synthesis and study of a series of linear poly(L-lactide) (PLLA) and poly(D-lactide) (PDLA)-based amphiphilic block copolymers with varying PLA (hydrophobic), and poly(ethylene glycol) (PEG) (hydrophilic) chain lengths and different block copolymer sequences (PEG-PLA and PLA-PEG). The PEG-PLA block copolymers were synthesized by ring-opening polymerization of lactide initiated by a PEG-OH macroinitiator. In contrast, the PLA-PEG block copolymers were produced by a Steglich-esterification of modified PLA with PEG-OH. The aqueous self-assembly at room temperature of the enantiomerically pure PLLA-based block copolymers and their stereocomplexed mixtures was investigated by dynamic light scattering (DLS), transmission electron microscopy (TEM), wide-angle X-ray diffraction (WAXD), and differential scanning calorimetry (DSC). Spherical micelles and worm-like structures were produced, whereby the obtained self-assembled morphologies were affected by the lactide weight fraction in the block copolymer and self-assembly time. The formation of worm-like structures increases with decreasing PLA-chain length and arises from spherical micelles, which become colloidally unstable and undergo an epitaxial fusion with other micelles. As shown by DSC experiments, the crystallinity of the corresponding PLA blocks increases within the self-assembly time. However, the stereocomplexed self-assembled structures behave differently from the parent polymers and result in irregular-shaped clusters of spherical micelles. Additionally, time-dependent self-assembly experiments showed a transformation, from already self-assembled morphologies of different shapes to more compact micelles upon stereocomplexation. In the second part of this thesis, with the objective to influence the self-assembly of PLA-based block copolymers and its stereocomplexes, poly(methyl phosphonate) (PMeP) and poly(isopropyl phosphonate) (PiPrP) were produced by ring-opening polymerization to implement an alternative to the hydrophilic block PEG. Although, the 1,8 diazabicyclo[5.4.0]unde 7 ene (DBU) or 1,5,7 triazabicyclo[4.4.0]dec-5-ene (TBD) mediated synthesis of the corresponding poly(alkyl phosphonate)s was successful, however, not so the polymerization of copolymers with PLA-based precursors (PLA-homo polymers, and PEG-PLA block copolymers). Transesterification, obtained by 1H-NMR spectroscopy, between the poly(phosphonate)- and PLA block caused a high-field shifted peak split of the methine proton in the PLA polymer chain, with split intensities depending on the used catalyst (DBU for PMeP, and TBD for PiPrP polymerization). An additional prepared block copolymer PiPrP-PLLA that wasn’t affected in its polymer sequence was finally used for self-assembly experiments with PLA-PEG and PEG-PLA mixing. This work provides a comprehensive study of the self-assembly behavior of PLA-based block copolymers influenced by various parameters such as polymer block lengths, self-assembly time, and stereocomplexation of block copolymer mixtures. N2 - Aufgrund seiner Bioverfügbarkeit und (biologischen) Abbaubarkeit stellt Polylactid (PLA) ein interessantes Polymer dar, welches bereits in Verpackungsmaterialien, chirurgische Fäden und in selbst organisierten Wirkstofftransportsystemen eingesetzt wird. Als ein Teil von amphiphilen Blockcopolymeren kann PLA die molekulare Selbstorganisation in wässrigen Lösungen wesentlich beeinflussen. Die gebildeten Strukturen sind dabei essenziell von Faktoren wie der Blockcopolymer Zusammensetzung, Amphiphilie, Proben Vorbereitung und der Enantiomerenreinheit des Monomers abhängig. Die Kenntnis über die beschriebenen Faktoren und das allgemeine Verständnis für die dazugehörigen Polymere sowie die Möglichkeit ihre Selbstorganisation zu beeinflussen, ist von entscheidender Bedeutung in biomedizinischen Anwendungen. Unterschiedliche Größen oder Formen der selbst organisierten Wirkstoffträgern haben einen erheblichen Effekt auf die Wechselwirkung mit dem entsprechenden biologischen System und somit einen essenziellen Einfluss auf den Ausgang der medikamentösen Therapie. Der erste Teil dieser Doktorarbeit beschreibt die Synthese und Untersuchung einer Serie von Poly(L-Lactid) (PLLA) und Poly(D-Lactid) (PDLA)-basierten amphiphilen Blockcopolymeren mit variierenden PLA (hydrophob) und Polyethylenglycol (PEG) (hydrophil) Kettenlägen, sowie unterschiedlichen Polymersequenzen (PEG-PLA und PLA-PEG). Die genannten PEG-PLA Blockcopolymere wurden mittels organokatalysierter ringöffnender Polymerisation (ROP) hergestellt, wobei das entsprechende PEG-OH als Makroinitiator diente. Im Gegensatz dazu mussten die entsprechenden PLA-PEG Blockcopolymere mittels Steglich Veresterung von modifizierten PLA mit PEG-OH hergestellt werden. Die Selbstorganisation der PLLA-basierten Blockcopolymeren und deren stereokomplexierten Mischungen in wässriger Lösung erfolgte unter Raumtemperatur und wurde mittels Dynamischer Lichtstreuung (DLS), Transmissionselektronenmikroskopie (TEM), Röntgenstrukturanalyse und Dynamische Differenzkalorimetrie (DSC) untersucht. Dabei wurden kugel- und wurmförmige Strukturen beobachtet, wobei die gebildeten Strukturen vom Lactid Gewichtsanteil im Polymer, sowie der Selbstorganisationszeit abhängig waren. Mit andauernder Selbstorganisation und zunehmender Kristallinität wurden die zuerst gebildeten kugelförmigen Strukturen kolloidal unstabil und es erfolgte ein epitaktisches Wachstum zu wurmförmigen Strukturen in Abhängigkeit der Lactid Kettenlänge. Die stereokomplexierten Blockcopolymer Mischungen hingegen bildeten, unabhängig von der Copolymersequenz der entsprechenden Polymer Partner, hauptsächlich unregelmäßige Ansammlungen kugelförmiger Strukturen welche den Eindruck einer Perlenkette erweckten. Mit dem Einsetzen der Stereokomplexierung zeigten zeitlich aufgelöste Selbstorganisationsexperimente eine Transformation von bereits gebildeten Strukturen verschiedenster Formen und Größen (Polymer abhängig) zu kompakten Mizellen. Im zweiten Teil dieser Doktorarbeit wurden, mit dem Ziel die Selbstorganisation von PLA-basierten Blockcopolymeren und deren Stereokomplexmischung vermehrt zu beeinflussen, zwei alternative Polymere zu PEG untersucht. Ähnlich wie PLA, konnten mittels organokatalysierter ROP Polymethylphosphonat (PMeP) und Polyisopropylphosphonat (PiPrP) erfolgreich hergestellt werden. Die Blockcopolymer Synthese mit PLA-basierten Polymervorgängern erwies sich jedoch als schwierig. Aufgrund einer Protonenpeakspaltung der Methingruppe in der PLA-Wiederholeinheit konnten mittels 1H-NMR Spektroskopie Umersterungsprozesse zwischen dem Polyalkylphosphonat- und PLA block nachgewiesen werden, welche in Abhängigkeit des verwendeten Katalysators (DBU oder TBD) unterschiedlich stark ausfielen. Das ebenfalls hergestellte PiPrP-PLLA Blockcopolymer wies keine Unregelmäßigkeiten in der Polymersequenz auf und wurde anschließend für Selbstorganisationsexperimente mit PLA-PEG und PEG-PLA genutzt. Diese Arbeit liefert eine umfangreiche Studie zur Selbstorganisation PLA-basierter Blockcopolymere und untersucht verschiedenste Einflussparameter wie Blocklängen, Selbstorganisationszeit und Stereokomplexierung in Polymermischungen. KW - polylactide KW - polymer KW - self-assembly KW - stereocomplexation KW - block copolymer KW - Polylactid KW - Polymer KW - Selbstorganisation KW - Stereokomplexierung KW - Block Copolymer Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436168 ER - TY - THES A1 - Jakobs, Friedrich T1 - Dubrovin–rings and their connection to Hughes–free skew fields of fractions T1 - Dubrovinringe und ihre Verbindung zu Hughes-freien Quotientenschiefkörpern N2 - One method of embedding groups into skew fields was introduced by A. I. Mal'tsev and B. H. Neumann (cf. [18, 19]). If G is an ordered group and F is a skew field, the set F((G)) of formal power series over F in G with well-ordered support forms a skew field into which the group ring F[G] can be embedded. Unfortunately it is not suficient that G is left-ordered since F((G)) is only an F-vector space in this case as there is no natural way to define a multiplication on F((G)). One way to extend the original idea onto left-ordered groups is to examine the endomorphism ring of F((G)) as explored by N. I. Dubrovin (cf. [5, 6]). It is possible to embed any crossed product ring F[G; η, σ] into the endomorphism ring of F((G)) such that each non-zero element of F[G; η, σ] defines an automorphism of F((G)) (cf. [5, 10]). Thus, the rational closure of F[G; η, σ] in the endomorphism ring of F((G)), which we will call the Dubrovin-ring of F[G; η, σ], is a potential candidate for a skew field of fractions of F[G; η, σ]. The methods of N. I. Dubrovin allowed to show that specific classes of groups can be embedded into a skew field. For example, N. I. Dubrovin contrived some special criteria, which are applicable on the universal covering group of SL(2, R). These methods have also been explored by J. Gräter and R. P. Sperner (cf. [10]) as well as N.H. Halimi and T. Ito (cf. [11]). Furthermore, it is of interest to know if skew fields of fractions are unique. For example, left and right Ore domains have unique skew fields of fractions (cf. [2]). This is not the general case as for example the free group with 2 generators can be embedded into non-isomorphic skew fields of fractions (cf. [12]). It seems likely that Ore domains are the most general case for which unique skew fields of fractions exist. One approach to gain uniqueness is to restrict the search to skew fields of fractions with additional properties. I. Hughes has defined skew fields of fractions of crossed product rings F[G; η, σ] with locally indicable G which fulfill a special condition. These are called Hughes-free skew fields of fractions and I. Hughes has proven that they are unique if they exist [13, 14]. This thesis will connect the ideas of N. I. Dubrovin and I. Hughes. The first chapter contains the basic terminology and concepts used in this thesis. We present methods provided by N. I. Dubrovin such as the complexity of elements in rational closures and special properties of endomorphisms of the vector space of formal power series F((G)). To combine the ideas of N.I. Dubrovin and I. Hughes we introduce Conradian left-ordered groups of maximal rank and examine their connection to locally indicable groups. Furthermore we provide notations for crossed product rings, skew fields of fractions as well as Dubrovin-rings and prove some technical statements which are used in later parts. The second chapter focuses on Hughes-free skew fields of fractions and their connection to Dubrovin-rings. For that purpose we introduce series representations to interpret elements of Hughes-free skew fields of fractions as skew formal Laurent series. This 1 Introduction allows us to prove that for Conradian left-ordered groups G of maximal rank the statement "F[G; η, σ] has a Hughes-free skew field of fractions" implies "The Dubrovin ring of F [G; η, σ] is a skew field". We will also prove the reverse and apply the results to give a new prove of Theorem 1 in [13]. Furthermore we will show how to extend injective ring homomorphisms of some crossed product rings onto their Hughes-free skew fields of fractions. At last we will be able to answer the open question whether Hughes--free skew fields are strongly Hughes-free (cf. [17, page 53]). N2 - In dieser Arbeit beschäftigen wir uns mit Quotientenschiefkörpern von verschränkten Produkten F [G; η, σ], wobei G eine Gruppe und F ein Schiefkörper ist. Eine Methode Gruppen in Schiefkörper einzubetten stammt von A. I. Mal’tsev und B. H. Neumann. Ist G eine beidseitig geordnete Gruppe, so lässt sich die Menge der formalen Potenzreihen F ((G)) über F in G mit wohlgeordnetem Träger als Schiefkörper interpretieren. In diesen lässt sich jedes verschränkte Produkt F [G; η, σ] einbetten. Möchte man die Klasse der einzubettenden Gruppen erweitern, so bieten sich links–geordnete Gruppen an. In diesem Fall hat F ((G)) keine natürliche Ringstruktur, aber man kann nutzen, dass F ((G)) ein rechter F–Vektorraum ist und seinen Endomorphismenring untersuchen. Jedes Verschränkte Produkt F [G; η, σ] lässt sich derart in den Endomorphismenring einbetten, dass die zugehörigen von Null verschiedenen Endomorphismen Automorphismen sind. Der rationale Abschluss von F [G; η, σ] in End(F ((G))), den wir Dubrovinring von F [G; η, σ] nennen, ist somit ein potentieller Quotientenschiefkörper von F [G; η, σ]. Neben der Existenz von Quotientenschiefkörpern ist deren Eindeutigkeit (bis auf Isomorphie) von Interesse. Im Gegensatz zum kommutativen Fall sind Quotientenschiefkörper im Allgemeinen nicht eindeutig. So lässt sich beispielsweise die freie Gruppe mit zwei Erzeugenden in nicht–isomorphe Quotientenschiefkörper einbetten. Eine große Klasse an Ringen, die eindeutige Quotientenschiefkörper besitzen, sind Ore–Bereiche. Vermutlich lässt sich diese Klasse nicht erweitern, ohne zusätzliche Eigenschaften der Quotientenschiefkörper zu verlangen. Eine solche Eigenschaft, im Folgenden Hughes–frei genannt, wurde von I. Hughes vorgeschlagen. Er konnte beweisen, dass Hughes–freie Quotientenschiefkörper eindeutig sind, wenn sie existieren. In dieser Arbeit verbinden wir die Ideen von I. Hughes und N. I. Dubrovin. Wir zeigen, dass die Elemente von Hughes–freien Quotientenschiefkörpern als formale schiefe Laurent–Reihen dargestellt werden können und dass diese Darstellungen in gewisser Weise eindeutig sind. Dieses Ergebnis nutzen wir um zu beweisen, dass die Aussagen “F [G; η, σ] besitzt einen Hughes–freien Quotientenschiefkörper” und “Der Dubrovinring von F [G; η, σ] ist ein Schiefkörper” äquivalent sind, wenn G eine links–geordnete Gruppe von Conrad–Typ mit maximalem Rang ist. Wir stellen den nötigen Begriffsapparat zur Verfügung. Dieser basiert vorwiegend auf den Arbeiten von N. I. Dubrovin und umfasst spezielle Eigenschaften der Endomorphismen von F ((G)) sowie die Komplexität von Elementen in rationalen Abschlüssen. Des Weiteren gehen wir auf links–geordnete Gruppen von Conrad–Typ ein und untersuchen ihren Zusammenhang mit lokal indizierbaren Gruppen, die eine grundlegende Rolle für Hughes–freie Quotientenschiefkörper spielen. Wir werden zeigen können, dass Dubrovinringe, die Schiefkörper sind, stark Hughes–freie Quotientenschiefkörper sind, was die offene Frage beantwortet, ob Hughes–freie Quotientenschiefkörper stark Hughes–frei sind. Außerdem werden wir einen alternativen Beweis der Eindeutigkeit von Hughes–freien Quotientenschiefkörpern präsentieren und die Fortsetzbarkeit von Automorphismen eines verschränkten Produkts auf Hughes–freie Quotientenschiefkörper untersuchen. KW - Hughes-free KW - Dubrovinring KW - left ordered groups KW - Conradian ordered groups KW - skew field of fraction KW - locally indicable KW - series representation KW - strongly Hughes-free KW - Hughes-frei KW - Dubrovinring KW - linksgeordnete Gruppen KW - geordnete Gruppen von Conrad-Typ KW - Quotientenschiefkörper KW - lokal indizierbar KW - Reihendarstellungen KW - stark Hughes-frei Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-435561 ER - TY - THES A1 - Jantzen, Friederike T1 - Genetic basis and adaptive significance of repeated scent loss in selfing Capsella species T1 - Genetische Grundlage und Adaptive Signifikanz von wiederholtem Duftverlust bei selbstenden Capsella Arten N2 - Floral scent is an important way for plants to communicate with insects, but scent emission has been lost or strongly reduced during the transition from pollinator-mediated outbreeding to selfing. The shift from outcrossing to selfing is not only accompanied by scent loss, but also by a reduction in other pollinator-attracting traits like petal size and can be observed multiple times among angiosperms. These changes are summarized by the term selfing syndrome and represent one of the most prominent examples of convergent evolution within the plant kingdom. In this work the genus Capsella was used as a model to study convergent evolution in two closely related selfers with separate transitions to self-fertilization. Compared to their outbreeding ancestor C. grandiflora, the emission of benzaldehyde as main compound of floral scent is lacking or strongly reduced in the selfing species C. rubella and C. orientalis. In C. rubella the loss of benzaldehyde was caused by mutations to cinnamate:CoA ligase CNL1, but the biochemical basis and evolutionary history of this loss remained unknown, together with the genetic basis of scent loss in C. orientalis. Here, a combination of plant transformations, in vitro enzyme assays, population genetics and quantitative genetics has been used to address these questions. The results indicate that CNL1 has been inactivated twice independently by point mutations in C. rubella, leading to a loss of benzaldehyde emission. Both inactivated haplotypes can be found around the Mediterranean Sea, indicating that they arose before the species´ geographical spread. This study confirmed CNL1 as a hotspot for mutations to eliminate benzaldehyde emission, as it has been suggested by previous studies. In contrast to these findings, CNL1 in C. orientalis remains active. To test whether similar mechanisms underlie the convergent evolution of scent loss in C. orientalis a QTL mapping approach was used and the results suggest that this closely related species followed a different evolutionary route to reduce floral scent, possibly reflecting that the convergent evolution of floral scent is driven by ecological rather than genetic factors. In parallel with studying the genetic basis of repeated scent loss a method for testing the adaptive value of individual selfing syndrome traits was established. The established method allows estimating outcrossing rates with a high throughput of samples and detects successfully insect-mediated outcrossing events, providing major advantages regarding time and effort compared to other approaches. It can be applied to correlate outcrossing rates with differences in individual traits by using quasi-isogenic lines as demonstrated here or with environmental or morphological parameters. Convergent evolution can not only be observed for scent loss in Capsella but also for the morphological evolution of petal size. Previous studies detected several QTLs underlying the petal size reduction in C. orientalis and C. rubella, some of them shared among both species. One shared QTL is PAQTL1 which might map to NUBBIN, a growth factor. To better understand the morphological evolution and genetic basis of petal size reduction, this QTL was studied. Mapping this QTL to a gene might identify another example for a hotspot gene, in this case for the convergent evolution of petal size. N2 - Blütenduft stellt einen wichtigen Kommunikationsweg für Pflanzen mit ihrer Außenwelt dar, jedoch ging die Emission von Duftstoffen während des Übergangs von Bestäuber-vermittelter Auskreuzung zur Selbstung verloren oder wurde stark reduziert. Dieser Wandel des Fortpflanzungssystems wurde nicht nur vom Duftverlust begleitet, sondern auch von einer Reduktion anderer Merkmale, die Bestäuber anlocken, so zum Beispiel auch einer verringerten Blütenblattgröße. Diese veränderten Merkmale werden unter dem Begriff Selbstungssyndrom zusammengefasst und können mehrfach in der Evolution von Angiospermen beobachtet werden. Der Übergang von Auskreuzung zu Selbstung und die damit einhergehende Veränderung von Blüten stellt eines der bekanntesten Beispiele für konvergente Evolution im Pflanzenreich dar. In dieser Arbeit wurde die Gattung Capsella als Modell für die Untersuchung konvergenter Evolution genutzt, da sie zwei eng verwandte selbstbestäubende Arten enthält, die unabhängig voneinander den Übergang zur Selbstbefruchtung vollzogen. Verglichen mit dem auskreuzendem Vorfahr C. grandiflora, ist die Emission von Benzaldehyd als Hauptbestandteil des Blütenduftes in den selbstbestäubenden Arten C. rubella und C. orientalis verloren gegangen oder stark reduziert. Der Verlust von Benzaldehyd wurde in C. rubella durch Mutationen in der Cinnamat:CoA Ligase CNL1 verursacht, die biochemische Grundlage und evolutionäre Geschichte dieses Verlustes waren jedoch unbekannt, ebenso wie die genetische Grundlage für den Duftverlust von C. orientalis. In der vorliegenden Arbeit wurde eine Kombination aus transformierten Pflanzen, in vitro Enzymassays, Populationsgenetik und quantitativer Genetik genutzt, um diese Fragen zu beantworten. Die Ergebnisse sprechen dafür, dass in C. rubella CNL1 zweimal unabhängig voneinander durch Punktmutationen inaktiviert wurde und diese zu einem Verlust der Benzaldehydemission führten. Beide inaktive Haplotypen können in Populationen rund um das Mittelmeer detektiert werden, was dafür spricht, dass die Mutationen auftraten, bevor sich die Art geografisch ausbreiten konnte. Diese Arbeit bestätigt, dass CNL1 ein sogenannter Hotspot für die Eliminierung der Benzaldehydemission ist, wie es schon von vorhergehenden Arbeiten angedeutet wurde. Im Gegensatz dazu verbleibt CNL1 in C. orientalis funktionsfähig. Um herauszufinden, ob bei dieser Art ähnliche Mechanismen der konvergenten Evolution zum Duftverlust führten, wurde ein QTL-Kartierungsansatz gewählt. Die Ergebnisse sprechen dafür, dass hier die Duftreduktion auf einem evolutionär anderen Weg erreicht wurde als in C. rubella, eventuell spiegelt dies wider, dass die Evolution von Blütenduft eher durch ökologische als genetische Faktoren angetrieben wird. Parallel zur Aufklärung der genetischen Basis von wiederholtem Duftverlust wurde eine Methode zum Testen des adaptiven Wertes einzelner Merkmale des Selbstungssyndromes etabliert. Diese Methode erlaubt es, Auskreuzungsraten mit einem hohen Probendurchsatz abzuschätzen, und es konnte gezeigt werden, dass sie erfolgreich Auskreuzungsereignisse detektiert, die von Insekten vermittelt wurden. Diese neue Methode bringt einige Vorteile gegenüber bisher angewandten Protokollen mit sich; sie ist wesentlich schneller und eine Vielzahl an Proben lässt sich mit deutlich geringerem Aufwand analysieren. Dies ermöglicht eine Korrelation der Auskreuzungsrate mit unterschiedlichen Merkmalen, indem, wie hier demonstriert, quasi-isogene Linien verwendet werden. Denkbar wäre auch eine Kombination mit anderen morphologischen oder ökologischen Parametern, um deren Einfluss auf die Auskreuzungsrate zu untersuchen. Konvergente Evolution kann nicht nur beim Duftverlust in der Gattung Capsella beobachtet werden, sondern auch bei der morphologischen Evolution der Petalengröße. Vorhergehende Studien fanden mehrere QTL, die der Reduktion der Petalengröße in C. rubella und C. orientalis unterliegen, manche von ihnen sind sogar in beiden Spezies zu finden. Einer der gemeinsamen QTL ist PAQTL1, der vielleicht auf NUBBIN zurückgeführt werden kann, einem Wachstumsfaktor. Um die morphologische Evolution und die genetische Grundlage der Reduktion der Petalengröße besser zu verstehen, soll dieser QTL weiter charakterisiert werden, da ihm eventuell ein Hotspot-Gen für die konvergente Evolution der Petalengröße unterliegen könnte. KW - Capsella KW - selfing syndrome KW - floral scent KW - outcrossing rate KW - benzaldehyde KW - CNL1 KW - Capsella KW - Selbstungssyndrom KW - Blütenduft KW - Auskreuzungsrate KW - Benzaldehyd KW - CNL1 Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-435253 ER - TY - THES A1 - Trautwein, Jutta T1 - The Mental lexicon in acquisition T1 - Das mentale Lexikon im Erwerb BT - assessment, size & structure BT - Messung, Größe und Struktur N2 - The individual’s mental lexicon comprises all known words as well related infor-mation on semantics, orthography and phonology. Moreover, entries connect due to simi-larities in these language domains building a large network structure. The access to lexical information is crucial for processing of words and sentences. Thus, a lack of information in-hibits the retrieval and can cause language processing difficulties. Hence, the composition of the mental lexicon is essential for language skills and its assessment is a central topic of lin-guistic and educational research. In early childhood, measurement of the mental lexicon is uncomplicated, for example through parental questionnaires or the analysis of speech samples. However, with growing content the measurement becomes more challenging: With more and more words in the mental lexicon, the inclusion of all possible known words into a test or questionnaire be-comes impossible. That is why there is a lack of methods to assess the mental lexicon for school children and adults. For the same reason, there are only few findings on the courses of lexical development during school years as well as its specific effect on other language skills. This dissertation is supposed to close this gap by pursuing two major goals: First, I wanted to develop a method to assess lexical features, namely lexicon size and lexical struc-ture, for children of different age groups. Second, I aimed to describe the results of this method in terms of lexical development of size and structure. Findings were intended to help understanding mechanisms of lexical acquisition and inform theories on vocabulary growth. The approach is based on the dictionary method where a sample of words out of a dictionary is tested and results are projected on the whole dictionary to determine an indi-vidual’s lexicon size. In the present study, the childLex corpus, a written language corpus for children in German, served as the basis for lexicon size estimation. The corpus is assumed to comprise all words children attending primary school could know. Testing a sample of words out of the corpus enables projection of the results on the whole corpus. For this purpose, a vocabulary test based on the corpus was developed. Afterwards, test performance of virtual participants was simulated by drawing different lexicon sizes from the corpus and comparing whether the test items were included in the lexicon or not. This allowed determination of the relation between test performance and total lexicon size and thus could be transferred to a sample of real participants. Besides lexicon size, lexical content could be approximated with this approach and analyzed in terms of lexical structure. To pursue the presented aims and establish the sampling method, I conducted three consecutive studies. Study 1 includes the development of a vocabulary test based on the childLex corpus. The testing was based on the yes/no format and included three versions for different age groups. The validation grounded on the Rasch Model shows that it is a valid instrument to measure vocabulary for primary school children in German. In Study 2, I estab-lished the method to estimate lexicon sizes and present results on lexical development dur-ing primary school. Plausible results demonstrate that lexical growth follows a quadratic function starting with about 6,000 words at the beginning of school and about 73,000 words on average for young adults. Moreover, the study revealed large interindividual differences. Study 3 focused on the analysis of network structures and their development in the mental lexicon due to orthographic similarities. It demonstrates that networks possess small-word characteristics and decrease in interconnectivity with age. Taken together, this dissertation provides an innovative approach for the assessment and description of the development of the mental lexicon from primary school onwards. The studies determine recent results on lexical acquisition in different age groups that were miss-ing before. They impressively show the importance of this period and display the existence of extensive interindividual differences in lexical development. One central aim of future research needs to address the causes and prevention of these differences. In addition, the application of the method for further research (e.g. the adaptation for other target groups) and teaching purposes (e.g. adaptation of texts for different target groups) appears to be promising. N2 - Das mentale Lexikon wird als individueller Speicher, der semantische, orthographi-sche und phonologische Informationen über alle bekannten Wörter enthält, verstanden. Die lexikalischen Einträge sind aufgrund von Ähnlichkeiten auf diesen Sprachebenen im Sinne einer Netzwerkstruktur verbunden. Bei der Sprachverarbeitung von Wörtern und Sätzen müssen die Informationen aus dem mentalen Lexikon abgerufen werden. Sind diese nicht oder nur teilweise vorhanden, ist der Prozess erschwert. Die Beschaffenheit des mentalen Lexikons ist damit zentral für sprachliche Fähigkeiten im Allgemeinen, welche wiederum es-senziell für den Bildungserfolg und die Teilhabe an der Gesellschaft sind. Die Erfassung des mentalen Lexikons und die Beschreibung seiner Entwicklung ist demnach ein wichtiger Schwerpunkt linguistischer Forschung. Im frühen Kindesalter ist es noch relativ einfach, den Umfang und Inhalt des menta-len Lexikons eines Individuums zu erfassen – dies kann beispielsweise durch Befragung der Eltern oder durch Aufzeichnung von Äußerungen erfolgen. Mit steigendem Inhalt wird diese Messung allerdings schwieriger: Umso mehr Wörter im mentalen Lexikon gespeichert sind, umso unmöglicher wird es, sie alle abzufragen bzw. zu testen. Dies führt dazu, dass es nur wenige Methoden zur Erfassung lexikalischer Eigenschaften nach Schuleintritt gibt. Aus die-sem Grund bestehen auch nur wenige aktuelle Erkenntnisse über den Verlauf der lexikali-schen Entwicklung in diesem Alter sowie deren spezifischen Einfluss auf andere (sprachliche) Fähigkeiten. Diese Lücke sollte in der vorliegenden Dissertation geschlossen werden. Dazu wurden zwei Ziele verfolgt: Zum einen sollte eine aussagekräftige Methode entwickelt wer-den, mit der Umfang und Inhalt des Wortschatzes von Kindern im Grundschulalter bis ins Erwachsenenalter bestimmt werden können. Zum anderen sollten die Ergebnisse der Me-thode dazu dienen, den lexikalischen Erwerb nach Schuleintritt genauer zu beschreiben und zu verstehen. Dabei wurde neben der Entwicklung der Lexikongröße auch die Struktur des Lexikons, d.h. die Vernetzung der Einträge untereinander, betrachtet. Die grundsätzliche Idee der Arbeit beruht auf der Wörterbuch-Methode, bei der eine Auswahl an Wörtern aus einem Wörterbuch getestet und die Ergebnisse auf das gesamte Wörterbuch übertragen werden, um die Lexikongröße einer Person zu bestimmen. In der vorliegenden Dissertation diente das childLex Korpus, das die linguistische Umwelt von Grundschulkindern enthält, als Grundlage. Zunächst wurde ein Wortschatztest entwickelt, der auf dem Korpus basiert. Anschließend wurde das Testverhalten von virtuellen Versuchs-personen simuliert, indem verschiedene Lexikongrößen aus dem Korpus gezogen wurden und überprüft wurde, welche der Items aus dem Wortschatztest in den Lexika enthalten waren. Dies ermöglichte die Bestimmung der Beziehung zwischen dem Verhalten im Wort-schatztest und der absoluten Lexikongröße und ließ sich dann auf tatsächliche Studienteil-nehmer übertragen. Neben der Wortschatzgröße konnten mit dieser Methode auch der wahrscheinliche Inhalt des mentalen Lexikons und so die Vernetzung des Lexikons zu ver-schiedenen Entwicklungszeitpunkten bestimmt werden. Drei Studien wurden konzipiert, um die vorgestellten Ziele zu erreichen und die prä-sentierte Methode zu etablieren. Studie 1 diente der Entwicklung des Wortschatztests, der auf den childLex Korpus beruht. Hierzu wurde das Ja/Nein-Testformat gewählt und ver-schiedene Versionen für unterschiedliche Altersgruppen erstellt. Die Validierung mithilfe des Rasch-Modells zeigt, dass der Test ein aussagekräftiges Instrument für die Erfassung des Wortschatzes von Grundschuldkindern im Deutschen darstellt. In Studie 2 werden der da-rauf basierende Mechanismus zur Schätzung von Lexikongrößen sowie Ergebnisse zu deren Entwicklung vom Grundschul- bis ins Erwachsenenalter präsentiert. Es ergaben sich plausible Ergebnisse in Bezug auf die Wortschatzentwicklung, die einer quadratischen Funktion folgt und mit etwa 6000 Wörtern in der ersten Klasse beginnt und im Durschnitt 73.000 Wörter im jungen Erwachsenenalter erreicht. Studie 3 befasste sich mit den lexikalischen Inhalten in Bezug auf die Netzwerkstruktur des mentalen Lexikons in verschiedenen Altersgruppen. Dabei zeigt sich, dass die orthographische Vernetzung des mentalen Lexikons im Erwerb ab-nimmt. Zusammengenommen liefert die Dissertation damit einen innovativen Ansatz zur Messung und Beschreibung der Entwicklung des mentalen Lexikons in der späteren Kind-heit. Die Studien bieten aktuelle Ergebnisse zum lexikalischen Erwerb in einer Altersgruppe, in der dazu bisher wenige Erkenntnisse vorlagen. Die Ergebnisse zeigen eindrücklich, wie wichtig diese Phase für den Wortschatzerwerb ist und legen außerdem nahe, dass es starke interindividuelle Unterschiede im lexikalischen Erwerb gibt. Diesen entgegenzuwirken ist eines der Ziele zukünftiger Forschung und Bildung. Zudem ergeben sich aus der Dissertation vielfältige Möglichkeiten zur Anwendung der Methode sowohl zu Forschungszwecken, z.B. in Bezug auf die Übertragung auf andere Zielgruppen und den Effekt der Ergebnisse auf an-dere Fähigkeiten, als auch für die pädagogische Arbeit, z.B. für die Anpassung von Texten an bestimmte Zielgruppen. KW - mental lexicon KW - language acquisition KW - language assessment KW - lexion size KW - lexicon structure KW - mentales Lexikon KW - Spracherwerb KW - Sprachstandserfassung KW - Wortschatzgröße KW - Wortschatzstruktur Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434314 ER - TY - THES A1 - Otte, Fabian T1 - C-Arylglykoside und Chalkone T1 - Aryl C-glycosides and chalcones BT - neue Wege zu heterozyklischen Wirkstoffen durch Ru- und Pd-katalysierte Reaktionen BT - new pathways to heterocyclic drugs by Ru- and Pd-catalyzed reactions N2 - Im bis heute andauernden Zeitalter der wissenschaftlichen Medizin, konnte ein breites Spektrum von Wirkstoffen zur Behandlung diverser Krankheiten zusammengetragen werden. Dennoch hat es sich die organische Synthesechemie zur Aufgabe gemacht, dieses Spektrum auf neuen oder bekannten Wegen und aus verschiedenen Gründen zu erweitern. Zum einen ist das Vorkommen bestimmter Verbindungen in der Natur häufig limitiert, sodass synthetische Methoden immer öfter an Stelle eines weniger nachhaltigen Abbaus treten. Zum anderen kann durch Derivatisierung und Wirkstoffanpassung die physiologische Wirkung oder die Bioverfügbarkeit eines Wirkstoffes erhöht werden. In dieser Arbeit konnten einige Vertreter der bekannten Wirkstoffklassen C-Arylglykoside und Chalkone durch den Schlüsselschritt der Palladium-katalysierten MATSUDA-HECK-Reaktion synthetisiert werden. Dazu wurden im Fall der C-Arylglykoside zunächst ungesättigte Kohlenhydrate (Glykale) über eine Ruthenium-katalysierte Zyklisierungsreaktion dargestellt. Diese wurden im Anschluss mit unterschiedlich substituierten Diazoniumsalzen in der oben erwähnten Palladium-katalysierten Kupplungsreaktion zur Reaktion gebracht. Bei der Auswertung der analytischen Daten konnte festgestellt werden, dass stets die trans-Diastereomere gebildet wurden. Im Anschluss konnte gezeigt werden, dass die Doppelbindungen dieser Verbindungen durch Hydrierung, Dihydroxylierung oder Epoxidierung funktionalisiert werden können. Auf diesem Wege konnte u. a. eine dem Diabetesmedikament Dapagliflozin ähnliche Verbindung hergestellt werden. Im zweiten Teil der Arbeit wurden Arylallylchromanone durch die MATSUDA-HECK-Reaktion von verschiedenen 8-Allylchromanonen mit Diazoniumsalzen dargestellt. Dabei konnte beobachtet werden, dass eine MOM-Schutzgruppe in 7-Position der Moleküle die Darstellung von Produktgemischen unterdrückt und jeweils nur eine der möglichen Verbindungen gebildet wird. Die Lage der Doppelbindung konnte mittels 2D-NMR-Untersuchungen lokalisiert werden. In Kooperation mit der theoretischen Chemie sollte durch Berechnungen untersucht werden, wie die beobachteten Verbindungen entstehen. Durch eine auftretende Wechselwirkung innerhalb des Moleküls konnte allerdings keine explizite Aussage getroffen werden. Im Anschluss sollten die erhaltenen Verbindungen in einer allylischen Oxidation zu Chalkonen umgesetzt werden. Die Ruthenium-katalysierten Methoden zeigten u. a. keine Eignung. Es konnte allerdings eine metallfreie, Mikrowellen-unterstützte Methode erfolgreich erprobt werden, sodass die Darstellung einiger Vertreter dieser physiologisch aktiven Stoffklasse gelang. N2 - The ongoing age of scientific medicine spawned a broad spectrum of drugs for the treatment of various diseases. Nonetheless, it is the task of synthetic organic chemistry to expand this spectrum in new or known pathways and for various reasons. On the one hand, the availability of certain compounds in nature is often limited, so that synthetic methods increasingly take the place of less sustainable extraction. On the other hand, the physiological effect or the bioavailability of a drug can be increased through derivatization and drug adaptation. In this work, several representatives of the known drug classes aryl C-glycosides and chalcones were synthesized by the key step of palladium-catalyzed MATSUDA-HECK reaction. In the case of aryl C-glycosides, unsaturated carbohydrates (glycals) were first prepared by a ruthenium-catalyzed cyclization reaction. These were subsequiently reacted with differently substituted diazonium salts in the above-mentioned palladium-catalyzed coupling reaction. When evaluating the analytical data, it was found that the trans-diastereomers were solitarily formed. Subsequiently, it was shown that the double bonds of these compounds can be functionalized by hydrogenation, dihydroxylation and epoxidation. By applying these methods an aryl C-glycoside similar to the diabetes drug Dapagliflozin was synthesized. The second part of this work, depicts the synthesis of aryl allyl chromanones by the Matsuda-Heck reaction of various 8-allyl chromanones and diazonium salts. It could be observed that a MOM-protection group in the 7-position of the chromanone ring suppresses the expression of product mixtures. In each case only one of the possible compounds is formed. The position of the double bond was localized by 2D NMR studies. In cooperation with theoretical chemistry, calculations were carried out to investigate how the observed compounds were formed. However, an explicit statement could not be made, due to an interaction within the molecule. Finally, the compounds obtained were converted into chalcones in an allylic oxidation reaction. Ru-catalyzed methods showed no suitability. However, a metal-free, microwave-assisted method could be successfully applied so that the synthesis of certain examples of this physiologically active substance class could be shown. KW - C-Arlyglykosid KW - Chalkon KW - Matsuda-Heck-Reaktion KW - Ringschlussmetathese KW - aryl C-glycoside KW - chalcon KW - Matsuda-Heck reaction KW - ring closing metathesis Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434305 ER - TY - THES A1 - Walczak, Ralf T1 - Molecular design of nitrogen-doped nanoporous noble carbon materials for gas adsorption T1 - Molekulares Design Stickstoffdotierter, Nanoporöser, und Edler Kohlenstoffmaterialien für Gasadsorption N2 - In den modernen Gesellschaften führt ein stetig steigender Energiebedarf zu dem zunehmenden Verbrauch fossiler Brennstoffe wie Kohle, Öl, und Gas. Die Verbrennung dieser kohlenstoffbasierten Brennstoffe führt unweigerlich zur Freisetzung von Treibhausgasen, vor allem von CO2. Die CO2 Aufnahme unmittelbar bei den Verbrennungsanlagen oder direkt aus der Luft, zusammen mit Regulierung von CO2 produzierenden Energiesektoren (z.B. Kühlanlagen), können den CO2 Ausstoß reduzieren. Allerdings führen insbesondere bei der CO2 Aufnahme die geringen CO2 Konzentrationen und die Aufnahme konkurrierender Gase zu niedrigen CO2 Kapazitäten und Selektivitäten. Das Zusammenspiel der Gastmoleküle mit porösen Materialien ist dabei essentiell. Poröse Kohlenstoffmaterialien besitzen attraktive Eigenschaften, unter anderem elektrische Leitfähigkeit, einstellbare Porosität, als auch chemische und thermische Stabilität. Allerdings führt die zu geringe Polarisierbarkeit dieser Materialien zu einer geringen Affinität zu polaren Molekülen (z.B. CO2, H2O, oder NH3). Diese Affinität kann durch den Einbau von Stickstoff erhöht werden. Solche Materialien sind oft „edler“ als reine Kohlenstoffe, dies bedeutet, dass sie eher oxidierend wirken, als selbst oxidiert zu werden. Die Problematik besteht darin, einen hohen und gleichmäßig verteilten Stickstoffgehalt in das Kohlenstoffgerüst einzubauen. Die Zielsetzung dieser Dissertation ist die Erforschung neuer Synthesewege für stickstoffdotierte edle Kohlenstoffmaterialien und die Entwicklung eines grundlegenden Verständnisses für deren Anwendung in Gasadsorption und elektrochemischer Energiespeicherung. Es wurde eine templatfreie Synthese für stickstoffreiche, edle, und mikroporöse Kohlenstoffmaterialien durch direkte Kondensation eines stickstoffreichen organischen Moleküls als Vorläufer erarbeitet. Dadurch konnten Materialien mit hohen Adsorptionskapazitäten für H2O und CO2 bei niedrigen Konzentrationen und moderate CO2/N2 Selektivitäten erzielt werden. Um die CO2/N2 Selektivitäten zu verbessern, wurden mittels der Einstellung des Kondensationsgrades die molekulare Struktur und Porosität der Kohlenstoffmaterialien kontrolliert. Diese Materialien besitzen die Eigenschaften eines molekularen Siebs für CO2 über N2, das zu herausragenden CO2/N2 Selektivitäten führt. Der ultrahydrophile Charakter der Porenoberflächen und die kleinen Mikroporen dieser Kohlenstoffmaterialien ermöglichen grundlegende Untersuchungen für die Wechselwirkungen mit Molekülen die polarer sind als CO2, nämlich H2O und NH3. Eine weitere Reihe stickstoffdotierter Kohlenstoffmaterialien wurde durch Kondensation eines konjugierten mikroporösen Polymers synthetisiert und deren strukturelle Besonderheiten als Anodenmaterial für die Natriumionen Batterie untersucht. Diese Dissertation leistet einen Beitrag zur Erforschung stickstoffdotierter Kohlenstoffmaterialien und deren Wechselwirkungen mit verschiedenen Gastmolekülen. N2 - The growing energy demand of the modern economies leads to the increased consumption of fossil fuels in form of coal, oil, and natural gases, as the mains sources. The combustion of these carbon-based fossil fuels is inevitably producing greenhouse gases, especially CO2. Approaches to tackle the CO2 problem are to capture it from the combustion sources or directly from air, as well as to avoid CO2 production in energy consuming sources (e.g., in the refrigeration sector). In the former, relatively low CO2 concentrations and competitive adsorption of other gases is often leading to low CO2 capacities and selectivities. In both approaches, the interaction of gas molecules with porous materials plays a key role. Porous carbon materials possess unique properties including electric conductivity, tunable porosity, as well as thermal and chemical stability. Nevertheless, pristine carbon materials offer weak polarity and thus low CO2 affinity. This can be overcome by nitrogen doping, which enhances the affinity of carbon materials towards acidic or polar guest molecules (e.g., CO2, H2O, or NH3). In contrast to heteroatom-free materials, such carbon materials are in most cases “noble”, that is, they oxidize other matter rather than being oxidized due to the very positive working potential of their electrons. The challenging task here is to achieve homogenous distribution of significant nitrogen content with similar bonding motives throughout the carbon framework and a uniform pore size/distribution to maximize host-guest interactions. The aim of this thesis is the development of novel synthesis pathways towards nitrogen-doped nanoporous noble carbon materials with precise design on a molecular level and understanding of their structure-related performance in energy and environmental applications, namely gas adsorption and electrochemical energy storage. A template-free synthesis approach towards nitrogen-doped noble microporous carbon materials with high pyrazinic nitrogen content and C2N-type stoichiometry was established via thermal condensation of a hexaazatriphenylene derivative. The materials exhibited high uptake of guest molecules, such as H2O and CO2 at low concentrations, as well as moderate CO2/N2 selectivities. In the following step, the CO2/N2 selectivity was enhanced towards molecular sieving of CO2 via kinetic size exclusion of N2. The precise control over the condensation degree, and thus, atomic construction and porosity of the resulting materials led to remarkable CO2/N2 selectivities, CO2 capacities, and heat of CO2 adsorption. The ultrahydrophilic nature of the pore walls and the narrow microporosity of these carbon materials served as ideal basis for the investigation of interface effects with more polar guest molecules than CO2, namely H2O and NH3. H2O vapor physisorption measurements, as well as NH3-temperature programmed desorption and thermal response measurements showed exceptionally high affinity towards H2O vapor and NH3 gas. Another series of nitrogen-doped carbon materials was synthesized by direct condensation of a pyrazine-fused conjugated microporous polymer and their structure-related performance in electrochemical energy storage, namely as anode materials for sodium-ion battery, was investigated. All in all, the findings in this thesis exemplify the value of molecularly designed nitrogen-doped carbon materials with remarkable heteroatom content implemented as well-defined structure motives. The simultaneous adjustment of the porosity renders these materials suitable candidates for fundamental studies about the interactions between nitrogen-doped carbon materials and different guest species. KW - carbon materials KW - nitrogen-doped KW - gas adsorption KW - porosity KW - Porösität KW - Gasadsorption KW - Stickstoffdotiert KW - Kohlenstoffmaterialien Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-435241 ER - TY - THES A1 - Kagel, Heike T1 - Light-induced pH cycle T1 - Licht-induzierte pH- Steuerung BT - a non-invasive method to control biochemical reactions BT - eine nicht-invasive Methode zur Kontrolle biochemischer Reaktionen N2 - Background Many biochemical reactions depend on the pH of their environment and some are strongly accelerated in an acidic surrounding. A classical approach to control biochemical reactions non-invasivly is by changing the temperature. However, if the pH could be controlled by optical means using photo-active chemicals, this would mean to be able to accelerate suitable biochemical reactions. Optically switching the pH can be achieved by using photoacids. A photoacid is a molecule with a functional group that releases a proton upon irradiation with the suitable wavelength, acidifying the environmental aqueous surrounding. A major goal of this work was to establish a non-invasive method of optically controlling the pH in aqueous solutions, offering the opportunity to enhance the known chemical reactions portfolio. To demonstrate the photo-switchable pH cycling we chose an enzymatic assay using acid phosphatase, which is an enzyme with a strong pH dependent activity. Results In this work we could demonstrate a light-induced, reversible control of the enzymatic activity of acid phosphatase non-invasivly. To successfully conduct those experiments a high power LED array was designed and built, suitable for a 96 well standard microtiter plate, not being commercially available. Heat management and a lateral ventilation system to avoid heat accumulation were established and a stable light intensity achieved. Different photoacids were characterised and their pH dependent absorption spectra recorded. By using the reversible photoacid G-acid as a proton donor, the pH can be changed reversibly using high power UV 365 nm LEDs. To demonstrate the pH cycling, acid phosphatase with hydrolytic activity under acidic conditions was chosen. An assay using the photoacid together with the enzyme was established, also providing that G-acid does not inhibit acid phosphatase. The feasibility of reversibly regulating the enzyme’s pH dependent activity by optical means was demonstrated, by controlling the enzymatic activity with light. It was demonstrated that the enzyme activity depends on the light exposure time only. When samples are not illuminated and left in the dark, no enzymatic activity was recorded. The process can be rapidly controlled by simply switching the light on and off and should be applicable to a wide range of enzymes and biochemical reactions. Conclusions Reversible photoacids offer a light-dependent regulation of pH, making them extremely attractive for miniaturizable, non-invasive and time-resolved control of biochemical reactions. Many enzymes have a sharp pH dependent activity, thus the established setup in this thesis could be used for a versatile enzyme portfolio. Even though the demonstrated photo-switchable strategy could also be used for non-enzymatic assays, greatly facilitating the assay establishment. Photoacids have the potential for high throughput methods and automation. We demonstrated that it is possible to control photoacids using commonly available LEDs, making their use in highly integrated devices and instruments more attractive. The successfully designed 96 well high power UV LED array presents an opportunity for general combinatorial analysis in e.g. photochemistry, where a high light intensity is needed for the investigation of various reactions. N2 - Hintergrund Viele biochemische Reaktionen hängen vom pH-Wert ihrer Umgebung ab. Einige werden in einer sauren Umgebung stark beschleunigt. Ein klassischer Kontrollansatz nicht-invasiver biochemischer Reaktionen stellt die Änderung der Temperatur dar. Wenn jedoch der pH-Wert durch photoaktiven Chemikalien optisch gesteuert werden könnte, wäre es möglich geeignete biochemische Reaktionen zu beschleunigen. Die optische Steuerung des pH-Wertes kann durch die Verwendung von Photosäuren erfolgen. Eine Photosäure ist ein Molekül mit einer funktionellen Gruppe, welche bei Bestrahlung mit der geeigneten Wellenlänge ein Proton freisetzt und somit wässrige Umgebung ansäuert. Ein Hauptziel dieser Arbeit war es, eine nicht-invasive Methode zu etablieren und ein Verfahren zur optischen Kontrolle des pH-Wertes in wässrigen Lösungen zu entwickeln und somit das Portfolio biochemischer Reaktionen zu erweitern. Zur Demonstration der optischen Kontrolle des pH-Wertes wurde ein enzymatisches Assay mit der Verwendung von saurer Phosphatase gewählt. Dieses Enzym hat eine pH-abhängige Aktivität. Ergebnisse In dieser Arbeit konnte eine lichtinduzierte, nicht-invasive, reversible Kontrolle der enzymatischen Aktivität der sauren Phosphatase demonstriert werden. Um diese erfolgreich durchzuführen wurde ein Hochleistungs-LED-Array entworfen und gebaut, welches für standard 96er Mikrotiterplatten geeignet ist. So ein LED-Array ist nicht im Handel erhältlich. Zum Wärmemanagement wurde unter anderem ein seitliches Belüftungssystem zur Vermeidung von Wärmestau eingerichtet und somit eine stabile Licht Intensität erreicht. Verschiedene Photosäuren wurden charakterisiert und deren pH-abhängiges Absorptionsspektren aufgezeichnet. Unter Verwendung der reversiblen Photosäure G-Säure als Protonendonor kann der pH Wert mit Hilfe des Hochleistungs-LED-Arrays reversibel geändert werden. Um den schaltbaren pH- Wechsel zu demonstrieren wurde die saure Phosphatase, welche unter sauren pH Wert hydrolytische Aktivität zeigt, gewählt. Ein Assay, bei dem die Photosäure zusammen mit dem Enzym verwendet wurde zeigt, dass G-Säure die saure Phosphatase nicht hemmt. Die reversible Regelung der pH-abhängigen Aktivität des Enzyms durch optische Kontrolle wurde nachgewiesen. Es wurde gezeigt, dass die Enzymaktivität allein von der Belichtungszeit abhängig ist. Wenn die Proben nicht beleuchtet wurden und im Dunkeln blieben, wurde keine enzymatische Aktivität aufgezeichnet. Der Prozess kann einfach und schnell gesteuert durch Ein- und Ausschalten des Lichts gesteuert werden und sollte auf eine Vielzahl von Enzymen und biochemischen Reaktionen anwendbar sein. Schlussfolgerungen Reversible Photosäuren ermöglichen eine lichtabhängige Regulierung des pH-Wertes. Sie sind äußerst attraktiv für miniaturisierbare, nicht invasive und zeitaufgelöste Steuerung von biochemischen Reaktionen. Viele Enzyme haben eine starke pH-abhängige Aktivität, daher könnte der in dieser Arbeit etablierte für ein vielseitiges Enzymportfolio verwendet werden. Die vorgestellte photo-schaltbare-Strategie könnte jedoch auch für nicht-enzymatische verwendet werden. Photosäuren haben das Potenzial für Hochdurchsatzverfahren und Automatisierung. Wir haben gezeigt, dass es möglich ist Photosäuren mit handelsüblichen LEDs, zu kontrollieren. Damit ist eine integration in Handelsübliche Geräte möglich. Das erfolgreich designte 96 Well Hochleisuntg- LED-Array bietet eine Möglichkeit zur allgemeinen kombinatorischen Analyse in z.B. Photochemie, wo eine hohe Lichtintensität für die Untersuchung verschiedener Reaktionen benötigt wird. KW - photoacid KW - photo-induced KW - acid phosphatase KW - High Power LED Array KW - Photosäure KW - photoinduziert KW - saure Phosphatase KW - Hochleistungs-LED-Array Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434353 ER - TY - THES A1 - Korges, Maximilian T1 - Constraining the hydrology of intrusion-related ore deposits with fluid inclusions and numerical modeling T1 - Bestimmung der Hydrologie von Erzlagerstätten an Intrusionen mit Flüssigkeitseinschlüssen und numerischer Modellierung N2 - Magmatic-hydrothermal fluids are responsible for numerous mineralization types, including porphyry copper and granite related tin-tungsten (Sn-W) deposits. Ore formation is dependent on various factors, including, the pressure and temperature regime of the intrusions, the chemical composition of the magma and hydrothermal fluids, and fluid rock interaction during the ascent. Fluid inclusions have potential to provide direct information on the temperature, salinity, pressure and chemical composition of fluids responsible for ore formation. Numerical modeling allows the parametrization of pluton features that cannot be analyzed directly via geological observations. Microthermometry of fluid inclusions from the Zinnwald Sn-W deposit, Erzgebirge, Germany / Czech Republic, provide evidence that the greisen mineralization is associated with a low salinity (2-10 wt.% NaCl eq.) fluid with homogenization temperatures between 350°C and 400°C. Quartzes from numerous veins are host to inclusions with the same temperatures and salinities, whereas cassiterite- and wolframite-hosted assemblages with slightly lower temperatures (around 350°C) and higher salinities (ca. 15 wt. NaCl eq.). Further, rare quartz samples contained boiling assemblages consisting of coexisting brine and vapor phases. The formation of ore minerals within the greisen is driven by invasive fluid-rock interaction, resulting in the loss of complexing agents (Cl-) leading to precipitation of cassiterite. The fluid inclusion record in the veins suggests boiling as the main reason for cassiterite and wolframite mineralization. Ore and coexisting gangue minerals hosted different types of fluid inclusions where the beginning boiling processes are solely preserved by the ore minerals emphasizing the importance of microthermometry in ore minerals. Further, the study indicates that boiling as a precipitation mechanism can only occur in mineralization related to shallow intrusions whereas deeper plutons prevent the fluid from boiling and can therefore form tungsten mineralization in the distal regions. The tin mineralization in the Hämmerlein deposit, Erzgebirge, Germany, occurs within a skarn horizon and the underlying schist. Cassiterite within the skarn contains highly saline (30-50 wt% NaCl eq.) fluid inclusions, with homogenization temperatures up to 500°C, whereas cassiterites from the schist and additional greisen samples contain inclusions of lower salinity (~5 wt% NaCl eq.) and temperature (between 350 and 400°C). Inclusions in the gangue minerals (quartz, fluorite) preserve homogenization temperatures below 350°C and sphalerite showed the lowest homogenization temperatures (ca. 200°C) whereby all minerals (cassiterite from schist and greisen, gangue minerals and sphalerite) show similar salinity ranges (2-5 wt% NaCl eq.). Similar trace element contents and linear trends in the chemistry of the inclusions suggest a common source fluid. The inclusion record in the Hämmerlein deposit documents an early exsolution of hot brines from the underlying granite which is responsible for the mineralization hosted by the skarn. Cassiterites in schist and greisen are mainly forming due to fluid-rock interaction at lower temperatures. The low temperature inclusions documented in the sphalerite mineralization as well as their generally low trace element composition in comparison to the other minerals suggests that their formation was induced by mixing with meteoric fluids. Numerical simulations of magma chambers and overlying copper distribution document the importance of incremental growth by sills. We analyzed the cooling behavior at variable injection intervals as well as sill thicknesses. The models suggest that magma accumulation requires volumetric injection rates of at least 4 x 10-4 km³/y. These injection rates are further needed to form a stable magmatic-hydrothermal fluid plume above the magma chamber to ensure a constant copper precipitation and enrichment within a confined location in order to form high-grade ore shells within a narrow geological timeframe between 50 and 100 kyrs as suggested for porphyry copper deposits. The highest copper enrichment can be found in regions with steep temperature gradients, typical of regions where the magmatic-hydrothermal fluid meets the cooler ambient fluids. N2 - Magmatisch-hydrothermale Fluide sind verantwortlich für zahlreiche Mineralisationstypen, wie porphyrische Kupferlagerstätten und granitgebundene Zinn-Wolfram (Sn-W) Lagerstätten. Die Lagerstättenbildung ist abhängig von unterschiedlichen Faktoren, z.B. dem Druck- und Temperaturregime der Intrusion, der chemischen Zusammensetzung des Magmas und der hydrothermalen Fluide sowie den Fluid-Gesteinsreaktionen während des Aufstiegs der Fluide. Flüssigkeitseinschlüsse haben das Potential, direkte Informationen zur Temperatur, zum Salzgehalt, zum Druck und der Chemie der Fluide, welche für die Lagerstättenbildung verantwortlich sind, zu liefern. Außerdem erlauben numerische Modellierungen die Parametrisierung der Plutoneigenschaften, die nicht direkt anhand von geologischen Beobachtungen analysiert werden können. Mikrothermometrie von Flüssigkeitseinschlüssen der Zinnwald Sn-W Lagerstätte zeigen, dass die Vergreisung an ein schwach salzhaltiges (2-10 wt.% NaCl eq.) Fluid gebunden ist, das zwischen 350°C und 400°C homogenisiert. Quarze der diversen Gänge beinhalten Einschlüsse mit den gleichen Temperaturen und Salzgehalten, wohingegen Kassiterit und Wolframit Einschlüsse mit niedrigeren Temperaturen (um 350°C) und höheren Salzgehalten zeigen (ca. 15 wt. NaCl eq.). Seltene Quarzproben enthalten kochende Einschluss-Ansammlungen, die aus koexistierenden salzreichen Lösungen und gasreichen Phasen bestehen. Die Bildung der Erzminerale des Greisens entsteht durch tiefgreifende Fluid-Gesteinsreaktionen, die den Verlust des Komplexbildners (Cl-) zur Folge haben, wodurch Kassiterit ausgefällt wird. Die Einschlüsse in den Gängen verdeutlichen, dass kochende Fluide der Hauptgrund für die Kassiterit– und Wolframit–Mineralisation sind. Erz- und benachbarte Gangminerale beinhalten unterschiedliche Einschlusstypen, wobei die beginnende Phasenseparation ausschließlich in den Erzmineralen erhalten ist, wodurch die Bedeutung der Mikrothermometrie in Erzmineralen hervorgehoben wird. Die Studie verdeutlicht weiterhin, dass Phasenseparation als Ausfällungsmechanismus nur in Lagerstätten gefunden werden können, die an flache Intrusionen gebunden sind, wohingegen tiefsitzende Granite die Phasenseparation verhindern. Dies hat zur Folge, dass eine Wolfram–Vererzung eher distal zur Intrusion auftritt. Die Zinn-Mineralisation der Hämmerlein Lagerstätte tritt sowohl in einem Skarn–Horizont als auch im darunterliegenden Schiefer auf. Fluideinschlüsse in Kassiteriten des Skarns enthalten Fluide mit hohem Salzgehhalt (30-50 wt% NaCl eq.) und Homogenisierungstemperaturen von bis zu 500°C, wohingegen Kassiterite des Schiefers (und von zusätzlichen Greisenproben) Einschlüsse mit geringerem Salzgehalt (~5 wt% NaCl eq.) und geringeren Temperaturen (zwischen 350 und 400°C) enthalten. Einschlüsse in Gangmineralen (Quarz, Fluorit) zeigen Homogenisierungstemperaturen von unter 350°C und Einschlüsse in Sphaleriten konservieren die niedrigsten gemessenen Temperaturen (ca. 200°C). Allerdings haben Flüssigkeitseinschlüsse in allen Mineralen (Kassiterite der Schiefer und Greisen, Gangminerale und Sphalerit) einen annähernd gleichen Salzgehalt (2-5 wt% NaCl eq.). Ähnliche Spurenelementgehalte und lineare Trends in der Chemie der Einschlüsse deuten auf ein gemeinsames Ursprungsfluid hin. Die Einschlüsse in der Hämmerlein-Lagerstätte dokumentieren eine frühe Entmischung von heißen Fluiden mit hohem Salzgehalt aus dem darunterliegenden Granit, die für die Mineralisation im Skarn verantwortlich ist. Die Kassiterite der Schiefer und der Greisen formen sich hauptsächlich durch Fluid-Gesteinsreaktionen bei niedrigeren Temperaturen. Die Niedrigtemperatureinschlüsse in Sphalerit und die im Vergleich zu den anderen Mineralen niedrigen Spurenelementgehalte deuten auf eine Bildung aufgrund von Mischungsprozessen mit meteorischen Fluiden hin. Numerische Simulationen von Magmenkammern und deren darüber gelegenen Kupferverteilungen dokumentieren die Wichtigkeit des schrittweisen Wachstums einer Intrusion durch Sills. Wir untersuchten das Abkühlungsverhalten bei unterschiedlichen Injektionsintervallen sowie bei unterschiedlicher Mächtigkeit des Sills. Die Modelle deuten darauf hin, dass für die Bildung der Magmakammer eine Injektionsrate von mindestens ca. 4 x 10-4 km³/y benötigt wird. Solche Raten sind ebenfalls nötig um eine kontinuierliche Bildung von magmatisch-hydrothermalen Fluiden zu garantieren, denn nur dann können sich hoch vererzte Bereiche in einem kurzen geologischen Zeitraum von 50.000 bis 100.000 Jahren bilden, so wie es für porphyrische Kupferlagerstätten angenommen wird. Die höchsten Kupfergehalte bilden sich in Regionen mit steilem Temperaturgradient, also vor allem in Bereichen, wo das magmatisch-hydrothermale Fluid auf kältere meteorische Fluide trifft. KW - fluid inclusions KW - numerical modeling KW - Flüssigkeitseinschlüsse KW - numerische Modellierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434843 ER - TY - THES A1 - Laudan, Jonas T1 - Changing susceptibility of flood-prone residents in Germany T1 - Die Änderung der Anfälligkeit von Hochwassergefährdeten Anwohnern in Deutschland BT - mental coping and mitigation behaviour in the context of different flood types BT - Mentale Bewältigung und Schadensminderungsverhalten im Zusammenhang mit Verschiedenen Hochwassertypen N2 - Floods are among the most costly natural hazards that affect Europe and Germany, demanding a continuous adaptation of flood risk management. While social and economic development in recent years altered the flood risk patterns mainly with regard to an increase in flood exposure, different flood events are further expected to increase in frequency and severity in certain European regions due to climate change. As a result of recent major flood events in Germany, the German flood risk management shifted to more integrated approaches that include private precaution and preparation to reduce the damage on exposed assets. Yet, detailed insights into the preparedness decisions of flood-prone households remain scarce, especially in connection to mental impacts and individual coping strategies after being affected by different flood types. This thesis aims to gain insights into flash floods as a costly hazard in certain German regions and compares the damage driving factors to the damage driving factors of river floods. Furthermore, psychological impacts as well as the effects on coping and mitigation behaviour of flood-affected households are assessed. In this context, psychological models such as the Protection Motivation Theory (PMT) and methods such as regressions and Bayesian statistics are used to evaluate influencing factors on the mental coping after an event and to identify psychological variables that are connected to intended private flood mitigation. The database consists of surveys that were conducted among affected households after major river floods in 2013 and flash floods in 2016. The main conclusions that can be drawn from this thesis reveal that the damage patterns and damage driving factors of strong flash floods differ significantly from those of river floods due to a rapid flow origination process, higher flow velocities and flow forces. However, the effects on mental coping of people that have been affected by flood events appear to be weakly influenced by different flood types, but yet show a coherence to the event severity, where often thinking of the respective event is pronounced and also connected to a higher mitigation motivation. The mental coping and preparation after floods is further influenced by a good information provision and a social environment, which encourages a positive attitude towards private mitigation. As an overall recommendation, approaches for an integrated flood risk management in Germany should be followed that also take flash floods into account and consider psychological characteristics of affected households to support and promote private flood mitigation. Targeted information campaigns that concern coping options and discuss current flood risks are important to better prepare for future flood hazards in Germany. N2 - Hochwasser zählen zu den schadensträchtigsten Naturgefahren, die in Europa und Deutschland vorkommen. In Deutschland traten in den letzten Jahren einige sehr starke Hochwasser und Überflutungen auf, die die Einstufung von Hochwassern als gefährliche Naturgewalt bestätigten. Private Haushalte leiden unter finanziellen und persönlichen Verlusten und sind sogar teilweise mehrfach betroffen. Folgenreiche Hochwasser, die im Gedächtnis blieben, waren insbesondere das Elbe-Hochwasser im Sommer 2002 sowie Überschwemmungen mit Schwerpukten an Elbe und Donau im Juni 2013. Im Mai und Juni 2016 kam es zu heftigen Unwettern über Zentraleuropa, während insbesondere Süddeutschland von Starkregen und Sturzfluten betroffen war. Hierbei wurden vereinzelte Ortschaften in Baden-Württtemberg (vor allem Braunsbach) und Bayern (vor allem Simbach am Inn) von extremen Sturzfluten beeinträchtigt und Bauwerke stark beschädigt. Als Reaktion auf die Flusshochwasser 2002 und 2013 wurde unter anderem das aktuelle Hochwasserrisikomanagement in Deutschland so angepasst, dass neben übergeordneten und technischen Hochwasserschutzmaßnahmen auch auf lokaler Ebene Maßnahmen ergriffen werden müssen. Diese umfassen Hochwasservorsorgemaßnahmen, die betroffene Haushalte selbst implementieren sollen. Neben strukturellen Maßnahmen wie z.B. der Verlegung von Heizung, Elektronik und Öltank in nicht-gefährdete Stockwerke sowie dem Schutz des Gebäudes vor Eindringen von Wasser, können auch nichtstrukturelle Maßnahmen, wie z.B. eine angepasste Wohnraumnutzung und das Verwenden von geeigneter Inneneinrichtung, ergriffen werden, um Hochwasserschäden signifikant zu verringern. Bis heute ist es jedoch unklar, aus welchen Gründen sich die betroffenen Menschen für Hochwasservorsorgemaßnahmen entscheiden und wie die individuelle Motivation, Maßnahmen zu implementieren, verstärkt werden kann. Neben dem Wissen um die eigene Hochwassergefährdung ist anzunehmen, dass die Selbsteinschätzung in Bezug auf einen wirksamen Umgang mit Hochwassern ausschlaggebend für die Motivation zur Vorsorge ist. Außerdem kann davon ausgegangen werden, dass verschiedene Hochwassertypen wie Flusshochwasser und Sturzfluten mit ihren unterschiedlichen Dynamiken unterschiedliche Auswirkungen auf die mentale Bewältigung und somit auch auf das Vorsorgeverhalten hervorrufen. Die vorliegende Arbeit hat demnach zum Ziel, Flusshochwasser und Sturzfluten in Deutschland miteinander zu vergleichen, wobei der Fokus auf schadenstreibenden Faktoren und psychologischen Auswirkungen auf betroffene Haushalte liegt. Weiterhin sollen damit verbundenes Vorsorgeverhalten untersucht und gegebenenfalls Handlungsempfehlungen für das Hochwasserrisikomanagement abgeleitet werden, das einerseits psychologische Charakteristika und andererseits Sturzfluten als signifikante Naturgefahr in Deutschland miteinbezieht. Hierbei werden sozio-ökonomische, zwischenmenschliche und psychologische Variablen von Haushalten ausgewertet, die 2013 und 2016 von Flusshochwassern und Sturzfluten betroffen waren. Dabei kommen verschiedene Methoden (Regressionen, Bayessche Statistik) und Modelle (Protection Motivation Theory) zum Einsatz, um Verbindungen zwischen den Variablen aufzeigen. Die Ergebnisse veranschaulichen erstens, dass Flusshochwasser und Sturzfluten zwar unterschiedliche Schäden an Gebäuden aufgrund verschiedener Flutdynamiken hervorrufen können, was sich bei Betroffenen jedoch nicht in unterschiedlichen psychologischen Auswirkungen widerspiegelt. Vielmehr ist die jeweilige Stärke und Schwere des Hochwassers entscheidend für charakteristische Ausprägungen von psychologischen Variablen. In diesem Falle sorgt eine stärkere Flut dafür, dass häufiger an das jeweilige Ereignis gedacht wird, während die Motivation zur Eigenvorsorge in solchen Fällen erhöht scheint. Zweitens sind ein soziales Umfeld, in dem bereits Vorsorgemaßnahmen implementiert wurden, sowie hilfreiche Informationen für geeignete Maßnahmen, deren Kosten und Aufklärung über das aktuelle Hochwasserrisiko förderlich für die Motivation, private Vorsorge zu betreiben. Ein aktuelles Hochwasserrisikomanagement sollte demnach auch Sturzfluten als mögliches Risiko in Deutschland miteinbeziehen und mehr in die Aufklärung und private Unterstützung bei Hochwassern investieren. Ein besseres Verstehen von psychologischen und mentalen Auswirkungen von verschiedenen Hochwassertypen hat den Vorteil, dass Hilfe und Informationskampagnen individuell und effizient gestaltet, Schäden minimiert und Schadensprognosen aufgrund der genaueren Kenntnisse über Vorsorgeverhalten verbessert werden können. KW - floods KW - psychology KW - flash floods KW - Hochwasser KW - Psychologie KW - Sturzfluten Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434421 ER - TY - THES A1 - Krejca, Martin Stefan T1 - Theoretical analyses of univariate estimation-of-distribution algorithms N2 - Optimization is a core part of technological advancement and is usually heavily aided by computers. However, since many optimization problems are hard, it is unrealistic to expect an optimal solution within reasonable time. Hence, heuristics are employed, that is, computer programs that try to produce solutions of high quality quickly. One special class are estimation-of-distribution algorithms (EDAs), which are characterized by maintaining a probabilistic model over the problem domain, which they evolve over time. In an iterative fashion, an EDA uses its model in order to generate a set of solutions, which it then uses to refine the model such that the probability of producing good solutions is increased. In this thesis, we theoretically analyze the class of univariate EDAs over the Boolean domain, that is, over the space of all length-n bit strings. In this setting, the probabilistic model of a univariate EDA consists of an n-dimensional probability vector where each component denotes the probability to sample a 1 for that position in order to generate a bit string. My contribution follows two main directions: first, we analyze general inherent properties of univariate EDAs. Second, we determine the expected run times of specific EDAs on benchmark functions from theory. In the first part, we characterize when EDAs are unbiased with respect to the problem encoding. We then consider a setting where all solutions look equally good to an EDA, and we show that the probabilistic model of an EDA quickly evolves into an incorrect model if it is always updated such that it does not change in expectation. In the second part, we first show that the algorithms cGA and MMAS-fp are able to efficiently optimize a noisy version of the classical benchmark function OneMax. We perturb the function by adding Gaussian noise with a variance of σ², and we prove that the algorithms are able to generate the true optimum in a time polynomial in σ² and the problem size n. For the MMAS-fp, we generalize this result to linear functions. Further, we prove a run time of Ω(n log(n)) for the algorithm UMDA on (unnoisy) OneMax. Last, we introduce a new algorithm that is able to optimize the benchmark functions OneMax and LeadingOnes both in O(n log(n)), which is a novelty for heuristics in the domain we consider. N2 - Optimierung ist ein Hauptbestandteil technologischen Fortschritts und oftmals computergestützt. Da viele Optimierungsprobleme schwer sind, ist es jedoch unrealistisch, eine optimale Lösung in angemessener Zeit zu erwarten. Daher werden Heuristiken verwendet, also Programme, die versuchen hochwertige Lösungen schnell zu erzeugen. Eine konkrete Klasse sind Estimation-of-Distribution-Algorithmen (EDAs), die sich durch das Entwickeln probabilistischer Modelle über dem Problemraum auszeichnen. Ein solches Modell wird genutzt, um neue Lösungen zu erzeugen und damit das Modell zu verfeinern, um im nächsten Schritt mit erhöhter Wahrscheinlichkeit bessere Lösungen zu generieren. In dieser Arbeit untersuchen wir die Klasse univariater EDAs in der booleschen Domäne, also im Raum aller Bitstrings der Länge n. Das probabilistische Modell eines univariaten EDAs besteht dann aus einem n-dimensionalen Wahrscheinlichkeitsvektor, in dem jede Komponente die Wahrscheinlichkeit angibt, eine 1 an der entsprechenden Stelle zu erzeugen. Mein Beitrag folgt zwei Hauptrichtungen: Erst untersuchen wir allgemeine inhärente Eigenschaften univariater EDAs. Danach bestimmen wir die erwartete Laufzeit gewisser EDAs auf Benchmarks aus der Theorie. Im ersten Abschnitt charakterisieren wir, wann EDAs unbefangen bezüglich der Problemcodierung sind. Dann untersuchen wir sie in einem Szenario, in dem alle Lösungen gleich gut sind, und zeigen, dass sich ihr Modell schnell zu einem falschen entwickelt, falls es immer so angepasst wird, dass sich im Erwartungswert nichts ändert. Im zweiten Abschnitt zeigen wir, dass die Algorithmen cGA und MMAS-fp eine verrauschte Variante des klassischen Benchmarks OneMax effizient optimieren, bei der eine Gaussverteilung mit Varianz σ² hinzuaddiert wird. Wir beweisen, dass die Algorithmen das wahre Optimum in polynomieller Zeit bezüglich σ² und n erzeugen. Für den MMAS-fp verallgemeinern wir dieses Ergebnis auf lineare Funktionen. Weiterhin beweisen wir eine Laufzeit von Ω(n log(n)) für den Algorithmus UMDA auf OneMax (ohne Rauschen). Zuletzt führen wir einen neuen Algorithmus ein, der die Benchmarks OneMax und LeadingOnes in O(n log(n)) optimiert, was zuvor für noch keine Heuristik gezeigt wurde. T2 - Theoretische Analysen univariater Estimation-of-Distribution-Algorithmen KW - theory KW - estimation-of-distribution algorithms KW - univariate KW - pseudo-Boolean optimization KW - run time analysis KW - Theorie KW - Estimation-of-Distribution-Algorithmen KW - univariat KW - pseudoboolesche Optimierung KW - Laufzeitanalyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434870 ER - TY - THES A1 - Arf, Shelan Ali T1 - Women’s everyday reality of social insecurity T1 - Soziale Unsicherheit als alltägliche Realität für geschiedene Frauen in Irakisch-Kurdistan BT - the case of divorced women in Iraqi Kurdistan N2 - Since 1980 Iraq passed through various wars and conflicts including Iraq-Iran war, Saddam Hussein’s the Anfals and Halabja campaigns against the Kurds and the killing campaigns against Shiite in 1986, Saddam Hussein’s invasion of Kuwait in August 1990, the Gulf war in 1990, Iraq war in 2003 and the fall of Saddam, the conflicts and chaos in the transmission of power after the death of Saddam, and the war against ISIS . All these wars left severe impacts in most households in Iraq; on women and children in particular. The consequences of such long wars could be observed in all sectors including economic, social, cultural and religious sectors. The social structure, norms and attitudes are intensely affected. Many women specifically divorced women found them-selves in challenging different difficulties such as social as well as economic situations. Thus the divorced women in Iraqi Kurdistan are the focus of this research. Considering the fact that there is very few empirical researches on this topic, a constructivist grounded theory methodology (CGT) is viewed as reliable in order to come up with a comprehensive picture about the everyday life of divorced women in Iraqi Kurdistan. Data collected in Sulaimani city in Iraqi Kurdistan. The work of Kathy Charmaz was chosen to be the main methodological context of the research and the main data collection method was individual intensive narrative interviews with divorced women. Women generally and divorced women specifically in Iraqi Kurdistan are living in a patriarchal society that passing through many changes due to the above mentioned wars among many other factors. This research is trying to study the everyday life of divorced women in such situations and the forms of social insecurity they are experiencing. The social institutions starting from the family as a very significant institution for women to the governmental and non-governmental institutions that are working to support women, and the copying strategies, are in focus in this research. The main research argument is that the family is playing ambivalent roles in divorced women’s life. For instance, on one side families are revealed to be an essential source of security to most respondents, on the other side families posed also many threats and restrictions on those women. This argument supported by what called by Suad joseph "the paradox of support and suppression" . Another important finding is that the stat institution(laws , constitutions ,Offices of combating violence against woman and family) are supporting women somehow and offering them protection from the insecurities but it is clear that the existence of the laws does not stop the violence against women in Iraqi Kurdistan, As explained by Pateman because the laws /the contract is a sexual-social contract that upholds the sex rights of males and grants them more privileges than females. The political instability, Tribal social norms also play a major role in influencing the rule of law. It is noteworthy to refer that analyzing the interviews in this research showed that in spite that divorced women living in insecurities and facing difficulties but most of the respondents try to find a coping strategies to tackle difficult situations and to deal with the violence they face; these strategies are bargaining, sometimes compromising or resisting …etc. Different theories used to explain these coping strategies such as bargaining with patriarchy. Kandiyoti who stated that women living under certain restraints struggle to find way and strategies to enhance their situations. The research finding also revealed that the western liberal feminist view of agency is limited this is agree with Saba Mahmood and what she explained about Muslim women agency. For my respondents, who are divorced women, their agency reveals itself in different ways, in resisting or compromising with or even obeying the power of male relatives, and the normative system in the society. Agency is also explained the behavior of women contacting formal state institutions in cases of violence like the police or Offices of combating violence against woman and family. N2 - Irakisch-Kurdistan ist ein von Konflikten geprägtes Land. Diese haben tiefgreifende soziale, kulturelle, ökonomische und religiöse Folgen. Insbesondere geschiedene Frauen finden sich oft in herausfordernden Situationen. Aufgrund des Mangels an empirischen Analysen wendet diese Studie Grounded Theory an, um sich mit dem Alltag von geschiedenen Frauen in Iraqi Kurdistan zu beschäftigen. Hierbei wird besonders auf Themen sie soziale Sicherheit, agency, Verhandlungs- und Widerstandsstrategien eingegangen. KW - divorced women KW - Iraqi Kurdistan KW - geschiedene Frauen KW - Irakisch-Kurdistan Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434333 ER - TY - THES A1 - Sarhan, Radwan Mohamed T1 - Plasmon-driven photocatalytic reactions monitored by surface-enhanced Raman spectroscopy T1 - Plasmonen-getriebene photokatalytische Reaktionen, gemessen mittels oberflächenverstärkter Raman-Spektroskopie N2 - Plasmonic metal nanostructures can be tuned to efficiently interact with light, converting the photons into energetic charge carriers and heat. Therefore, the plasmonic nanoparticles such as gold and silver nanoparticles act as nano-reactors, where the molecules attached to their surfaces benefit from the enhanced electromagnetic field along with the generated energetic charge carriers and heat for possible chemical transformations. Hence, plasmonic chemistry presents metal nanoparticles as a unique playground for chemical reactions on the nanoscale remotely controlled by light. However, defining the elementary concepts behind these reactions represents the main challenge for understanding their mechanism in the context of the plasmonically assisted chemistry. Surface-enhanced Raman scattering (SERS) is a powerful technique employing the plasmon-enhanced electromagnetic field, which can be used for probing the vibrational modes of molecules adsorbed on plasmonic nanoparticles. In this cumulative dissertation, I use SERS to probe the dimerization reaction of 4-nitrothiophenol (4-NTP) as a model example of plasmonic chemistry. I first demonstrate that plasmonic nanostructures such as gold nanotriangles and nanoflowers have a high SERS efficiency, as evidenced by probing the vibrations of the rhodamine dye R6G and the 4-nitrothiophenol 4-NTP. The high signal enhancement enabled the measurements of SERS spectra with a short acquisition time, which allows monitoring the kinetics of chemical reactions in real time. To get insight into the reaction mechanism, several time-dependent SERS measurements of the 4-NTP have been performed under different laser and temperature conditions. Analysis of the results within a mechanistic framework has shown that the plasmonic heating significantly enhances the reaction rate, while the reaction is probably initiated by the energetic electrons. The reaction was shown to be intensity-dependent, where a certain light intensity is required to drive the reaction. Finally, first attempts to scale up the plasmonic catalysis have been performed showing the necessity to achieve the reaction threshold intensity. Meanwhile, the induced heat needs to quickly dissipate from the reaction substrate, since otherwise the reactants and the reaction platform melt. This study might open the way for further work seeking the possibilities to quickly dissipate the plasmonic heat generated during the reaction and therefore, scaling up the plasmonic catalysis. N2 - Plasmonische Metallnanostrukturen können so eingestellt werden, dass sie effizient mit Licht interagieren, Photonen in energetische Ladungsträger und wärmeenergie umwandeln. Aus diesem Grund wirken plasmonische Nanopartikel wie Gold und Silbernanopartikel als Nanoreaktoren, wenn Moleküle mit deren Oberfläche verbunden sind. Durch das verstärkte elektromagnetische Feld und den somit erzeugten energetischen Ladungsträgern und der wärmeenergie können chemische Umwandlungen entstehen. Das bedeutet, in der plasmonischen Chemie sind Metallnanopartikel ein einzigartiges system um chemische Reaktionen auf der Nanoebene unter der Kontrolle von Licht verfolgen zu können. Die Herausforderung liegt darin, grundlegende Konzepte hinter den Reaktionen für das mechanistische Verständnis in Bezug auf die plasmonisch unterstützte Chemie zu definieren. Oberflächenverstärkte Raman Streuung (SERS) ist eine leistungsfähige Technik, die sich mit plasmonverstärkten, elektromagnetischen Feldern beschäftigt, um die Vibrationsmoden von den auf den Nanopartikeln absorbierten Molekülen zu analysieren. In dieser kumulativen Dissertation wurde die Dimerisierung von 4-Nitrothiophenol (4-NTP) mittels SERS als Beispielreaktion für die plasmonische Chemie untersucht. Aufgrund der hohen SERS Signalverstärkung konnten die SERS Spektren mit einer kurzen Erfassungszeit aufgenommen werden, was die Untersuchung der Kinetik und des Reaktionsmechanismus in Echtzeit ermöglichte. KW - plasmonic chemistry KW - plasmonische Chemie KW - heiße Elektronen KW - SERS KW - SERS Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-433304 ER - TY - THES A1 - Ramachandran, Varsha T1 - Massive star evolution, star formation, and feedback at low metallicity T1 - Massive Sternentwicklung, Sternentstehung, und das Feedback bei niedriger Metallizität BT - quantitative spectroscopy of OB stars in the Magellanic Clouds N2 - The goal of this thesis is to broaden the empirical basis for a better, comprehensive understanding of massive star evolution, star formation and feedback at low metallicity. Low metallicity massive stars are a key to understand the early universe. Quantitative information on metal-poor massive stars was sparse before. The quantitative spectroscopic studies of massive star populations associated with large-scale ISM structures were not performed at low metallicity before, but are important to investigate star-formation histories and feedback in detail. Much of this work relies on spectroscopic observations with VLT-FLAMES of ~500 OB stars in the Magellanic Clouds. When available, the optical spectroscopy was complemented by UV spectra from the HST, IUE, and FUSE archives. The two representative young stellar populations that have been studied are associated with the superbubble N 206 in the Large Magellanic Cloud (LMC) and with the supergiant shell SMC-SGS 1 in the Wing of the Small Magellanic Cloud (SMC), respectively. We performed spectroscopic analyses of the massive stars using the nonLTE Potsdam Wolf-Rayet (PoWR) model atmosphere code. We estimated the stellar, wind, and feedback parameters of the individual massive stars and established their statistical distributions. The mass-loss rates of N206 OB stars are consistent with theoretical expectations for LMC metallicity. The most massive and youngest stars show nitrogen enrichment at their surface and are found to be slower rotators than the rest of the sample. The N 206 complex has undergone star formation episodes since more than 30 Myr, with a current star formation rate higher than average in the LMC. The spatial age distribution of stars across the complex possibly indicates triggered star formation due to the expansion of the superbubble. Three very massive, young Of stars in the region dominate the ionizing and mechanical feedback among hundreds of other OB stars in the sample. The current stellar wind feedback rate from the two WR stars in the complex is comparable to that released by the whole OB sample. We see only a minor fraction of this stellar wind feedback converted into X-ray emission. In this LMC complex, stellar winds and supernovae equally contribute to the total energy feedback, which eventually powered the central superbubble. However, the total energy input accumulated over the time scale of the superbubble significantly exceeds the observed energy content of the complex. The lack of energy along with the morphology of the complex suggests a leakage of hot gas from the superbubble. With a detailed spectroscopic study of massive stars in SMC-SGS 1, we provide the stellar and wind parameters of a large sample of OB stars at low metallicity, including those in the lower mass-range. The stellar rotation velocities show a broad, tentatively bimodal distribution, with Be stars being among the fastest. A few very luminous O stars are found close to the main sequence, while all other, slightly evolved stars obey a strict luminosity limit. Considering additional massive stars in evolved stages, with published parameters and located all over the SMC, essentially confirms this picture. The comparison with single-star evolutionary tracks suggests a dichotomy in the fate of massive stars in the SMC. Only stars with an initial mass below 30 solar masses seem to evolve from the main sequence to the cool side of the HRD to become a red supergiant and to explode as type II-P supernova. In contrast, more massive stars appear to stay always hot and might evolve quasi chemically homogeneously, finally collapsing to relatively massive black holes. However, we find no indication that chemical mixing is correlated with rapid rotation. We measured the key parameters of stellar feedback and established the links between the rates of star formation and supernovae. Our study demonstrates that in metal-poor environments stellar feedback is dominated by core-collapse supernovae in combination with winds and ionizing radiation supplied by a few of the most massive stars. We found indications of the stochastic mode of star formation, where the resulting stellar population is fully capable of producing large-scale structures such as the supergiant shell SMC-SGS 1 in the Wing. The low level of feedback in metal-poor stellar populations allows star formation episodes to persist over long timescales. Our study showcases the importance of quantitative spectroscopy of massive stars with adequate stellar-atmosphere models in order to understand star-formation, evolution, and feedback. The stellar population analyses in the LMC and SMC make us understand that massive stars and their impact can be very different depending on their environment. Obviously, due to their different metallicity, the massive stars in the LMC and the SMC follow different evolutionary paths. Their winds differ significantly, and the key feedback agents are different. As a consequence, the star formation can proceed in different modes. N2 - Massereiche Sterne, also Sterne, die ihre Entwicklung mit mehr als acht Sonnenmassen starten, spielen die Hauptrolle in der chemischen Entwicklung des Universums. Darüberhinaus formen sie das sie umgebende interstellare Medium, aus dem sie entstanden sind, durch ihre ionisierende Strahlung und ihre starken Massenausflüsse in Form von Sternwinden und Supernovaexplosionen, das sogenannte Feedback. Diese Arbeit verbreitert die empirische Basis für ein besseres Verständnis der Entwicklung, Entstehung und des Feedbacks massereicher Sterne bei niedriger Metallizität, wie sie auch im frühen Universum herrschte, wesentlich. Hierfür wurden die Daten von zwei großen spektroskopischen Beobachtungskampagnen in der Großen (LMC) und in der Kleinen Magellanschen Wolke (SMC) - beides Galaxien mit erniedrigter Metallizität - mittels des Non-LTE Potsdam Wolf-Rayet (PoWR) Model Atmosphere Codes quantitativ analysiert, um wesentliche Stern-, Wind- und Feedbackparameter sowie ihre statistische Verteilung zu bestimmen und damit ein globales Bild der massereichen Sterne und ihrer Wechselwirkung mit der Umgebung zu erhalten. Diese Analysen stützen sich hauptsächlich auf Spektren aus dem optischen Bereich, die mit dem Fibre Large Array Multi Element Spectrograph (FLAMES) am Very Large Telescope (VLT) von ~ 500 OBSternen in den Magellanschen Wolken aufgenommen worden, ergänzt durch UV-Spektren aus den Archiven verschiedener UV-Satelliten. Die zwei repräsentativen jungen Sternpopulationen, die untersucht wurden, gehören zur Superbubble N206 in der LMC beziehungsweise zur Supergiant Shell SMC-SGS 1 im Wing der SMC. Die analysierte Stichprobe des N206-Komplexes umfasst alle heißen massereichen Sterne vom Typ OB, Of, und Wolf-Rayet, wobei letztere weit entwickelt und durch starke Sternwinde gekennzeichnet sind. Auf Basis unsere Analysen fanden wir heraus, dass der Komplex seit 30 Mio. Jahren mehrere Sternentstehungsepisoden durchlief. Die räumliche Altersverteilung dieser Sterne über den Komplex weist möglicherweise auf getriggerte Sternentstehung infolge der Ausdehnung der Superbubble hin. Drei sehr massereiche, junge Of-Sterne in dieser Region dominieren das ionisierende und mechanische Feedback unter hunderten von anderen OBSternen in der Region. Die SMC hat eine noch niedrigere Metallizität als die LMC, was sich u.a. auch in der Sternentwicklung niederschlagen sollte. Daher wurde mittels der Daten der Spektralanalysen der Supergiant Shell SMC-SGS 1 in der SMC zusammen mit weiteren Daten aus der Literatur das am dichtesten besiedelte Hertzsprung-Russell-Diagramm der massereichen Sterne in der SMC erstellt. Der Vergleich mit Sternentwicklungsrechnungen suggeriert eine Zweiteilung der Entwicklungswege massereicher Sterne in der SMC. Dabei scheint die gemessene Rotation der Sterne überraschenderweise keinen großen Einfluss zu haben. Wir vermuten daher, dass die Masse und Metallizität der Sterne zusammen hauptverantwortlich für die beobachtete Zweiteilung sind. Desweiteren konnte erstmalig auf einer breiten Datenbasis aufbauend die Korrelation zwischen Metallizität und Stärke von OB-Sternwinden etabliert werden, allerdings sind die ermittelten Windstärken weit schwächer als vorhergesagt (Weak-Wind-Problem) und in Sternentwicklungsrechnungen verwendet. Die Alter und räumliche Verteilung von massereichen Sternen zeigen, dass Sternentstehung seit über 100 Mio. Jahren in der ruhigen Region niedriger Dichte in der SMC eher stochastisch als sequenziell voranschreitet und höher ist als von Messungen diffuser Hα-Emission abgeleitet wurde. Das Feedback in dieser Region wird aufgrund der schwachen Sternwinde durch Supernovae bestimmt, während die Ionization der gesamten Region durch einen einzigen sehr heißen und leuchtkräftigen Wolf-Rayet-Stern dominiert wird. Die niedrige Feedbackrate in metallarmen Sternpopulationen scheint für die Größe und das Überleben von Molekülwolken förderlich zu sein, sodass Sternentstehungsepisoden über einen längeren Zeitraum ablaufen. Solch ausgedehnte Sternentstehung kann dazu führen, dass es eine fortwährende Quelle von ionisierenden Photonen gibt, welche in das zirkumgalaktische Medium durch Löcher oder Kanäle entweichen können, die durch Supernovae erzeugt worden. Diese Studie regt an, dass Sternentstehungsregionen mit langer Geschichte ihre Spuren im umgebenden ISM auch bei niedriger Metallizität hinterlassen werden. Die zukünftigen großräumigen Spektroskopiestudien von weiter entfernten Galaxien mit noch geringeren Metallizitäten können weitere Einsichten in unser derzeitiges Verständnis von massereichen Sternen bringen. KW - massive stars KW - stellar feedback KW - spectroscopy KW - stellar evolution KW - star formation KW - massive Sterne KW - Sternfeedback KW - Spektroskopie KW - Sternentwicklung KW - Sternentstehung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432455 ER - TY - THES A1 - Bernaschina Schürmann, Vicente T1 - Ángeles que cantan de continuo T1 - Ángeles que cantan de continuo T1 - Ángeles que cantan de continuo BT - la legitimación teológica de la poesía en el virreinato del Perú BT - die theologische Legitimierung der Poesie im Vizekönigreich Peru BT - the theological legitimation of poetry in the viceroyalty of Peru N2 - Objeto de esta investigación es el auge y caída de una legitimación teológica de la poesía que tuvo lugar en el virreinato del Perú entre fines del siglo XVI y la segunda mitad del siglo XVII. Su punto cúlmine está marcado por el surgimiento de una “Academia Antártica” en las primeras décadas del siglo XVII, mientras que su fin, se aprecia a fines del mismo siglo, cuando eruditos de las órdenes religiosas, especialmente Juan de Espinosa y Medrano en sus textos en defensa de la poesía y las ciencias, negaron a la poesía cualquier estatuto teológico, sirviéndose sin embargo de ella para escribir sus sermones y textos. A partir del auge y caída de esta legitimación teológica en el virreinato del Perú, este estudio muestra la existencia de dos movimientos que forman un quiasmo entre una teologización de la poesía y una poetización de la teología, en cuyo centro velado se encuentra en disputa el saber teórico y práctico de la poesía. Lo que está en disputa en este sentido no es la poesía, entendida como una cumbre de las bellas letras, sino la posesión legítima de un modo de lectura analógico y tipológico del orden del universo, fundado en las Sagradas Escrituras y en la historia de la salvación, y un modo poético para doctrinar a todos los miembros de la sociedad virreinal en concordancia con aquel modo de lectura. N2 - Gegenstand dieser Untersuchung ist der Aufstieg und Fall der theologischen Legitimierung der gehobenen Poesie, die sich ab Ende des 16. und im Laufe des 17. Jahrhunderts im Vizekönigreich Peru vollzieht. Der Höhepunkt dieser Legitimierung liegt in dem Entstehen einer „Academia Antártica“ (Antarktische Akademie) in den ersten Jahrzehnten des 17. Jahrhunderts. Ihr Ende wiederum beginnt in der zweiten Hälfte desselben Jahrhunderts, wenn Gelehrte religiöser Orden, vor allem Juan de Espinosa Medrano und seine Texte zur Verteidigung der Dichtung und der Wissenschaften, diese theologische Macht der weltlichen Poesie bestreiten und für ihre eigenen Predigten und Texten in Anspruch nehmen. Ausgehend vom Aufstieg und Fall der theologischen Legitimierung im Vizekönigreich Peru zeigt diese Untersuchung die Existenz zweier Bewegungen, die einen Chiasmus aus einer Theologisierung der Poesie und einer Poetisierung der Theologie bilden, in dessen Zentrum um das theoretische und praktische Wissen der Dichtung gestritten wird. Gestritten wird in diesem Sinne nicht über die Poesie, verstanden als Höhepunkt der schönen Literatur, sondern über den legitimen Besitz eine analogischen und typologischen Lesart der Ordnung des Universums, gegründet in den Heiligen Schriften und in der Heilsgeschichte, und einen poetischen Weg, alle Mitglieder der vizeköniglichen Gesellschaft in Übereinstimmung mit jener Lesart zu indoktrinieren. N2 - The subject of this study is the rise and fall of the theological legitimation of poetry that took place in the Viceroyalty of Peru from the end of the 16th century and during the 17th century. The peak of this process of legitimation lies in the emergence of an "Academia Antártica" (Antarctic Academy) in the first decades of the 17th century. Its end, in turn, began in the second half of the same century, when scholars of religious orders, especially Juan de Espinosa Medrano and his texts defending poetry and science, denied secular poetry any theological power but used it instead for their own sermons and texts. Starting from the rise and fall of the theological legitimation in the Viceroyalty of Peru, this study shows the existence of two movements that form a chiasmus of a theologization of poetry and a poeticization of theology, at the centre of which the theoretical and practical knowledge of poetry is disputed. In this sense, there is no dispute about poetry, understood as the culmination of beautiful literature, but about the legitimate possession of an analogical and typological mode to read the order of the universe, founded in the Holy Scriptures and in the history of salvation, and a poetic way of indoctrinating all members of the vice-royal society in accordance with that reading. T3 - Potsdamer Bibliothek der WeltRegionen (PoWeR) - 2 KW - Literatur KW - Spanisch KW - Theologie KW - Poesie KW - Vizekönigreich KW - Perú KW - Literaturwissenschaft KW - Lateinamerika KW - Kolonialgeschichte KW - Academia Antártica KW - Engel KW - Macht KW - 17. Jahrhundert KW - literature KW - Spanish KW - theology KW - poetry KW - viceroyalty KW - Latin American studies KW - colonial studies KW - angels KW - government KW - poesía Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426450 SN - 978-3-86956-459-3 SN - 2629-2548 SN - 2629-253X ER - TY - THES A1 - Gabriel, Christina T1 - Entwicklung neuer Stärkederivate für die Anwendung als wasserbasierte Filmbildner in Farben und Lacken T1 - Development of new starch derivatives for application as water-based film formers in paints and varnishes N2 - In den letzten Jahrzehnten fand auch in der Beschichtungsindustrie ein Umdenken hin zu umweltfreundlicheren Farben und Lacken statt. Allerdings basieren auch neue Lösungen meist nicht auf Biopolymeren und in einem noch geringeren Anteil auf wasserbasierten Beschichtungssystemen aus nachwachsenden Rohstoffen. Dies stellt den Anknüpfungspunkt dieser Arbeit dar, in der untersucht wurde, ob das Biopolymer Stärke das Potenzial zum wasserbasierten Filmbildner für Farben und Lacke besitzt. Dabei müssen angelehnt an etablierte synthetische Marktprodukte die folgenden Kriterien erfüllt werden: Die wässrige Dispersion muss mindestens einen 30%igen Feststoffgehalt haben, bei Raumtemperatur verarbeitet werden können und Viskositäten zwischen 10^2-10^3 mPa·s aufweisen. Die finale Beschichtung muss einen geschlossenen Film bilden und sehr gute Haftfestigkeiten zu einer spezifischen Oberfläche, in dieser Arbeit Glas, besitzen. Als Grundlage für die Modifizierung der Stärke wurde eine Kombination von molekularem Abbau und chemischer Funktionalisierung ausgewählt. Da nicht bekannt war, welchen Einfluss die Stärkeart, die gewählte Abbaureaktion als auch verschiedene Substituenten auf die Dispersionsherstellung und deren Eigenschaften sowie die Beschichtungseigenschaften ausüben könnten, wurden die strukturellen Parameter getrennt voneinander untersucht. Das erste Themengebiet beinhaltete den oxidativen Abbau von Kartoffel- und Palerbsenstärke mittels des Hypochlorit-Abbaus (OCl-) und des ManOx-Abbaus (H2O2, KMnO4). Mit beiden Abbaureaktionen konnten vergleichbare gewichtsmittlere Molmassen (Mw) von 2·10^5-10^6 g/mol (GPC-MALS) hergestellt werden. Allerdings führten die gewählten Reaktionsbedingungen beim ManOx-Abbau zur Bildung von Gelpartikeln. Diese lagen im µm-Bereich (DLS und Kryo-REM-Messungen) und hatten zur Folge, dass die ManOx-Proben deutlich erhöhte Viskositäten (c: 7,5 %; 9-260 mPa·s) im Vergleich zu den OCl--Proben (4-10 mPa·s) bei scherverdünnendem Verhalten besaßen und die Eigenschaften von viskoelastischen Gelen (G‘ > G‘‘) zeigten. Des Weiteren wiesen sie reduzierte Heißwasserlöslichkeiten (95 °C, vorrangig: 70-99 %) auf. Der OCl--Abbau führte zu hydrophileren (Carboxylgruppengehalt bis zu 6,1 %; ManOx: bis zu 3,1 %), nach 95 °C-Behandlung vollständig wasserlöslichen abgebauten Stärken, die ein Newtonsches Fließverhalten mit Eigenschaften einer viskoelastischen Flüssigkeit (G‘‘ > G‘) hatten. Die OCl--Proben konnten im Vergleich zu den ManOx-Produkten (10-20 %) zu konzentrierteren Dispersionen (20-40 %) verarbeitet werden, die gleichzeitig die Einschränkung von anwendungsrelevanten Mw auf < 7·10^5 g/mol zuließen (Konzentration sollte > 30 % sein). Außerdem führten nur die OCl--Proben der Kartoffelstärke zu transparenten (alle anderen waren opak) geschlossenen Beschichtungsfilmen. Somit hebt sich die Kombination von OCl--Abbau und Kartoffelstärke mit Hinblick auf die Endanwendung ab. Das zweite Themengebiet umfasste Untersuchungen zum Einfluss von Ester- und Hydroxyalkylether-Substituenten auf Basis einer industriell abgebauten Kartoffelstärke (Mw: 1,2·10^5 g/mol) vor allem auf die Dispersionsherstellung, die rheologischen Eigenschaften der Dispersionen und die Beschichtungseigenschaften in Kombination mit Glassubstraten. Dazu wurden Ester und Ether mit DS/MS-Werten von 0,07-0,91 synthetisiert. Die Derivate konnten zu wasserbasierten Dispersionen mit Konzentrationen von 30-45 % verarbeitet werden, wobei bei hydrophoberen Modifikaten ein Co-Lösemittel, Diethylenglycolmonobutylether (DEGBE), eingesetzt werden musste. Die Feststoffgehalte sanken dabei für beide Derivatklassen vor allem mit zunehmender Alkylkettenlänge. Die anwendungsrelevanten Viskositäten (323-1240 mPa·s) stiegen auf Grund von Wechselwirkungen tendenziell mit DS/MS und Alkylkettenlänge an. Hinsichtlich der Beschichtungseigenschaften erwiesen sich die Ester vergleichend zu den Ethern als die bevorzugte Substituentenklasse, da nur die Ester geschlossene, defektfreie und mehrheitlich transparente Beschichtungsfilme bildeten, die exzellente bis sehr gute Haftfestigkeiten (ISO Klasse: 0 und 1) auf Glas besaßen. Die Ether bildeten mehrheitlich brüchige Filme. Basierend auf der Kombination der Ergebnisse aus Lösemittelaustausch, den rheologischen Untersuchungen und zusätzlichen Oberflächenspannungsmessungen (30-61 mN/m) konnte geschlossen werden, dass wahrscheinlich fehlende oder schlechte Haftfestigkeiten vorrangig akkumuliertem Wasser in den Beschichtungsfilmen (visuell: trüb oder weiß) geschuldet sind, während die Brüchigkeit vermutlich auf Wechselwirkungen (H-Brücken Wechselwirkungen, hydrophobe Wechselwirkungen) zwischen den Polymeren zurückgeführt werden kann. Insgesamt scheint die Kombination aus Kartoffelstärke basierend auf dem OCl--Abbau mit Mw < 7·10^5 g/mol und einem Estersubstituenten eine gute Wahl für wasserbasierte Dispersionen mit hohen Feststoffkonzentrationen (> 30 %), guter Filmbildung und exzellenten Haftungen auf Glas zu sein. N2 - In the last few decades, the coating industry, like many other industries, has changed its thinking towards more environmentally friendly paints and varnishes. However, even new solutions are usually not based on biopolymers and, to an even lesser extent, on water-based coating systems made from renewable raw materials. This is the starting point of this work, which aimed to investigate whether the biopolymer starch has the potential to be a water-based film former for paints and varnishes. Based on established synthetic market products, the following criteria must be fulfilled: The aqueous dispersion must have a solid content of at least 30%, be processable at room temperature and have viscosities of 10^2-10^3 mPa·s. The final coating must form a continuous film and have very good adhesion to a specific substrate, in this thesis glass. A combination of molecular degradation and chemical functionalisation was selected as the basis for the modification of the starch. Since it was not known what influence the type of starch, the chosen degradation reaction as well as different substituents could have on the dispersion production and its properties as well as on the coating properties, the structural parameters were investigated separately. The first part dealt with the oxidative degradation of potato and smooth pea starch by hypochlorite degradation (OCl-) and ManOx degradation (H2O2, KMnO4). With both degradation reactions comparable weight average molar masses (Mw) of 2·10^5-10^6 g/mol (SEC-MALS) could be synthesized. However, the selected reaction conditions led to the formation of gel particles during ManOx degradation. These were in the µm-range (DLS and cryo-REM measurements) and resulted in ManOx samples having significantly higher viscosities (c: 7.5%; 9-260 mPa·s) compared to OCl- samples (4-10 mPa·s) with shear-thinning behaviour and showing the properties of viscoelastic gels (G' > G''). Furthermore, they exhibited reduced hot water solubilities (95 °C, primarily: 70-99%). OCl- degradation led to more hydrophilic (carboxyl group content up to 6.1%; ManOx: up to 3.1%), after 95 °C treatment completely water-soluble degraded starches, which had Newtonian flow behaviour with properties of a viscoelastic liquid (G'' > G'). Compared to the ManOx products (10-20%), the OCl- samples could be processed to more concentrated dispersions (20-40%), which at the same time allowed the restriction of application-relevant Mw to < 7·10^5 g/mol (concentration should be > 30%). In addition, only the OCl- samples of the potato starch led to transparent (all others were opaque) continuous coating films. Thus, the combination of OCl- degradation and potato starch stands out with regard to the final application. The second part included investigations on the influence of ester and hydroxyalkyl ether substituents on the basis of an industrially degraded potato starch (Mw: 1.2·10^5 g/mol), particularly on dispersion preparation, rheological properties of the dispersions and the coating properties in combination with glass substrates. For this purpose, esters and ethers with DS/MS values of 0.07-0.91 were synthesized. The derivatives could be prepared to water-based dispersions with concentrations of 30-45%, whereby a co-solvent, diethylene glycol monobutyl ether (DEGBE), had to be used for more hydrophobic derivatives. The solid content of both derivative classes decreased most of all with increasing alkyl chain length. The application-relevant viscosities (323-1240 mPa·s) tended to increase due to interactions with DS/MS and alkyl chain length. With regard to the coating properties, esters proved to be the preferred substituent class compared to ethers, since only the esters formed continuous, defect free and mostly transparent coating films which had excellent to very good adhesion (ISO class: 0 and 1) on glass. The majority of ethers formed brittle films. Based on the combination of the results from solvent exchange, rheological investigations and additional surface tension measurements (30-61 mN/m), it could be concluded that probably missing or poor adhesion was primarily due to accumulated water in the coating films (visually: turbid or white), while the brittleness can probably be attributed to interactions (H-bridge interactions, hydrophobic interactions) between the polymers. Overall, the combination of potato starch based on OCl- degradation with Mw < 7·10^5 g/mol and an ester substituent seems to be a good choice for water-based dispersions with high solid concentrations (> 30%), good film formation and excellent adhesion to glass. KW - Stärke KW - starch KW - Filmbildner KW - film former KW - Beschichtung KW - coating Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432942 ER - TY - THES A1 - Pérez Medrano, Cuauhtémoc T1 - Ficción herética T1 - Die Insel als Abdruck BT - disimulaciones insulares en la Cuba contemporánea BT - Vert(ä)uschungen in der zeitgenössischen kubanischen Prosa N2 - Mit der kubanischen Wirtschaftskrise entstanden neue literarische Gestaltungsprozesse nationaler Identitätskonstruktionen. Die vorliegende Analyse geht der zeitgenössischen Literatur Kubas nach, in der soziale, kulturelle und politische Paradoxe der post-revolutionären Weltanschauung zum Vorschein kommen und der Figur der „Insel“ bzw. „Insularität“ eine große Bedeutung für die Neukonfiguration der Nation zukommt. Die „Insularität“ drückt in literarischen Texten verschiedene Aneignungen des Raumes und somit auch eine Weltanschauungen aus. Die literarische Figur der „Insel“ kann hypothetisch als „visuelles Phänomen“ (Ette 2002) konzipiert werden, das durch soziokulturelle Umstände konfiguriert wird. Unterschiedliche postkommunistische Erfahrungen bilden sog. „erlebnisweltliche“ Repräsentationen und somit literarische und soziale Identitätsbilder. Im Verlauf der Zeit werden die Metapher der „Insel“ bzw. der „Insularität“ anders beschrieben. Erste Untersuchungen der Metapher der „Insel“ bzw. der „Insularität“ finden sich in den Texten Noche insular (Lezama Lima 2000) und La isla en peso (Piñera 1998). Die Metapher wird in den Begrifflichkeiten der „Simulation“ und „Dissimulation“ (Sarduy 1982) oder auch einer „visuellen Erscheinung“ als „Grund-Ekphrasis“ (Pimentel 2001) beschrieben. Demgegenüber stellen spätere Arbeiten die literarische Figur der „Insel“ als ein Instrument der Dekonstruktion der Nationalliteratur Kubas dar (Rojas 1998; Nuez 1998, Benitez Rojo 1998). In zeitgenössischen Analysen wird die Metapher in ihrer jeweiligen Beziehungen zur Repräsentation und zum „Lebenswissen“ (Ette 2010) herausgearbeitet. Die Repräsentation der “Insel” bzw. der “Insularität” wird in der vorliegenden Arbeit anhand des soziokulturellen Kontextes in den letzten dreißig Jahren u.a. in den Romanen von Abilio Estevez Tuyo es el reino (1998), Atilio Caballero La última playa (1999), Daniel Díaz Mantilla Regreso a Utopía (2007) sowie den Erzählungen von Ena Lucia Portela Huracan (2000), Antonio José Ponte Un nuevo arte de hacer ruinas (2005), Emerio Medina Isla (2005), Orlando Luís Pardo Tokionama (2009), Ahmel Echeverria Isla (2014) und Anesly Negrín Isla a mediodía (2014) untersucht. N2 - La metáfora de la «isla» en la narrativa cubana contemporánea engloba toda una serie de complejidades simbólicas dependientes de la vivencia del espacio y el tiempo. Su potencial visual se manifiesta u oculta las propias vivencias insulares de los escritores cubanos. En los últimos 30 años en Cuba, los fenómenos políticos económicos y sociales han modificado categóricamente la percepción y la configuración del plano social e individual frente a las exigencias globales (Fornet 2006, Rojas 1999, 2002, 2006). Se ha confirmado una sensación de acinesia e ingravidez (Casamayor 2013) y se ha presentado una actitud «herética» por parte de los narradores cubanos, quienes se confrontan con las ideas de la postmodernidad, lo postsoviético o postutópico, reafirmando así una sensibilidad presentista (Guerrero 2016). Estos autores presentan resonancias y reivindicaciones de los imaginarios insulares de autores y de tradiciones estéticas dentro y fuera de la isla como José Lezama Lima, Virgilio Piñera, Guillermo Cabrera Infante, Reinaldo Arenas y Severo Sarduy). El análisis de las écfrasis insulares permite examinar las dinámicas de representación y de sentido: disimulación: la disimulación, la anamorfosis y la trompe l’oeil (Sarduy 1981). La novela Tuyo es el reino (1998) de Abilio Estévez es un modelo desde el que se localizará las relaciones de sentido entre canon literario y los referentes socioculturales de las variaciones somatopológicas de la isla en la narrativa cubana actual: Ena Lucía Portela, Atilio Caballero, Antonio José Ponte, Daniel Díaz Mantilla, Emerio Medina, Orlando Luis Pardo, Anisley Negrin y Ahmel Echeverría, entre otros. T3 - Potsdamer Bibliothek der WeltRegionen (PoWeR) - 1 KW - kubanische Literatur KW - Insel KW - Literaturkritik KW - Cuban literature KW - island KW - literary criticism Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-424490 SN - 978-3-86956-454-8 SN - 2629-2548 SN - 2629-253X PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Schlenter, Judith T1 - Predictive language processing in late bilinguals T1 - Vorausschauende Sprachverarbeitung bei späten Bilingualen BT - Evidence from visual-world eye-tracking BT - Visual-World Eye-Tracking Evidenz N2 - The current thesis examined how second language (L2) speakers of German predict upcoming input during language processing. Early research has shown that the predictive abilities of L2 speakers relative to L1 speakers are limited, resulting in the proposal of the Reduced Ability to Generate Expectations (RAGE) hypothesis. Considering that prediction is assumed to facilitate language processing in L1 speakers and probably plays a role in language learning, the assumption that L1/L2 differences can be explained in terms of different processing mechanisms is a particularly interesting approach. However, results from more recent studies on the predictive processing abilities of L2 speakers have indicated that the claim of the RAGE hypothesis is too broad and that prediction in L2 speakers could be selectively limited. In the current thesis, the RAGE hypothesis was systematically put to the test. In this thesis, German L1 and highly proficient late L2 learners of German with Russian as L1 were tested on their predictive use of one or more information sources that exist as cues to sentence interpretation in both languages, to test for selective limits. The results showed that, in line with previous findings, L2 speakers can use the lexical-semantics of verbs to predict the upcoming noun. Here the level of prediction was more systematically controlled for than in previous studies by using verbs that restrict the selection of upcoming nouns to the semantic category animate or inanimate. Hence, prediction in L2 processing is possible. At the same time, this experiment showed that the L2 group was slower/less certain than the L1 group. Unlike previous studies, the experiment on case marking demonstrated that L2 speakers can use this morphosyntactic cue for prediction. Here, the use of case marking was tested by manipulating the word order (Dat > Acc vs. Acc > Dat) in double object constructions after a ditransitive verb. Both the L1 and the L2 group showed a difference between the two word order conditions that emerged within the critical time window for an anticipatory effect, indicating their sensitivity towards case. However, the results for the post-critical time window pointed to a higher uncertainty in the L2 group, who needed more time to integrate incoming information and were more affected by the word order variation than the L1 group, indicating that they relied more on surface-level information. A different cue weighting was also found in the experiment testing whether participants predict upcoming reference based on implicit causality information. Here, an additional child L1 group was tested, who had a lower memory capacity than the adult L2 group, as confirmed by a digit span task conducted with both learner groups. Whereas the children were only slightly delayed compared to the adult L1 group and showed the same effect of condition, the L2 speakers showed an over-reliance on surface-level information (first-mention/subjecthood). Hence, the pattern observed resulted more likely from L1/L2 differences than from resource deficits. The reviewed studies and the experiments conducted show that L2 prediction is affected by a range of factors. While some of the factors can be attributed to more individual differences (e.g., language similarity, slower processing) and can be interpreted by L2 processing accounts assuming that L1 and L2 processing are basically the same, certain limits are better explained by accounts that assume more substantial L1/L2 differences. Crucially, the experimental results demonstrate that the RAGE hypothesis should be refined: Although prediction as a fast-operating mechanism is likely to be affected in L2 speakers, there is no indication that prediction is the dominant source of L1/L2 differences. The results rather demonstrate that L2 speakers show a different weighting of cues and rely more on semantic and surface-level information to predict as well as to integrate incoming information. N2 - Die vorliegende Dissertation untersucht, wie Nicht-Muttersprachler des Deutschen sprachliche Information vorausschauend verarbeiten. Frühere Forschungsarbeiten haben gezeigt, dass diese Fähigkeit bei Fremdsprachsprechern im Vergleich zu Muttersprachlern eingeschränkt ist. Dies resultierte in der Formulierung der RAGE Hypothese, die besagt, dass Nicht-Muttersprachler eine reduzierte Fähigkeit besitzen, Erwartungen zu generieren. Unter der Berücksichtigung, dass vorausschauende Verarbeitung die Sprachverarbeitung bei Muttersprachlern erleichtert und möglicherweise eine Rolle beim Sprachenlernen spielt, ist die Annahme, dass sich Mutter- und Fremdsprachunterschiede durch unterschiedliche Verarbeitungsmechanismen erklären lassen, besonders interessant. Jedoch zeigen die Ergebnisse neuerer Studien, dass die Annahmen der RAGE Hypothese zu generell sind und es selektive Unterschiede zwischen Mutter- und Fremdsprachsprechern geben könnte. In dieser Dissertation wurde die RAGE Hypothese systematisch überprüft. KW - prediction KW - L2 sentence processing KW - RAGE hypothesis KW - visual-world eye-tracking KW - vorausschauende Sprachverarbeitung KW - Fremdsprachverarbeitung KW - RAGE Hypothese KW - Visual-World Eye-Tracking Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432498 ER - TY - THES A1 - Sablowski, Daniel T1 - Spectroscopic analysis of the benchmark system Alpha Aurigae T1 - Spektroskopische Analysen des Vergleichssystems alpha Aurigae N2 - Binaries play an important role in observational and theoretical astrophysics. Since the mass and the chemical composition are key ingredients for stellar evolution, high-resolution spectroscopy is an important and necessary tool to derive those parameters to high confidence in binaries. This involves carefully measured orbital motion by the determination of radial velocity (RV) shifts and sophisticated techniques to derive the abundances of elements within the stellar atmosphere. A technique superior to conventional cross-correlation methods to determine RV shifts in known as spectral disentangling. Hence, a major task of this thesis was the design of a sophisticated software package for this approach. In order to investigate secondary effects, such as flux and line-profile variations, imprinting changes on the spectrum the behavior of spectral disentangling on such variability is a key to understand the derived values, to improve them, and to get information about the variability itself. Therefore, the spectral disentangling code presented in this thesis and available to the community combines multiple advantages: separation of the spectra for detailed chemical analysis, derivation of orbital elements, derivation of individual RVs in order to investigate distorted systems (either by third body interaction or relativistic effects), the suppression of telluric contaminations, the derivation of variability, and the possibility to apply the technique to eclipsing binaries (important for orbital inclination) or in general to systems that undergo flux-variations. This code in combination with the spectral synthesis codes MOOG and SME was used in order to derive the carbon 12C/13C isotope ratio (CIR) of the benchmark binary Capella. The observational result will be set into context with theoretical evolution by the use of MESA models and resolves the discrepancy of theory and observations existing since the first measurement of Capella's CIR in 1976. The spectral disentangling code has been made available to the community and its applicability to completely different behaving systems, Wolf-Rayet stars, have also been investigated and resulted in a published article. Additionally, since this technique relies strongly on data quality, continues development of scientific instruments to achieve best observational data is of great importance in observational astrophysics. That is the reason why there has also been effort in astronomical instrumentation during the work on this thesis. N2 - Doppelsterne spielen eine wichtige Rolle in der beobachtenden und theoretischen Astrophysik. Die Massen und die chemische Zusammensetzung der Sterne sind dabei ausschlaggebende Parameter. Die wichtige und notwendige Methode um diese zu bestimmen ist hochaufgelöste Spektroskopie. Dies beinhaltet eine penible Bestimmung der orbitalen Bewegung durch die Vermessung von Radialgeschwindigkeitsverschiebungen (RV) und fortgeschrittene Techniken zur Bestimmung der Häufigkeiten der in der Sternatmosphäre vorhandenen Elemente. Gegenüber der konventionellen Kreuzkorrelation zur Bestimmung der RV-Verschiebungen, gilt die Methode des sogenannten 'spectral disentanglings' als überlegen. Daher bestand ein Großteil der vorliegenden Arbeit darin, eine solche Methode in einem weiterentwickelten Softwarepacket zu realisieren. Um sekundäre Effekte zu verstehen, welche zu weiteren Änderungen im Spektrum führen, also insbesondere solche wie Fluss- und Linienprofilvariationen, ist es von zentraler Bedeutung das Verhalten des spectral disentangling durch solche Variabilitäten zu verstehen, sodass die ermittelten Größen besser interpretiert und verbessert, sowie Informationen über die Variabilität selbst abgeleitet werden können. Daher vereint der in dieser Arbeit vorgestellte und der Allgemeinheit offen stehende Algorithmus für das spectral disentangling mehrere Vorteile: Separation der Spektren für detaillierte chemische Analysen, Ableitung der orbitalen Bahnelemente, Ableitung der einzelnen RV-Verschiebungen um auch gestörte Systeme (z.B. durch einen dritten Körper oder relativistische Effekte) analysieren zu können, die Reduktion des Einflusses tellurischer Kontamination, Ableitung der Variabilität und die Möglichkeit der Anwendung auf Bedeckungsveränderliche (wichtig zur Bestimmung der Inklination) bzw. allgemeiner auf Systeme mit Flussvariationen. Der vorgestellte Algorithmus wurde zusammen mit MOOG und SME zur Erzeugung synthetischer Spektren verwendet um das Kohlenstoff-12C/13C Isotopen-Verhältnis (KIV) des Referenzsystems Capella zu bestimmen. Dieses Ergebnis aus Beobachtungen wird in Kontext zur theoretischen Entwicklung durch Verwendung von MESA Modellen gesetzt und löst die Unstimmigkeit zwischen Beobachtung und Theorie die bereits seit der ersten Messung des KIV von Kapella von 1976 existiert. Der Algorithmus für das spectral disentangling ist der Allgemeinheit zugänglich gemacht und wurde auf vollkommen anders verhaltende Objekte, den Wolf-Rayet-Sternen, angewendet, was in einer publizierten Arbeit resultierte. Da die Methode stark von der Qualität der Beobachtungsdaten abhängt, ist eine kontinuierliche Weiterentwicklung der wissenschaftlichen Messtechnik der beobachtenden Astrophysik sehr wichtig um die bestmöglichsten Beobachtungsdaten gewinnen zu können. Daher wurden auch große Anstrengungen in der astronomischen Instrumentierung während dieser Arbeit unternommen. KW - Stellar physics KW - Stellar evolution KW - spectroscopy KW - instrumentation KW - carbon-isotope-ratio KW - Capella KW - Stellarphysik KW - Sternentwicklung KW - Spektroskopie KW - Instrumentierung KW - Kohlenstoff-Isotopen-Verhältnis KW - Kapella Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432396 ER - TY - THES A1 - Brechun, Katherine E. T1 - Development and application of genetic networks for engineering photo-controlled proteins T1 - Die Entwicklung und Anwendung von genetischen Netzwerken zur Konstruktion von licht-schaltbaren Proteinen N2 - Light-switchable proteins are being used increasingly to understand and manipulate complex molecular systems. The success of this approach has fueled the development of tailored photo-switchable proteins, to enable targeted molecular events to be studied using light. The development of novel photo-switchable tools has to date largely relied on rational design. Complementing this approach with directed evolution would be expected to facilitate these efforts. Directed evolution, however, has been relatively infrequently used to develop photo-switchable proteins due to the challenge presented by high-throughput evaluation of switchable protein activity. This thesis describes the development of two genetic circuits that can be used to evaluate libraries of switchable proteins, enabling optimization of both the on- and off-states. A screening system is described, which permits detection of DNA-binding activity based on conditional expression of a fluorescent protein. In addition, a tunable selection system is presented, which allows for the targeted selection of protein-protein interactions of a desired affinity range. This thesis additionally describes the development and characterization of a synthetic protein that was designed to investigate chromophore reconstitution in photoactive yellow protein (PYP), a promising scaffold for engineering photo-controlled protein tools. N2 - Licht ist eins der wichtigsten Impulse für Lebewesen, denn es dient Energie- und Informationsquelle. Folglich haben Organismen verschiedene Mechanismen entwickelt, um Licht wahrzunehmen und darauf zu reagieren. Pflanzen zum Beispiel haben Proteine, die auf Licht reagieren und dabei einen Prozess auslösen, der dazu führt, dass die Pflanze in Richtung der Sonne wächst. Es wurde Anfang 2000 gezeigt, dass solche licht-reagierende Proteine als wertvolle molekulare Werkzeuge in der Biotechnologie benutzt werden können. Wenn man Licht benutzten kann, um einen molekularen Prozess zu aktivieren (beziehungsweise zu inaktivieren), kann dessen Prozess mit sehr genauer Kontrolle untersucht werden. Manche natürlich vorhandene licht-reagierende Proteine können direkt als licht-schaltbare Werkzeuge benutzt werden, aber häufig müssen solche Proteine geändert werden, um ihre Funktion anzupassen. Eine sehr erfolgreiche Herangehensweise, um die Funktion eines Proteins zu ändern, ist die Herstellung und anschließende Auswertung von Protein-Bibliotheken. Diese Methode nennt sich gerichtete Evolution (engl.: directed evolution). Eine Protein-Bibliothek wird durch die ungezielte Einführung von Mutationen im Gen eines Proteins hergestellt. Die daraus entstandene Sammlung von Proteinen (in der Regel Millionen oder Milliarden) wird danach ausgewertet, um verbesserte Mutanten des Proteins zu identifizieren. Die Auswertung erfolgt mithilfe eines Hochdurchsatz-Screening- oder Selektionssystems. Ein solches System ermöglicht es, Zellen mit Proteinen, die eine gewünschte Funktion trägen, zu identifizieren. Die Entwicklung und Optimierung von licht-schaltbaren Proteinen stellt eine besondere Herausforderung dar; die Aktivität des Proteins muss in einem Zustand (zum Beispiel unter Licht) verbessert werden und im entgegengesetzten Zustand (Dunkelheit) verhindert werden. Darüber hinaus mangelt es an Methoden, die die Hochdurchsatz-Auswertung von schaltbaren Proteinfunktion ermöglichen, welches die Anwendung von gerichteter Evolution verhindert. Das Forschungsgebiet der licht-schaltbaren Proteine würde von der Entwicklung von Systemen profitieren, die die Hochdurchsatz-Auswertung von schaltbaren Proteinfunktion ermöglicht. Diese Dissertation beschreibt die Entwicklung und Optimierung von zwei Systemen, die die Hochdurchsatz-Auswertung von schaltbaren Proteinfunktion ermöglicht. Das erste System verbindet die Produktion eines fluoreszierenden Proteins mit der Aktivität eines licht-schaltbaren Proteins, sodass Information über die Aktivität des Proteins erhalten wird. Das zweite System ermöglicht die Selektion von Protein-Protein-Interaktionen mit gezielter Affinität. Diese Dissertation beschreibt zusätzlich die Untersuchung vom licht-reagierenden Protein Photoactive Yellow Protein (PYP). Auf Grund der großen licht-induzierten strukturellen Veränderungen, ist PYP ein nützliches Proteingerüst zur Entwicklung von licht-schaltbaren Proteinen. In dieser Arbeit wurde die enzymatische Synthese vom PYP Chromophormolekül optimiert. Darüber hinaus wurde die Wiederherstellung von PYP-basierten synthetischen Proteinen zum ersten Mal mit enzymatisch-produziertem Chromophor gezeigt. KW - genetic circuits KW - protein engineering KW - photoactive proteins KW - photoactive yellow protein (PYP) KW - genetische Netzwerke KW - Protein-Engineering KW - licht-schaltbare Proteine Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430924 ER - TY - THES A1 - Schulte-Osseili, Christine T1 - Vom Monomer zum Glykopolymer T1 - From monomer to glycopolymer BT - Anwendung als Biofunktionalitäten auf Oberflächen und als Transportmoleküle BT - application as biofunctionalized surfaces and transport molecules N2 - Glykopolymere sind synthetische und natürlich vorkommende Polymere, die eine Glykaneinheit in der Seitenkette des Polymers tragen. Glykane sind durch die Glykan-Protein-Wechselwirkung verantwortlich für viele biologische Prozesse. Die Beteiligung der Glykanen in diesen biologischen Prozessen ermöglicht das Imitieren und Analysieren der Wechselwirkungen durch geeignete Modellverbindungen, z.B. der Glykopolymere. Dieses System der Glykan-Protein-Wechselwirkung soll durch die Glykopolymere untersucht und studiert werden, um die spezifische und selektive Bindung der Proteine an die Glykopolymere nachzuweisen. Die Proteine, die in der Lage sind, Kohlenhydratstrukturen selektiv zu binden, werden Lektine genannt. In dieser Dissertationsarbeit wurden verschiedene Glykopolymere synthetisiert. Dabei sollte auf einen effizienten und kostengünstigen Syntheseweg geachtet werden. Verschiedene Glykopolymere wurden durch funktionalisierte Monomere mit verschiedenen Zuckern, wie z.B. Mannose, Laktose, Galaktose oder N-Acetyl-Glukosamin als funktionelle Gruppe, hergestellt. Aus diesen funktionalisierten Glykomonomeren wurden über ATRP und RAFT-Polymerisation Glykopolymere synthetisiert. Die erhaltenen Glykopolymere wurden in Diblockcopolymeren als hydrophiler Block angewendet und die Selbstassemblierung in wässriger Lösung untersucht. Die Polymere formten in wässriger Lösung Mizellen, bei denen der Zuckerblock an der Oberfläche der Mizellen sitzt. Die Mizellen wurden mit einem hydrophoben Fluoreszenzfarbstoff beladen, wodurch die CMC der Mizellenbildung bestimmt werden konnte. Außerdem wurden die Glykopolymere als Oberflächenbeschichtung über „Grafting from“ mit SI-ATRP oder über „Grafting to“ auf verschiedene Oberflächen gebunden. Durch die glykopolymerbschichteten Oberflächen konnte die Glykan Protein Wechselwirkung über spektroskopische Messmethoden, wie SPR- und Mikroring Resonatoren untersucht werden. Hierbei wurde die spezifische und selektive Bindung der Lektine an die Glykopolymere nachgewiesen und die Bindungsstärke untersucht. Die synthetisierten Glykopolymere könnten durch Austausch der Glykaneinheit für andere Lektine adressierbar werden und damit ein weites Feld an anderen Proteinen erschließen. Die bioverträglichen Glykopolymere wären alternativen für den Einsatz in biologischen Prozessen als Transporter von Medikamenten oder Farbstoffe in den Körper. Außerdem könnten die funktionalisierten Oberflächen in der Diagnostik zum Erkennen von Lektinen eingesetzt werden. Die Glykane, die keine selektive und spezifische Bindung zu Proteinen eingehen, könnten als antiadsorptive Oberflächenbeschichtung z.B. in der Zellbiologie eingesetzt werden. N2 - Glycopolymers are synthetic and naturally occurring polymers that carry a gylcan unit in the side chain of the polymer. Glycans are responsible for many biological processes due to the glycn-protein interaction. The involvement of glcans in these biological processes enables the imitation and analysis of interactions by suitable model coumponds, e.g. glycopolymers. This system of glycan-protein interaction will be investigated and studied by glycopolymers in order to demonstrate the specific and selective binding of proteins to glycopolymers. The proteins that are able to selectively bind carbohydrate structures are called lectins. In this dissertation different glycopolymers were synthesized. Care should be taken to ensure an effficient and cost-effective synthesis route. Different glycopolymers were produced by functionalized monomers with different sugars, such as mannose, lactose, galactose or N-acetyl-glucosamine as functional group. From these functionalized glycomonomers, glycopolymers were synthesized via ATRP and RAFT polymerization. The glycopolymers obtained were used as hydrophilic blocks in diblock copolymers and self-assembly in aqueous solution was investigated. In aqueoussolution, the polymers formed micelles in which the sugar block sits on the surface of the micelles. The micelles were loaded with a hydrophobic fluorescent dxe, which made it possible to determine the CMC of micelle formation. In additiom, the glycopolymers were bound to various surfaces as surface coatings via “grafting from” with SI-ATRP or via “grafting to”. Through the glycopolymer-coated surfaces, the glycan-protein interaction could be investigated by spectroscpic measurement methods such as SPR and microring resonators. The specific and selective binding of lectins to the glycopolymers was detected and the binding strength was investigated. The synthesised glycopolymers could become adressable for other lectins by exchanging the glycan unit and thus open up a broad field of other proteins. The biocompatible glycopolymers would be an alternative for use in iological processes as transporters of drugs or dyes into the body. In addtion, the functionalised surfaces could be used in diagnostics for regognition of lectins. The glycan, which do nit bind selectively and specifically to proetins, could be used as anit-adsoptive surface coatings, e.g. in cell biology. KW - Glykopolymere KW - Polymerisation KW - Oberflächenbeschichtung KW - Lektine KW - Glykan-Protein-Wechselwirkung KW - glycopolymers KW - polymerization KW - surface modification KW - lectins KW - glycan-protein interaction Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432169 ER - TY - THES A1 - Al-Halbouni, Djamil T1 - Photogrammetry and distinct element geomechanical modelling of sinkholes and large-scale karstic depressions T1 - Photogrammetrie und geomechanische Diskrete-Elemente-Modellierung von Erdfällen und großskaligen Karstsenken N2 - Sinkholes and depressions are typical landforms of karst regions. They pose a considerable natural hazard to infrastructure, agriculture, economy and human life in affected areas worldwide. The physio-chemical processes of sinkholes and depression formation are manifold, ranging from dissolution and material erosion in the subsurface to mechanical subsidence/failure of the overburden. This thesis addresses the mechanisms leading to the development of sinkholes and depressions by using complementary methods: remote sensing, distinct element modelling and near-surface geophysics. In the first part, detailed information about the (hydro)-geological background, ground structures, morphologies and spatio-temporal development of sinkholes and depressions at a very active karst area at the Dead Sea are derived from satellite image analysis, photogrammetry and geologic field surveys. There, clusters of an increasing number of sinkholes have been developing since the 1980s within large-scale depressions and are distributed over different kinds of surface materials: clayey mud, sandy-gravel alluvium and lacustrine evaporites (salt). The morphology of sinkholes differs depending in which material they form: Sinkholes in sandy-gravel alluvium and salt are generally deeper and narrower than sinkholes in the interbedded evaporite and mud deposits. From repeated aerial surveys, collapse precursory features like small-scale subsidence, individual holes and cracks are identified in all materials. The analysis sheds light on the ongoing hazardous subsidence process, which is driven by the base-level fall of the Dead Sea and by the dynamic formation of subsurface water channels. In the second part of this thesis, a novel, 2D distinct element geomechanical modelling approach with the software PFC2D-V5 to simulating individual and multiple cavity growth and sinkhole and large-scale depression development is presented. The approach involves a stepwise material removal technique in void spaces of arbitrarily shaped geometries and is benchmarked by analytical and boundary element method solutions for circular cavities. Simulated compression and tension tests are used to calibrate model parameters with bulk rock properties for the materials of the field site. The simulations show that cavity and sinkhole evolution is controlled by material strength of both overburden and cavity host material, the depth and relative speed of the cavity growth and the developed stress pattern in the subsurface. Major findings are: (1) A progressively deepening differential subrosion with variable growth speed yields a more fragmented stress pattern with stress interaction between the cavities. It favours multiple sinkhole collapses and nesting within large-scale depressions. (2) Low-strength materials do not support large cavities in the material removal zone, and subsidence is mainly characterised by gradual sagging into the material removal zone with synclinal bending. (3) High-strength materials support large cavity formation, leading to sinkhole formation by sudden collapse of the overburden. (4) Large-scale depression formation happens either by coalescence of collapsing holes, block-wise brittle failure, or gradual sagging and lateral widening. The distinct element based approach is compared to results from remote sensing and geophysics at the field site. The numerical simulation outcomes are generally in good agreement with derived morphometrics, documented surface and subsurface structures as well as seismic velocities. Complementary findings on the subrosion process are provided from electric and seismic measurements in the area. Based on the novel combination of methods in this thesis, a generic model of karst landform evolution with focus on sinkhole and depression formation is developed. A deepening subrosion system related to preferential flow paths evolves and creates void spaces and subsurface conduits. This subsequently leads to hazardous subsidence, and the formation of sinkholes within large-scale depressions. Finally, a monitoring system for shallow natural hazard phenomena consisting of geodetic and geophysical observations is proposed for similarly affected areas. N2 - Dolinen und Senken sind typische Landformen von Karstgebieten. Sie stellen in den betroffenen Gebieten weltweit ein erhebliches Naturrisiko für Infrastruktur, Landwirtschaft, Wirtschaft und das menschliche Leben dar. Die physikalisch-chemischen Prozesse der Entstehung solcher Senkungen sind vielfältig und reichen von Auflösung und Materialerosion im Untergrund bis zu mechanischem Absenken/Bruchs des Oberbodens. Diese Arbeit betrachtet die Mechanismen, die zur Entwicklung von Dolinen und Senken führen, anhand von verschiedenen geowissenschaftlichen Methoden:Fernerkundung, Gesteinsmechanischer Modellierung und pberflächennaher Geophysik. Im ersten Teil werden detaillierte Informationen über den geologischen Hintergrund, Bodenstrukturen, Formen und die räumlich-zeitliche Entwicklung von Senkungen an einem sehr aktiven Karstgebiet am Toten Meer zusammengetragen. Dort bilden sich seit den 1980er Jahren immer größere Ansammlungen von Erdfällen, wie diese Phänomene auch oft genannt werden. Die Form der Erdfälle unterscheidet sich je nach Material, in dem sie entstehen: Erdfälle in Sand-Kies Böden und Salz sind im Allgemeinen tiefer und schmaler als Dolinen in den Schlammablagerungen des Toten Meeres. Wiederholte Aufnahmen aus der Luft mit Hilfe von Drohnen oder Ballons helfen dabei, kleine Absenkungen, einzelne Löcher und Risse zu identifizieren. Die Ursache dieser gefährlichen Absenkungen am Toten Meer ist in dem stetigen Fall des Seespiegels und der Bildung von starken Unterwasserkanälen zu sehen, die fortlaufend Material aus dem Boden herausspülen, sog. Subrosion. Im zweiten Teil dieser Dissertation wird ein neuer, geomechanischer Modellierungsansatz zur Simulation des Wachstums von Hohlräumen im Untergrund und der Bildung von Senkungsstrukturen vorgestellt. Die Simulationen zeigen, dass die Entwicklung der Hohlräume und Erdfälle durch die Materialstärke, die Tiefe und Geschwindigkeit des Hohlraumwachstums und durch das sich bildende Spannungsmuster im Untergrund gesteuert wird. Die wichtigsten Ergebnisse der Studie sind: (1) Eine fortlaufend sich vertiefende Subrosion mit variabler Wachstumsgeschwindigkeit führt zu einem stärker fragmentierten Spannungsmuster im Boden. Es begünstigt das Bilden von ineinander verschachtelten Erdfällen (Cluster) in großen Vertiefungen. (2) Materialien mit niedriger Festigkeit (wie z.B. Schlamm) können keine großen Hohlräume bilden, und das Absinken geschieht durch ein allmähliches Absacken. (3) Materialien mit hoher Festigkeit (wie z.B. verfestigte Sande/Kiese oder Steinsalz) unterstützen die Bildung großer Hohlräume, was zu einem plötzlichen Zusammenbruch des Oberbodens führen kann. (4) Großskalige Senkungsstrukturen bilden sich entweder durch das Verschachteln von kleineren Dolinen, blockweise sprödem Versagen, oder das allmähliche Absinken mit seitlicher Erweiterung. Die Ergebnisse der numerischen Simulationen stimmen im Allgemeinen sehr gut sowohl mit den beobachteten Senkungsformen an der Oberfläche überein, als auch mit Untergrundstrukturen beobachtet durch seismische und elektrische Methoden. Basierend auf der neuartigen Methodenkombination dieser Arbeit wird ein generisches Modell der Entwicklung von Senkungsstrukturen in Karstgebieten vorgestellt. Eine sich vertiefende Subrosion entlang von unterirdischen Kanälen erzeugt Hohlräume und führt in der Folge zu diesen gefährlichen Absenkungen und zur Bildung von Erdfällen innerhalb großer Vertiefungen. KW - Photogrammetry KW - Sinkholes KW - Karst KW - Discrete Element Method KW - Geomechanical Modelling KW - Applied Geophysics KW - Natural Hazards KW - Photogrammetrie KW - Erdfälle KW - Karst KW - Diskrete-Elemente-Methode KW - Geomechanische Modellierung KW - Angewandte Geophysik KW - Naturgefahren Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432159 ER -