TY - THES A1 - Grewe, Sina T1 - Hydro- and biogeochemical investigations of lake sediments in the Kenyan Rift Valley T1 - Hydro- und biogeochemische Untersuchungen von Seesedimenten aus dem Kenianischen Rift Valley N2 - Die Seen im kenianischen Riftsystem bieten die einmalige Gelegenheit eine große Bandbreite an hydrochemischen Umweltbedingungen zu studieren, die von Süßwasserseen bis hin zu hochsalinen und alkalinen Seen reichen. Da wenig über die hydro- und biogeochemischen Bedingungen in den darunterliegenden Seesedimenten bekannt ist, war es das Ziel dieser Arbeit, bereits existierende Datensätze mit Daten aus der Porenwasser- und Biomarker-Analyse zu erweitern. Zusätzlich wurden reduzierte Schwefelkomponenten und Sulfatreduktionsraten in den Sedimenten bestimmt. Mit den neu gewonnenen Daten wurde der anthropogene und mikrobielle Einfluss auf die Seesedimente untersucht sowie der Einfluss der Wasserchemie auf den Abbau und den Erhalt von organischem Material im Sediment. Zu den untersuchten Seen gehörten: Logipi, Eight (ein kleiner Kratersee in der Region Kangirinyang), Baringo, Bogoria, Naivasha, Oloiden und Sonachi. Die Biomarker-Zusammensetzungen in den untersuchten Seesedimenten waren ähnlich; allerdings gab es einige Unterschiede zwischen den salinen Seen und den Süßwasserseen. Einer dieser Unterschiede war das Vorkommen eines mit β-Carotin verwandten Moleküls, das nur in den salinen Seen gefunden wurde. Dieses Molekül stammt wahrscheinlich von Cyanobakterien, Einzellern die in großer Anzahl in salinen Seen vorkommen. In den beiden Süßwasserseen wurde Stigmasterol gefunden, ein für Süßwasseralgen charakteristisches Sterol. In dieser Studie hat sich gezeigt, dass Bogoria und Sonachi für Umweltrekonstruktionen mit Biomarkern besonders gut geeignet sind, da die Abwesenheit von Sauerstoff an deren Seegründen den Abbau von organischem Material verlangsamt. Andere Seen, wie zum Beispiel Naivasha, sind aufgrund des großen anthropogenen Einflusses weniger gut für solche Rekonstruktionen geeignet. Die Biomarker-Analyse bot jedoch die Möglichkeit, den menschlichen Einfluss auf den See zu studieren. Desweiteren zeigte diese Studie, dass sich Horizonte mit einem hohen Anteil an elementarem Schwefel als temporale Marker nutzen lassen. Diese Horizonte wurden zu einer Zeit abgelagert, als die Wasserpegel sehr niedrig waren. Der Schwefel wurde von Mikroorganismen abgelagert, die zu anoxygener Photosynthese oder Sulfidoxidation fähig sind. N2 - The lakes in the Kenyan Rift Valley offer the unique opportunity to study a wide range of hydrochemical environmental conditions, ranging from freshwater to highly saline and alkaline lakes. Because little is known about the hydro- and biogeochemical conditions in the underlying lake sediments, it was the aim of this study to extend the already existing data sets with data from porewater and biomarker analyses. Additionally, reduced sulphur compounds and sulphate reduction rates in the sediment were determined. The new data was used to examine the anthropogenic and microbial influence on the lakes sediments as well as the influence of the water chemistry on the degradation and preservation of organic matter in the sediment column. The lakes discussed in this study are: Logipi, Eight (a small crater lake in the region of Kangirinyang), Baringo, Bogoria, Naivasha, Oloiden, and Sonachi. The biomarker compositions were similar in all studied lake sediments; nevertheless, there were some differences between the saline and freshwater lakes. One of those differences is the occurrence of a molecule related to β-carotene, which was only found in the saline lakes. This molecule most likely originates from cyanobacteria, single-celled organisms which are commonly found in saline lakes. In the two freshwater lakes, stigmasterol, a sterol characteristic for freshwater algae, was found. In this study, it was shown that Lakes Bogoria and Sonachi can be used for environmental reconstructions with biomarkers, because the absence of oxygen at the lake bottoms slowed the degradation process. Other lakes, like for example Lake Naivasha, cannot be used for such reconstructions, because of the large anthropogenic influence. But the biomarkers proved to be a useful tool to study those anthropogenic influences. Additionally, it was observed that horizons with a high concentration of elemental sulphur can be used as temporal markers. Those horizons were deposited during times when the lake levels were very low. The sulphur was deposited by microorganisms which are capable of anoxygenic photosynthesis or sulphide oxidation. KW - Ostafrikansches Rift KW - saline Seen KW - Biomarker KW - Umweltrekonstruktion KW - Sulfatreduktion KW - Seesediment KW - East African Rift KW - saline lakes KW - biomarker KW - environmental reconstruction KW - sulphate reduction KW - lake sediment Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98342 ER - TY - THES A1 - Gopalakrishnan, Sathej T1 - Mathematical modelling of host-disease-drug interactions in HIV disease T1 - Mathematische Modellierung von Pathogen-Wirkstoff-Wirt-Interaktionen im Kontext der HIV Erkrankung N2 - The human immunodeficiency virus (HIV) has resisted nearly three decades of efforts targeting a cure. Sustained suppression of the virus has remained a challenge, mainly due to the remarkable evolutionary adaptation that the virus exhibits by the accumulation of drug-resistant mutations in its genome. Current therapeutic strategies aim at achieving and maintaining a low viral burden and typically involve multiple drugs. The choice of optimal combinations of these drugs is crucial, particularly in the background of treatment failure having occurred previously with certain other drugs. An understanding of the dynamics of viral mutant genotypes aids in the assessment of treatment failure with a certain drug combination, and exploring potential salvage treatment regimens. Mathematical models of viral dynamics have proved invaluable in understanding the viral life cycle and the impact of antiretroviral drugs. However, such models typically use simplified and coarse-grained mutation schemes, that curbs the extent of their application to drug-specific clinical mutation data, in order to assess potential next-line therapies. Statistical models of mutation accumulation have served well in dissecting mechanisms of resistance evolution by reconstructing mutation pathways under different drug-environments. While these models perform well in predicting treatment outcomes by statistical learning, they do not incorporate drug effect mechanistically. Additionally, due to an inherent lack of temporal features in such models, they are less informative on aspects such as predicting mutational abundance at treatment failure. This limits their application in analyzing the pharmacology of antiretroviral drugs, in particular, time-dependent characteristics of HIV therapy such as pharmacokinetics and pharmacodynamics, and also in understanding the impact of drug efficacy on mutation dynamics. In this thesis, we develop an integrated model of in vivo viral dynamics incorporating drug-specific mutation schemes learned from clinical data. Our combined modelling approach enables us to study the dynamics of different mutant genotypes and assess mutational abundance at virological failure. As an application of our model, we estimate in vivo fitness characteristics of viral mutants under different drug environments. Our approach also extends naturally to multiple-drug therapies. Further, we demonstrate the versatility of our model by showing how it can be modified to incorporate recently elucidated mechanisms of drug action including molecules that target host factors. Additionally, we address another important aspect in the clinical management of HIV disease, namely drug pharmacokinetics. It is clear that time-dependent changes in in vivo drug concentration could have an impact on the antiviral effect, and also influence decisions on dosing intervals. We present a framework that provides an integrated understanding of key characteristics of multiple-dosing regimens including drug accumulation ratios and half-lifes, and then explore the impact of drug pharmacokinetics on viral suppression. Finally, parameter identifiability in such nonlinear models of viral dynamics is always a concern, and we investigate techniques that alleviate this issue in our setting. N2 - Das Humane Immundefiecienz-Virus (HIV) widerstanden hat fast drei Jahrzehnten eff Orts targeting eine Heilung. Eine anhaltende Unterdrückung des Virus hat noch eine Herausforderung, vor allem aufgrund der bemerkenswerten evolutionären Anpassung, dass das Virus Exponate durch die Ansammlung von Medikamenten-resistenten Mutationen in seinem Genom. Aktuelle therapeutische Strategien zielen auf das Erreichen und die Erhaltung einer niedrigen virale Belastung und umfassen in der Regel mehrere Medikamente. Die Wahl der optimalen Kombinationen dieser Medikamente ist von entscheidender Bedeutung, besonders im Hintergrund der Behandlung Fehler eingetreten, die zuvor mit bestimmten anderen Medikamenten. Ein Verständnis für die Dynamik der viralen mutierten Genotypen Aids in die Bewertung der Behandlung Fehler mit einer bestimmten Kombination und der Erkundung potenzieller Bergung Behandlungsschemata. Mathematische Modelle für virale Dynamik haben sich als unschätzbar erwiesen hat im Verständnis der viralen Lebenszyklus und die Auswirkungen von antiretroviralen Medikamenten. Allerdings sind solche Modelle verwenden in der Regel simplified und grobkörnigen Mutation Regelungen, dass Aufkantungen den Umfang ihrer Anwendung auf Arzneimittel-ganz speziellec Mutation klinische Daten, um zu beurteilen, mögliche nächste-line Therapien. Statistische Modelle der Mutation Anhäufung gedient haben gut in präparieren Mechanismen der Resistenz Evolution durch Mutation Rekonstruktion Pathways unter verschiedenen Medikamenten-Umgebungen. Während diese Modelle führen gut in der Vorhersage der Ergebnisse der Behandlung durch statistische lernen, sie enthalten keine Droge E ffect mechanistisch. Darüber hinaus aufgrund einer innewohnenden Mangel an zeitlichen Funktionen in solchen Modellen, sie sind weniger informativ auf Aspekte wie die Vorhersage mutational Fülle an Versagen der Behandlung. Dies schränkt die Anwendung in der Analyse der Pharmakologie von antiretroviralen Medikamenten, insbesondere, Zeit-abhängige Merkmale der HIV-Therapie wie Pharmakokinetik und Pharmakodynamik, und auch in dem Verständnis der Auswirkungen von Drogen e fficacy auf Mutation Dynamik. In dieser Arbeit, die wir bei der Entwicklung eines integrierten Modells von In-vivo-virale Dynamik Einbeziehung drug-ganz speziellec Mutation Systeme gelernt aus den klinischen Daten. Unsere kombinierten Modellansatz ermöglicht uns die Untersuchung der Dynamik von diff schiedene mutierten Genotypen und bewerten mutational Fülle an virologischem Versagen. Als Anwendung unseres Modells schätzen wir In-vivo-fitness Merkmale der viralen Mutanten unter di fferent drug Umgebungen. Unser Ansatz erstreckt sich auch natürlich auf mehrere-Therapien. Weitere zeigen wir die Vielseitigkeit unseres Modells zeigen, wie es können Modified zu integrieren kürzlich aufgeklärt Mechanismen der Drug Action einschließlich Molekülen, dass target host Faktoren. Zusätzlich haben wir Adresse ein weiterer wichtiger Aspekt in der klinischen Management der HIV-Erkrankung, das heißt Drogen Pharmakokinetik. Es ist klar, dass die Zeit-abhängige Änderungen in In-vivo-Wirkstoffkonzentration könnten die Auswirkungen auf die antivirale E ffect und haben auch Einfluss auf die Entscheidungen über Dosierungsintervalle. Wir präsentieren ein Framework, bietet ein integriertes Verständnis der wichtigsten Merkmale von mehreren Dosierungsschemata einschließlich Kumulation Übersetzungen und Halbwertszeiten, und untersuchen Sie die Auswirkungen von Drogen auf die Pharmakokinetik Virussuppression. Schließlich, Parameter identifiFähigkeit in solchen nichtlineare Modelle der virale Dynamik ist immer ein Anliegen, und wir untersuchen Methoden, um dieses Problem in unserer Einstellung. KW - HIV KW - mathematical modelling KW - viral fitness KW - pharmacokinetics KW - parameter estimation KW - HIV Erkrankung KW - Pharmakokinetik KW - Fitness KW - mathematische Modellierung KW - Kombinationstherapie Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100100 ER - TY - THES A1 - Gonzalez Camargo, Rodolfo T1 - Insulin resistance in cancer cachexia and metabolic syndrome BT - role of insulin activated macrophages and miRNA-21-5p N2 - The ever-increasing fat content in Western diet, combined with decreased levels of physical activity, greatly enhance the incidence of metabolic-related diseases. Cancer cachexia (CC) and Metabolic syndrome (MetS) are both multifactorial highly complex metabolism related syndromes, whose etiology is not fully understood, as the mechanisms underlying their development are not completely unveiled. Nevertheless, despite being considered “opposite sides”, MetS and CC share several common issues such as insulin resistance and low-grade inflammation. In these scenarios, tissue macrophages act as key players, due to their capacity to produce and release inflammatory mediators. One of the main features of MetS is hyperinsulinemia, which is generally associated with an attempt of the β-cell to compensate for diminished insulin sensitivity (insulin resistance). There is growing evidence that hyperinsulinemia per se may contribute to the development of insulin resistance, through the establishment of low grade inflammation in insulin responsive tissues, especially in the liver (as insulin is secreted by the pancreas into the portal circulation). The hypothesis of the present study was that insulin may itself provoke an inflammatory response culminating in diminished hepatic insulin sensitivity. To address this premise, firstly, human cell line U937 differentiated macrophages were exposed to insulin, LPS and PGE2. In these cells, insulin significantly augmented the gene expression of the pro-inflammatory mediators IL-1β, IL-8, CCL2, Oncostatin M (OSM) and microsomal prostaglandin E2 synthase (mPGES1), and of the anti-inflammatory mediator IL-10. Moreover, the synergism between insulin and LPS enhanced the induction provoked by LPS in IL-1β, IL-8, IL-6, CCL2 and TNF-α gene. When combined with PGE2, insulin enhanced the induction provoked by PGE2 in IL-1β, mPGES1 and COX2, and attenuated the inhibition induced by PGE2 in CCL2 and TNF-α gene expression contributing to an enhanced inflammatory response by both mechanisms. Supernatants of insulin-treated U937 macrophages reduced the insulin-dependent induction of glucokinase in hepatocytes by 50%. Cytokines contained in the supernatant of insulin-treated U937 macrophages also activated hepatocytes ERK1/2, resulting in inhibitory serine phosphorylation of the insulin receptor substrate. Additionally, the transcription factor STAT3 was activated by phosphorylation resulting in the induction of SOCS3, which is capable of interrupting the insulin receptor signal chain. MicroRNAs, non-coding RNAs linked to protein expression regulation, nowadays recognized as active players in the generation of several inflammatory disorders such as cancer and type II diabetes are also of interest. Considering that in cancer cachexia, patients are highly affected by insulin resistance and inflammation, control, non-cachectic and cachectic cancer patients were selected and the respective circulating levels of pro-inflammatory mediators and microRNA-21-5p, a posttranscriptional regulator of STAT3 expression, assessed and correlated. Cachectic patients circulating cytokines IL-6 and IL-8 levels were significantly higher than those of non-cachectic and controls, and the expression of microRNA-21-5p was significantly lower. Additionally, microRNA-21-5p reduced expression correlated negatively with IL-6 plasma levels. These results indicate that hyperinsulinemia per se might contribute to the low grade inflammation prevailing in MetS patients and thereby promote the development of insulin resistance particularly in the liver. Diminished MicroRNA-21-5p expression may enhance inflammation and STAT3 expression in cachectic patients, contributing to the development of insulin resistance. N2 - O teor de gordura cada vez maior na dieta ocidental, combinada com a diminuição dos níveis de atividade física têm marcadamente aumentado à incidência de doenças relacionas ao metabolismo. A caquexia associada ao câncer (CC) e a síndrome metabólica (SM) são síndromes de etiologia complexa e multifatorial, não totalmente compreendida, e com mecanismos subjacentes ao seu desenvolvimento não completamente revelados. No entanto, apesar de serem consideradas "lados opostos", a CC e a MetS apresentam várias características em comum, tais como resistência à insulina e inflamação de baixo grau, com macrófagos teciduais como importantes coadjuvantes, devido à sua capacidade de produzir e liberar mediadores inflamatórios, e microRNAs, descritos como RNAs não-codificantes ligados à regulação da expressão de proteínas e reconhecidos como participantes ativos na geração de várias doenças inflamatórias, tais como o câncer e diabetes tipo II. Uma das principais características da MetS é a hiperinsulinemia, que está geralmente associada com uma tentativa da célula β do pâncreas de compensar a diminuição da sensibilidade à insulina (resistência à insulina). Um número crescente de evidências sugere que a hiperinsulinemia “por si só”, pode contribuir com o desenvolvimento de resistência à insulina através do estabelecimento de um quadro inflamatório de baixo grau, em tecidos sensíveis a insulina, e em particular no fígado, devido ao fato da insulina ser secretada pelo pâncreas na circulação portal. A hipótese do presente estudo foi que a insulina pode induzir uma resposta inflamatória em macrófagos e culminar em diminuição da sensibilidade hepática à insulina. Para confirmar esta hipótese, primeiramente, macrófagos diferenciados da linhagem de células humanas U937 foram expostos à insulina, LPS e PGE2. Nestas células, a insulina aumentou significativamente a expressão gênica dos mediadores pró-inflamatórios IL-1β, IL- 8, CCL2, oncostatina M (OSM) e prostaglandina E2 sintase microssomal (mPGES1), e do mediador anti-inflamatório IL-10. Além disso, o sinergismo entre insulina e LPS aumentou a indução provocada por LPS nos genes da IL-1β, IL-8, IL-6, CCL2 e TNF-α. Quando combinado com PGE2, a insulina aumentou a indução provocada pela PGE2 nos genes da IL-1β, mPGES1 e COX2, e restaurou a inibição induzida pela PGE2 no gene CCL2 e TNF-α.Subsequentemente, sobrenadantes dos macrófagos U937 tratados com insulina modulou negativamente a sinalização da insulina em culturas primárias de hepatócitos de rato, como observado pela atenuação de 50% da indução dependente de insulina da enzima glicoquinase. Citocinas contidas no sobrenadante de macrófagos U937 tratados com insulina também ativaram em hepatócitos ERK1/2, resultando na fosforilação do resíduo de serina inibitório do substrato do receptor de insulina. Adicionalmente, o fator de transcrição STAT3 foi ativado por um elevado grau de fosforilação e a proteína SOCS3, capaz de interromper a via de sinalização do receptor de insulina, foi induzida. Considerando que na caquexia associada ao câncer, pacientes são altamente afetados pela resistência à insulina e inflamação, pacientes controle, não caquéticos e caquéticos foram seleccionados e os respectivos níveis circulantes de mediadores pró-inflamatórios e microRNA-21-5p, um regulador pós-transcricional da expressão de STAT3, avaliados e correlacionados. Pacientes caquéticos exibiram citocinas circulantes IL-6 e IL-8 significativamente maiores do que pacientes não caquéticos e controles, assim como a expressão de microRNA-21-5p significativamente diminuida. Além disso, a reduzida expressão de microRNA-21-5p correlaciona-se negativamente com níveis de IL-6 no plasma. Estes resultados indicam que a hiperinsulinemia pode, por si só contribuir para o desenvolvimento da inflamação de baixo grau prevalente em pacientes com excesso de peso e obesos e, assim, promover o desenvolvimento de resistência à insulina especialmente no fígado e o nível reduzido de miRNA-21-5p pode modular a inflamação e expressão de STAT3 em pacientes caquéticos, contribuindo para o desenvolvimento da resistência à insulina. N2 - Der stetig steigende Fettgehalt in westlicher Ernährung in Kombination mit reduzierter körperlicher Aktivität hat zu einem dramatischen Anstieg der Inzidenz metabolischer Erkrankungen geführt. Tumorkachexie (Cancer cachexia, CC) und Metabolisches Syndrom (MetS) sind sehr komplexe, multifaktorielle metabolische Erkrankungen, deren Ätiologie nicht vollständig verstanden ist. Die molekularen Ursachen, die zu diesen Symptomkomplexen führen, sind noch unzureichend aufgeklärt. Obwohl ihr äußeres Erscheinungsbild stark gegensätzlich ist, haben MetS und CC etliche Gemeinsamkeiten wie zum Beispiel Insulinresistenz und eine chronische unterschwellige Entzündung. Sowohl bei der Entstehung der Insulinresistenz als auch bei der chronischen Entzündung spielen Makrophagen eine Schlüsselrolle, weil sie in der Lage sind pro-inflammatorische Mediatoren zu produzieren und freizusetzen. Eine der hervorstechendsten Auffälligkeiten des MetS ist die Hyperinsulinämie, die durch den Versuch der β-Zelle, die verminderte Insulinsensitivität (Insulinresistenz) zu kompensieren, zustande kommt. Es gibt zunehmend Hinweise darauf, dass die Hyperinsulinämie selber an der Entzündungsentstehung in Insulin-abhängigen Geweben beteiligt ist und dadurch zur Entwicklung und Verstärkung der Insulinresistenz beitragen kann. Dies trifft besonders auf die Leber zu, weil hier die Insulinspiegel besonders hoch sind, da Insulin vom Pankreas direkt in den Pfortaderkeislauf gelangt. Daher wurde in dieser Arbeit die Hypothese geprüft, ob Insulin selber eine Entzündungsantwort auslösen und dadurch die hepatische Insulinsensitivität senken kann. Zu diesem Zweck wurde die humane Zelllinie U937 durch PMA-Behandlung zu Makrophagen differenziert und diese Makrophagen mit Insulin, LPS und PGE2 inkubiert. In diesen Zellen steigerte Insulin die Expression der pro-inflammatorischen Mediatoren IL-1β, IL-8, CCL2, Oncostatin M (OSM) signifikant und induzierte die mikrosomale PGE-Synthase 1 (mPGES1) ebenso wie das antiinflammatorische Cytokin IL-10. Ferner verstärkte Insulin die LPS-abhängige Induktion des IL-1β-, IL-8-, IL-6-, CCL2- und TNFα-Gens. Ebenso verstärkte Insulin die PGE2-abhängige Induktion von IL-1β, mPGES1 und COX2. Im Gegensatz dazu schwächte es die Hemmende Wirkung von PGE2 auf Expression von TNFα und CCL2 ab und trug so auf beide Weisen zu einer Verstärkung der Entzündungsantwort bei. Überstände von Insulin-behandelten U937 Makrophagen reduzierten die Insulin-abhängige Induktion der Glukokinase in Hepatocyten um 50%. Die Cytokine, die im Überstand Insulin-behandelter Makrophagen enthalten waren, aktivierten in Hepatocyten ERK1/2, was zu einer inhibitorischen Serin-Phosphorylierung der Insulin Rezeptor Substrats (IRS) führte. Zusätzlich führten die Cytokine zu einer Phosphorylierung und Aktivierung von STAT3 und einer dadurch bedingten Induktion von SOCS3, das seinerseits die Insulinrezeptor-Signalkette unterbrechen kann. MicroRNAs, nicht-codierende RNAs, die an der Regulation der Proteinexpression beteiligt sind und deren Beteiligung an der Regulation der Entzündungsantwort bei zahlreichen Erkrankungen, unter anderem Tumorerkrankungen und Typ II Diabetes gezeigt wurde, sind auch von Interesse. Unter dem Blickwinkel, dass Tumor-Kachexie Patienten sich durch eine Insulinresistenz und eine systemische Entzündung auszeichnen, wurden in nichtkachektische und tumorkachektische Patienten Plasmaspiegel von pro-inflammatorischen Mediatoren und der microRNA-21-5p bestimmt, von der bekannt ist, dass sie ein posttranskriptioneller Regulator der STAT3 Expression ist. Die Spiegel der proinflammatorischen Mediatoren und der miRNA-21-5p wurden korreliert. In kachektischen Patienten waren die Spiegel der Cytokine IL-6 und IL-8 signifikant höher, die der miRNA-21- 5p signifikant niedriger als in nicht-kachektischen Patienten. Die Plasma IL-6-Spiegel korrelierten negativ mit den miRNA21-5p Spiegeln. Insgesamt zeigen die Ergebnisse, dass eine Hyperinsulinämie selber zu der Entwicklung einer unterschwellingen Entzündung, wie sie in Patienten mit einem MetS vorherrscht, beitragen, und dadurch besonders in der Leber eine Insulinresistenz auslösen oder verstärken kann. Eine verringerte Expression der MicroRNA-21-5p kann in kachektischen Patienten die Entzündungsantwort, im Speziellen die STAT3 Expression, verstärken und dadurch zur Entwicklung einer Insulinresistenz beitragen KW - cachexia KW - metabolic syndrome KW - inflammation KW - insulin resistance KW - microRNAs KW - insulin KW - liver KW - macrophages KW - caquexia KW - síndrome metabólica KW - inflamação KW - resistência à insulina KW - microRNAs KW - insulina KW - fígado KW - macrófagos KW - Kachexie KW - metabolisches Syndrom KW - Entzündung KW - Insulinresistenz KW - MicroRNAs KW - Insulin KW - Leber KW - Makrophagen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100973 ER - TY - THES A1 - Gomez, David T1 - Mechanisms of biochemical reactions within crowded environments T1 - Mechanismus der Biochemische Reaktionen im vollgestopfte Umgebungen N2 - The cell interior is a highly packed environment in which biological macromolecules evolve and function. This crowded media has effects in many biological processes such as protein-protein binding, gene regulation, and protein folding. Thus, biochemical reactions that take place in such crowded conditions differ from diluted test tube conditions, and a considerable effort has been invested in order to understand such differences. In this work, we combine different computationally tools to disentangle the effects of molecular crowding on biochemical processes. First, we propose a lattice model to study the implications of molecular crowding on enzymatic reactions. We provide a detailed picture of how crowding affects binding and unbinding events and how the separate effects of crowding on binding equilibrium act together. Then, we implement a lattice model to study the effects of molecular crowding on facilitated diffusion. We find that obstacles on the DNA impair facilitated diffusion. However, the extent of this effect depends on how dynamic obstacles are on the DNA. For the scenario in which crowders are only present in the bulk solution, we find that at some conditions presence of crowding agents can enhance specific-DNA binding. Finally, we make use of structure-based techniques to look at the impact of the presence of crowders on the folding a protein. We find that polymeric crowders have stronger effects on protein stability than spherical crowders. The strength of this effect increases as the polymeric crowders become longer. The methods we propose here are general and can also be applied to more complicated systems. N2 - Innerhalb einer Zelle, im Zytosol, entstehen und arbeiten sehr viele biologische Makromoleküle. Die Dichte dieser Moleküle ist sehr hoch und dieses ‘vollgestopfte’ Zytosol hat vielfältige Auswirkungen auf viele biologische Prozessen wie zum Beispiel Protein-Protein Interaktionen, Genregulation oder die Faltung von Proteinen. Der Ablauf von vielen biochemische Reaktionen in dieser Umgebung weicht von denen unter verdünnte Laborbedingungen ab. Um die Effekte dieses ‘makromolekularen Crowdings’ zu verstehen, wurde in den letzten Jahren bereits viel Mühe investiert. In dieser Arbeit kombinieren wir verschiede Computermethoden, um die Wirkungen des ‘makromolekularen Crowdings’ auf biologische Prozesse besser zu verstehen. Zuerst schlagen wir ein Gittermodell vor, um damit die Effekte des ‘makromolekularen Crowdings’ auf enzymatische Reaktionen zu studieren. Damit stellen wir ein detailliertes Bild zusammen, wie Crowding die Assoziations- und Dissozotationsraten beeinflusst und wie verschiedene crowding-Effekte zusammen auf die Gleichgewichtskonstante wirken. Weiterhin implementieren wir ein Gittermodell der ‘erleichterte Diffusion’. Unsere Ergebnisse zeigen, dass Hindernisse an der DNA die vereinfachte Diffusion beeinträchtigen. Das Ausmass dieser Wirkung hängt dabei von der Dynamik der Hindernisse an der DNA ab. Im dem Fall dass Crowder ausschließlich in der Lösung vorhanden sind, erhöhen sich unter bestimmten Bedingungen DNA-spezifische Bindungen. Schließlich nutzten wir strukturbasierte Techniken um damit die Auswirkungen von Crowding auf die Faltung von Proteinen zu untersuchen. Wir fanden dabei, dass Polymer Crowder stärkere Wirkungen auf die Proteinstabilität haben als kugelförmige Crowder. Dieser Effekt verstärkte sich mit der Länge der untersuchten Polymere. Die Methoden die hier vorgeschlagen werden, sind generell anwendbar und können auch an deutlich komplexeren Systemen angewandt werden. KW - molecular crowding KW - gene expression KW - enzymatic activity KW - protein folding KW - Molecular crowding KW - enzymatische Reaktionen KW - Genregulation KW - Faltung von Proteinen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94593 ER - TY - THES A1 - Georgieva, Viktoria T1 - Neotectonics & Cooling History of the Southern Patagonian Andes T1 - Neotektonik und Abkühlgeschichte der Südpatagonschen Anden BT - assessing the Role of Ridge Collision and Slab Window Formation inboard of the Chile Triple Junction (46-47°S) BT - die Rolle von ozeanischer Rückenkollision und der Bilding eines “slab window” am Chile-Triplepunkt (47°S) N2 - The collision of bathymetric anomalies, such as oceanic spreading centers, at convergent plate margins can profoundly affect subduction dynamics, magmatism, and the structural and geomorphic evolution of the overriding plate. The Southern Patagonian Andes of South America are a prime example for sustained oceanic ridge collision and the successive formation and widening of an extensive asthenospheric slab window since the Middle Miocene. Several of the predicted upper-plate geologic manifestations of such deep-seated geodynamic processes have been studied in this region, but many topics remain highly debated. One of the main controversial topics is the interpretation of the regional low-temperature thermochronology exhumational record and its relationship with tectonic and/or climate-driven processes, ultimately manifested and recorded in the landscape evolution of the Patagonian Andes. The prominent along-strike variance in the topographic characteristics of the Andes, combined with coupled trends in low-temperature thermochronometer cooling ages have been interpreted in very contrasting ways, considering either purely climatic (i.e. glacial erosion) or geodynamic (slab-window related) controlling factors. This thesis focuses on two main aspects of these controversial topics. First, based on field observations and bedrock low-temperature thermochronology data, the thesis addresses an existing research gap with respect to the neotectonic activity of the upper plate in response to ridge collision - a mechanism that has been shown to affect the upper plate topography and exhumational patterns in similar tectonic settings. Secondly, the qualitative interpretation of my new and existing thermochronological data from this region is extended by inverse thermal modelling to define thermal histories recorded in the data and evaluate the relative importance of surface vs. geodynamic factors and their possible relationship with the regional cooling record. My research is centered on the Northern Patagonian Icefield (NPI) region of the Southern Patagonian Andes. This site is located inboard of the present-day location of the Chile Triple Junction - the juncture between the colliding Chile Rise spreading center and the Nazca and Antarctic Plates along the South American convergent margin. As such this study area represents the region of most recent oceanic-ridge collision and associated slab window formation. Importantly, this location also coincides with the abrupt rise in summit elevations and relief characteristics in the Southern Patagonian Andes. Field observations, based on geological, structural and geomorphic mapping, are combined with bedrock apatite (U-Th)/He and apatite fission track (AHe and AFT) cooling ages sampled along elevation transects across the orogen. This new data reveals the existence of hitherto unrecognized neotectonic deformation along the flanks of the range capped by the NPI. This deformation is associated with the closely spaced oblique collision of successive oceanic-ridge segments in this region over the past 6 Ma. I interpret that this has caused a crustal-scale partitioning of deformation and the decoupling, margin-parallel migration, and localized uplift of a large crustal sliver (the NPI block) along the subduction margin. The location of this uplift coincides with a major increase of summit elevations and relief at the northern edge of the NPI massif. This mechanism is compatible with possible extensional processes along the topographically subdued trailing edge of the NPI block as documented by very recent and possibly still active normal faulting. Taken together, these findings suggest a major structural control on short-wavelength variations in topography in the Southern Patagonian Andes - the region affected by ridge collision and slab window formation. The second research topic addressed here focuses on using my new and existing bedrock low-temperature cooling ages in forward and inverse thermal modeling. The data was implemented in the HeFTy and QTQt modeling platforms to constrain the late Cenozoic thermal history of the Southern Patagonian Andes in the region of the most recent upper-plate sectors of ridge collision. The data set combines AHe and AFT data from three elevation transects in the region of the Northern Patagonian Icefield. Previous similar studies claimed far-reaching thermal effects of the approaching ridge collision and slab window to affect patterns of Late Miocene reheating in the modelled thermal histories. In contrast, my results show that the currently available data can be explained with a simpler thermal history than previously proposed. Accordingly, a reheating event is not needed to reproduce the observations. Instead, the analyzed ensemble of modelled thermal histories defines a Late Miocene protracted cooling and Pliocene-to-recent stepwise exhumation. These findings agree with the geological record of this region. Specifically, this record indicates an Early Miocene phase of active mountain building associated with surface uplift and an active fold-and-thrust belt, followed by a period of stagnating deformation, peneplanation, and lack of synorogenic deposition in the Patagonian foreland. The subsequent period of stepwise exhumation likely resulted from a combination of pulsed glacial erosion and coeval neotectonic activity. The differences between the present and previously published interpretation of the cooling record can be reconciled with important inconsistencies of previously used model setup. These include mainly the insufficient convergence of the models and improper assumptions regarding the geothermal conditions in the region. This analysis puts a methodological emphasis on the prime importance of the model setup and the need for its thorough examination to evaluate the robustness of the final outcome. N2 - Die Kollision ozeanischer Rückensysteme entlang aktiver Subduktionszonen kann eine nachhaltige Wirkung auf die geodynamische, magmatische, strukturelle und geomorphologische Entwicklung der Oberplatte ausüben. Die Südpatagonischen Anden repräsentieren ein außergewöhnliches Beispiel für eine aktive ozeanische Rückenkollision mit einem Kontinentalrand, die über mehrere Millionen Jahre hinweg aufrechterhalten wurde. Dieser Prozess wurde begleitet von großräumigen Mantelprozessen mit der gleichzeitigen Bildung eines asthenosphärischen Fensters unter Südpatagonien – eine weiträumige Öffnung zwischen den divergierenden ozeanischen Platten unter der Oberplatte, die den Kontakt des asthenosphärischen Mantels mit der kontinentalen Lithosphäre ermöglicht hat. Auch wenn die daraus resultierenden geologischen Erscheinungsformen der Oberplatte bereits in unterschiedlichen Regionen studiert wurden, bleiben viele Fragen hinsichtlich der assoziierten Exhumations- Abkühlungs- und Deformationsprozesse noch offen. Eine kontroverse Frage in diesem Zusammenhang bezieht sich auf die Interpretation von Niedrigtemperatur-Thermochronologiedaten, welche die jüngste Abkühlungs- und Deformationsgeschichte der Erdkruste und die Landschaftsentwicklung in Südpatagonien dokumentieren. Diese Abkühlgeschichte kann theoretisch zeitliche und/oder räumliche Variationen im Erosionspotential von Oberflächenprozessen und der daraus resultierenden jüngsten Exhumation beleuchten oder auch den Einfluss überlagerter thermischer Effekte des hochliegenden Mantels widerspiegeln. Die ausgeprägten topographischen Änderungen entlang des Streichens der Patagonischen Anden, die offenbar auch an Trends in den thermochronometrischen Daten gekoppelt sind, wurden in der Vergangenheit bereits äußerst kontrovers interpretiert. Endglieder dieser Diskussion sind entweder klimatisch gesteuerte Prozessmodelle und eine damit verbundene räumliche Variabilität in der Exhumation (glaziale Erosion) oder geodynamischen Prozesse, die insbesondere eine regional begrenzte Deformation und Hebung mit der Kollision des ozeanischen Chile-Rückens in Verbindung bringen. Diese Dissertation ist daher auf zwei wesentliche Aspekte dieser Problematik fokussiert. Sie befasst sich einerseits mit der soweit kaum erforschten Existenz junger (neotektonischer) Deformationsphänomene, die unmittelbar mit der Rückenkollision in Verbindung steht und das Potenzial hat, die Topographie und die thermochronometrisch dokumentierte Abkühlgeschichte des Patagonischen Gebirgszuges mitbeeinflusst zu haben. Ein weiterer Forschungsfokus liegt auf der erweiterten Interpretation eines Teils der im Rahmen dieser Arbeit erstellten sowie von vorhandenen thermochronometrischen Datensätzen durch inverse numerische Modellierungen. Diese Modellierungen hatten das Ziel, die thermische Geschichte der Proben, die am besten die beobachteten Daten reproduzieren kann, zu definieren und die relative Bedeutung geodynamischer und oberflächennaher Prozesse abzuschätzen. Das Untersuchungsgebiet liegt in dem Gebirgsmassiv des Nordpatagonischen Eisfeldes von Südostpatagonien. Dieser Teil der Südpatagonischen Anden liegt in der Region, wo die derzeitig aktive Kollision des Chile-Rückens seit 6 Millionen Jahren im Gange ist. Der Nordrand des Gebirgsmassivs fällt zusammen mit der abrupten Zunahme der Topographie am Übergang von den Nord- in den Südpatagonischen Anden - das Gebiet, das von ozeanischer Rückenkollision betroffen wurde und durch die Bildung des asthenosphärischen Fensters gekennzeichnet ist. Diverse Feldbeobachtungen, kombiniert mit neuen thermochronometrischen Daten ((U-Th)/He- und Spaltspurendatierungen an Apatiten von Festgesteinsproben, AHe und AFT), dokumentieren die bisher unbekannte Existenz junger tektonischer Bewegungen entlang der Flanken dieses erhöhten Gebirgszuges, welche die topographischen, geomorphologischen und thermochronometrischen Charakteristika der Region deutlich beeinflusst haben. Diese Deformation wurde ausgelöst durch die schräge Kollision von Segmenten des Chile- Rückens, die eine Partitionierung in der Krustendeformation in Komponenten die jeweils parallel und orthogonal zum konvergenten Plattenrand orientiert sind, nach sich zog. Dieser hierbei entstandene Krustenblock des Nordpatagonischen Eisfeldes wurde entlang der Plattengrenze entkoppelt und nordwärts bewegt. Diese Kinematik führte zur lokalen Hebung und Extension (Absenkung) jeweils entsprechend am Nord- und Südrand des Krustenblocks. Die resultierende differentielle Hebung und Extension dieses Krustenblocks korreliert sehr gut mit Muster der räumlichen Verteilung der Topographie und den regionalen thermochronometrischen Daten und legt somit eine direkte Beziehung zwischen geodynamischen Randbedingungen, tektonischer Deformation, Exhumation und Landschaftsentwicklung nahe. Der zweite Forschungsfokus liegt auf der Implementierung meiner neuen sowie bereits publizierter thermochronometrischer Daten in Vorwärts- und inversen numerischen Modellierungen. Es wurden die frei verfügbaren Modellierungsplattformen HeFTy und QTQt benutzt, um die Abkühlungsgeschichte der Südpatagonischen Anden im Gebiet der jüngsten ozeanischen Rückenkollision zu definieren. Der Datensatz kombiniert AHe und AFT Abkühlalter aus drei Höhenprofilen in der Region des Nordpatagonischen Eisfeldes. Kürzlich publizierte Studien, die auf identischen Datierungsmethoden und numerischen Ansätzen beruhen, postulieren, dass ein signifikanter und räumlich weitreichender thermischer Effekt, , sich bereits während des Obermiozäns in den thermochronometrischen Daten manifestiert und auf die Bildung des asthenosphärischen Fensters zurückzuführen ist. Im Unterschied dazu zeigen meine Ergebnisse, dass die verfügbaren thermochronometrischen Daten mit einem einfacheren thermischen Szenario erklärt werden können und ein thermischer Puls nicht notwendig ist, um die Abkühlalter in der vorliegenden Form zu reproduzieren. Das kumulative Ergebnis der Modellierungen dokumentiert eine alternative Möglichkeit mit einer langsamen und/oder stagnierenden Abkühlung im Obermiozän, auf die dann im Pliozän eine schnelle und ausgeprägte schrittweise Abkühlung stattfand. Diese Ergebnisse sind kompatibel mit der geologischen Geschichte der Region. So wurde in diesem Gebiet eine Phase aktiver Einengung, Hebung und Exhumation im Unteren Miozän nachgewiesen. Dieser Episode folgte eine Phase der Ruhe in der Deformation, eine großräumige Einebnung der Deformationsfront durch fluviatile Prozesse und eine drastische Abnahme synorogener Ablagerungen. Die darauffolgende Phase schrittweiser Abkühlung resultierte aus einer Kombination von einerseits rekurrenten weiträumigen Vergletscherungen und damit einhergehender glazialer Erosion und andererseits von gleichzeitigen lokalen tektonischen Vertikalbewegungen durch Störungen, die im plattentektonischen Kontext aktiver ozeanischer Rückenkollision entstanden. Die signifikanten Unterschiede zwischen bereits publizierten und den hier präsentierten Ergebnissen beruhen auf der Erkenntnis wichtiger Nachteile der früher benutzten Modellannahmen. Diese beinhalten z.B. die unzureichende Konvergenz (unzureichende Anzahl an Iterationen) und Vorgaben bezüglich der regionalen geothermischen Bedingungen. Diese kritische Betrachtung zeigt, dass methodische Schwerpunkte und Annahmen dieser Modellierungen gründlich geprüft werden müssen, um eine objektive Abschätzung der Ergebnisse zu erzielen. Zusammenfassend kann festgestellt werden, dass der Impakt bisher unbekannter neotektonischer Strukturen entlang des konvergenten Plattenrandes von Südpatagonien sehr weitreichende Folgen hat. Diese Strukturen stehen räumlich und zeitlich in direkter Beziehung zur seit dem Obermiozän andauernden Subduktion verschiedener Segmente des Chile-Spreizungszentrums; sie unterstreichen die fundamentale Bedeutung der Subduktion bathymetrischer Anomalien für die tektonische und geomorphologische Entwicklung der Oberplatte, besonders in Regionen mit ausgeprägten Erosionsprozessen. Die hier dokumentierten Ergebnisse aus der inversen numerischen Modellierung thermochronometrischer Daten stellen bereits publizierte Befunde aus Studien infrage, die auf ähnlichen Ansätzen beruhen und welche den regionalen thermischen Effekt des asthenosphärischen Fensters in Südpatagonien hervorheben. Meine Ergebnisse dokumentieren stattdessen eine Abkühlungsgeschichte, die durch eine synergistische, klimatisch und tektonisch bedingte schrittweise Exhumation definiert ist. Eine abschließende synoptische Betrachtung der gesamten thermochronometrischen Daten in Südpatagonien belegt das Fehlen von Mustern in der regionalen Verteilung von Abkühlaltern entlang des Streichens des Orogens. Die Existenz eines solchen Trends wurde früher postuliert und im Rahmen eines transienten Pulses dynamischer Topographie und Exhumation interpretiert, der mit der Bildung und Migration des asthenosphärischen Fensters assoziiert wurde. Meine neue Zusammenstellung und Interpretation der Thermochronometrie zeigt stattdessen, dass die regionale Verteilung von Abkühlaltern in Südpatagonien vor allem durch die langfristig wirksame räumliche Verteilung glazialer Erosionsprozesse bestimmt wird, die u.a. zu einer tieferen Exhumation im Zentrum des Orogens geführt hat. Dieses regionale Exhumationsmuster wird allerdings lokal durch differentielle Hebung von Krustenblöcken modifiziert, die mit den neotektonischen Bewegungen im Rahmen der Kollision des Kontinentalrandes mit dem ozeanischen Chile-Rücken und der Partitionierung der Deformation in Zusammenhang stehen. KW - neotectonics KW - ridge-collision KW - asthenospheric slab-window KW - thermochronology KW - Patagonia KW - Apatite (U-Th)/He, apatite fission track dating KW - thermal modeling KW - Apatit-(U-Th)/He Datierung KW - Apatit-Spaltspurendatierung KW - Patagonia KW - asthenospherisches "slab-window" KW - Neotektonik KW - Rückenkollision KW - thermische Modellierung KW - Thermochronologie Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104185 ER - TY - THES A1 - Friedel, Eva T1 - Der Einfluss von Kognition und Stresserleben auf die Entscheidungsfindung und deren Rolle für Alkoholabhängigkeit T1 - The influence of stress and cognition on decision making and their relevance for alcohol use disorder N2 - Ziel der vorliegenden Arbeit ist es, belohnungsabhängiges (instrumentelles) Lernen und Entscheidungsfindungsprozesse auf Verhaltens- und neuronaler Ebene in Abhängigkeit von chronischem Stresserleben (erfasst über den Lifetime Stress Inventory, Holmes und Rahe 1962) und kognitiven Variablen (eingeteilt in eine fluide und eine kristalline Intelligenzkomponente) an gesunden Probanden zu untersuchen. Dabei steht zu Beginn die Sicherung der Konstruktvalidität zwischen den bislang oft synonym verwendeten Begriffen modellfrei ~ habituell, bzw. modellbasiert ~ zielgerichtet im Fokus. Darauf aufbauend soll dann insbesondere der differentielle und interaktionelle Einfluss von chronischem Stresserleben und kognitiven Variablen auf Entscheidungsprozesse (instrumentelles Lernen) und deren neuronales Korrelat im VS untersucht und dargestellt werden. Abschließend wird die Relevanz der untersuchten belohnungsabhängigen Lernprozesse für die Entstehung und Aufrechterhaltung der Alkoholabhängigkeit zusammen mit weiteren Einflussvariablen in einem Übersichtspapier diskutiert. N2 - The following thesis assessed instrumental learning on a behavioural and neuronal level with respect to the influence of chronic stress exposure (Lifetime Stress Inventory, Holmes und Rahe 1962) and cognition (fluid and crystallized IQ) in healthy subjects. In experimental psychology different experiments have been developed to assess goal–directed as compared to habitual control over instrumental decisions. More recently sequential decision-making tasks have been designed to assess the degree of goal-directed vs. habitual choice behavior in terms of an influential computational theory of model-based compared to model-free behavioral control. In the present thesis, a devaluation paradigm and a sequential decision-making task were used in a first step to address the question of construct validity when using the terms model-based vs goal-directed and model-free vs habitual behaviour. In a second step the differential influence of chronic stress exposure and fluid IQ on these decision making processes were assessed. In a last step we discussed the relevance of changes in decision making processes for the development and maintenance of Alcohol Use Disorder. KW - Lernen KW - Intelligenz KW - Stresserleben KW - learning and cognition KW - alcohol use disorder KW - fluid IQ and chronic stress exposure Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91609 ER - TY - THES A1 - Frahnow, Turid T1 - Bioinformatische Analyse der NUGAT-Studie (NUtriGenomic Analysis in Twins) T1 - Bioinformatic analysis of the NUGAT study (NUtriGenomic Analysis in Twins) BT - Verfahren zur Integration lipidomischer, transkriptomischer und metabolischer Daten BT - methods for the integration of lipidomic, transcriptomic and metabolic data N2 - Durch die Zunahme metabolischer Stoffwechselstörungen und Erkrankungen in der Weltbevölkerung wird in der Medizin und den Lebenswissenschaften vermehrt nach Präventionsstrategien und Ansatzpunkten gesucht, die die Gesundheit fördern, Erkrankungen verhindern helfen und damit auch die Gesamtlast auf die Gesundheitssysteme erleichtern. Ein Ansatzpunkt wird dabei in der Ernährung gesehen, da insbesondere der Konsum von gesättigten Fetten die Gesundheit nachträglich zu beeinflussen scheint. Dabei wird übersehen, dass in vielen Studien Hochfettdiäten nicht ausreichend von den Einflüssen einer zum Bedarf hyperkalorischen Energiezufuhr getrennt werden, sodass die Datenlage zu dem Einfluss von (gesättigten) Fetten auf den Metabolismus bei gleichbleibender Energieaufnahme noch immer unzureichend ist. In der NUtriGenomic Analysis in Twins-Studie wurden 46 Zwillingspaare (34 monozygot, 12 dizygot) über einen Zeitraum von sechs Wochen mittels einer kohlenhydratreichen, fettarmen Diät nach Richtlinien der Deutschen Gesellschaft für Ernährung für ihr Ernährungsverhalten standardisiert, ehe sie zu einer kohlenhydratarmen, fettreichen Diät, die insbesondere gesättigte Fette enthielt, für weitere sechs Wochen wechselten. Beide Diäten waren dem individuellen Energiebedarf der Probanden angepasst, um so sowohl akut nach einerWoche als auch längerfristig nach sechs Wochen Änderungen des Metabolismus beobachten zu können, die sich in der vermehrten Aufnahme von (gesättigten) Fetten begründeten. Die über die detaillierte Charakterisierung der Probanden an den klinischen Untersuchungstagen generierten Datensätze wurden mit statistischen und mathematischen Methoden (z.B. lineare gemischte Modellierung) analysiert, die der Größe der Datensätze und damit ihrem Informationsvolumen angepasst waren. Es konnte gezeigt werden, dass die metabolisch gesunden und relativ jungen Probanden, die eine gute Compliance zeigten, im Hinblick auf ihren Glukosestoffwechsel adaptieren konnten, indem die Akutantwort nach einer Woche im Nüchterninsulin und dem Index für Insulinresistenz in den weiteren fünf Wochen ausgeglichen wurde. Der Lipidstoffwechsel in Form der klassischen Marker wie Gesamtcholesterin, LDL und HDL war dagegen stärker beeinflusst und auch nach insgesamt sechs Wochen deutlich erhöht. Letzteres unterstützt die Beobachtung im Transkriptom des weißen, subkutanen Fettgewebes, bei der eine Aktivierung der über die Toll-like receptors und das Inflammasom vermittelten subklinischen Inflammation beobachtet werden konnte. Die auftretenden Veränderungen in Konzentration und Komposition des Plasmalipidoms zeigte ebenfalls nur eine teilweise und auf bestimmte Spezies begrenzte Gegenregulation. Diesbezüglich kann also geschlussfolgert werden, dass auch die isokalorische Aufnahme von (gesättigten) Fetten zu Veränderungen im Metabolismus führt, wobei die Auswirkungen in weiteren (Langzeit-)Studien und Experimenten noch genauer untersucht werden müssen. Insbesondere wäre dabei ein längerer Zeitraum unter isokalorischen Bedingungen von Interesse und die Untersuchung von Probanden mit metabolischer Vorbelastung (z.B. Insulinresistenz). Darüber hinaus konnte in NUGAT aber ebenfalls gezeigt werden, dass die Nutrigenetik und Nutrigenomik zwei nicht zu vernachlässigende Faktoren darstellen. So zeigten unter anderem die Konzentrationen einiger Lipidspezies eine starke Erblichkeit und Abhängigkeit der Diät. Zudem legen die Ergebnisse nahe, dass laufende wie geplante Präventionsstrategien und medizinische Behandlungen deutlich stärker den Patienten als Individuum mit einbeziehen müssen, da die Datenanalyse interindividuelle Unterschiede identifizierte und Hinweise lieferte, dass einige Probanden die nachteiligen, metabolischen Auswirkungen einer Hochfettdiät besser ausgleichen konnten als andere. N2 - Based on the increasing incidence of metabolic disorders and diseases in the world population, medicine and life sciences aim for (new) prevention strategies and targets to promote health, prevent diseases and thereby ease the overall financial burden on health systems. One approach is seen in diet and nutrition. According to recent studies and nutritional guide lines, especially the consumption of saturated fats affects health negatively. Nevertheless, in many studies high fat diets are not separated from the influences of a hypercaloric energy intake. In conclusion the available data for the isolated effects of (saturated) fats on metabolism are still insufficient. In the NUtriGenomic Analysis in Twins study, 46 healthy twin pairs (34 monozygotic, 12 dizygotic) were standardized for their nutritional behavior over a period of six weeks on a high-carbohydrate, low-fat diet according to the DGE guidelines. This standardization was followed by an interventional low-carbohydrate, high-fat diet for another six weeks. Both diets were isocaloric to the individuals' requirements in order to evaluate rapid after 1 week) and long-term (after 6 weeks) effects on metabolism, which were based on the higher intake of (saturated) fatty acids. The data sets, which were generated by a detailed characterization of the subjects at the clinical investigation days, were analyzed with statistical and mathematical methods (e.g. linear mixed modeling), which aimed to cover the size of the data sets and thereby the whole amount of information within the data sets. We could show that the metabolically healthy and relatively young subjects, who showed good compliance, were able to adapt in terms of their glucose metabolism, since the acute increase after one week in fasting insulin and the loss of insulin sensitivity was balanced after additional five weeks. In contrast, lipid metabolism, represented by the classical marker total cholesterol as well as LDL and HDL, was more strongly influenced and still increased after six weeks on high-fat diet. The latter supports the observations in the transcriptome of white, subcutaneous adipose tissue, where Toll-like receptors and inflammasome seemed to mediate the activation of a low-grade inflammation. The changes occurring in the concentration and composition of the plasma lipidome also showed a partial counterregulation limited to certain lipid species. In this regard, we conclude that independent of the energy intake, the consumption of (saturated) fatty acids leads to changes in metabolism, although further studies and experiments are needed to investigate the isolated effects further. Especially studies of extended periods under isocaloric conditions and studies in patients with pathological conditions (e.g. insulin resistance) would be of interest. Nevertheless, the results in NUGAT emphasize the importance of nutrigenetics and nutrigenomics, since the concentrations of some lipid species seemed to be highly heritable and diet-dependent. Moreover, our results suggest that ongoing and planned prevention strategies and medical treatments have to treat patients much more as individuals. Our analysis identified interindividual differences and indicated that some participants were able to compensate the adverse and unfavorable metabolic effects of a high fat diet better than others. KW - Hochfettdiät KW - Zwillingsstudie KW - Lipidomics KW - Heritabilität KW - linear gemischte Modelle KW - twin study KW - high fat diet KW - lipidomics KW - heritability KW - linear mixed models Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-394902 ER - TY - THES A1 - Fournier, Yori T1 - Dynamics of the rise of magnetic flux tubes in stellar interiors BT - a numerical study of compressible non-axisymmetric flux tubes N2 - In sonnenähnlichen Sternen erhält ein Dynamo-Mechanismus die Magnetfelder. Der Babcock-Leighton-Dynamo beruht auf einem solchen Mechanismus und erfordert insbesondere die Existenz von magnetischen Flussröhren. Man nimmt an, dass magnetische Flussröhren am Boden der Konvetionszone entstehen und durch Auftrieb bis zur Oberfläche steigen. Es wird ein spezielles Dynamomodell vorgeschlagen, in dem der Verzögerungseffekt durch das Aufsteigen der Flussröhren berücksichtigt wird. Die vorliegende Dissertation beschäftigt sich mit der Anwendbarkeit des Babcock-Leighton-Dynamos auf andere Sterne. Zu diesem Zweck versuchen wir, die Aufstiegszeiten von magnetischen Flussröhren mit Hilfe von kompressiblen MHD-Simulationen in spärischen Kugelschalen mit Dichteschichtung zu bestimmen und einzugrenzen. Derartige Simulationen sind allerdings nur in einem unrealistischen Parameterbereich möglich. Deshalb ist eine Skalierungsrelation nötig, die die Ergebnisse auf realistische physikalische Regimes überträgt. Wir erweitern frühere Arbeiten zu Skalierungsrelationen in 2D und leiten ein allgemeines Skalierungsgesetz ab, das für 2D- und 3D-Flussröhren gültig ist. In einem umfangreichen Satz von numerischen Simulationen zeigen wir, dass die abgeleitete Skalierungsrelation auch im vollständig nichtlinearen Fall gilt. Wir haben damit ein Gesetz für die Aufstiegszeit von magnetischen Flussröhren gefunden, dass in jedem sonnenähnlichen Stern Gültigkeit hat. Schließlich implementieren wir dieses Gesetz in einem Dynamomodell mit Verzögerungsterm. Die Simulationen eines solchen verzögerten Flussröhren/Babcock-Leighton-Dynamos auf der Basis der Meanfield-Formulierung führten auf ein neues Dynamo-Regime, das nur bei Anwesenheit der Verzögerung existiert. Die erforderlichen Verzögerungen sind von der Gröÿenordnung der Zykluslänge, die resultierenden Magnetfelder sind schwächer als die Äquipartitions-Feldstärke. Dieses neue Regime zeigt, dass auch bei sehr langen Aufstiegszeiten der Flussröhren/Babcock-Leighton-Dynamo noch nichtzerfallende Lösungen liefern und daher auf ein breites Spektrum von Sternen anwendbar sein kann. N2 - Solar-like stars maintain their magnetic fields thanks to a dynamo mechanism. The Babcock-Leighton dynamo is one possible dynamo that has the particularity to require magnetic flux tubes. Magnetic flux tubes are assumed to form at the bottom of the convective zone and rise buoyantly to the surface. A delayed dynamo model has been suggested, where the delay accounts for the rise time of the magnetic flux tubes; a time, that has been ignored by former studies. The present thesis aims to study the applicability of the flux tube/Babcock-Leighton dynamo to other stars. To do so, we attempt to constrain the rise time of magnetic flux tubes thanks to the first fully compressible MHD simulations of rising magnetic flux tubes in stratified rotating spherical shells. Such simulations are limited to an unrealistic parameter space, therefore, a scaling relation is required to scale the results to realistic physical regimes. We extended earlier works on 2D scaling relations and derived a general scaling law valid for both 2D and 3D. We then carried out two large series of numerical experiments and verified that the scaling law we have derived indeed applies to the fully non-linear case. It allowed us to extract a constraint for the rise time of magnetic flux tubes that is valid for any solar-like star. We finally introduced this constraint to a delayed dynamo model. By carrying out simulations of a mean-field, delayed, flux tube/Babcock-Leighton dynamo, we were able to identify a new dynamo regime resulting from the delay. This regime requires delays about an entire cycle and exhibits subequipartition magnetic activity. Revealing this new regime shows that even for long delays the flux tube/Babcock-Leighton dynamo can still deliver non-decaying solutions and remains a good candidate for a wide range of solar-like stars. KW - astrophysics KW - stellar physics KW - magnetohydrodynamics (MHD) KW - numerical experiments KW - magnetic flux tubes KW - dynamo theory Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-394533 ER - TY - THES A1 - Fandrich, Artur T1 - Untersuchung des Verhaltens von thermoresponsiven Polymeren auf Elektroden in Interaktion mit biomolekularen Systemen T1 - Investigation of the behavior of thermoresponsive polymers on electrodes in interaction with biomolecular systems N2 - Diese Arbeit befasst sich mit der Herstellung und Charakterisierung von thermoresponsiven Filmen auf Goldelektroden durch Fixierung eines bereits synthetisierten thermoresponsiven Polymers. Als Basis für die Entwicklung der responsiven Grenzfläche dienten drei unterschiedliche Copolymere (Polymere I, II und III) aus der Gruppe der thermisch schaltbaren Poly(oligo(ethylenglykol)methacrylate). Die turbidimetrischen Messungen der Copolymere in Lösungen haben gezeigt, dass der Trübungspunkt vom pH-Wert, der Gegenwart von Salzen sowie von der Ionenstärke der Lösung abhängig ist. Nach der Charakterisierung der Polymere in Lösung wurden Experimente der kovalenten Kopplung der Polymere I bis III an die Oberfläche der Gold-Elektroden durchgeführt. Während bei Polymeren I und II die Ankopplung auf einer Amidverbrückung basierte, wurde bei Polymer III als alternative Methode zur Immobilisierung eine photoinduzierte Anbindung unter gleichzeitiger Vernetzung gewählt. Der Nachweis der erfolgreichen Ankopplung erfolgte bei allen Polymeren elektrochemisch mittels Cyclovoltammetrie und Impedanzspektroskopie in K3/4[Fe(CN)6]-Lösungen. Wie die Ellipsometrie-Messungen zeigten, waren die erhaltenen Polymer-Filme unterschiedlich dick. Die Ankopplung über Amidverbrückung lieferte dünne Filme (10 – 15 nm), während der photovernetzte Film deutlich dicker war (70-80 nm) und die darunter liegende Oberfläche relativ gut isolierte. Elektrochemische Temperaturexperimente an Polymer-modifizierten Oberflächen in Lösungen in Gegenwart von K3/4[Fe(CN)6] zeigten, dass auch die immobilisierten Polymere I bis III responsives Temperaturverhalten zeigen. Bei Elektroden mit den immobilisierten Polymeren I und II ist der Temperaturverlauf der Parameterwerte diskontinuierlich – ab einem kritischen Punkt (37 °C für Polymer I und 45 °C für Polymer II) wird zunächst langsame Zunahme der Peakströme wird deutlich schneller. Das Temperaturverhalten von Polymer III ist dagegen bis 50 °C kontinuierlich, der Peakstrom sinkt hier durchgehend. Weiterhin wurde mit den auf Polymeren II und III basierten Elektroden deren Anwendung als responsive Matrix für Bioerkennungsreaktionen untersucht. Es wurde die Ankopplung von kleinen Biorezeptoren, TAG-Peptiden, an Polymer II- und Polymer III-modifizierten Elektroden durchgeführt. Das hydrophile FLAG-TAG-Peptid verändert das Temperaturverhalten des Polymer II-Films unwesentlich, da es die Hydrophilie des Netzwerkes nicht beeinflusst. Weiterhin wurde der Effekt der Ankopplung der ANTI-FLAG-TAG-Antikörper an FLAG-TAG-modifizierte Polymer II-Filme untersucht. Es konnte gezeigt werden, dass die Antikörper spezifisch an FLAG-TAG-modifiziertes Polymer II binden. Es wurde keine unspezifische Anbindung von ANTI-FLAG-TAG an Polymer II beobachtet. Die Temperaturexperimente haben gezeigt, dass die thermische Restrukturierung des Polymer II-FLAG-TAG-Filmes auch nach der Antikörper-Ankopplung noch stattfindet. Der Einfluss der ANTI-FLAG-TAG-Ankopplung ist gering, da der Unterschied in der Hydrophilie zwischen Polymer II und FLAG-TAG bzw. ANTI-FLAG-TAG zu gering ist. Für die Untersuchungen mit Polymer III-Elektroden wurde neben dem hydrophilen FLAG-TAG-Peptid das deutlich hydrophobere HA-TAG-Peptid ausgewählt. Wie im Falle der Polymer II Elektrode beeinflusst das gekoppelte FLAG-TAG-Peptid das Temperaturverhalten des Polymer III-Netzwerkes nur geringfügig. Die gemessenen Stromwerte sind geringer als bei der Polymer III-Elektrode. Das Temperaturverhalten der FLAG-TAG-Elektrode ähnelt dem der reinen Polymer III-Elektrode – die Stromwerte sinken kontinuierlich bis die Temperatur von ca. 40 °C erreicht ist, bei der ein Plateau beobachtet wird. Offensichtlich verändert FLAG-TAG auch in diesem Fall nicht wesentlich die Hydrophilie des Polymer III-Netzwerkes. Das an Polymer III-Elektroden gekoppelte hydrophobe HA-TAG-Peptid beeinflusst dagegen im starken Maße den Quellzustand des Netzwerkes. Die Ströme für die HA-TAG-Elektroden sind deutlich geringer als die für die FLAG-TAG-Polymer III-Elektroden, was auf geringeren Wassergehalt und dickeren Film zurückzuführen ist. Bereits ab 30 °C erfolgt der Anstieg von Stromwerten, der bei Polymer III- bzw. bei Polymer III-FLAG-TAG-Elektroden nicht beobachtet werden kann. Das gekoppelte hydrophobe HA-TAG-Peptid verdrängt Wasser aus dem Polymer III-Netzwerk, was in der Stauchung des Films bereits bei Raumtemperatur resultiert. Dies führt dazu, dass der Film im Laufe des Temperaturanstieges kaum noch komprimiert. Die Stromwerte steigen in diesem Fall entsprechend des Anstiegs der temperaturabhängigen Diffusion des Redoxpaares. Diese Untersuchungen zeigen, dass das HA-TAG-Peptid als Ankermolekül deutlich besser für eine potentielle Verwendung der Polymer III-Filme für sensorische Zwecke geeignet ist, da es sich deutlich in der Hydrophilie von Polymer III unterscheidet. N2 - This work describes the immobilization and characterization of thermoresponsive polymer films on gold electrodes. The immobilized films were thermoresponsive copolymers (polymers I, II and III) from the group of poly(oligo(ethylene glycol)methacrylates). After the synthesis, the aqueous solutions of copolymers in presence of (buffering) salts were investigated. The turbidimetry measurements revealed that the responsive behaviour of the polymers strongly depends on the pH and the ionic strength of the solution. After the studies in the solution, experiments on the covalent immobilization of the polymers on gold electrodes were performed. The fixation strategy for the polymers I and II was based on the amide coupling. The polymer III was immobilized by irradiation with UV-light. The successful immobilization was proved by cyclic voltammetry and electrochemical impedance spectroscopy measurements in solutions containing K3/4[Fe(CN)6]. The ellipsometry measurements showed that the obtained films were of different thickness. Polymer I and II films obtained from the amide coupling were thinner (10 – 15 nm) compared to photolytically immobilized polymer III films (70-80 nm). Electrochemical temperature experiments on polymer modified electrodes in K3/4[Fe(CN)6] solutions showed that the polymer I, II and III retain the responsivity after the fixation on the electrode surface. The thermoresponsive behaviour of the thin polymer I and II films is discontinuous – after the achieving of the critical temperature point (37 °C for polymer I and 45 °C for polymer II) the increase of the peak currents changes significantly and becomes faster hinting at the restructuration process. In contrast to this the temperature behaviour of the polymer III films is continuous in the temperature range between 25 and 50 °C. The peak currents for the polymer III electrodes decrease with increasing temperature. Furthermore, the application of polymer II and polymer III surfaces as a responsive platform for bio-recognition reactions was investigated. For this purpose, the coupling of small bioreceptors (tag peptides) on polymer films was performed. It was found that the hydrophilic FLAG-TAG peptide does not significantly alter the temperature behaviour of the polymer II film because it does not affect the hydrophilicity of the network. Additionally, the effect of coupling the ANTI-FLAG-TAG antibodies to FLAG-TAG-modified polymer II films was investigated. It was shown that the antibodies specifically bind to FLAG-TAG-modified polymer II. No nonspecific binding of ANTI-FLAG-TAG to polymer II was observed. The temperature experiments have shown that the thermal restructuring of the polymer II-FLAG-TAG film still takes place after antibody coupling. The influence of ANTI-FLAG-TAG coupling is low, since the difference in the hydrophilicity between polymer II and FLAG-TAG or ANTI-FLAG-TAG is too low. In addition to the hydrophilic FLAG-TAG peptide, the significantly more hydrophobic HA-TAG peptide was selected for the investigations with polymer III electrodes. As in the case of the polymer II electrode, the coupled FLAG-TAG peptide only slightly affects the temperature behaviour of the polymer III network. The measured current values are lower than for the polymer III electrode. The temperature behaviour of the FLAG-TAG electrode resembles that of the pure polymer III electrode - the current values sink continuously until the temperature of approx. 40 ° C is reached, at which a plateau is observed. Obviously, FLAG-TAG does not significantly alter the hydrophilicity of the polymer III network even in this case. The hydrophobic HA-TAG peptide coupled to polymer III electrodes, on the other hand, strongly influences the swelling state of the network. The currents for the HA-TAG electrodes are significantly lower than those for the FLAG-TAG polymer III electrodes, which is due to lower water content and thicker film. The increase in current values occurs at temperatures as low as 30 ° C, which cannot be observed with polymer III or with polymer III FLAG TAG electrodes. The coupled hydrophobic HA-TAG peptide displaces water from the polymer III network, resulting in the compression of the film even at room temperature. As a result, the film hardly compresses during the temperature rise. The current values increase in this case according to the increase in the temperature-dependent diffusion of the redox pair. These studies show that the HA-TAG peptide as an anchoring molecule is much better suited for a potential use of the polymer III films for sensory purposes since it is clearly different in the hydrophilicity of polymer III. KW - thermoresponsiv KW - Polymer KW - Biosensor KW - Cyclovoltammetrie KW - Elektrochemie KW - thermoresponsive KW - polymer KW - biosensor KW - cyclic voltammetry KW - electrochemistry Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396551 ER - TY - THES A1 - Falter, Daniela T1 - A novel approach for large-scale flood risk assessments T1 - Ein neuartiger Ansatz für großskalige Hochwasserrisikoanalysen BT - continuous and long-term simulation of the full flood risk chain BT - kontinuierliche Langzeitsimulation der gesamten Hochwasserrisikokette N2 - In the past, floods were basically managed by flood control mechanisms. The focus was set on the reduction of flood hazard. The potential consequences were of minor interest. Nowadays river flooding is increasingly seen from the risk perspective, including possible consequences. Moreover, the large-scale picture of flood risk became increasingly important for disaster management planning, national risk developments and the (re-) insurance industry. Therefore, it is widely accepted that risk-orientated flood management ap-proaches at the basin-scale are needed. However, large-scale flood risk assessment methods for areas of several 10,000 km² are still in early stages. Traditional flood risk assessments are performed reach wise, assuming constant probabilities for the entire reach or basin. This might be helpful on a local basis, but where large-scale patterns are important this approach is of limited use. Assuming a T-year flood (e.g. 100 years) for the entire river network is unrealistic and would lead to an overestimation of flood risk at the large scale. Due to the lack of damage data, additionally, the probability of peak discharge or rainfall is usually used as proxy for damage probability to derive flood risk. With a continuous and long term simulation of the entire flood risk chain, the spatial variability of probabilities could be consider and flood risk could be directly derived from damage data in a consistent way. The objective of this study is the development and application of a full flood risk chain, appropriate for the large scale and based on long term and continuous simulation. The novel approach of ‘derived flood risk based on continuous simulations’ is introduced, where the synthetic discharge time series is used as input into flood impact models and flood risk is directly derived from the resulting synthetic damage time series. The bottleneck at this scale is the hydrodynamic simu-lation. To find suitable hydrodynamic approaches for the large-scale a benchmark study with simplified 2D hydrodynamic models was performed. A raster-based approach with inertia formulation and a relatively high resolution of 100 m in combination with a fast 1D channel routing model was chosen. To investigate the suitability of the continuous simulation of a full flood risk chain for the large scale, all model parts were integrated into a new framework, the Regional Flood Model (RFM). RFM consists of the hydrological model SWIM, a 1D hydrodynamic river network model, a 2D raster based inundation model and the flood loss model FELMOps+r. Subsequently, the model chain was applied to the Elbe catchment, one of the largest catchments in Germany. For the proof-of-concept, a continuous simulation was per-formed for the period of 1990-2003. Results were evaluated / validated as far as possible with available observed data in this period. Although each model part introduced its own uncertainties, results and runtime were generally found to be adequate for the purpose of continuous simulation at the large catchment scale. Finally, RFM was applied to a meso-scale catchment in the east of Germany to firstly perform a flood risk assessment with the novel approach of ‘derived flood risk assessment based on continuous simulations’. Therefore, RFM was driven by long term synthetic meteorological input data generated by a weather generator. Thereby, a virtual time series of climate data of 100 x 100 years was generated and served as input to RFM providing subsequent 100 x 100 years of spatially consistent river discharge series, inundation patterns and damage values. On this basis, flood risk curves and expected annual damage could be derived directly from damage data, providing a large-scale picture of flood risk. In contrast to traditional flood risk analysis, where homogenous return periods are assumed for the entire basin, the presented approach provides a coherent large-scale picture of flood risk. The spatial variability of occurrence probability is respected. Additionally, data and methods are consistent. Catchment and floodplain processes are repre-sented in a holistic way. Antecedent catchment conditions are implicitly taken into account, as well as physical processes like storage effects, flood attenuation or channel–floodplain interactions and related damage influencing effects. Finally, the simulation of a virtual period of 100 x 100 years and consequently large data set on flood loss events enabled the calculation of flood risk directly from damage distributions. Problems associated with the transfer of probabilities in rainfall or peak runoff to probabilities in damage, as often used in traditional approaches, are bypassed. RFM and the ‘derived flood risk approach based on continuous simulations’ has the potential to provide flood risk statements for national planning, re-insurance aspects or other questions where spatially consistent, large-scale assessments are required. N2 - In der Vergangenheit standen bei der Betrachtung von Hochwasser insbesondere technische Schutzmaßnahmen und die Reduzierung der Hochwassergefahr im Mittelpunkt. Inzwischen wird Hochwasser zunehmend aus der Risikoperspektive betrachtet, d.h. neben der Gefährdung werden auch die Auswirkungen berücksichtigt. In diesem Zuge wurde auch die Notwendigkeit von großräumigen Hochwasserrisikoanalysen für das Management von Naturgefahren und als Planungsgrundlage auf nationaler Ebene sowie für die Rückversicherungsindustrie erkannt. Insbesondere durch die Einführung der Europäischen Hochwasserrisikomanagement Richtlinie sind risikoorientierte Managementpläne auf Einzugsgebietsebene obligatorisch. Allerdings befinden sich großräumige Hochwasserrisikoanalysen von mehreren 10.000 km², noch in den Anfängen. Traditionell werden Hochwasserrisikoanalysen für Gewässerabschnitte durchgeführt, wobei homogene Wiederkehrintervalle für das ganze Untersuchungsgebiet angenommen werden. Für lokale Fragestellungen ist diese Vorgehensweise sinnvoll, dies gilt allerdings nicht für die großräumige Analyse des Hochwasserrisikos. Die Annahme eines beispielsweise 100-jährigen Hochwassers im gesamten Gebiet ist unrealistisch und das Hochwasserrisiko würde dabei stark überschätzt werden. Aufgrund unzureichender Schadensdaten werden bei der Berechnung des Risikos oftmals die Wahrscheinlichkeiten des Niederschlags oder der Hochwasserscheitelabflüsse als Annäherung für die Wahrscheinlichkeit des Schadens angenommen. Durch eine kontinuierliche Langzeit-Simulation der gesamten Hochwasserrisikokette könnte sowohl die räumliche Verteilung der Wiederkehrintervalle berücksichtig werden, als auch das Hochwasserrisiko direkt aus Schadenszeitreihen abgeleitet werden. Die Zielsetzung dieser Arbeit ist die Entwicklung und Anwendung einer, für großräumige Gebiete geeigneten, kontinuierlichen Hochwasserrisikomodellkette. Damit wird ein neuartiger Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ eingeführt, der das Hochwasserrisiko direkt aus den simulierten Abflusszeitreichen und den daraus resultierenden Schadenzeitreihen ableitet. Die größte Herausforderung der Hochwasserrisikokette liegt bei den sehr rechenintensiven, detaillierten hydraulischen Simulationen. Um geeignete hydraulische Modelle für die großräumige Anwendung zu identifizieren, wurde eine Benchmark-Studie mit 2D Modellen unterschiedlicher Komplexität durchgeführt. Auf dieser Grundlage wurde für die Hochwasserrisikomodellkette ein rasterbasierter Ansatz mit einer relativ hohen Auflösung von 100 m in Kombination mit einem schnellen 1D Fließgewässermodell ausgewählt. Um die Eignung einer kontinuierlichen Simulation der gesamten Hochwasserrisikokette für großräumige Anwendungen zu prüfen, wurden zunächst alle Komponenten der Modellkette im ‚Regional Flood Model‘ (RFM) zusammengeführt. RFM besteht aus dem hydrologischen Modell SWIM, 1D und 2D hydraulischen Modellen, sowie dem Schadensmodell FELMOps+r. Nachfolgend wurde die Modellkette für das Elbe-Einzugsgebiet (>60.000 km²) angewendet. Es wurde eine kontinuierliche Simulation für den Zeitraum 1990-2003 durchgeführt. Die Ergebnisse wurden nach Möglichkeit mit vorhandenen Messdaten validiert/evaluiert. Auch wenn jede Komponente zu Unsicherheiten in den Ergebnissen der Modellkette beiträgt, sind die Ergebnisse und Rechenzeiten für die Anwendung auf großskaliger Einzugsgebietsebene als adäquat anzusehen. Schließlich wurde RFM in einem mesoskaligen Einzugsgebiet (6.000 km²) im Osten von Deutschland angewendet, um erstmals eine Hochwasserrisikoanalyse mit dem neuartigen Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ durchzuführen. Als Input wurde eine 100 x 100-jährige Zeitreihe meteorologischer Daten von einem Wettergenerator erzeugt. Die somit erzeugte 100 x 100-jährige konsistente Abflusszeitreihe, Überschwemmungsmuster und Schadenswerte dienten als Basis für die nachfolgende Erstellung von Hochwasserrisikokurven und Schadenserwartungswerten für das Untersuchungsgebiet. Diese ermöglichen eine großräumige Analyse des Hochwasserrisikos. Dabei wurde die räumliche Variation der Wahrscheinlichkeiten berücksichtigt. Die verwendeten Daten und Methoden waren außerdem im gesamten Untersuchungsgebiet einheitlich. Einzugsgebietsprozesse und Prozesse der Überschwemmungsflächen werden holistisch dargestellt. Die Vorbedingungen im Einzugsgebiet sowie physikalische Prozesse, wie Rückhalteeffekte, Überlagerungseffekte im Gewässernetz oder Interaktionen zwischen Fluss und Überschwemmungsflächen, werden implizit berücksichtigt. Die Simulation von 100 x 100 Jahren und die daraus resultierende große Anzahl an Schadensdaten ermöglichen die direkte Berechnung des Hochwasserrisikos aus Schadenswahrscheinlichkeiten. Die Probleme, die durch die Übertragung von Wahrscheinlichkeiten von Niederschlag oder Scheitelabfluss auf die Wahrscheinlichkeiten im Schaden resultieren, werden umgangen. RFM und der Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ haben das Potential Hochwasserrisikoaussagen für nationale Planungen, Rückversicherungsaspekte oder andere Fragestellungen, bei denen räumlich konsistente und großräumige Analysen nötig sind, zu treffen. KW - flood risk KW - hydraulic simulation KW - flood risk analysis KW - risk model chain KW - floodplain inundation KW - Hochwasserrisikoanalysen KW - Hochwasserrisikokette KW - Überschwemmungsflächen KW - kontinuierlicher Simulationsansatz Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90239 ER - TY - THES A1 - Engelmann, Felix T1 - Toward an integrated model of sentence processing in reading T1 - Grundlage eines integrierten Modells der Satzverarbeitung beim Lesen N2 - In experiments investigating sentence processing, eye movement measures such as fixation durations and regression proportions while reading are commonly used to draw conclusions about processing difficulties. However, these measures are the result of an interaction of multiple cognitive levels and processing strategies and thus are only indirect indicators of processing difficulty. In order to properly interpret an eye movement response, one has to understand the underlying principles of adaptive processing such as trade-off mechanisms between reading speed and depth of comprehension that interact with task demands and individual differences. Therefore, it is necessary to establish explicit models of the respective mechanisms as well as their causal relationship with observable behavior. There are models of lexical processing and eye movement control on the one side and models on sentence parsing and memory processes on the other. However, no model so far combines both sides with explicitly defined linking assumptions. In this thesis, a model is developed that integrates oculomotor control with a parsing mechanism and a theory of cue-based memory retrieval. On the basis of previous empirical findings and independently motivated principles, adaptive, resource-preserving mechanisms of underspecification are proposed both on the level of memory access and on the level of syntactic parsing. The thesis first investigates the model of cue-based retrieval in sentence comprehension of Lewis & Vasishth (2005) with a comprehensive literature review and computational modeling of retrieval interference in dependency processing. The results reveal a great variability in the data that is not explained by the theory. Therefore, two principles, 'distractor prominence' and 'cue confusion', are proposed as an extension to the theory, thus providing a more adequate description of systematic variance in empirical results as a consequence of experimental design, linguistic environment, and individual differences. In the remainder of the thesis, four interfaces between parsing and eye movement control are defined: Time Out, Reanalysis, Underspecification, and Subvocalization. By comparing computationally derived predictions with experimental results from the literature, it is investigated to what extent these four interfaces constitute an appropriate elementary set of assumptions for explaining specific eye movement patterns during sentence processing. Through simulations, it is shown how this system of in itself simple assumptions results in predictions of complex, adaptive behavior. In conclusion, it is argued that, on all levels, the sentence comprehension mechanism seeks a balance between necessary processing effort and reading speed on the basis of experience, task demands, and resource limitations. Theories of linguistic processing therefore need to be explicitly defined and implemented, in particular with respect to linking assumptions between observable behavior and underlying cognitive processes. The comprehensive model developed here integrates multiple levels of sentence processing that hitherto have only been studied in isolation. The model is made publicly available as an expandable framework for future studies of the interactions between parsing, memory access, and eye movement control. N2 - In experimentellen Studien zur Satzverarbeitung werden für gewöhnlich Blickbewegungsmaße wie Fixationsdauern oder Regressionshäufigkeiten beim Lesen herangezogen, um auf Verarbeitungsschwierigkeiten zu schließen. Jedoch resultieren diese Signale aus der Interaktion mehrerer kognitiver Ebenen und Verarbeitungsstrategien und sind daher nur indirekte Indikatoren von Verarbeitungsschwierigkeit. Um ein Blickbewegungssignal richtig zu interpretieren, müssen die zugrundeliegenden Prinzipien adaptiver Verarbeitungsprozesse verstanden werden, wie zum Beispiel Ausgleichmechanismen zwischen Lesegeschwindigkeit und Verarbeitungstiefe, welche mit der gegenwärtigen Verarbeitungsanforderung und individuellen Unterschieden interagieren. Es ist daher notwendig, explizite Modelle dieser Mechanismen und ihrer kausalen Beziehung zu behavioralen Signalen wie Blickbewegungen zu etablieren. Es existieren Modelle der lexikalischen Verarbeitung und Blicksteuerung auf der einen Seite und Modelle der Satzverarbeitung und Gedächtnismechanismen auf der anderen. Jedoch existiert noch kein Modell, welches beide Seiten durch explizit formulierte Annahmen verbindet. In der vorliegenden Dissertation wird ein Modell entwickelt, welches Okulomotorik mit Satzverarbeitungsmechanismen und einer Theorie des assoziativen Gedächtniszugriffs integriert. Auf der Grundlage bisheriger empirischer Ergebnisse und unabhängig motivierter Prinzipien werden adaptive ressourcenschonende Mechanismen der Unterspezifikation sowohl auf der Ebene des Gedächtniszugriffs als auch auf der Ebene der syntaktischen Verarbeitung vorgeschlagen. Die Dissertation untersucht zunächst das Modell des assoziativen Gedächtniszugriffs bei der Satzverarbeitung von Lewis & Vasishth (2005) mithilfe eines umfassenden Literaturreviews sowie Computermodellierung von Interferenzeffekten im Gedächtniszugriff während der Verarbeitung syntaktischer Abhängigkeiten. Die Ergebnisse zeigen eine hohe Variabilität der Daten auf, die von der Theorie nicht erklärt werden kann. Daher werden zwei Prinzipien, ‘distractor prominence’ und ‘cue confusion’, als Erweiterung des Modells vorgeschlagen, wodurch eine genauere Vorhersage systematischer Varianz als Folge von Experimentaldesign, linguistischer Umgebung und individuellen Unterschieden erreicht wird. Im verbleibenden Teil der Dissertation werden vier Schnittstellen zwischen linguistischer Verarbeitung und Blicksteuerung definiert: Time Out, Reanalyse, Unterspezifikation und Subvokalisation. Durch Vergleich von computational hergeleiteten Vorhersagen und experimentellen Ergebnissen aus der Literatur wird der Frage nachgegangen, inwieweit diese vier Mechanismen ein angemessenes elementares System von Annahmen darstellen, welches spezifische Blickbewegungsmuster während der Satzverarbeitung erklären kann. Durch Simulationen wird gezeigt, wie dieses System aus für sich genommen simplen Annahmen im Ergebnis komplexes und adaptives Verhalten vorhersagt. In Konklusion wird argumentiert, dass der Satzverarbeitungsapparat auf allen Ebenen eine Balance zwischen notwendigem Verarbeitungsaufwand und Lesegeschwindigkeit auf der Basis von Erfahrung, Anforderung und limitierten Ressourcen anstrebt. Deshalb sollten Theorien der Sprachverarbeitung explizit formuliert und implementiert werden, insbesondere in Bezug auf die kausale Verbindung zwischen experimentell beobachtbarem Verhalten und den zugrundeliegenden kognitiven Prozessen. Das hier entwickelte Modell integriert mehrere Ebenen der Satzverarbeitung, die bisher ausschließlich unabhängig voneinander untersucht wurden. Das Modell steht öffentlich als erweiterungsfähiges Framework für zukünftige Studien der Interaktion zwischen Sprachverarbeitung, Gedächtniszugriff und Blickbewegung zur Verfügung. KW - working memory KW - sentence processing KW - cue confusion KW - cognitive modeling KW - psycholinguistics KW - eye movement control KW - ACT-R KW - cue-based retrieval KW - underspecification KW - dependency resolution KW - Satzverarbeitung KW - Arbeitsgedächtnis KW - Blickbewegungen KW - kognitive Modellierung KW - Lesen KW - reading KW - Unterspezifikation KW - retrieval interference KW - adaptive processing KW - adaptive Verarbeitung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100864 ER - TY - THES A1 - Engel, Tilman T1 - Motor control strategies in response to unexpected disturbances of dynamic postural control in people with and without low back pain T1 - Strategien der Bewegungskontrolle nach unerwarteten Störungen der dynamischen posturalen Kontrolle in Personen mit und ohne Rückenschmerzen N2 - Background: Low back pain (LBP) is one of the world wide leading causes of limited activity and disability. Impaired motor control has been found to be one of the possible factors related to the development or persistence of LBP. In particularly, motor control strategies seemed to be altered in situations requiring reactive responses of the trunk counteracting sudden external forces. However, muscular responses were mostly assessed in (quasi) static testing situations under simplified laboratory conditions. Comprehensive investigations in motor control strategies during dynamic everyday situations are lacking. The present research project aimed to investigate muscular compensation strategies following unexpected gait perturbations in people with and without LBP. A novel treadmill stumbling protocol was tested for its validity and reliability to provoke muscular reflex responses at the trunk and the lower extremities (study 1). Thereafter, motor control strategies in response to sudden perturbations were compared between people with LBP and asymptomatic controls (CTRL) (study 2). In accordance with more recent concepts of motor adaptation to pain, it was hypothesized that pain may have profound consequences on motor control strategies in LBP. Therefore, it was investigated whether differences in compensation strategies were either consisting of changes local to the painful area at the trunk, or also being present in remote areas such as at the lower extremities. Methods: All investigations were performed on a custom build split-belt treadmill simulating trip-like events by unexpected rapid deceleration impulses (amplitude: 2 m/s; duration: 100 ms; 200 ms after heel contact) at 1m/s baseline velocity. A total number of 5 (study 1) and 15 (study 2) right sided perturbations were applied during walking trials. Muscular activities were assessed by surface electromyography (EMG), recorded at 12 trunk muscles and 10 (study 1) respectively 5 (study 2) leg muscles. EMG latencies of muscle onset [ms] were retrieved by a semi-automatic detection method. EMG amplitudes (root mean square (RMS)) were assessed within 200 ms post perturbation, normalized to full strides prior to any perturbation [RMS%]. Latency and amplitude investigations were performed for each muscle individually, as well as for pooled data of muscles grouped by location. Characteristic pain intensity scores (CPIS; 0-100 points, von Korff) based on mean intensity ratings reported for current, worst and average pain over the last three months were used to allocate participants into LBP (≥30 points) or CTRL (≤10 points). Test-retest reproducibility between measurements was determined by a compilation of measures of reliability. Differences in muscular activities between LBP and CTRL were analysed descriptively for individual muscles; differences based on grouped muscles were statistically tested by using a multivariate analysis of variance (MANOVA, α =0.05). Results: Thirteen individuals were included into the analysis of study 1. EMG latencies revealed reflex muscle activities following the perturbation (mean: 89 ms). Respective EMG amplitudes were on average 5-fold of those assessed in unperturbed strides, though being characterized by a high inter-subject variability. Test-retest reliability of muscle latencies showed a high reproducibility, both for muscles at the trunk and legs. In contrast, reproducibility of amplitudes was only weak to moderate for individual muscles, but increased when being assessed as a location specific outcome summary of grouped muscles. Seventy-six individuals were eligible for data analysis in study 2. Group allocation according to CPIS resulted in n=25 for LBP and n=29 for CTRL. Descriptive analysis of activity onsets revealed longer delays for all muscles within LBP compared to CTRL (trunk muscles: mean 10 ms; leg muscles: mean 3 ms). Onset latencies of grouped muscles revealed statistically significant differences between LBP and CTRL for right (p=0.009) and left (p=0.007) abdominal muscle groups. EMG amplitude analysis showed a high variability in activation levels between individuals, independent of group assignment or location. Statistical testing of grouped muscles indicated no significant difference in amplitudes between LBP and CTRL. Discussion: The present research project could show that perturbed treadmill walking is suitable to provoke comprehensive reflex responses at the trunk and lower extremities, both in terms of sudden onsets and amplitudes of reflex activity. Moreover, it could demonstrate that sudden loadings under dynamic conditions provoke an altered reflex timing of muscles surrounding the trunk in people with LBP compared to CTRL. In line with previous investigations, compensation strategies seemed to be deployed in a task specific manner, with differences between LBP and CTRL being evident predominately at ventral sides. No muscular alterations exceeding the trunk could be found when being assessed under the automated task of locomotion. While rehabilitation programs tailored towards LBP are still under debate, it is tempting to urge the implementation of dynamic sudden loading incidents of the trunk to enhance motor control and thereby to improve spinal protection. Moreover, in respect to the consistently observed task specificity of muscular compensation strategies, such a rehabilitation program should be rich in variety. N2 - Hintergrund: Unterer Rückenschmerz (LBP) stellt eine der weltweit führenden Ursachen für eine eingeschränkte körperliche Funktion und Belastbarkeit dar. Defizite in der neuromuskulären Ansteuerung gelten als einer der möglichen Faktoren im Zusammenhang mit der Entstehung und Persistenz von LBP. Insbesondere in Situationen, die eine aktive Kompensation von plötzlich auftretenden Lasten am Rumpf beinhalten, konnten veränderte Strategien in der muskulären Antwort bei LBP aufgezeigt werden. Allerdings basierten solche Untersuchungen meistens auf (quasi) statischen Testsituationen unter vereinfachten Laborbedingungen. Ob die beobachteten muskulären Reaktionen isolierter Rumpfbelastungen repräsentativ sind für eine neuromuskuläre Ansteuerung unter dynamischen Alltagsbedingungen ist bisher nicht geklärt. Ziel der vorliegenden Arbeit war es, muskuläre Kompensationsstrategien in Folge unerwarteter Gangperturbationen bei Personen mit und ohne LBP zu untersuchen. Um muskuläre Reflexantworten am Rumpf und an den unteren Extremitäten zu provozieren wurde ein neu entwickeltes Laufband-Stolperprotokoll auf Validität und Reliabilität getestet (Studie 1). Aufbauend erfolgte der Vergleich neuromuskulärer Antworten in Reaktion auf plötzlich applizierte Gangperturbationen zwischen Personen mit LBP und asymptomatischen Kontrollpersonen (CTRL) (Studie 2). In Übereinstimmung mit aktuellen Modellen zur motorischen Anpassung bei Schmerzen wurde untersucht, ob Unterschiede in den beobachteten Kompensationsstrategien auf lokale Veränderungen am Rumpf reduziert sind, oder ebenfalls in rumpffernen Körperregionen auftreten. Methoden: Alle Untersuchungen wurden mit einem Spezial-Laufband durchgeführt, welches mittels unerwarteter schneller Abbremsimpulse (Amplitude: 2 m/s, Dauer: 100 ms, 200 ms nach Fersenkontakt) die Simulation von Stolperereignissen während der Gangbewegung (1 m/s) erlaubt. Eine Anzahl von 5 (Studie 1) bzw. 15 (Studie 2) rechtsseitigen Perturbationen wurde im Verlaufs des Stolperprotokolls appliziert. Muskuläre Aktivitäten wurden mittels Elektromyographie (EMG) von 12 Rumpf- sowie 10 (Studie 1) bzw. 5 (Studie 2) Beinmuskeln aufgezeichnet. EMG-Latenzen wurden mittels eines halb-automatischen Detektions-Verfahrens ermittelt. Die Berechnung der EMG Amplituden (RMS) erfolgte für den Zeitraum von 200 ms nach Perturbation, normiert auf den gesamten Schrittzyklus des unperturbierten Ganges [%]. Latenz- und Amplituden-Messgrößen wurden für jeden Muskel individuell und für gepoolte Daten (gruppiert nach Lokalisation) berechnet. Charakteristische Schmerzintensitätswerte (CPIS, 0-100 Punkte, von Korff), basierend auf gemittelten Angaben zu akuten, sowie höchsten und durchschnittlichen Schmerzen der letzten drei Monate wurden zur Einteilung in LBP (≥30 Punkte) und CTRL (≤ 10 Punkte) verwendet. Zur Beurteilung der Test-retest Reliabilität wurden verschiedene Reliabilitätsparameter herangezogen. Unterschiede in den Muskelaktivitäten zwischen LBP und CTRL wurden für individuelle Muskeln deskriptiv analysiert. Gepoolte Daten gruppierter Muskeln wurden mittels multivariater Varianzanalyse (MANOVA; α = 0,05) statistisch getestet. Ergebnisse: Ergebnisse von 13 Probanden wurden für die Analyse von Studie 1 herangezogen. EMG-Latenzen zeigten Muskelaktivitäten repräsentativ für Reflexantworten im Nachgang applizierter Gangperturbationen, sowohl an Rumpf- als auch an Beinmuskulatur (Mittelwert: 89 ms, Range: 75 bis 117 ms). EMG-Amplituden erreichten im Durchschnitt ein 5-fach erhöhtes Aktivitätsniveau innerhalb des 200 ms Zeitfensters nach Perturbation (Range: 106 bis 909 RMS%), jedoch gezeichnet von einer hohen interindividuellen Variabilität zwischen den Probanden. Eine hohe Reproduzierbarkeit für EMG-Latenzen konnte anhand der Reliabilitätsparameter aufgezeigt werden. EMG-Amplituden dagegen erwiesen sich als nur geringfügig reliabel bei der Betrachtung individueller Muskeln. Für die Datenanalyse in Studie 2 waren 76 Probanden geeignet. Die Gruppenzuteilung nach CPIS ergab n = 25 für LBP und n = 29 für CTRL. EMG-Latenzen zeigten eine erhöhte Aktivitätsverzögerung aller Muskeln für LBP im Vergleich zu CTRL (Rumpf: Mittelwert 10 ms; Bein: Mittelwert 3 ms). EMG-Latenzen gruppierter Muskeln zeigten statistisch signifikante Unterschiede zwischen LBP und CTRL für rechtsseitige (p=0,009) und linksseitige (p=0,007) abdominale Muskelgruppen. EMG-Amplituden waren geprägt von einer hohen interindividuellen Variabilität, unabhängig von Gruppenzuordnung oder Lokalisation. Diskussion: Das vorliegende Forschungsprojekt konnte belegen, dass Gangperturbationen dafür geeignet sind, umfassende Reflexantworten am Rumpf und den unteren Extremitäten zu provozieren. Darüber hinaus konnte gezeigt werden, dass unerwartete Gangperturbationen zu einer zeitlich verzögerten Reflexantwort der rumpfumgreifenden Muskulatur bei Personen mit LBP im Vergleich zur Kontrollgruppe führen. In Übereinstimmung mit den Ergebnissen vorheriger Untersuchungen erscheinen dabei die gewählten Kompensationsstrategien aufgabenspezifisch angepasst zu sein. Veränderte muskuläre Reaktionsmuster abseits des Rumpfes konnten trotz Einbezug weiterer Lokalisationen nicht gefunden werden. Gegenüber isolierten Rumpfbelastungen erlaubt der Einsatz indirekter Perturbationsbelastungen während des Ganges alltagsrelevante situationsspezifische Defizite neuromuskulärer Kontrolle gezielt zu untersuchen. Bei der Erstellung neuer Theapiekonzepte zur Steigerung der neuromuskulären Kontrolle sollte in diesem Zusammenhang die Einbindung alltagsähnlicher indirekter Belastungsformen des Rumpfes diskutiert werden. KW - low back pain KW - trunk KW - perturbation KW - EMG KW - reflex KW - stumbling KW - Rückenschmerz KW - Rumpf KW - Perturbationen KW - Gang KW - Stolpern KW - Reflexaktivität Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-400742 ER - TY - THES A1 - Ehlert, Christopher T1 - Simulationen von Röntgenabsorptionsprozessen zur Charakterisierung von Systemen in kondensierter Phase T1 - Simulation of X-ray absorption processes to characterize condensed phase systems N2 - Die vorgelegte Dissertation präsentiert wissenschaftliche Ergebnisse, die in der Zeit vom Dezember 2012 bis August 2016, erarbeitet wurden. Der zentrale Inhalt der Arbeit ist die Simulation von Röntgenabsorptionsprozessen von verschiedenen Systemen in kondensierter Phase. Genauer gesagt, werden Nahkantenabsorptions- (NEXAFS) sowie Röntgenphotoelektronenspektren (XPS) berechnet. In beiden Fällen wird ein Röntgenphoton von einem molekularen System absorbiert. Aufgrund der hohen Photonenenergie wird ein stark gebundenes kernnahes Elektron angeregt. Bei der XPS gelangt dieses mit einer zu messenden kinetischen Energie in Kontinuumszustände. In Abhängigkeit der eingestrahlten Photonenenergie und der kinetischen Energie des austreten Elektrons, kann die Bindungsenergie berechnet werden, welche die zentrale Größe der XPS ist. Im Falle der NEXAFS-Spektroskopie wird das kernnahe Elektron in unbesetzte gebundene Zustände angeregt. Die zentrale Größe ist die Absorption als Funktion der eingestrahlten Photonenenergie. Das erste Kapitel meiner Arbeit erörtert detailliert die experimentellen Methoden sowie die daraus gewonnenen charakteristischen Größen. Die experimentellen Spektren zeigen oft viele Resonanzen, deren Interpretation aufgrund fehlender Referenzmaterialien schwierig ist. In solchen Fällen bietet es sich an, die Spektren mittels quantenchemischer Methoden zu simulieren. Der dafür erforderliche mathematisch-physikalische Methodenkatalog wird im zweiten Kapitel der Arbeit erörtert. Das erste von mir untersuchte System ist Graphen. In experimentellen Arbeiten wurde die Oberfläche mittels Bromplasma modifiziert. Die im Anschluss gemessenen NEXAFS-Spektren unterscheiden sich maßgeblich von den Spektren der unbehandelten Oberfläche. Mithilfe periodischer DFT-Rechnungen wurden verschiedene Gitterdefekte sowie bromierte Systeme untersucht und die NEXAFS-Spektren simuliert. Mittels der Simulationen können die Beiträge verschiedener Anregungszentren analysiert werden. Die Berechnungen erlauben den Schluss, dass Gitterdefekte maßgeblich für die entstandenen Veränderungen verantwortlich sind. Polyvinylalkohol (PVA) wurde als zweites System behandelt. Hierbei sollte untersucht werden, wie groß der Einfluss der Molekularbewegung auf die Verbreiterung der Peaks im XP-Spektrum ist. Des Weiteren wurde untersucht, wie groß der Einfluss von intermolekularen Wechselwirkungen auf die Peakpositionen und Peakverbreiterung ist. Für die Berechnung dieses Systems wurde eine Kombination aus molekulardynamischen und quantenchemischen Methoden verwendet. Als Strukturen dienten Oligomermodelle, die unter dem Einfluss eines (ab initio) Potentials propagiert wurden. Entlang der erstellten Trajektorie wurden Schnappschüsse der Geometrien extrahiert und für die Berechnung der XP-Spektren verwendet. Die Spektren werden bereits mithilfe klassischer Molekulardynamik sehr gut reproduziert. Die erhaltenen Peakbreiten sind verglichen mit dem Experiment allerdings zu klein. Die Hauptursache der Peakverbreiterung ist die Molekularbewegung. Intermolekulare Wechselwirkungen verschieben die Peakpositionen um 0.6 eV zu kleineren Anregungsenergien. Im dritten Teil der Arbeit stehen die NEXAFS-Spektren von ionischen Flüssigkeiten (ILs) im Fokus. Die experimentell gefundenen Spektren zeigen eine komplexe Struktur mit vielen Resonanzen. In der Arbeit wurden zwei ILs untersucht. Als Geometrien verwenden wir Clustermodelle, die aus experimentellen Kristallstrukturen extrahiert wurden. Die berechneten Spektren erlauben es, die Resonanzen den Anregungszentren zuzuordnen. Außerdem kann eine erstmals gemessene Doppelresonanz simuliert und erklärt werden. Insgesamt kann die Interpretation der Spektren mithilfe der Simulation signifikant erweitert werden. In allen Systemen wurde zur Berechnung des NEXAFS-Spektrums eine auf Dichtefunktionaltheorie basierende Methode verwendet (die sogenannte Transition-Potential Methode). Gängige wellenfunktionsbasierte Methoden, wie die Konfigurationswechselwirkung mit Einfachanregungen (CIS), zeigen eine starke Blauverschiebung, wenn als Referenz eine Hartree-Fock Slaterdeterminante verwendet wird. Wir zeigen, dass die Verwendung von kernnah-angeregten Determinanten sowohl das resultierende Spektrum als auch die Anregungsenergien deutlich verbessert. Des Weiteren werden auch Referenzen aus Dichtefunktionalrechnungen getestet. Zusätzlich werden auch Referenzen mit gebrochenen Besetzungszahlen für kernnahe Elektronen verwendet. In der Arbeit werden die Resultate der verschiedenen Referenzen miteinander verglichen. Es zeigt sich, dass Referenzen mit gebrochenen Besetzungszahlen das Spektrum nicht weiter verbessern. Der Einfluss der verwendeten Elektronenstrukturmethode ist eher gering. N2 - The dissertation presents scientific results, which were worked out during December 2012 - August 2016. The work focuses on the simulation of X-ray absorption processes of several condensed phase systems. In particular, we calculated near edge X-ray absorption (NEXAFS) as well as X-ray photoelectron spectra (XPS). In both cases an incoming X-ray photon is absorbed by a molecular system. Due to the relatively high photon energy, a tightly bound core electron is excited. For XPS, this electron is promoted to high lying continuum states. The binding energy of the core electron, which is the key feature of XPS, can be calculated as the difference between the energy of the incoming photon and the measured kinetic energy of the electron. For NEXAFS spectra, the absorption probability of a photon as a function of the wavelength of the incoming radiation is measured. Both experimental methods are presented in chapter one of my thesis. Often the experimental spectra contain a lot of resonances, which make the interpretation and analysis complicated. In such cases, quantum chemical calculations can help to understand the spectra. In chapter two the central theoretical methods are presented, which are necessary to simulate the X-ray absorption processes. The first investigated system is graphene, which was treated with bromine plasma in order to modify the chemical and physical properties by adding bromine. The measured NEXAFS spectra of modified graphene show significant differences with respect to the spectra of the untreated surface. With the help of periodic density functional theory (DFT) calculations and simulations of spectra, it is demonstrated that physical defects are primarily responsible for the observed changes in the spectra. Polyvinyl alcohol (PVA) is the second investigated system. We were interested in the influence of the molecular motion on the broadening of the XPS peaks. Further, we looked at the intermolecular interactions and their influence on the peak positions and broadenings. In order to accomplish this, a combination of molecular dynamics and quantum chemical methods have been used. Appropriate structures based on oligomer models were created and propagated under the influence of an (ab initio) potential. Snapshots were taken during the propagation to calculate the core electron binding energies. In the third part of my work, Ionic Liquids have been investigated. The experiment found a very complex and complicated absorption behavior with a lot of resonances. We used cluster models, based on experimental crystallographic data, to simulate the spectra with density functional methods. Our calculations allow a comprehensive and in-depth analysis of the experimental spectra. The interpretation could be significantly extended. In all presented systems, the so-called transition potential (TP)-DFT method based on density functional theory has been used. Common wave function based methods like configuration interaction singles (CIS) are inappropriate to calculate X-ray absorption spectra, when a Hartree-Fock reference is used. We demonstrate that, by using core-hole excited determinants as reference wave function for CIS calculations, the quality of the obtained spectra can be significantly improved. We further investigate the influence of different density functionals as well as fractional occupations to the shape and position of the resulting spectra. KW - quantum chemical calculations KW - XPS KW - NEXAFS KW - DFT KW - condensed phase systems KW - quantenchemische Berechnungen KW - XPS KW - NEXAFS KW - DFT KW - kondensierte Phase Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104844 ER - TY - THES A1 - Dräger, Nadine T1 - Holocene climate and environmental variability in NE Germany inferred from annually laminated lake sediments T1 - Rekonstruktion Holozäner Klima- und Umweltveränderungen in NO Deutschland anhand von jährlich geschichteten Seesedimenten N2 - Understanding the role of natural climate variability under the pressure of human induced changes of climate and landscapes, is crucial to improve future projections and adaption strategies. This doctoral thesis aims to reconstruct Holocene climate and environmental changes in NE Germany based on annually laminated lake sediments. The work contributes to the ICLEA project (Integrated CLimate and Landscape Evolution Analyses). ICLEA intends to compare multiple high-resolution proxy records with independent chronologies from the N central European lowlands, in order to disentangle the impact of climate change and human land use on landscape development during the Lateglacial and Holocene. In this respect, two study sites in NE Germany are investigated in this doctoral project, Lake Tiefer See and palaeolake Wukenfurche. While both sediment records are studied with a combination of high-resolution sediment microfacies and geochemical analyses (e.g. µ-XRF, carbon geochemistry and stable isotopes), detailed proxy understanding mainly focused on the continuous 7.7 m long sediment core from Lake Tiefer See covering the last ~6000 years. Three main objectives are pursued at Lake Tiefer See: (1) to perform a reliable and independent chronology, (2) to establish microfacies and geochemical proxies as indicators for climate and environmental changes, and (3) to trace the effects of climate variability and human activity on sediment deposition. Addressing the first aim, a reliable chronology of Lake Tiefer See is compiled by using a multiple-dating concept. Varve counting and tephra findings form the chronological framework for the last ~6000 years. The good agreement with independent radiocarbon dates of terrestrial plant remains verifies the robustness of the age model. The resulting reliable and independent chronology of Lake Tiefer See and, additionally, the identification of nine tephras provide a valuable base for detailed comparison and synchronization of the Lake Tiefer See data set with other climate records. The sediment profile of Lake Tiefer See exhibits striking alternations between well-varved and non-varved sediment intervals. The combination of microfacies, geochemical and microfossil (i.e. Cladocera and diatom) analyses indicates that these changes of varve preservation are caused by variations of lake circulation in Lake Tiefer See. An exception is the well-varved sediment deposited since AD 1924, which is mainly influenced by human-induced lake eutrophication. Well-varved intervals before the 20th century are considered to reflect phases of reduced lake circulation and, consequently, stronger anoxic conditions. Instead, non-varved intervals indicate increased lake circulation in Lake Tiefer See, leading to more oxygenated conditions at the lake ground. Furthermore, lake circulation is not only influencing sediment deposition, but also geochemical processes in the lake. As, for example, the proxy meaning of δ13COM varies in time in response to changes of the oxygen regime in the lake hypolinion. During reduced lake circulation and stronger anoxic conditions δ13COM is influenced by microbial carbon cycling. In contrast, organic matter degradation controls δ13COM during phases of intensified lake circulation and more oxygenated conditions. The varve preservation indicates an increasing trend of lake circulation at Lake Tiefer See after ~4000 cal a BP. This trend is superimposed by decadal to centennial scale variability of lake circulation intensity. Comparison to other records in Central Europe suggests that the long-term trend is probably related to gradual changes in Northern Hemisphere orbital forcing, which induced colder and windier conditions in Central Europe and, therefore, reinforced lake circulation. Decadal to centennial scale periods of increased lake circulation coincide with settlement phases at Lake Tiefer See, as inferred from pollen data of the same sediment record. Deforestation reduced the wind shelter of the lake, which probably increased the sensitivity of lake circulation to wind stress. However, results of this thesis also suggest that several of these phases of increased lake circulation are additionally reinforced by climate changes. A first indication is provided by the comparison to the Baltic Sea record, which shows striking correspondence between major non-varved intervals at Lake Tiefer See and bioturbated sediments in the Baltic Sea. Furthermore, a preliminary comparison to the ICLEA study site Lake Czechowskie (N central Poland) shows a coincidence of at least three phases of increased lake circulation in both lakes, which concur with periods of known climate changes (2.8 ka event, ’Migration Period’ and ’Little Ice Age’). These results suggest an additional over-regional climate forcing also on short term increased of lake circulation in Lake Tiefer See. In summary, the results of this thesis suggest that lake circulation at Lake Tiefer See is driven by a combination of long-term and short-term climate changes as well as of anthropogenic deforestation phases. Furthermore, the lake circulation drives geochemical cycles in the lake affecting the meaning of proxy data. Therefore, the work presented here expands the knowledge of climate and environmental variability in NE Germany. Furthermore, the integration of the Lake Tiefer See multi-proxy record in a regional comparison with another ICLEA side, Lake Czechowskie, enabled to better decipher climate changes and human impact on the lake system. These first results suggest a huge potential for further detailed regional comparisons to better understand palaeoclimate dynamics in N central Europe. N2 - Es ist von großer Bedeutung die natürliche Klimavariabilität unter dem Einfluss menschlich verursachter Klimaänderungen zu verstehen, um Zukunftsprognosen und Adaptionsstrategien zu verbessern. Die Hauptzielsetzung der vorliegenden Doktorarbeit ist die Rekonstruktion von Klima- und Umweltveränderungen während des Holozäns in NO Deutschland anhand von jährlich geschichteten Seesedimenten. Diese Arbeit ist ein Beitrag zum ICLEA Projekt (integrierte Klima- und Landschaftsentwicklungsanalyse). ICLEA strebt den Vergleich von mehreren hochaufgelösten Proxy- Archiven aus dem Nord-zentral europäischen Tiefland an, um Einflüsse von Mensch und Klima auf die Landschaftsentwicklung auseinander zu dividieren. Demnach werden in diesem Doktorprojekt zwei Gebiete untersucht: der Tiefe See und der verlandete See Wukenfurche. Während beide Sedimentarchive mit einer Kombination aus hochaufgelösten sedimentmikrofaziellen und -geochemischen Methoden untersucht werden, konzentriert sich die detaillierte Untersuchung der Proxy-Bedeutung auf den kontinuierlichen 7,7mlangen Sedimentkern vom Tiefer See, der die letzten 6000 Jahre abdeckt. Drei Hauptziele werden am Tiefen See verfolgt: (1) das Erstellen einer robusten und unabhängigen Chronologie (2) das Etablieren von mikrofaziellen und geochemischen Proxies als Indikatoren für Klima- und Landschaftsveränderungen und (3) das Ableiten von Klimaveränderungen und menschlichem Einfluss auf die Sedimentablagerung. Zum Erreichen des ersten Zieles wurde eine robuste Chronologie mit Hilfe eines multiplen Datierungsansatzes erstellt. Das Zusammenführen der Warvenzählung und Tephra-Funden bildet dabei das Gerüst für die Chronologie der letzten 6000 Jahre, deren Stabilität durch die gute Übereinstimmung mit unabhängigen Radiokarbondatierungen bestätigt wird. Diese robuste und unabhängige Chronologie und die zusätzlichen neun Tephra-Funde bieten die Basis für den detaillierten Vergleich und die Synchronisation des Tiefen See Datensatzes mit anderen Klimaarchiven. Das Sedimentprofil vom Tiefen See zeigt markante Wechsel zwischen gut warvierten und nicht warvierten Sedimentabschnitten auf. Die kombinierte Untersuchung der Mikrofazies, der Geochemie und von Mikrofossilien (d.h. Cladoceren und Diatomeen) zeigte, dass diese Veränderungen der Warvenerhaltung auf Änderungen der Seezirkulation zurückzuführen sind. Ausgenommen ist der rezente warvierte Abschnitt ab AD 1924, der hauptsächlich durch menschlich verursachte Seeeutrophierung beeinflusst ist. Warvierte Abschnitte vor dem 20. Jahrhundert sind durch verringerte Seezirkulation und die damit verbundenen stärkeren anoxischen Bedingungen im See hervorgerufen worden. Die Ablagerung von nicht warvierten Sedimenten weist auf stärkere Seezirkulation und sauerstoffreichere Bedingungen am Seegrund hin. Die Seezirkulation beeinflusst zusätzlich zum Sedimentmuster auch geochemische Prozesse im See. Zum Beispiel verändert sich die Proxy-Bedeutung der stabilen Kohlenstoffisotope von organischem Material (δ13COM) in Reaktion auf das veränderte Sauerstoffregime. Während geringer Seezirkulation und stärkeren anoxischen Bedingungen werden stark negative δ13COM Werte durch mikrobielle Aktivität hervorgerufen. Im Gegensatz verursachen Phasen mit verstärkter Seezirkulation positivere δ13COM Werte, was vermutlich auf stärkeren Abbau von organischem Material im sauerstoffangereicherten Milieu am Seegrund zurückzuführen ist. Die Warvenerhaltung zeigt einen ansteigenden Trend der Seezirkulation im Tiefen See nach ungefähr 4000 Jahre vor heute an. Dieser Trend ist überlagert mit kurzzeitigen Seezirkulationsveränderungen auf dekadischen Zeitskalen. Der Vergleich mit anderen Archiven in Zentral-Europa lässt darauf schließen, dass der Langzeittrend wahrscheinlich auf graduelle Veränderungen der orbitalen Parameter zurückzuführen ist, was kühlere und windigere Bedingungen in Zentral-Europa hervorgerufen hatte und damit die Seezirkulation im Tiefen See verstärkt hat. Die kurzzeitigen Phasen von verstärkter Seezirkulation fallen mit Siedlungsperioden am Tiefen See zusammen, die mit Pollendaten vom selben Sedimentkern rekonstruiert wurden. Die Waldrodung verringerte den Windschutz des Sees, was möglicherweise zu einer erhöhten Sensitivität der Seezirkulation zu Windstress geführt hat. Ein erster Vergleich des Tiefen Sees zu dem ICLEA Untersuchungsgebiet des Czechowskie See zeigt, dass in beiden Seen drei gemeinsame Phasen verstärkter Seezirkulation auftreten, die auch mit bekannten Zeiten veränderter Klimabedingungen zusammenfallen (2.8 ka event, Migrationsperiode und die Kleine Eiszeit). Diese Ergebnisse zeigen, dass die Seezirkulation von einer Kombination aus Klimaveränderung auf langen und kurzen Zeitskalen und der Abholzung des Menschen angetrieben wird. Zusammengefasst erweitert die hier vorliegende Arbeit das Wissen von Klima und Umweltveränderungen in NO Deutschland. Zudem wird gezeigt, dass ein regionaler Vergleich verschiedener Untersuchungsgebieten mit unabhängigen Chronologien ein verbessertes Auseinanderhalten von Klimaeinflüssen und menschlichen Einflüssen auf die Seesysteme ermöglicht. Damit kann ein verbessertes Verständnis der Paläoklimadynamik in Zentral-Europa gewonnen werden. KW - palaeoclimate KW - Paläoklima KW - Holocene KW - Holozän KW - varved lake sediments KW - warvierte Seesedimente KW - Tiefer See KW - Tiefer See KW - human impact KW - menschliche Einflüsse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103037 ER - TY - THES A1 - Dick, Uwe T1 - Discriminative Classification Models for Internet Security T1 - Diskriminative Klassifikationsmodelle in der Internet-Sicherheit BT - Mitigating Email Spam and HTTP-Layer DDoS Attacks BT - Verhindern von Email-Spam und HTTP-Layer DDoS-Attacken N2 - Services that operate over the Internet are under constant threat of being exposed to fraudulent use. Maintaining good user experience for legitimate users often requires the classification of entities as malicious or legitimate in order to initiate countermeasures. As an example, inbound email spam filters decide for spam or non-spam. They can base their decision on both the content of each email as well as on features that summarize prior emails received from the sending server. In general, discriminative classification methods learn to distinguish positive from negative entities. Each decision for a label may be based on features of the entity and related entities. When labels of related entities have strong interdependencies---as can be assumed e.g. for emails being delivered by the same user---classification decisions should not be made independently and dependencies should be modeled in the decision function. This thesis addresses the formulation of discriminative classification problems that are tailored for the specific demands of the following three Internet security applications. Theoretical and algorithmic solutions are devised to protect an email service against flooding of user inboxes, to mitigate abusive usage of outbound email servers, and to protect web servers against distributed denial of service attacks. In the application of filtering an inbound email stream for unsolicited emails, utilizing features that go beyond each individual email's content can be valuable. Information about each sending mail server can be aggregated over time and may help in identifying unwanted emails. However, while this information will be available to the deployed email filter, some parts of the training data that are compiled by third party providers may not contain this information. The missing features have to be estimated at training time in order to learn a classification model. In this thesis an algorithm is derived that learns a decision function that integrates over a distribution of values for each missing entry. The distribution of missing values is a free parameter that is optimized to learn an optimal decision function. The outbound stream of emails of an email service provider can be separated by the customer IDs that ask for delivery. All emails that are sent by the same ID in the same period of time are related, both in content and in label. Hijacked customer accounts may send batches of unsolicited emails to other email providers, which in turn might blacklist the sender's email servers after detection of incoming spam emails. The risk of being blocked from further delivery depends on the rate of outgoing unwanted emails and the duration of high spam sending rates. An optimization problem is developed that minimizes the expected cost for the email provider by learning a decision function that assigns a limit on the sending rate to customers based on the each customer's email stream. Identifying attacking IPs during HTTP-level DDoS attacks allows to block those IPs from further accessing the web servers. DDoS attacks are usually carried out by infected clients that are members of the same botnet and show similar traffic patterns. HTTP-level attacks aim at exhausting one or more resources of the web server infrastructure, such as CPU time. If the joint set of attackers cannot increase resource usage close to the maximum capacity, no effect will be experienced by legitimate users of hosted web sites. However, if the additional load raises the computational burden towards the critical range, user experience will degrade until service may be unavailable altogether. As the loss of missing one attacker depends on block decisions for other attackers---if most other attackers are detected, not blocking one client will likely not be harmful---a structured output model has to be learned. In this thesis an algorithm is developed that learns a structured prediction decoder that searches the space of label assignments, guided by a policy. Each model is evaluated on real-world data and is compared to reference methods. The results show that modeling each classification problem according to the specific demands of the task improves performance over solutions that do not consider the constraints inherent to an application. N2 - Viele Dienste im Internet benötigen zur Gewährleistung ihrer Erreichbarkeit die Möglichkeit, Entitäten als entweder gefährlich oder harmlos zu klassifizieren. Diskriminative Methoden des maschinellen Lernens verwenden Features von Entitäten oder Entitätengruppen, um zwischen positiven und negativen Labels zu unterscheiden. So können beispielsweise Email-Spamfilter Entscheidungen aufgrund sowohl des Inhalts der Email als auch von Informationen treffen, die vorherige Emails des gleichen versendenden Servers zusammenfassen. Darüber hinaus sind Labels zueinander in Verbindung stehender Entitäten, wie z.B. Emails des gleichen Nutzers, oftmals nicht unabhängig, so dass auch Klassifikationsentscheidungen nicht unabhängig getroffen werden sollten. Diese Arbeit beschäftigt sich mit der Formulierung diskriminativer Klassifikationsprobleme, die den speziellen Anforderungen von drei Internetsicherheitsanwendungen Rechnung tragen. Theoretische und algorithmische Lösungen zum Spamschutz von Nutzer-Inboxen eines Emailanbieters, zum Schutz von ausgehenden Emailservern gegen Missbrauch und zur Abwehr von Distributed Denial of Service-Attacken auf Webserver werden entwickelt. Beim Säubern der bei einem Emailanbieter eingehenden Menge von Emails von ungewollten Emails wie Spam können Informationen, die über den Inhalt einzelner Emails hinausgehen, von großem Nutzen sein. Etwa können Informationen über einen Mailserver zeitlich aggregiert und zum Klassifizieren neuer Emails des gleichen Servers verwendet werden. Diese Informationen sind in der Regel nur für Emails verfügbar, die vom Emailanbieter selbst empfangen werden, und fehlen bei Datensätzen, die extern gesammelte Emails beinhalten. Während des Trainings eines Spamklassifikators müssen diese Features entsprechend geschätzt werden. In dieser Arbeit wird ein Algorithmus entwickelt, der eine Entscheidungsfunktion lernt, die über eine Verteilung von fehlenden Werten integriert. Die Verteilung ist ein freier Parameter, der während des Lernens der Entscheidungsfunktion optimiert wird. Der Strom ausgehender Emails eines Emailanbieters setzt sich zusammen aus Emails einzelner Kunden. Alle Emails, die vom gleichen Kunden im gleichen Zeitraum gesendet werden, sind sowohl bzgl. Inhalt als auch Label abhängig. Kompromittierte Kundenaccounts können beispielsweise Batches von Spams an andere Emailanbieter schicken. Nach erfolgter Spamerkennung könnten diese Anbieter die Mailserver des sendenden Anbieters auf eine Blacklist setzen und somit am Versand weiterer Emails hindern. Das Risiko einer solchen Blockierung ist abhängig von der Rate ausgehender ungewollter Emails und der Dauer hoher Senderaten. Es wird ein Optimierungsproblem entwickelt, das die erwarteten Kosten des Emailproviders minimiert, indem eine Entscheidungsfunktion gelernt wird, die die erlaubte Versenderate von Kunden aufgrund der gesendeten Emails dynamisch einstellt. Um angreifende IPs während einer HTTP-Level-DDoS-Attacke zu blockieren, müssen sie als solche erkannt werden. DDoS-Angriffe werden üblicherweise von Clients durchgeführt, die dem gleichen Botnet angehören und ähnliche Traffic-Muster aufweisen. HTTP-Level-Angriffe zielen darauf, eine oder mehrere Ressourcen der Webserverinfrastruktur, wie etwa CPU-Zeit, aufzubrauchen. Für legitime Besucher ergeben sich erst dann Einschränkungen der User Experience, bis hin zur Unerreichbarkeit der Webseite, wenn Angreifer den Ressourcenverbrauch in die Nähe oder über die Maximalkapazität steigern können. Dieser durch einen Angreifer verursachte Verlust hängt von Entscheidungen für andere Angreifer ab; werden z.B. die meisten anderen Angreifer erkannt, wird ein nicht geblockter Angreifer kaum Schaden anrichten. Es wird deshalb ein Algorithmus entwickelt, der einen Dekodierer für strukturierte Vorhersagen trainiert, der, geleitet durch eine Policy, den Raum der gemeinsamen Labelzuweisungen durchsucht. Alle Modelle werden auf industriellen Daten evaluiert und mit Referenzmethoden verglichen. Die Ergebnisse zeigen, dass anforderungsspezifische Modellierung der Klassifikationsprobleme die Performance gegenüber den Vergleichsmethoden verbessert. KW - Machine Learning KW - Internet Security KW - DDoS KW - Spam-Filtering KW - DDoS KW - Internet-Sicherheit KW - Maschinelles Lernen KW - Spam-Erkennung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102593 ER - TY - THES A1 - Dey, Saptarshi T1 - Tectonic and climatic control on the evolution of the Himalayan mountain front T1 - Tektonische und klimatische Kontrolle über die Entwicklung der Himalaya-Gebirgsfront BT - a case study from the Kangra intermontane basin and the Dhauladhar range in the Northwestern Himalaya N2 - Variations in the distribution of mass within an orogen may lead to transient sediment storage, which in turn might affect the state of stress and the level of fault activity. Distinguishing between different forcing mechanisms causing variations of sediment flux and tectonic activity, is therefore one of the most challenging tasks in understanding the spatiotemporal evolution of active mountain belts. The Himalayan mountain belt is one of the most significant Cenozoic collisional mountain belt, formed due to collision between northward-bound Indian Plate and the Eurasian Plate during the last 55-50 Ma. Ongoing convergence of these two tectonic plates is accommodated by faulting and folding within the Himalayan arc-shaped orogen and the continued lateral and vertical growth of the Tibetan Plateau and mountain belts adjacent to the plateau as well as regions farther north. Growth of the Himalayan orogen is manifested by the development of successive south-vergent thrust systems. These thrust systems divide the orogen into different morphotectonic domains. From north to south these thrusts are the Main Central Thrust (MCT), the Main Boundary Thrust (MBT) and the Main Frontal Thrust (MFT). The growing topography interacts with moisture-bearing monsoonal winds, which results in pronounced gradients in rainfall, weathering, erosion and sediment transport toward the foreland and beyond. However, a fraction of this sediment is trapped and transiently stored within the intermontane valleys or ‘dun’s within the lower-elevation foothills of the range. Improved understanding of the spatiotemporal evolution of these sediment archives could provide a unique opportunity to decipher the triggers of variations in sediment production, delivery and storage in an actively deforming mountain belt and support efforts to test linkages between sediment volumes in intermontane basins and changes in the shallow crustal stress field. As sediment redistribution in mountain belts on timescales of 102-104 years can effect cultural characteristics and infrastructure in the intermontane valleys and may even impact the seismotectonics of a mountain belt, there is a heightened interest in understanding sediment-routing processes and causal relationships between tectonism, climate and topography. It is here at the intersection between tectonic processes and superposed climatic and sedimentary processes in the Himalayan orogenic wedge, where my investigation is focused on. The study area is the intermontane Kangra Basin in the northwestern Sub-Himalaya, because the characteristics of the different Himalayan morphotectonic provinces are well developed, the area is part of a region strongly influenced by monsoonal forcing, and the existence of numerous fluvial terraces provides excellent strain markers to assess deformation processes within the Himalayan orogenic wedge. In addition, being located in front of the Dhauladhar Range the region is characterized by pronounced gradients in past and present-day erosion and sediment processes associated with repeatedly changing climatic conditions. In light of these conditions I analysed climate-driven late Pleistocene-Holocene sediment cycles in this tectonically active region, which may be responsible for triggering the tectonic re-organization within the Himalayan orogenic wedge, leading to out-of-sequence thrusting, at least since early Holocene. The Kangra Basin is bounded by the MBT and the Sub-Himalayan Jwalamukhi Thrust (JMT) in the north and south, respectively and transiently stores sediments derived from the Dhauladhar Range. The Basin contains ~200-m-thick conglomerates reflecting two distinct aggradation phases; following aggradation, several fluvial terraces were sculpted into these fan deposits. 10Be CRN surface exposure dating of these terrace levels provides an age of 53.4±3.2 ka for the highest-preserved terrace (AF1); subsequently, this surface was incised until ~15 ka, when the second fan (AF2) began to form. AF2 fan aggradation was superseded by episodic Holocene incision, creating at least four terrace levels. We find a correlation between variations in sediment transport and ∂18O records from regions affected by the Indian Summer Monsoon (ISM). During strengthened ISMs sand post-LGM glacial retreat, aggradation occurred in the Kangra Basin, likely due to high sediment flux, whereas periods of a weakened ISM coupled with lower sediment supply coincided with renewed re-incision. However, the evolution of fluvial terraces along Sub-Himalayan streams in the Kangra sector is also forced by tectonic processes. Back-tilted, folded terraces clearly document tectonic activity of the JMT. Offset of one of the terrace levels indicates a shortening rate of 5.6±0.8 to 7.5±1.0 mm.a-1 over the last ~10 ka. Importantly, my study reveals that late Pleistocene/Holocene out-of-sequence thrusting accommodates 40-60% of the total 14±2 mm.a-1 shortening partitioned throughout the Sub-Himalaya. Importantly, the JMT records shortening at a lower rate over longer timescales hints towards out-of-sequence activity within the Sub-Himalaya. Re-activation of the JMT could be related to changes in the tectonic stress field caused by large-scale sediment removal from the basin. I speculate that the deformation processes of the Sub-Himalaya behave according to the predictions of critical wedge model and assume the following: While >200m of sediment aggradation would trigger foreland-ward propagation of the deformation front, re-incision and removal of most of the stored sediments (nearly 80-85% of the optimum basin-fill) would again create a sub-critical condition of the wedge taper and trigger the retreat of the deformation front. While tectonism is responsible for the longer-term processes of erosion associated with steepening hillslopes, sediment cycles in this environment are mainly the result of climatic forcing. My new 10Be cosmogenic nuclide exposure dates and a synopsis of previous studies show the late Pleistocene to Holocene alluvial fills and fluvial terraces studied here record periodic fluctuations of sediment supply and transport capacity on timescales of 1000-100000 years. To further evaluate the potential influence of climate change on these fluctuations, I compared the timing of aggradation and incision phases recorded within remnant alluvial fans and terraces with continental climate archives such as speleothems in neighboring regions affected by monsoonal precipitation. Together with previously published OSL ages yielding the timing of aggradation, I find a correlation between variations in sediment transport with oxygen-isotope records from regions affected by the Indian Summer Monsoon (ISM). Accordingly, during periods of increased monsoon intensity (transitions from dry and cold to wet and warm periods – MIS4 to MIS3 and MIS2 to MIS1) (MIS=marine isotope stage) and post-Last Glacial Maximum glacial retreat, aggradation occurred in the Kangra Basin, likely due to high sediment flux. Conversely, periods of weakened monsoon intensity or lower sediment supply coincide with re-incision of the existing basin-fill. Finally, my study entails part of a low-temperature thermochronology study to assess the youngest exhumation history of the Dhauladhar Range. Zircon helium (ZHe) ages and existing low-temperature data sets (ZHe, apatite fission track (AFT)) across this range, together with 3D thermokinematic modeling (PECUBE) reveals constraints on exhumation and activity of the range-bounding Main Boundary Thrust (MBT) since at least mid-Miocene time. The modeling results indicate mean slip rates on the MBT-fault ramp of ~2 – 3 mm.a-1 since its activation. This has lead to the growth of the >5-km-high frontal Dhauladhar Range and continuous deep-seated exhumation and erosion. The obtained results also provide interesting constraints of deformation patterns and their variation along strike. The results point towards the absence of the time-transient ‘mid-crustal ramp’ in the basal decollement and duplexing of the Lesser Himalayan sequence, unlike the nearby regions or even the central Nepal domain. A fraction of convergence (~10-15%) is accommodated along the deep-seated MBT-ramp, most likely merging into the MHT. This finding is crucial for a rigorous assessment of the overall level of tectonic activity in the Himalayan morphotectonic provinces as it contradicts recently-published geodetic shortening estimates. In these studies, it has been proposed that the total Himalayan shortening in the NW Himalaya is accommodated within the Sub-Himalaya whereas no tectonic activity is assigned to the MBT. N2 - Die sich verändernde Massenverteilung in einem Gebirge kann zu einer variierenden Sedimentablagerung führen, welche in Folge die Spannungszustände und Verwerfungsaktivitäten beeinflusst. Eine der herausforderndsten Aufgaben im Verständnis der Evolution aktiver Gebirge wie dem Himalaja, ist die Unterscheidung der verschiedenen treibenden Mechanismen wie der Variation im Sedimentfluss und der tektonischen Aktivitäten in Raum und Zeit. Der Himalaja ist einer der bedeutendsten känozoischen Gebirgszüge, der durch die Kollision zwischen der nordwärts wandernden indischen Platte und der eurasischen Kontinentalplatte vor 55-50 Ma entstand. Die anhaltende Konvergenz der beiden tektonischen Platten wird durch Verwerfungen und Auffaltungen innerhalb des bogenförmigen Gebirges aufgenommen, aber auch durch das fortwährende laterale und vertikale Wachstum des Tibetischen Plateaus, der angegliederten Gebirgszüge und den Gebirgsregionen weiter nördlich. Das Gebirgswachstum zeigt sich durch die Entwicklung von aufeinanderfolgenden in südlicher Richtung verkippten Verwerfungssystemen. Von Norden nach Süden unterteilen die Hauptstörungen Main Central Thrust (MCT), Main Boundary Thrust (MBT) und Main Frontal Thrust (MFT) den Himalaja in verschiedene morphotektonische Bereiche. Die anwachsende Topographie interagiert mit den feuchten Monsunwinden was zu einem ausgeprägten Regen-, Verwitterung-, Erosion- und Sedimenttransportgradienten zum Vorland hin und darüber hinaus führt. In den intermontanen Tälern, der tiefgelegenen Ausläufern des Himalajas ist ein Teil dieser Sedimente eingeschlossen und vorübergehend gelagert. Das verbesserte Verständnis über die Entwicklung dieser Sedimentarchive bietet eine einmalige Möglichkeit die Auslöser der veränderlichen Sedimentproduktion, -anlieferung und -lagerung in einem sich aktiv deformierenden Gebirge über Raum und Zeit zu entschlüsseln und unterstützt dabei die Anstrengungen eine Verbindung zwischen Sedimentvolumen in intermontanen Becken und den Veränderungen des Spannungszustandes in geringfügiger Krustentiefe zu untersuchen. Die Sedimentumverteilung in Gebirgen kann, über einen Zeitraum von 102-104 Jahren, kulturelle Eigenheiten, die Infrastruktur in den intermontanen Tälern und sogar die Seismotektonik eines Gebirgsgürtels, beeinflussen. Es besteht ein verstärktes Interesse die Prozesse über die Sedimentführung und den kausalen Zusammenhang zwischen Tektonik, Klima und Topographie zu verstehen. An dieser Schnittstelle zwischen den tektonischen Prozessen und den überlagernden klimatischen und sedimentären Prozessen im Gebirgskeil setzten meine Untersuchungen an. Das Untersuchungsgebiet umfasst das intermontane Kangra-Becken im nordwestlichen Sub-Himalaja, da hier die Eigenschaften der verschiedenen morphotektonischen Gebieten des Himalajas gut ausgeprägt sind. Dieses Gebiet gehört zu einer Region, die stark durch den Monsun geprägt wird. Zahlreiche Flussterrassen bieten hervorragende Markierungen für die Beurteilung der Deformationsprozesse innerhalb des Himalajischen Gebirgskeils. Durch ihre Situation direkt vor der Dhauladhar-Kette ist die Region sowohl früher als auch heute durch ausgeprägte Erosionsgradienten und Sedimentprozessen charakterisiert, die den wiederholend wechselnden Klimabedingungen zugeordnet werden können. Angesichts dieser Bedingungen untersuchte ich in dieser tektonisch aktiven Region, klimatisch gesteuerte jungpleistozäne-holozäne Sedimentzyklen, welche sich möglicherweise als Auslöser für die tektonische Umorganisation innerhalb himalajischen Gebirgskeils verantwortlich zeichnen und zumindest seit dem frühen Holozän zu out-of-sequence Aufschiebungen führen. Das Kangra-Becken ist durch die MBT und den Jwalamukhi Thrust (JMT) im Sub-Himalaja nach Norden und Süden begrenzt und lagert vorübergehend aus der Dhauladhar-Kette angelieferte Sedimente. Im Becken sind ~200-m dicke Konglomerate abgelagert, welche zwei ausgeprägte Aggradationsphasen wiederspiegeln. Nachfolgend auf die Aggradationsphasen wurden mehrere Flussterrassen in die Schuttfächerablagerungen eingeschnitten. Die Datierung der Terrassenoberflächen mittels kosmogener 10Beryllium Nuklide ergab für die höchste erhaltene Terrasse ein Alter von 53.4±3.2 ka (AF1). Diese Oberfläche wurde daraufhin bis ~15 ka fortwährend eingeschnitten, bis sich ein zweiter Schuttfächer (AF2) zu bilden begann. Die Aufschüttung des AF2 wurde durch episodische holozäne Einschneidungen verdrängt, wobei sich mindestens vier Terrassenebenen bildeten. Wir haben eine Korrelation zwischen dem variierenden Sedimenttransport und ∂18O Aufzeichnungen aus Regionen, die vom indischen Sommermonsun (ISM) betroffen sind, gefunden. Die Aggradation fand wohl durch einen erhöhten Sedimentfluss während verstärkten Phasen des ISM und der Enteisung nach dem letzteiszeitlichen Maximum statt, wobei Perioden eines geschwächten ISM mit einem tieferen Sedimentzufluss verbunden sind und auch mit erneuten Einschneidungen zusammentreffen. Die Evolution fluvialer Terrassen entlang von sub-himaljischen Flüssen im Kangra-Sektor wurde auch durch tektonische Prozesse erzwungen. Rückwärts gekippte und gefaltete Terrassen dokumentieren deutlich die tektonische Aktivität der JMT. Der Versatz einer der Terrassenebenen weist auf eine Verkürzungsrate von 5.6±0.8 bis 7.5±1.0 mm.a-1 über die letzten ~10 ka hin. Darüber hinaus zeigt meine Studie, dass jungpleistozäne/holozäne out-of-sequence Aufschiebungen 40-60 % der gesamten 14.2±2 mm.a-1 Verkürzung aufgeteilt über den ganzen Sub-Himalaja hinweg aufnehmen. Die Aufzeichnungen an der JMT dokumentieren niedrigere Verkürzungsraten über längere Zeiträume, was auf out-of-sequence Aktivität im Sub-Himalaja hindeutet. Die erneute Aktivierung der JMT kann mit Veränderungen im tektonischen Spannungsfeld durch großflächigen Sedimenttransport aus dem Becken in Verbindung gebracht werden. Ich spekuliere daher darauf, dass die Deformationsprozesse im Sub-Himalaja sich entsprechend der Voraussagen des Modelles der kritischen Keilform verhalten und treffe folgende Annahmen: >200 m Sedimentaggradation würde eine gegen das Vorland gerichtete Ausbreitung der Deformationsfront, eine Wiedereinschneidung und die Beseitigung der meisten gelagerten Sedimente (beinahe 80-85 % der optimalen Beckenfüllung) auslösen. Daraus folgten wiederum sub-kritische Bedingungen der kritischen Keilformtheorie und der Rückzug der Deformationsfront würde somit ausgelöst. Während Erosionsproszesse und die damit verbundene Versteilung der Hänge über einen längeren Zeitraum der Tektonik zuzuschreiben sind, sind Sedimentzyklen in diesem Umfeld hauptsächlich das Resultat aus klimatischen Zwängen. Meine neuen Oberflächenexpositionsdaten aus kosmogenen Nukliden 10Be und die Zusammenstellung bisheriger Studien jungpleistozäner bis holozäner Flussterrassen und sowie alluviale Verfüllungen zeigen periodische Fluktuationen in der Sedimentanlieferung und der Transportkapazität in einem Zeitraum von 10³ bis 10⁵ Jahren. Um den möglichen Einfluss des Klimawandels auf diese Fluktuationen zu bewerten, habe ich den in den Schuttfächern und Terrassen aufgezeichneten zeitlichen Ablauf der Aggradations- und Einschneidungsphasen mit kontinentalen Klimaarchiven wie z. B. Speläotheme (stalagmiten) aus Monsun beeinflussten Nachbarregionen verglichen. Zusammen mit bisherigen publizierten OSL Altern, welche den Zeitpunkt der Aggradation anzeigen, finde ich eine Korrelation zwischen Variationen des Sedimenttransportes durch Sauerstoff-Isotopen Aufzeichnungen aus den von ISM betroffenen Gebieten. Dementsprechend kam es im Kangra-Becken während Zeiten der verstärkten Monsunintensität (Wechsel von trockenen, kalten und feuchten, warmen Perioden – MIS4 bis MIS3 und MIS2 bis MIS1) (MIS = marines Isotopenstadium) und der Enteisung des letzteiszeitlichen Maximums wahrscheinlich durch erhöhten Sedimentfluss zur Aggradation. Im Gegenzug stimmen schwache Perioden der Monsunintensität oder niedrigeren Sedimentlieferung mit der Wiedereinschneidung der bestehenden Becken überein. Zum Schluss enthält meine Studie einen Teil einer Tieftemperatur-Thermochronologie Studie, welche die jüngste Exhumationsgeschichte der Dhauladhar-Kette beurteilt. Zirkon-Helium (ZHe) Alter und publizierte Tieftemperatur-Daten (ZHe, Apatit-Spaltspuren (AFT)) dieses Höhenzuges belegen zusammen mit einer 3D thermokinematischen Modellierung (PECUBE) die Einschränkungen der Exhumation und der an die Gebirgskette gebundene MBT-Aktivität mindestens seit dem mittleren Miozän. Die Resultate der Modellierung deuten auf mittlere Gleitraten auf der MBT-Überschiebungsrampe von ~2–3 mm/yr seit ihrer Aktivierung hin. Dies führte zum Wachstum der >5-km hohen Front der Dhauladhar-Kette und einer kontinuierlichen, tiefsitzenden Exhumation und Erosion. Die erzielten Ergebnisse zeigen die Einschränkungen der Deformationsmuster und ihrer Variation entlang des Streichens. Die Resultate deuten auf eine Abwesenheit einer über die zeit-veränderlichen Rampe des basalen Abscherhorizontes in der mittleren Krustentiefe und einer Duplexbildung des Niederen Himalajas hin, dies im Gegensatz zu den nahegelegenen Gebieten oder sogar zu Zentralnepal. Ein Bruchteil der Konvergenz (~10-15%) wird entlang der tiefsitzenden MBT-Rampe aufgenommen, die aller Wahrscheinlichkeit nach in die MHT übergeht. Diese Erkenntnis ist maßgeblich für eine gründliche Beurteilung der Gesamtgröße der tektonischen Aktivitäten in den morphotektonischen Provinzen des Himalajas, da sie kürzlich publizierten geodätischen Schätzungen von Verkürzungsraten widerspricht. In jenen Studien wurde vorgeschlagen, dass die gesamte Verkürzung des Gebirges im nordwestlichen Himalaja innerhalb des Sub-Himalajas aufgenommen wird, wobei der MBT keine tektonische Aktivität zugeschrieben werden wird. KW - tectonic geomorphology KW - cosmogenic radionuclide-based dating KW - neotectonics KW - tektonische Geomorphologie KW - kosmogene Radionuklid-basierte Datierung KW - Neotektonik Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103390 ER - TY - THES A1 - Daschewski, Maxim T1 - Thermophony in real gases T1 - Das Thermophon BT - theory and applications BT - Theorie und Anwendung N2 - A thermophone is an electrical device for sound generation. The advantages of thermophones over conventional sound transducers such as electromagnetic, electrostatic or piezoelectric transducers are their operational principle which does not require any moving parts, their resonance-free behavior, their simple construction and their low production costs. In this PhD thesis, a novel theoretical model of thermophonic sound generation in real gases has been developed. The model is experimentally validated in a frequency range from 2 kHz to 1 MHz by testing more then fifty thermophones of different materials, including Carbon nano-wires, Titanium, Indium-Tin-Oxide, different sizes and shapes for sound generation in gases such as air, argon, helium, oxygen, nitrogen and sulfur hexafluoride. Unlike previous approaches, the presented model can be applied to different kinds of thermophones and various gases, taking into account the thermodynamic properties of thermophone materials and of adjacent gases, degrees of freedom and the volume occupied by the gas atoms and molecules, as well as sound attenuation effects, the shape and size of the thermophone surface and the reduction of the generated acoustic power due to photonic emission. As a result, the model features better prediction accuracy than the existing models by a factor up to 100. Moreover, the new model explains previous experimental findings on thermophones which can not be explained with the existing models. The acoustic properties of the thermophones have been tested in several gases using unique, highly precise experimental setups comprising a Laser-Doppler-Vibrometer combined with a thin polyethylene film which acts as a broadband and resonance-free sound-pressure detector. Several outstanding properties of the thermophones have been demonstrated for the first time, including the ability to generate arbitrarily shaped acoustic signals, a greater acoustic efficiency compared to conventional piezoelectric and electrostatic airborne ultrasound transducers, and applicability as powerful and tunable sound sources with a bandwidth up to the megahertz range and beyond. Additionally, new applications of thermophones such as the study of physical properties of gases, the thermo-acoustic gas spectroscopy, broad-band characterization of transfer functions of sound and ultrasound detection systems, and applications in non-destructive materials testing are discussed and experimentally demonstrated. N2 - Ein Thermophon ist ein elektrisches Gerät zur Schallerzeugung. Aufgrund der fehlenden beweglichen Teile verfügen Thermophone über mehrere Vorteile gegenüber den herkömmlichen elektromagnetischen, elektrostatischen oder piezoelektrischen Schallwandlern. Besonders bemerkenswert sind das resonanz- und nachschwingungsfreie Verhalten, die einfache Konstruktion und die niedrigen Herstellungskosten. Im Rahmen dieser Doktorarbeit wurde ein neuartiges theoretisches Modell der thermophonischen Schallerzeugung in Gasen entwickelt und experimentell verifiziert. Zur Validierung des Modells wurden mehr als fünfzig Thermophone unterschiedlicher Größen, Formen und Materialien, darunter Kohlenstoff-Nanodrähte, Titan und Indium-Zinnoxid zur Erzeugung von Schall in Gasen wie Luft, Argon, Helium, Sauerstoff, Stickstoff und Schwefelhexafluorid in einem Frequenzbereich von 2 kHz bis 1 MHz eingesetzt. Das präsentierte Modell unterscheidet sich von den bisherigen Ansätzen durch seine hohe Flexibilität, wobei die thermodynamischen Eigenschaften des Thermophons und des umgebenden Gases, die Freiheitsgrade und das Eigenvolumen der Gasatome und Moleküle, die Schallschwächungseffekte, die Form und Größe des Thermophons, sowie die Verringerung der erzeugten akustischen Leistung aufgrund der Photonenemission berücksichtigt werden. Infolgedessen zeigt das entwickelte Modell eine um bis zu einem Faktor 100 höhere Vorhersagegenauigkeit als die bisher veröffentlichten Modelle. Das präsentierte Modell liefert darüber hinaus eine Erklärung zu den Ergebnissen aus den Vorarbeiten, die von den bisherigen Modellen nicht abschließend geklärt werden konnten. Die akustischen Eigenschaften der Thermophone wurden unter Verwendung von einzigartigen hochpräzisen Versuchsaufbauten getestet. Dafür wurde ein Laser-Doppler-Vibrometer in Kombination mit einer dünnen Polyethylenfolie verwendet, welche als breitbrandiger und resonanzfreier Schalldruckdetektor fungiert. Somit konnten mehrere herausragende akustische Eigenschaften der Thermophone zum ersten Mal demonstriert werden, einschließlich der Möglichkeit, beliebig geformte akustische Signale zu erzeugen, eine größere akustische Wirksamkeit im Vergleich zu herkömmlichen Luftultraschallwandlern und die Anwendbarkeit als leistungsfähige beliebig abstimmbare Schallquellen mit einer Bandbreite bis in den Megahertz-Bereich. Zusätzlich werden neue Anwendungen von Thermophonen wie die Untersuchung der physikalischen Eigenschaften von Gasen, die thermoakustische Gasspektroskopie, eine breitbandige Charakterisierung der Übertragungsfunktionen von Schall- und Ultraschallmesssystemen und Anwendungen in der zerstörungsfreien Materialprüfung demonstriert. KW - thermophone KW - thermoacoustics KW - thermoacoustic effect KW - photoacoustic effect KW - Thermophon KW - Thermoakustik KW - thermoakustischer Effekt KW - photoakustischer Effekt Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98866 ER - TY - THES A1 - Dannberg, Juliane T1 - Dynamics of mantle plumes T1 - Dynamik von Mantelplumes BT - linking scales and coupling physics BT - gekoppelte und skalenübergreifende Modelle N2 - Mantle plumes are a link between different scales in the Earth’s mantle: They are an important part of large-scale mantle convection, transporting material and heat from the core-mantle boundary to the surface, but also affect processes on a smaller scale, such as melt generation and transport and surface magmatism. When they reach the base of the lithosphere, they cause massive magmatism associated with the generation of large igneous provinces, and they can be related to mass extinction events (Wignall, 2001) and continental breakup (White and McKenzie, 1989). Thus, mantle plumes have been the subject of many previous numerical modelling studies (e.g. Farnetani and Richards, 1995; d’Acremont et al., 2003; Lin and van Keken, 2005; Sobolev et al., 2011; Ballmer et al., 2013). However, complex mechanisms, such as the development and implications of chemical heterogeneities in plumes, their interaction with mid-ocean ridges and global mantle flow, and melt ascent from the source region to the surface are still not very well understood; and disagreements between observations and the predictions of classical plume models have led to a challenge of the plume concept in general (Czamanske et al., 1998; Anderson, 2000; Foulger, 2011). Hence, there is a need for more sophisticated models that can explain the underlying physics, assess which properties and processes are important, explain how they cause the observations visible at the Earth’s surface and provide a link between the different scales. In this work, integrated plume models are developed that investigate the effect of dense recycled oceanic crust on the development of mantle plumes, plume–ridge interaction under the influence of global mantle flow and melting and melt migration in form of two-phase flow. The presented analysis of these models leads to a new, updated picture of mantle plumes: Models considering a realistic depth-dependent density of recycled oceanic crust and peridotitic mantle material show that plumes with excess temperatures of up to 300 K can transport up to 15% of recycled oceanic crust through the whole mantle. However, due to the high density of recycled crust, plumes can only advance to the base of the lithosphere directly if they have high excess temperatures, high plume volumes and the lowermost mantle is subadiabatic, or plumes rise from the top or edges of thermo-chemical piles. They might only cause minor surface uplift, and instead of the classical head–tail structure, these low-buoyancy plumes are predicted to be broad features in the lower mantle with much less pronounced plume heads. They can form a variety of shapes and regimes, including primary plumes directly advancing to the base of the lithosphere, stagnating plumes, secondary plumes rising from the core–mantle boundary or a pool of eclogitic material in the upper mantle and failing plumes. In the upper mantle, plumes are tilted and deflected by global mantle flow, and the shape, size and stability of the melting region is influenced by the distance from nearby plate boundaries, the speed of the overlying plate and the movement of the plume tail arriving from the lower mantle. Furthermore, the structure of the lithosphere controls where hot material is accumulated and melt is generated. In addition to melting in the plume tail at the plume arrival position, hot plume material flows upwards towards opening rifts, towards mid-ocean ridges and towards other regions of thinner lithosphere, where it produces additional melt due to decompression. This leads to the generation of either broad ridges of thickened magmatic crust or the separation into multiple thinner lines of sea mount chains at the surface. Once melt is generated within the plume, it influences its dynamics, lowering the viscosity and density, and while it rises the melt volume is increased up to 20% due to decompression. Melt has the tendency to accumulate at the top of the plume head, forming diapirs and initiating small-scale convection when the plume reaches the base of the lithosphere. Together with the introduced unstable, high-density material produced by freezing of melt, this provides an efficient mechanism to thin the lithosphere above plume heads. In summary, this thesis shows that mantle plumes are more complex than previously considered, and linking the scales and coupling the physics of different processes occurring in mantle plumes can provide insights into how mantle plumes are influenced by chemical heterogeneities, interact with the lithosphere and global mantle flow, and are affected by melting and melt migration. Including these complexities in geodynamic models shows that plumes can also have broad plume tails, might produce only negligible surface uplift, can generate one or several volcanic island chains in interaction with a mid–ocean ridge, and can magmatically thin the lithosphere. N2 - Mantelplumes verbinden Prozesse auf verschiedenen Skalen im Erdmantel: Sie sind ein wichtiger Teil der globalen Mantelkonvektion, sie transportieren Material und Wärmeenergie von der Kern-Mantel-Grenze zur Erdoberfläche, aber beeinflussen auch kleinskaligere Prozesse wie Schmelzbildung und -transport und die damit verbundenen magmatischen Ereignisse. Wenn Plumes die Unterseite der Lithosphäre erreichen, entstehen große Mengen partiell geschmolzenen Gesteins, was zu großräumigen Vulkaneruptionen sowie der Entstehung von Plateaubasaltprovinzen führt, und auch mit Massenaussterbeereignissen und dem Auseinanderbrechen von Kontinenten in Zusammenhang stehen kann. Aufgrund dieser erdgeschichtlichen Bedeutung wurde bereits eine große Anzahl an Studien über Plumes durchgeführt (z.B. Farnetani und Richards, 1995; d’Acremont u. a., 2003; Lin und van Keken, 2005; Sobolev u. a., 2011; Ballmer u. a., 2013). Trotzdem ist unser Verständnis komplexerer Vorgänge und Interaktionen in Plumes noch nicht vollständig: Beispiele sind die Entwicklung von chemisch heterogenen Plumes, der Einfluss dieses chemisch andersartigen Materials auf die Aufstiegsdynamik, die Wechselwirkung zwischen Plumes und mittelozeanischen Rücken sowie den globalen Konvektionsströmungen und das Aufsteigen von Schmelze von ihrer Entstehungsregion bis hin zur Erdoberfläche. Unterschiede zwischen Beobachtungen und den Aussagen klassischer Modelle werden als Argumente gegen das Plumekonzept insgesamt angeführt (Czamanske u. a., 1998; Anderson, 2000; Foulger, 2011). Daher gibt es weiterhin einen Bedarf für ausgereiftere Modelle, welche die Skalen verschiedener Prozesse verbinden, den Einfluss dieser Prozesse sowie der Material- und Strömungseigenschaften berücksichtigen und quantifizieren, ihre Auswirkungen an der Erdoberfläche erklären und diese mit Beobachtungen vergleichen. Im Rahmen dieser Arbeit wurden Plume-Modelle erstellt, welche den Einfluss dichter, recycelter ozeanischer Kruste auf die Entwicklung van Mantelplumes, die Interaktion von Plumes und mittelozeanischen Rücken und den Einfluss globaler Mantelkonvektion sowie Aufschmelzung und Schmelzaufstieg in Form von Zweiphasenströmung (“two-phase flow”) untersuchen. Die vorgestellte Analyse dieser Modelle ergibt ein neues, aktualisiertes Konzept von Mantelplumes: Wenn ein realistischer Dichteunterschied zwischen recycelter ozeanischer Kruste und peridotitischem Mantel angenommen wird, kann ein Plume bis zu 15% recyceltes Material durch den gesamten Mantel transportieren. Durch die hohe Dichte der recycelten Kruste können Plumes aber nur bis zur Lithosphäre aufsteigen, wenn ihre Temperatur und ihr Volumen hoch genug sind, und wenn die Temperatur im unteren Mantel subadiabatisch ist oder die Plumes von aufgewölbten thermo-chemischen “Piles” aufsteigen. Es ist durchaus möglich, dass diese Plumes nur eine geringe Hebung der Oberfläche verursachen, und anstatt der klassischen pilzförmigen Kopf-Tail-Struktur bilden sie breite Strukturen im unteren Mantel mit weitaus weniger ausgeprägtem Plumekopf. Dafür können sie in verschiedenen Formen und Regimes auftreten: Primäre Plumes, welche direkt von der Kern-Mantel-Grenze zur Lithosphäre aufsteigen, stagnierende Plumes, sekundäre Plumes von der Kernmantelgrenze oder einer Ansammlung eklogitischen Materials im oberen Mantel und scheiternde Plumes, die die Lithosphäre nicht erreichen. Im oberen Mantel werden Plumes durch globale Konvektion abgelenkt und geneigt, und die Form, Größe und Stabilität der Schmelzregion wird durch den Abstand zu nahen Plattengrenzen, der Geschwindigkeit der sich darüber bewegenden Platte und der Bewegung des aus dem unteren Mantel ankommenden Plume-Tails bestimmt. Weiterhin beeinflusst auch die Struktur der Lithosphäre wo sich warmes Material sammeln kann und Schmelze entsteht. Zusätzlich zur Aufschmelzung beim Erreichen der Untergrenze der Lithosphäre strömt heißes Plumematerial auch lateral und weiter nach oben zu sich öffnenden Rifts, zu mittelozeanischen Rücken sowie zu anderen Regionen dünnerer Lithosphäre, wo durch die Druckentlastung weitere Schmelze generiert wird. Diese führt an der Erdoberfläche zur Entwicklung von entweder breiten Rücken verdickter magmatischer Kruste oder der Aufteilung in mehrere ozeanischen Inselketten. Sobald Schmelze generiert wurde, beeinflusst diese auch die Dynamik des Plumes, indem sie Viskosität und Dichte verringert. Während des Plumeaufstiegs kann sich das Schmelzvolumen dabei durch die Dekompression um bis zu 20% vergrößern. Schmelze hat die Tendenz sich an der Oberseite des Plumes anzusammeln, wo sie Diapire formt und kleinräumige Konvektion auslöst, wenn der Plume die Lithosphäre erreicht. Zusammen mit dem dichten, instabilen Material, das entsteht, wenn die Schmelze wieder erstarrt, bildet dies einen effektiven Mechanismus zur Erosion der Lithosphäre durch Plume-Heads. Zusammenfassend zeigt die vorliegende Arbeit, dass Mantelplumes komplexer sind als bisher angenommen, und dass die Verbindung von Skalen und die Kombination verschiedener in Mantelplumes auftretender physikalischer Prozesse Erkenntnisse liefern kann, wie Mantelplumes durch chemische Heterogenität beeinflusst werden, wie sie mit mittelozeanischen Rücken und globaler Mantelkonvektion interagieren und wie sie durch Aufschmelzung und Schmelzmigraiton beeinflusst werden. Die Einbindung dieser Prozesse in geodynamische Modelle zeigt, dass Plumes breite Tails haben können, potentiell nur geringe Oberflächenhebung verursachen, in Interaktion mit einem mittelozeanischen Rücken eine oder mehrere vulkanische Inselketten erzeugen können und magmatisch die Lithosphäre erodieren können. KW - mantle plumes KW - numerical modelling KW - Mantelplumes KW - numerische Modellierung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91024 ER - TY - THES A1 - Couturier, Jean-Philippe T1 - New inverse opal hydrogels as platform for detecting macromolecules T1 - Neue inverse Opal-Hydrogele als Plattform für die Detektion von Makromolekülen N2 - In this thesis, a route to temperature-, pH-, solvent-, 1,2-diol-, and protein-responsive sensors made of biocompatible and low-fouling materials is established. These sensor devices are based on the sensitivemodulation of the visual band gap of a photonic crystal (PhC), which is induced by the selective binding of analytes, triggering a volume phase transition. The PhCs introduced by this work show a high sensitivity not only for small biomolecules, but also for large analytes, such as glycopolymers or proteins. This enables the PhC to act as a sensor that detects analytes without the need of complex equipment. Due to their periodical dielectric structure, PhCs prevent the propagation of specific wavelengths. A change of the periodicity parameters is thus indicated by a change in the reflected wavelengths. In the case explored, the PhC sensors are implemented as periodically structured responsive hydrogels in formof an inverse opal. The stimuli-sensitive inverse opal hydrogels (IOHs) were prepared using a sacrificial opal template of monodispersed silica particles. First, monodisperse silica particles were assembled with a hexagonally packed structure via vertical deposition onto glass slides. The obtained silica crystals, also named colloidal crystals (CCs), exhibit structural color. Subsequently, the CCs templates were embedded in polymer matrix with low-fouling properties. The polymer matrices were composed of oligo(ethylene glycol) methacrylate derivatives (OEGMAs) that render the hydrogels thermoresponsive. Finally, the silica particles were etched, to produce highly porous hydrogel replicas of the CC. Importantly, the inner structure and thus the ability for light diffraction of the IOHs formed was maintained. The IOH membrane was shown to have interconnected pores with a diameter as well as interconnections between the pores of several hundred nanometers. This enables not only the detection of small analytes, but also, the detection of even large analytes that can diffuse into the nanostructured IOH membrane. Various recognition unit – analyte model systems, such as benzoboroxole – 1,2-diols, biotin – avidin and mannose – concanavalin A, were studied by incorporating functional comonomers of benzoboroxole, biotin and mannose into the copolymers. The incorporated recognition units specifically bind to certain low and highmolar mass biomolecules, namely to certain saccharides, catechols, glycopolymers or proteins. Their specific binding strongly changes the overall hydrophilicity, thus modulating the swelling of the IOH matrices, and in consequence, drastically changes their internal periodicity. This swelling is amplified by the thermoresponsive properties of the polymer matrix. The shift of the interference band gap due to the specific molecular recognition is easily visible by the naked eye (up to 150 nm shifts). Moreover, preliminary trial were attempted to detect even larger entities. Therefore anti-bodies were immobilized on hydrogel platforms via polymer-analogous esterification. These platforms incorporate comonomers made of tri(ethylene glycol) methacrylate end-functionalized with a carboxylic acid. In these model systems, the bacteria analytes are too big to penetrate into the IOH membranes, but can only interact with their surfaces. The selected model bacteria, as Escherichia coli, show a specific affinity to anti-body-functionalized hydrogels. Surprisingly in the case functionalized IOHs, this study produced weak color shifts, possibly opening a path to detect directly living organism, which will need further investigations. N2 - Periodisch strukturierte, funktionelle responsive Hydrogele wurden in Form von inversen Opalen (IOH) aufgebaut und als Basiselement für Temperatur-, pH-, lösungsmittel-, 1,2-diol- oder protein-sensitive Sensorsysteme entwickelt. Dazu wurden aus biokompatiblen Bausteinen funktionelle photonische Kristalle aufgebaut, deren optische Bandlücke durch selektive Bindung eines Analyten moduliert wird, indem dieser einen Volumen-Phasenübergang induziert.Mittels solcher responsiver photonische Kristalle ist es möglich, Analyte ohne aufwendige Geräte durch Farbänderung einfach zu detektieren. Die entwickelten Systeme zeigen nicht nur eine hohe Empfindlichkeit gegenüber kleinen Biomolekülen, sondern auch gegenüber größeren Analyten wie z.B. Glycopolymeren und Proteinen, was bisher nicht bekannt war. Die stimuli-sensitiven inversen Opal Hydrogele (IOHs) wurden in mehreren Stufen hergestellt. Als erstes wurden dafür kolloidale Kristalle mit hexagonal gepackten Strukturen aus monodispersen SiO2-Partikeln auf Glasträgern auf ebaut (“Opal”). Die Opale mit charakteristischen Strukturfarben wurden anschließend in eine polymere Hydrogelmatrix eingebettet. Diese wurde aus Oligo(ethylenglycol)methacrylaten (OEGMAs) hergestellt, so dass die Hydrogele sowohl thermosensitives als auch “lowfouling” Verhalten zeigen. Im letzten Schritt wurden die SiO2-Partikel entfernt und so eine hochporöse Hydrogel-Replika der Opale erhalten unter Erhalt deren innerer Struktur und Strukturfarbe. Die miteinander verbunden Poren der IOHMembran besitzen einen Durchmesser von einigen hundert Nanometern. Dies ermöglichte nicht nur die Detektion von kleinen Analyten, sondern auch die Detektion von deutlich größeren, makromolekularen Analyten, die ebenfalls in die Nanostrukturen der IOH Membran diffundieren können. Modellsysteme bestanden immer aus einer Erkennungsgruppe und einem Analyten, beispielsweise aus Benzoboroxol – 1,2-Diol, Biotin – Avidin und Mannose – Lectin (Concanavalin A). Für dieseModellsysteme wurden OEGMAs mitMonomeren copolymerisiert, die mit Benzoboroxol, Biotin bzw.Mannose funktionalisiert waren. Die so im Polymer eingebauten Erkennungsgruppen binden spezifisch an bestimmte Biomoleküle unterschiedlicherMolmassen, wie z.B. niedermolekulare Saccharide oder Catechin, als auch hochmolekulare Glycopolymere oder Proteine. Der spezifische Bindungsvorgang moduliert die Gesamthydrophilie, so dass sich der Quellgrad der IOH-Matrix ändert. Dies wiederrumverändert die innere Periodizität und damit die Strukturfarbe. Dabei wird der Quelleffekt durch die Thermosensitivität der Hydrogele massiv verstärkt. Eine spezifischeMolekülanbindung lässt sich so optisch, z.T. sogar mit dem Auge, erkennen aufgrund der deutlichen Verschiebung der Strukturfarbe um bis zu 150 nm. Des Weiteren wurden auch erste Versuche zur Detektion von noch größeren Analyten unternommen. Dafür wurden Antiköper durch nachträgliche Modifizierung der Polymerseitenketten auf den Hydrogeloberflächen immobilisiert. Mit diesem Modellsystem konnten unterschiedliche Bakterienarten durch Antikörper spezifisch gebunden werden. Die verwendeten Bakterienarten sind zwar zu groß, um in die Membran des IOH Systems einzudringen, können jedoch mit der IOH-Oberfläche wechselwirken. Insbesondere dasModellsystem mit Escherichia coli zeigte eine starke, spezifische Affinität zu dem Antikörper-funktionalisierten IOH. Überraschenderweise zeigte sich bei den Versuchen in Gegenwart des Analyten eine kleine Farbänderung der funktionalisierten IOH. Damit eröffnet sich u.U. dieMöglichkeit, mit solchen responsiven photonischen Kristallen auch lebende Organismen spezifisch und einfach zu detektieren, was in weiterführenden Arbeiten zu klären sein wird. KW - inverse opal KW - hydrogel KW - responsive polymer KW - inverse Opale KW - Hydrogel KW - schaltbare Polymere Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98412 ER - TY - THES A1 - Connor, Daniel Oliver T1 - Identifikation und Charakterisierung neuer immunogener Proteine und anschließende Generierung rekombinanter Antikörper mittels Phage Display T1 - Identification and characterisation of novel immunogenic proteins and subsequent generation of recombinant antibodies by phage display N2 - Seit der Einführung von Antibiotika in die medizinische Behandlung von bakteriellen Infektionskrankheiten existiert ein Wettlauf zwischen der Evolution von Bakterienresistenzen und der Entwicklung wirksamer Antibiotika. Während bis in die 80er Jahre verstärkt an neuen Antibiotika geforscht wurde, gewinnen multiresistente Keime heute zunehmend die Oberhand. Um einzelne Pathogene erfolgreich nachzuweisen und zu bekämpfen, ist ein grundlegendes Wissen über den Erreger unumgänglich. Bakterielle Proteine, die bei einer Infektion vorrangig vom Immunsystem prozessiert und präsentiert werden, könnten für die Entwicklung von Impfstoffen oder gezielten Therapeutika nützlich sein. Auch für die Diagnostik wären diese immundominanten Proteine interessant. Allerdings herrscht ein Mangel an Wissen über spezifische Antigene vieler pathogener Bakterien, die eine eindeutige Diagnostik eines einzelnen Erregers erlauben würden. Daher wurden in dieser Arbeit vier verschiedene Humanpathogene mittels Phage Display untersucht: Neisseria gonorrhoeae, Neisseria meningitidis, Borrelia burgdorferi und Clostridium difficile. Hierfür wurden aus der genomischen DNA der vier Erreger Bibliotheken konstruiert und durch wiederholte Selektion und Amplifikation, dem sogenannten Panning, immunogene Proteine isoliert. Für alle Erreger bis auf C. difficile wurden immunogene Proteine aus den jeweiligen Bibliotheken isoliert. Die identifizierten Proteine von N. meningitidis und B. burgdorferi waren größtenteils bekannt, konnten aber in dieser Arbeit durch Phage Display verifiziert werden. Für N. gonorrhoeae wurden 21 potentiell immunogene Oligopeptide isoliert, von denen sechs Proteine als neue zuvor unbeschriebene Proteine mit immunogenem Charakter identifiziert wurden. Von den Phagen-präsentierten Oligopeptide der 21 immunogenen Proteine wurden Epitopmappings mit verschiedenen polyklonalen Antikörpern durchgeführt, um immunogene Bereiche näher zu identifizieren und zu charakterisieren. Bei zehn Proteinen wurden lineare Epitope eindeutig mit drei polyklonalen Antikörpern identifiziert, von fünf weiteren Proteinen waren Epitope mit mindestens einem Antikörper detektierbar. Für eine weitere Charakterisierung der ermittelten Epitope wurden Alaninscans durchgeführt, die eine detaillierte Auskunft über kritische Aminosäuren für die Bindung des Antikörpers an das Epitop geben. Ausgehend von dem neu identifizierten Protein mit immunogenem Charakter NGO1634 wurden 26 weitere Proteine aufgrund ihrer funktionellen Ähnlichkeit ausgewählt und mithilfe bioinformatischer Analysen auf ihre Eignung zur Entwicklung einer diagnostischen Anwendung analysiert. Durch Ausschluss der meisten Proteine aufgrund ihrer Lokalisation, Membrantopologie oder unspezifischen Proteinsequenz wurden scFv-Antikörper gegen acht Proteine mittels Phage Display generiert und anschließend als scFv-Fc-Fusionsantikörper produziert und charakterisiert. Die hier identifizierten Proteine und linearen Epitope könnten einen Ansatzpunkt für die Entwicklung einer diagnostischen oder therapeutischen Anwendung bieten. Lineare Epitopsequenzen werden häufig für die Impfstoffentwicklung eingesetzt, sodass vor allem die in dieser Arbeit bestimmten Epitope von Membranproteinen interessante Kandidaten für weitere Untersuchungen in diese Richtung sind. Durch weitere Untersuchungen könnten möglicherweise unbekannte Virulenzfaktoren entdeckt werden, deren Inhibierung einen entscheidenden Einfluss auf Infektionen haben könnten. N2 - Since the advent of antibiotics into the field of medical therapy of bacterial infections, there has been a battle of effective antibiotics and the everlasting evolution of bacterial resistances. Until the 1980s many antibiotics were developed after invention of the first applied antibiotic penicillin in 1946. Since then, antibiotic research has been largely neglected resulting in the evolution of numerous strains from different bacteria with multiple resistances to available antibiotics. Therefore, extensive knowledge of a pathogen is crucial to detect and fight a particular disease. Hence, proteins that are processed and presented preferentially by the immune system during an infection could be beneficial for the development of vaccines and targeted therapeutic agents. Furthermore, immunodominant proteins could be interesting for the development of a diagnostic tool. However, many potential antigen targets of most pathogenic bacteria are still unknown. On this account, four human pathogens were examined in this work utilising phage display: Neisseria gonorrhoeae, Neisseria meningitidis, Borrelia burgdorferi und Clostridium difficile. Phage libraries were constructed from genomic DNA of the four pathogens. These libraries were used to isolate immunogenic proteins by panning through repetitive rounds of selection and amplification. Immunogenic proteins were successfully isolated for all pathogens except C. difficile. The identified proteins from N. meningitidis and B. burgdorferi had mostly been described before. However, they were verified by phage display in this work. Twenty-one potentially immunogenic oligopeptides were isolated from the N. gonorrhoeae library. Six of those were identified as novel proteins with an immunogenic character and validated also as full length proteins. Epitope mappings were conducted for all of the 21 phage presented oligopeptides with different polyclonal antibodies to identify and characterise the immunogenic regions. Linear epitopes were found unambiguously for ten proteins with the three applied antibodies. In addition, epitopes for five proteins were identified with at least one antibody. The determined epitopes were then further characterized by alanine scans to investigate the impact of each individual amino acid on the binding of the antibody to the antigen’s epitope. Based on the novel identified immunogenic protein NGO1634, 26 additional proteins were selected due to their functional resemblance. These proteins were analysed with bioinformatic tools and amongst others checked for their localisation, membrane topology and conservation of their protein sequence. Finally, scFv antibody fragments were isolated from a phage display library (HAL9/10) against eight proteins. The best antibodies were then produced as scFv-Fc fusion antibodies and their binding behaviour was further characterised. The identified proteins and linear epitopes could serve as a starting point for the development of diagnostic or therapeutic tools. Further studies could unveil unknown virulence factors. Inhibition of those virulence factors could possibly have a vital impact on countering infections. Furthermore, linear epitopes are commonly used for vaccine development. Novel epitopes of membrane proteins could be interesting candidates for further immunization studies. KW - Immunogene Proteine KW - Phage Display KW - Rekombinante Antikörper KW - Neisseria gonorrhoeae KW - Neisseria meningitidis KW - Clostridium difficile KW - Borrelia burgdorferi KW - Epitopmapping KW - Immunogenic Proteins KW - Recombinant Antibodies KW - Epitope mapping KW - Phage Display KW - Neisseria gonorrhoeae KW - Neisseria meningitidis KW - Clostridium difficile KW - Borrelia burgdorferi Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104120 ER - TY - THES A1 - Chen, Kejie T1 - Real-time GNSS for fast seismic source inversion and tsunami early warning T1 - Echtzeit-GNSS für schnelle seismischen Quelle Inversion und Tsunami-Frühwarnsystem N2 - Over the past decades, rapid and constant advances have motivated GNSS technology to approach the ability to monitor transient ground motions with mm to cm accuracy in real-time. As a result, the potential of using real-time GNSS for natural hazards prediction and early warning has been exploited intensively in recent years, e.g., landslides and volcanic eruptions monitoring. Of particular note, compared with traditional seismic instruments, GNSS does not saturate or tilt in terms of co-seismic displacement retrieving, which makes it especially valuable for earthquake and earthquake induced tsunami early warning. In this thesis, we focus on the application of real-time GNSS to fast seismic source inversion and tsunami early warning. Firstly, we present a new approach to get precise co-seismic displacements using cost effective single-frequency receivers. As is well known, with regard to high precision positioning, the main obstacle for single-frequency GPS receiver is ionospheric delay. Considering that over a few minutes, the change of ionospheric delay is almost linear, we constructed a linear model for each satellite to predict ionospheric delay. The effectiveness of this method has been validated by an out-door experiment and 2011 Tohoku event, which confirms feasibility of using dense GPS networks for geo-hazard early warning at an affordable cost. Secondly, we extended temporal point positioning from GPS-only to GPS/GLONASS and assessed the potential benefits of multi-GNSS for co-seismic displacement determination. Out-door experiments reveal that when observations are conducted in an adversary environment, adding a couple of GLONASS satellites could provide more reliable results. The case study of 2015 Illapel Mw 8.3 earthquake shows that the biases between co-seismic displacements derived from GPS-only and GPS/GLONASS vary from station to station, and could be up to 2 cm in horizontal direction and almost 3 cm in vertical direction. Furthermore, slips inverted from GPS/GLONASS co-seismic displacements using a layered crust structure on a curved plane are shallower and larger for the Illapel event. Thirdly, we tested different inversion tools and discussed the uncertainties of using real-time GNSS for tsunami early warning. To be exact, centroid moment tensor inversion, uniform slip inversion using a single Okada fault and distributed slip inversion in layered crust on a curved plane were conducted using co-seismic displacements recorded during 2014 Pisagua earthquake. While the inversion results give similar magnitude and the rupture center, there are significant differences in depth, strike, dip and rake angles, which lead to different tsunami propagation scenarios. Even though, resulting tsunami forecasting along the Chilean coast is close to each other for all three models. Finally, based on the fact that the positioning performance of BDS is now equivalent to GPS in Asia-Pacific area and Manila subduction zone has been identified as a zone of potential tsunami hazard, we suggested a conceptual BDS/GPS network for tsunami early warning in South China Sea. Numerical simulations with two earthquakes (Mw 8.0 and Mw 7.5) and induced tsunamis demonstrate the viability of this network. In addition, the advantage of BDS/GPS over a single GNSS system by source inversion grows with decreasing earthquake magnitudes. N2 - In den letzten Jahrzehnten haben schnelle und ständige Fortschritte die GNSS Technologie motiviert, die Fähigkeit zu erreichen, vorübergehende Bodenbewegungen mit einer Genauigkeit von mm bis cm in Echtzeit zu überwachen. Als Ergebnis wurde das Potential der Benutzung von Echtzeit GNSS zur Vorhersage von Naturgefährdungen und Frühwarnungen in den letzten Jahren intensiv ausgenutzt, zum Beispiel beim Beobachten von Hangrutschungen und vulkanischen Eruptionen. Besonders im Vergleich mit traditionellen seismischen Instrumenten tritt bei GNSS bei seismischen Verschiebungen keine Sättigung oder Neigung auf, was es für Erdbeben und durch Erdbeben induzierte Tsunamis besonders wertvoll macht. In dieser Arbeit richtet sich der Fokus auf die Anwendung von Echtzeit GNSS auf schnelle seismische Quelleninversion und Tsunami Frühwarnung. Zuerst präsentieren wir einen neuen Ansatz, um präzise seismische Verschiebungen durch kosteneffiziente Einzelfrequenz-Empfänger zu erhalten. Wie in Bezug auf Hochpräzisions-Positionierung bekannt ist, ist das hauptsächliche Hindernis für Einzelfrequenz-GPS die Verzögerung durch die Ionosphäre. Unter Berücksichtigung der Tatsache, dass die Änderung in der ionosphärischen Verzögerung über mehrere Minuten hinweg linear ist, haben wir ein lineares Modell für jeden Satelliten konstruiert, um die ionosphärische Verzögerung vorherzusagen. Die Effizienz dieser Methode wurde bei einem Freiluft-Experiment und bei dem Tohoku Ereignis 2011 validiert, was die Verwendbarkeit eines dichten GPS Netzwerks für Frühwarnung vor Geo-Gefahren bei vertretbaren Kosten bestätigt. Als Zweites haben wir die zeitliche Punkt-Positionierung von GPS-only zu GPS/GLONASS erweitert und den potentiellen Nutzen von Multi-GPNSS für die Bestimmung seismischer Verschiebungen bewertet. Freiluft-Experimente zeigen, dass zusätzliche GLONASS Satelliten in feindlicher Umgebung verlässlichere Ergebnisse liefern könnten. Die Fallstudie vom 2015 Illapel Erdbeben mit 8,3 Mw zeigt, dass die mit GPS-only und GPS/GLONASS abgeleiteten seismischen Verschiebungen von Station zu Station variieren und bis zu 2 cm in horizontaler Richtung und beinahe 3 cm in vertikaler Richtung betragen könnten. Zudem sind Verwerfungen, die durch GPS/GLONASS seismische Verschiebungen umgekehrt sind und eine geschichtete Krustenstruktur benutzen, auf einer gekrümmten Ebene flacher und größer für das Illapel Ereignis. Als Drittes haben wir verschiedene Inversionstools getestet und die Unsicherheiten der Benutzung von Echtzeit GNSS zur Tsunami Frühwarnung diskutiert. Um genau zu sein, wurden eine Schwerpunkts Momenten-Tensoren-Inversion, eine gleichmäßige Verwerfungsinversion bei Benutzung einer einzelnen Okada Verwerfung und eine verteilte Verwerfungs-Inversion in geschichteter Kruste auf einer gekrümmten Ebene durchgeführt. Dafür wurden seismische Verschiebungen genutzt, die beim Pisagua Erdbeben 2014 aufgezeichnet wurden. Während die Inversionsergebnisse ähnliche Magnituden und Bruchstellen liefern, gibt es signifikante Unterschiede bei Tiefe, Streichen, Einfalls- und Spanwinkel, was zu verschiedenen Tsunami Ausbreitungs-Szenarien führt. Trotzdem ist die resultierende Tsunami Vorhersage entlang der chilenischen Küste allen drei Modellen ähnlich. Schlussendlich und basierend auf der Tatsache, dass die Positionierungsleistung von BDS nun äquivalent zu GPS im Asia-Pazifischen Raum ist und die Manila Subduktionszone als potentielle Tsunami Gefährdungszone identifiziert wurde, schlagen wir ein Konzept für ein BDS/GPS Netzwerk für die Tsunami Frühwarnung im Südchinesischen Meer vor. Numerische Simulationen mit zwei Erdbeben (Mw 8.0 und Mw 7.5) und induzierten Tsunamis demonstrieren die Realisierbarkeit dieses Netzwerks. Zusätzlich wächst der Vorteil von BDS/GPS gegenüber einem einzelnen GNSS Sytem bei steigender Quelleninversion mit abnehmender Erdbebenmagnitude. KW - global navigation satellite systems KW - seismic source inversion KW - tsunami early warning KW - GNSS KW - Quelle Inversion KW - Tsunami-Frühwarnsystem Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93174 ER - TY - THES A1 - Castino, Fabiana T1 - Climate variability and extreme hydro-meteorological events in the Southern Central Andes, NW Argentina T1 - Klimavariabilität und extreme hydro-meteorologische Ereignisse in den südlichen Zentralanden, NW Argentinien N2 - Extreme hydro-meteorological events, such as severe droughts or heavy rainstorms, constitute primary manifestations of climate variability and exert a critical impact on the natural environment and human society. This is particularly true for high-mountain areas, such as the eastern flank of the southern Central Andes of NW Argentina, a region impacted by deep convection processes that form the basis of extreme events, often resulting in floods, a variety of mass movements, and hillslope processes. This region is characterized by pronounced E-W gradients in topography, precipitation, and vegetation cover, spanning low to medium-elevation, humid and densely vegetated areas to high-elevation, arid and sparsely vegetated environments. This strong E-W gradient is mirrored by differences in the efficiency of surface processes, which mobilize and transport large amounts of sediment through the fluvial system, from the steep hillslopes to the intermontane basins and further to the foreland. In a highly sensitive high-mountain environment like this, even small changes in the spatiotemporal distribution, magnitude and rates of extreme events may strongly impact environmental conditions, anthropogenic activity, and the well-being of mountain communities and beyond. However, although the NW Argentine Andes comprise the catchments for the La Plata river that traverses one of the most populated and economically relevant areas of South America, there are only few detailed investigations of climate variability and extreme hydro-meteorological events. In this thesis, I focus on deciphering the spatiotemporal variability of rainfall and river discharge, with particular emphasis on extreme hydro-meteorological events in the subtropical southern Central Andes of NW Argentina during the past seven decades. I employ various methods to assess and quantify statistically significant trend patterns of rainfall and river discharge, integrating high-quality daily time series from gauging stations (40 rainfall and 8 river discharge stations) with gridded datasets (CPC-uni and TRMM 3B42 V7), for the period between 1940 and 2015. Evidence for a general intensification of the hydrological cycle at intermediate elevations (~ 0.5 – 3 km asl) at the eastern flank of the southern Central Andes is found both from rainfall and river-discharge time-series analysis during the period from 1940 to 2015. This intensification is associated with the increase of the annual total amount of rainfall and the mean annual discharge. However, most pronounced trends are found at high percentiles, i.e. extreme hydro-meteorological events, particularly during the wet season from December to February.An important outcome of my studies is the recognition of a rapid increase in the amount of river discharge during the period between 1971 and 1977, most likely linked to the 1976-77 global climate shift, which is associated with the North Pacific Ocean sea surface temperature variability. Interestingly, after this rapid increase, both rainfall and river discharge decreased at low and intermediate elevations along the eastern flank of the Andes. In contrast, during the same time interval, at high elevations, extensive areas on the arid Puna de Atacama plateau have recorded increasing annual rainfall totals. This has been associated with more intense extreme hydro-meteorological events from 1979 to 2014. This part of the study reveals that low-, intermediate, and high-elevation sectors in the Andes of NW Argentina respond differently to changing climate conditions. Possible forcing mechanisms of the pronounced hydro-meteorological variability observed in the study area are also investigated. For the period between 1940 and 2015, I analyzed modes of oscillation of river discharge from small to medium drainage basins (102 to 104 km2), located on the eastern flank of the orogen. First, I decomposed the relevant monthly time series using the Hilbert-Huang Transform, which is particularly appropriate for non-stationary time series that result from non-linear natural processes. I observed that in the study region discharge variability can be described by five quasi-periodic oscillatory modes on timescales varying from 1 to ~20 years. Secondly, I tested the link between river-discharge variations and large-scale climate modes of variability, using different climate indices, such as the BEST ENSO (Bivariate El Niño-Southern Oscillation Time-series) index. This analysis reveals that, although most of the variance on the annual timescale is associated with the South American Monsoon System, a relatively large part of river-discharge variability is linked to Pacific Ocean variability (PDO phases) at multi-decadal timescales (~20 years). To a lesser degree, river discharge variability is also linked to the Tropical South Atlantic (TSA) sea surface temperature anomaly at multi-annual timescales (~2-5 years). Taken together, these findings exemplify the high degree of sensitivity of high-mountain environments with respect to climatic variability and change. This is particularly true for the topographic transitions between the humid, low-moderate elevations and the semi-arid to arid highlands of the southern Central Andes. Even subtle changes in the hydro-meteorological regime of these areas of the mountain belt react with major impacts on erosional hillslope processes and generate mass movements that fundamentally impact the transport capacity of mountain streams. Despite more severe storms in these areas, the fluvial system is characterized by pronounced variability of the stream power on different timescales, leading to cycles of sediment aggradation, the loss of agriculturally used land and severe impacts on infrastructure. N2 - Extreme hydro-meteorologische Ereignisse, wie langanhaltende Dürren oder Starkregen, gelten als Haupterscheinungsform der Klimavariabilität und haben einen entscheidenden Einfluss auf Umwelt und Gesellschaft. Dies gilt im Besonderen für die großen Gebirgsregionen dieser Erde. In einer extrem sensiblen Hochgebirgsregion wie den NW argentinischen Anden haben selbst geringe Veränderungen in der Intensität solcher Extremereignisse, sowie deren Häufigkeit und räumliche Verteilung, nicht nur einen großen Einfluss auf die Landschaftsentwicklung; flussabwärtsliegende Gemeinden sind zudem wirtschaftlich als auch humanitär einem hohen Risiko ausgesetzt. Die vorliegende Arbeit befasst sich im Wesentlichen mit der räumlich-zeitlichen Verteilung von Niederschlags- und Abflussmengen über den Zeitraum der letzten sieben Jahrzente, mit besonderem Fokus auf extreme hydro-meteorologische Ereignisse der subtropischen Zentralanden NW-Argentiniens. Um räumliche und zeitliche statistisch signifikante Trends der Niederschlags- und Abflussmengen bestimmen und quantifizieren zu können, finden in dieser Arbeit verschiedene Methoden Anwendung, in denen hochaufgelöste Zeitreihen von Niederschlags- und Abflussmengenstationen mit diversen Rasterdatensätzen von 1940 bis 2015 kombiniert werden. Über den betrachteten Zeitraum hinweg lässt sich eine allgemeine Intensivierung des hydrologischen Kreislaufes auf mittleren Höhen (500 - 3.000 m ü. NN) belegen. Diese Intensivierung steht einerseits im Zusammenhang mit dem Ansteigen von Extremwetterereignissen, besonders während der Regenzeit von Dezember bis Februar. Der beobachtete Anstieg in der Intensität dieser Wetterlagen deutet auf einen Zusammenhang der schweren Regenstürme und der Verlandung der Abflussbecken in der untersuchten, intermontanen Region hin. Ein rapider Anstieg in der Abflussmenge in Flüssen um bis zu 40% ist für den Zeitraum zwischen 1971 und 1977 dokumentiert. Dieser steht höchstwahrscheinlich mit der globalen Klimaverschiebung von 1976-77 in Zusammenhang, welche wiederum durch die Variabilität der Oberflächentemperatur des Pazifischen Ozeans beeinflusst wird. Nach diesem starken Anstieg können jedoch abnehmende Trends in Niederschlags- wie auch Abflussmengen auf niedrigen und mittleren Höhen der Ostflanken der Anden beobachtet werden. Im Gegensatz dazu belegen ein Anstieg der jährlichen Gesamtniederschlagsmenge sowie der Magnitude von extremen hydro-meterologischen Ereignissen in hohen Höhenlagen der trockenen Puna de Atacama Plateaus, dass niedrige, mittlere und hohe Sektoren der NW argentinischen Anden unterschiedlich auf Änderungen des Klimas reagieren. Schlussendlich kann die in der Region beobachtete, stark ausgeprägte Variabilität in der Hydro-meteorologie über jährliche Zeiträume zum größten Teil mit dem Südamerikanischen Monsunsystem erklärt werden. Jedoch sind große Anteile in der Variabilität der Abflussmenge auch stark an die Pazifische Dekaden-Oszillation (PDO) in Zeiträumen über mehrereJahrzehnte (~20 Jahre) gekoppelt und zu einem geringeren Anteil auch an die Meeresoberflächentemperatur-Anomalie des tropischen Südatlantiks (TSA) über mehrjährige Zeiträume hinweg (~2-5 Jahre). Interessanterweise wurden nur weniger stark ausgeprägte Zusammenhänge zwischen der Abflussvariabilität und El Niño-Southern Oscillation in unserem Untersuchungsgebiet gefunden. KW - climate variability KW - extreme hydrometeorological events KW - Central Andes KW - Klimavariabilität KW - extreme hydro-meteorologische Ereignisse KW - Zentralanden Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396815 ER - TY - THES A1 - Cajar, Anke T1 - Eye-movement control during scene viewing T1 - Blicksteuerung bei der Betrachtung natürlicher Szenen BT - the roles of central and peripheral vision BT - die Rollen des zentralen und peripheren Sehens N2 - Eye movements serve as a window into ongoing visual-cognitive processes and can thus be used to investigate how people perceive real-world scenes. A key issue for understanding eye-movement control during scene viewing is the roles of central and peripheral vision, which process information differently and are therefore specialized for different tasks (object identification and peripheral target selection respectively). Yet, rather little is known about the contributions of central and peripheral processing to gaze control and how they are coordinated within a fixation during scene viewing. Additionally, the factors determining fixation durations have long been neglected, as scene perception research has mainly been focused on the factors determining fixation locations. The present thesis aimed at increasing the knowledge on how central and peripheral vision contribute to spatial and, in particular, to temporal aspects of eye-movement control during scene viewing. In a series of five experiments, we varied processing difficulty in the central or the peripheral visual field by attenuating selective parts of the spatial-frequency spectrum within these regions. Furthermore, we developed a computational model on how foveal and peripheral processing might be coordinated for the control of fixation duration. The thesis provides three main findings. First, the experiments indicate that increasing processing demands in central or peripheral vision do not necessarily prolong fixation durations; instead, stimulus-independent timing is adapted when processing becomes too difficult. Second, peripheral vision seems to play a prominent role in the control of fixation durations, a notion also implemented in the computational model. The model assumes that foveal and peripheral processing proceed largely in parallel and independently during fixation, but can interact to modulate fixation duration. Thus, we propose that the variation in fixation durations can in part be accounted for by the interaction between central and peripheral processing. Third, the experiments indicate that saccadic behavior largely adapts to processing demands, with a bias of avoiding spatial-frequency filtered scene regions as saccade targets. We demonstrate that the observed saccade amplitude patterns reflect corresponding modulations of visual attention. The present work highlights the individual contributions and the interplay of central and peripheral vision for gaze control during scene viewing, particularly for the control of fixation duration. Our results entail new implications for computational models and for experimental research on scene perception. N2 - Blickbewegungen stellen ein Fenster in aktuelle visuell-kognitive Prozesse dar und können genutzt werden um zu untersuchen wie Menschen natürliche Szenen wahrnehmen. Eine zentrale Frage ist, welche Rollen zentrales und peripheres Sehen für die Blicksteuerung in Szenen spielen, da sie Information unterschiedlich verarbeiten und auf verschiedene Aufgaben spezialisiert sind (Objektidentifikation bzw. periphere Zielauswahl). Jedoch ist kaum bekannt, welche Beiträge zentrale und periphere Verarbeitung für die Blicksteuerung in Szenen leisten und wie sie während der Fixation koordiniert werden. Des Weiteren wurden Einflussfaktoren auf Fixationsdauern bisher vernachlässigt, da die Forschung zur Szenenwahrnehmung hauptsächlich auf Einflussfaktoren auf Fixationsorte fokussiert war. Die vorliegende Arbeit hatte zum Ziel, das Wissen über die Beiträge des zentralen und peripheren Sehens zu räumlichen, aber vor allem zu zeitlichen Aspekten der Blicksteuerung in Szenen zu erweitern. In einer Serie von fünf Experimenten haben wir die Verarbeitungsschwierigkeit im zentralen oder peripheren visuellen Feld durch die Abschwächung selektiver Raumfrequenzanteile innerhalb dieser Regionen variiert. Des Weiteren haben wir ein computationales Modell zur Koordination von fovealer und peripherer Verarbeitung für die Kontrolle von Fixationsdauern entwickelt. Die Arbeit liefert drei Hauptbefunde. Erstens zeigen die Experimente, dass erhöhte Verarbeitungsanforderungen im zentralen oder peripheren visuellen Feld nicht zwangsläufig zu längeren Fixationsdauern führen; stattdessen werden Fixationsdauern stimulus-unabhängig gesteuert, wenn die Verarbeitung zu schwierig wird. Zweitens scheint peripheres Sehen eine entscheidene Rolle für die Kontrolle von Fixationsdauern zu spielen, eine Idee, die auch im computationalen Modell umgesetzt wurde. Das Modell nimmt an, dass foveale und periphere Verarbeitung während der Fixation weitgehend parallel und unabhängig ablaufen, aber interagieren können um Fixationsdauern zu modulieren. Wir schlagen somit vor, dass Änderungen in Fixationsdauern zum Teil auf die Interaktion von zentraler und peripherer Verarbeitung zurückgeführt werden können. Drittens zeigen die Experimente, dass räumliches Blickverhalten sich weitgehend an Verarbeitungsanforderungen anpasst und Betrachter Szenenregionen mit Raumfrequenzfilterung als Sakkadenziele vermeiden. Wir zeigen, dass diese Sakkadenamplitudeneffekte entsprechende Modulationen der visuellen Aufmerksamkeit reflektieren. Die vorliegende Arbeit hebt die einzelnen Beiträge und das Zusammenspiel zentralen und peripheren Sehens für die Blicksteuerung in der Szenenwahrnehmung hervor, besonders für die Kontrolle von Fixationsdauern. Unsere Ergebnisse geben neue Implikationen für computationale Modelle und experimentelle Forschung zur Szenenwahrnehmung. KW - psychology KW - eye movements KW - scene perception KW - Psychologie KW - Blickbewegungen KW - Szenenwahrnehmung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395536 ER - TY - THES A1 - Bürger, Arne T1 - MaiStep - Mainzer Schultraining zur Essstörungsprävention T1 - MaiStep - Mainzer school training für eating disorder prevention BT - die Entwicklung, Durchführung und Evaluation eines Programms zur Prävention von Essstörungen für die 7. und 8. Klassen BT - the development, implementation and evaluation of an eating disorder prevention program for the 7th and 8th classes N2 - Objectives The aim of this doctoral thesis was to investigate the efficacy of a German skills-based primary prevention program for partial-syndrome and full-syndrome eating disorders (Mainzer Schultraining zur Essstörungsprävention (MaiStep)) in reducing eating disorder symptoms as the primary outcome and associated psychopathology as a secondary outcome. Design Randomized Controlled Trial (RCT), three-intervention-group design, with two intervention groups and one active control group with a 3-month and 12-month follow-up. Setting A project in nine schools within the state of Rhineland-Palatine, Germany; funded by the Ministry of Health and Social Affairs (MSAGD) and the Ministry of Education, Culture and Research (MBWWK). Participants 1,654 adolescents (female/male: 781/873; mean age: 13.1±0.7; BMI: 20.0±3.5) recruited from randomly selected schools. Interventions The implementation and development of the skills based program was based on a systematic review of 63 scientific articles regarding eating disorder prevention in childhood and adolescence. One intervention group was conducted by psychologists and one by trained teachers. The active control group was performed by trained teachers using a stress and addiction prevention program. Main outcome measures The primary outcome measure was the incidence of partial-syndrome and full-syndrome eating disorders after completion of the program; secondary outcomes included self-reported questionnaires about eating disorder pathology. Results MaiStep did not reveal significant group differences at 3-month follow-up but showed a significant difference between the intervention groups and the active control group for partial anorexia nervosa (CHI²(2)) = 8.74, p = .01**) and partial bulimia nervosa (CHI²(2) = 7.25, p = .02*) at 12-month follow-up. Consistent with the primary outcome, the secondary measures were even more effective in the intervention groups at 12-month follow-up. The subscales of the Eating Disorder Inventory (EDI-2) drive of thinness (F (2, 355) = 3.94, p = .02*) and perfectionism (F (2, 355) = 4.19, p = .01**) and the Body Image Avoidance Questionnaire (BIAQ) (F (2, 525) = 18.79, p = .01**) showed significant differences for the intervention groups and demonstrated the effectiveness of MaiStep. Conclusions MaiStep has shown to be a successful program to prevent eating disorders in adolescents at 13 to 15 years of age. In addition, MaiStep was equally effective when conducted by teachers compared to psychologists suggesting feasibility of implementation in real world settings. Trial registration MaiStep is registered at the German Clinical Trials Register (DRKS00005050). N2 - Das Ziel der Doktorarbeit war die Entwicklung und Evaluation eines skillsbasierten primären Präventionsprogramms (Mainzer Schultraining zur Essstörungsprävention (MaiStep)) für partielle und manifeste Essstörungen. Dabei wurde die Wirksamkeit durch einen primären (Reduktion vorhandener Essstörungssymptome) und sekundären (assoziierte Psychopathologie) Zielparameter 3 und 12 Monate nach Durchführung des Trainings überprüft. Innerhalb der randomisiert kontrollierten Studie gab es zwei Interventionsgruppe und eine aktive Kontrollgruppe. 1.654 Jugendliche (weiblich/männlich: 781/873; mittleres Alter: 13.1±0.7; BMI: 20.0±3.5) konnten für die Studie, an zufällig ausgewählten Schulen in Rheinland-Pfalz, rekrutiert werden. Die Entwicklung des Präventionsprogramms basiert auf einem systematischen Literaturreview von 63 wissenschaftlichen Studien über die Prävention von Essstörungen im Kindes- und Jugendalter. Eine Interventionsgruppe wurde durch Psychologinnen/Psychologen und eine zweite durch Lehrkräfte angeleitet. Das in der aktiven Kontrollgruppe durchgeführte Sucht- bzw. Stresspräventionsprogramm wurde durch Lehrkräfte geleitet. MaiStep zeigte zur 3-Monatskatamnese keine signifikanten Effekte im Vergleich zur aktiven Kontrollgruppe. Allerdings zeigten sich nach 12 Monaten multiple signifikante Effekte zwischen den Interventions- und der aktiven Kontrollgruppe. Im Rahmen der Analyse des primären Parameters wurden in den Interventionsgruppen signifikant weniger Jugendliche mit einer partiellen Anorexia nervosa (CHI²(2) = 8.74, p = .01**) und/oder partiellen Bulimia nervosa (CHI²(2) = 7.25, p = .02*) gefunden. Im Rahmen der sekundären Zielparameter zeigten sich signifikante Veränderungen in Subskalen des Eating Disorder Inventory (EDI-2) Schlankheitsstreben (F (2, 355) = 3.94, p = .02*) und Perfektionismus (F (2, 355) = 4.19, p = .01**) sowie dem Body Image Avoidance Questionnaire (BIAQ) (F (2, 525) = 18.79, p = .01**) zwischen den Interventions- und der aktiven Kontrollgruppe. MaiStep kann somit als erfolgreiches Programm zur Reduktion von partiellen Essstörungen für die Altersgruppe der 13- 15-jährigen bezeichnet werden. Trotz unterschiedlicher Wirkmechanismen zeigten sich die Lehrkräfte im Vergleich zu den Psychologinnen/Psychologen ebenso erfolgreich in der Durchführung. Trial registration MaiStep is registered at the German Clinical Trials Register (DRKS00005050). KW - MaiStep KW - Essstörungen KW - Prävention KW - Anorexia nervosa KW - Bulimia nervosa KW - MaiStep KW - prevention KW - eating disorders KW - anorexia nervosa KW - bulimia nervosa Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98369 ER - TY - THES A1 - Breuer, David T1 - The plant cytoskeleton as a transportation network T1 - Modellierung des pflanzliche Zytoskeletts als Transportnetzwerk N2 - The cytoskeleton is an essential component of living cells. It is composed of different types of protein filaments that form complex, dynamically rearranging, and interconnected networks. The cytoskeleton serves a multitude of cellular functions which further depend on the cell context. In animal cells, the cytoskeleton prominently shapes the cell's mechanical properties and movement. In plant cells, in contrast, the presence of a rigid cell wall as well as their larger sizes highlight the role of the cytoskeleton in long-distance intracellular transport. As it provides the basis for cell growth and biomass production, cytoskeletal transport in plant cells is of direct environmental and economical relevance. However, while knowledge about the molecular details of the cytoskeletal transport is growing rapidly, the organizational principles that shape these processes on a whole-cell level remain elusive. This thesis is devoted to the following question: How does the complex architecture of the plant cytoskeleton relate to its transport functionality? The answer requires a systems level perspective of plant cytoskeletal structure and transport. To this end, I combined state-of-the-art confocal microscopy, quantitative digital image analysis, and mathematically powerful, intuitively accessible graph-theoretical approaches. This thesis summarizes five of my publications that shed light on the plant cytoskeleton as a transportation network: (1) I developed network-based frameworks for accurate, automated quantification of cytoskeletal structures, applicable in, e.g., genetic or chemical screens; (2) I showed that the actin cytoskeleton displays properties of efficient transport networks, hinting at its biological design principles; (3) Using multi-objective optimization, I demonstrated that different plant cell types sustain cytoskeletal networks with cell-type specific and near-optimal organization; (4) By investigating actual transport of organelles through the cell, I showed that properties of the actin cytoskeleton are predictive of organelle flow and provided quantitative evidence for a coordination of transport at a cellular level; (5) I devised a robust, optimization-based method to identify individual cytoskeletal filaments from a given network representation, allowing the investigation of single filament properties in the network context. The developed methods were made publicly available as open-source software tools. Altogether, my findings and proposed frameworks provide quantitative, system-level insights into intracellular transport in living cells. Despite my focus on the plant cytoskeleton, the established combination of experimental and theoretical approaches is readily applicable to different organisms. Despite the necessity of detailed molecular studies, only a complementary, systemic perspective, as presented here, enables both understanding of cytoskeletal function in its evolutionary context as well as its future technological control and utilization. N2 - Das Zytoskelett ist ein notwendiger Bestandteil lebender Zellen. Es besteht aus verschiedenen Arten von Proteinfilamenten, die ihrerseits komplexe, sich dynamisch reorganisierende und miteinander verknüpfte Netzwerke bilden. Das Zytoskelett erfüllt eine Vielzahl von Funktionen in der Zelle. In Tierzellen bestimmt das Aktin-Zytoskelett maßgeblich die mechanischen Zelleigenschaften und die Zellbewegung. In Pflanzenzellen hingegen kommt dem Aktin-Zytoskelett eine besondere Bedeutung in intrazellulären Transportprozessen zu, bedingt insbesondere durch die starre pflanzliche Zellwand sowie die Zellgröße. Als wesentlicher Faktor für Zellwachstum und somit auch die Produktion von Biomasse, ist Zytoskelett-basierter Transport daher von unmittelbarer ökologischer und ökonomischer Bedeutung. Während das Wissen über die molekularen Grundlagen Zytoskelett-basierter Transportprozesse beständig wächst, sind die zugrunde liegenden Prinzipien zellweiter Organisation bisher weitgehend unbekannt. Diese Dissertation widmet sich daher folgender Frage: Wie hängt die komplexe Architektur des pflanzlichen Zytoskeletts mit seiner intrazellulären Transportfunktion zusammen? Eine Antwort auf diese Frage erfordert eine systemische Perspektive auf Zytoskelettstruktur und -transport. Zu diesem Zweck habe ich Mikroskopiedaten mit hoher raumzeitlicher Auflösung sowie Computer-gestützte Bildanalysen und mathematische Ansätzen der Graphen- und Netzwerktheorie kombiniert. Die vorliegende Dissertation umfasst fünf meiner Publikationen, die sich einem systemischen Verständnis des pflanzlichen Zytoskeletts als Transportnetzwerk widmen: (1) Dafür habe ich Bilddaten-basierte Netzwerkmodelle entwickelt, die eine exakte und automatisierte Quantifizierung der Architektur des Zytoskeletts ermöglichen. Diese Quantifizierung kann beispielsweise in genetischen oder chemischen Versuchen genutzt werden und für eine weitere Erforschung der genetischen Grundlagen und möglicher molekularer Interaktionspartner des Zytoskeletts hilfreich sein; (2) Ich habe nachgewiesen, dass das pflanzliche Aktin-Zytoskelett Eigenschaften effizienter Transportnetzwerk aufweist und Hinweise auf seine evolutionären Organisationsprinzipien liefert; (3) Durch die mathematische Optimierung von Transportnetzwerken konnte ich zeigen, dass unterschiedliche Pflanzenzelltypen spezifische und optimierte Organisationsstrukturen des Aktin-Zytoskeletts aufweisen; (4) Durch quantitative Analyse des Transports von Organellen in Pflanzenzellen habe ich nachgewiesen, dass sich Transportmuster ausgehend von der Struktur des Aktin-Zytoskeletts vorhersagen lassen. Dabei spielen sowohl die Organisation des Zytoskeletts auf Zellebene als auch seine Geometrie eine zentrale Rolle. (5) Schließlich habe ich eine robuste, optimierungs-basierte Methode entwickelt, die es erlaubt, individuelle Filamente eines Aktin-Netzwerks zu identifizieren. Dadurch ist es möglich, die Eigenschaften einzelner Zytoskelettfilamente im zellulären Kontext zu untersuchen. Die im Zuge dieser Dissertation entwickelten Methoden wurden frei und quelloffen als Werkzeuge zur Beantwortung verwandter Fragestellung zugänglich gemacht. Insgesamt liefern die hier präsentierten Ergebnisse und entwickelten Methoden quantitative, systemische Einsichten in die Transportfunktion des Zytoskeletts. Die hier etablierte Kombination von experimentellen und theoretischen Ansätzen kann, trotz des Fokusses auf das pflanzliche Zytoskelett, direkt auf andere Organismen angewendet werden. Als Ergänzung molekularer Studien bildet ein systemischer Blickwinkel, wie er hier entwickelt wurde, die Grundlage für ein Verständnis sowohl des evolutionären Kontextes als auch zukünftiger Kontroll- und Nutzungsmöglichkeiten des pflanzlichen Zytoskeletts. KW - systems biology KW - mathematical modeling KW - cytoskeleton KW - plant science KW - graph theory KW - image analysis KW - Systembiologie KW - mathematische Modellierung KW - Zytoskelett KW - Zellbiologie KW - Graphtheorie KW - Bildanalyse Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93583 ER - TY - THES A1 - Breitling, Frank T1 - Propagation of energetic electrons in the solar corona observed with LOFAR T1 - Ausbreitung energiereicher Elektronen in der Sonnenkorona beobachtet mit LOFAR N2 - This work reports about new high-resolution imaging and spectroscopic observations of solar type III radio bursts at low radio frequencies in the range from 30 to 80 MHz. Solar type III radio bursts are understood as result of the beam-plasma interaction of electron beams in the corona. The Sun provides a unique opportunity to study these plasma processes of an active star. Its activity appears in eruptive events like flares, coronal mass ejections and radio bursts which are all accompanied by enhanced radio emission. Therefore solar radio emission carries important information about plasma processes associated with the Sun’s activity. Moreover, the Sun’s atmosphere is a unique plasma laboratory with plasma processes under conditions not found in terrestrial laboratories. Because of the Sun’s proximity to Earth, it can be studied in greater detail than any other star but new knowledge about the Sun can be transfer to them. This “solar stellar connection” is important for the understanding of processes on other stars. The novel radio interferometer LOFAR provides imaging and spectroscopic capabilities to study these processes at low frequencies. Here it was used for solar observations. LOFAR, the characteristics of its solar data and the processing and analysis of the latter with the Solar Imaging Pipeline and Solar Data Center are described. The Solar Imaging Pipeline is the central software that allows using LOFAR for solar observations. So its development was necessary for the analysis of solar LOFAR data and realized here. Moreover a new density model with heat conduction and Alfvén waves was developed that provides the distance of radio bursts to the Sun from dynamic radio spectra. Its application to the dynamic spectrum of a type III burst observed on March 16, 2016 by LOFAR shows a nonuniform radial propagation velocity of the radio emission. The analysis of an imaging observation of type III bursts on June 23, 2012 resolves a burst as bright, compact region localized in the corona propagating in radial direction along magnetic field lines with an average velocity of 0.23c. A nonuniform propagation velocity is revealed. A new beam model is presented that explains the nonuniform motion of the radio source as a propagation effect of an electron ensemble with a spread velocity distribution and rules out a monoenergetic electron distribution. The coronal electron number density is derived in the region from 1.5 to 2.5 R☉ and fitted with the newly developed density model. It determines the plasma density for the interplanetary space between Sun and Earth. The values correspond to a 1.25- and 5-fold Newkirk model for harmonic and fundamental emission, respectively. In comparison to data from other radio instruments the LOFAR data shows a high sensitivity and resolution in space, time and frequency. The new results from LOFAR’s high resolution imaging spectroscopy are consistent with current theories of solar type III radio bursts and demonstrate its capability to track fast moving radio sources in the corona. LOFAR solar data is found to be a valuable source for solar radio physics and opens a new window for studying plasma processes associated with highly energetic electrons in the solar corona. N2 - Diese Arbeit befasst sich mit neuen hochaufgelösten abbildenden und spektroskopischen Beobachtungen von solaren Typ III Radiobursts bei niedrigen Frequenzen im Bereich von 30 bis 80 MHz. Solare Typ III Radiobursts werden auf die Beam-Plasmawechselwirkung von Elektronenstrahlen in der Korona zurückgeführt. Die Sonne stellt eine einzigartige Möglichkeit dar, diese Plasmaprozesse eines aktiven Sterns zu untersuchen. Die Aktivität zeigt sich in eruptiven Ereignissen wie Flares, koronalen Massenauswürfen und Radiobursts, die jeweils von erhöhter Radiostrahlung begleitet werden. Daher trägt solare Radioemission wichtige Informationen über Plasmaprozesse, die mit Sonnenaktivität in Verbindung stehen. Darüber hinaus ist die Sonne auch ein einzigartiges Plasmalabor mit Plasmaprozessen unter Bedingungen die man nicht in irdischen Laboren findet. Aufgrund ihres vergleichsweise geringen Abstands kann man die Sonne wesentlich genauer beobachten als andere Sterne, aber neue Erkenntnisse von ihr auf andere Sterne übertragen. Diese “Solare-Stellare Verbindung” ist wichtig um Prozesse auf anderen Sternen zu verstehen. Das neue Radiointerferometer LOFAR bietet abbildende und spektroskopische Möglichkeiten, um diese Prozesse bei niedrigen Frequenzen zu untersuchen und wurde hier für Sonnenbeobachtungen genutzt. LOFAR, die Besonderheiten seiner Sonnendaten sowie das Verarbeiten und Analysieren dieser Daten mit der Solar Imaging Pipeline und dem Solar Data Center werden beschrieben. Die Solar Imaging Pipeline ist die zentrale Software, die die Nutzung von LOFAR für Sonnenbeobachtungen ermöglicht. Daher war deren Entwicklung für die Analyse von Sonnendaten notwendig und ist im Rahmen dieser Arbeit erfolgt. Außerdem wurde ein neues Dichtemodell mit Wärmeleitung und Alfvén-Wellen entwickelt, welches die Bestimmung der Entfernung von Radiobursts zur Sonne mittels dynamischer Spektren ermöglicht. Die Anwendung auf dynamische Spektren eines LOFAR Typ III Bursts am 16. März 2016 zeigt eine radiale, ungleichförmige Ausbreitungsgeschwindigkeit der Radioemission. Die Analyse einer abbildenden Beobachtung von Typ III Bursts am 23. Juni 2012 zeigt den Burst als helle, kompakte Region in der Korona die sich in radiale Richtung entlang magnetischer Feldlinien mit einer durchschnittlichen Geschwindigkeit von 0.23c (c, Lichtgeschwindigkeit) bewegt. Die Geschwindigkeit ist nicht gleichförmig. Ein neues Beammodell wird vorgestellt, dass diese ungleichförmige Geschwindigkeit als Ausbreitungseffekt eines Elektronenensemble mit einer ausgedehnten Geschwindigkeitsverteilung erklärt und eine monoenergetische Elektronenverteilung ausschließt. Die koronale Elektronenzahldichte wird in der Region von 1.5 bis 2.5 R☉ ermittelt und ein Fit mit dem neuen Dichtemodell durchgeführt. Dadurch ist die Plasmadichte im ganzen interplanetaren Raum zwischen Sonne und Erde bestimmt. Die Werte entsprechen jeweils einem 1.25- und 5-fachen Newkirk Modell im Fall von fundamentaler und harmonischer Emission. Im Vergleich zu Daten von anderen Radioinstrumenten haben LOFAR-Daten eine hohe Empfindlichkeit und Auflösung in Raum, Zeit und Frequenz. Die neuen Ergebnisse von LOFARs hochauflösender, abbildender Spektroskopie stimmen mit derzeitigen Theorien von solaren Typ III Radiobursts überein und zeigen die Möglichkeit, schnell bewegliche Radioquellen in der Korona zu verfolgen. LOFAR Sonnendaten wurden als wertvolle Quelle für solare Radiophysik erkannt und öffnen eine neues Fenster zur Untersuchung von Plasmaprozessen hochenergetischer Elektronen in der Korona. KW - sun KW - type III KW - radio burst KW - LOFAR KW - plasma physics KW - Sonne KW - Typ III KW - Radioburst KW - Plasmaphysik Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396893 ER - TY - THES A1 - Breakell Fernandez, Leigh T1 - Investigating word order processing using pupillometry and event-related potentials T1 - Untersuchung von Wortfolge-Verarbeitungen unter Verwendung von Pupillometrie und EEG N2 - In this thesis sentence processing was investigated using a psychophysiological measure known as pupillometry as well as Event-Related Potentials (ERP). The scope of the the- sis was broad, investigating the processing of several different movement constructions with native speakers of English and second language learners of English, as well as word order and case marking in German speaking adults and children. Pupillometry and ERP allowed us to test competing linguistic theories and use novel methodologies to investigate the processing of word order. In doing so we also aimed to establish pupillometry as an effective way to investigate the processing of word order thus broadening the methodological spectrum. N2 - Die Doktorarbeit befasste sich mit der Untersuchung von Satzverarbeitung mittels der psychophysiologischen Methode Pupillometrie sowie EEG .Sie umfasst die Untersuchung verschiedener syntaktischer Konstruktionen und Kasusmarkierungen, deren Verarbeitung bei Muttersprachlern und Zweitsprachenlernern des Englischen sowie deutschsprachigen Erwachsenen und Kindern getestet wurden. Pupillometrie und EEG machten es möglich, konkurrierende linguistische Theorien zu testen und neuartige Methodiken zur Untersuchung der Verarbeitung von Wortfolgen zu nutzen. Ein besonderer Schwerpunkt bestand darin, Pupillometrie als effektive Art der Untersuchung von Wortfolge-Verarbeitungen zu etablieren und damit das methodologische Spektrum zu erweitern. KW - pupillometry KW - ERP KW - movement structures KW - L2 KW - word order processing KW - child language processing KW - auditory sentence processing KW - Verarbeitung von Zweitsprachen KW - EEG KW - Verarbeitung von Wortfolgen KW - Pupillometrie KW - Eye-Tracking Satzverarbeitung KW - Sprachverarbeitung bei Kindern Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91438 ER - TY - THES A1 - Brauer, Dorothée T1 - Chemo-kinematic constraints on Milky Way models from the spectroscopic surveys SEGUE & RAVE T1 - Beschränkungen von Modellen der Milchstraße auf Basis der chemisch-kinematischen Analyse von Beobachtungsdaten der spektroskopischen Himmelsdurchmusterungen SEGUE und RAVE N2 - The Milky Way is only one out of billions of galaxies in the universe. However, it is a special galaxy because it allows to explore the main mechanisms involved in its evolution and formation history by unpicking the system star-by-star. Especially, the chemical fingerprints of its stars provide clues and evidence of past events in the Galaxy’s lifetime. These information help not only to decipher the current structure and building blocks of the Milky Way, but to learn more about the general formation process of galaxies. In the past decade a multitude of stellar spectroscopic Galactic surveys have scanned millions of stars far beyond the rim of the solar neighbourhood. The obtained spectroscopic information provide unprecedented insights to the chemo-dynamics of the Milky Way. In addition analytic models and numerical simulations of the Milky Way provide necessary descriptions and predictions suited for comparison with observations in order to decode the physical properties that underlie the complex system of the Galaxy. In the thesis various approaches are taken to connect modern theoretical modelling of galaxy formation and evolution with observations from Galactic stellar surveys. With its focus on the chemo-kinematics of the Galactic disk this work aims to determine new observational constraints on the formation of the Milky Way providing also proper comparisons with two different models. These are the population synthesis model TRILEGAL based on analytical distribution functions, which aims to simulate the number and distribution of stars in the Milky Way and its different components, and a hybrid model (MCM) that combines an N-body simulation of a Milky Way like galaxy in the cosmological framework with a semi-analytic chemical evolution model for the Milky Way. The major observational data sets in use come from two surveys, namely the “Radial Velocity Experiment” (RAVE) and the “Sloan Extension for Galactic Understanding and Exploration” (SEGUE). In the first approach the chemo-kinematic properties of the thin and thick disk of the Galaxy as traced by a selection of about 20000 SEGUE G-dwarf stars are directly compared to the predictions by the MCM model. As a necessary condition for this, SEGUE's selection function and its survey volume are evaluated in detail to correct the spectroscopic observations for their survey specific selection biases. Also, based on a Bayesian method spectro-photometric distances with uncertainties below 15% are computed for the selection of SEGUE G-dwarfs that are studied up to a distance of 3 kpc from the Sun. For the second approach two synthetic versions of the SEGUE survey are generated based on the above models. The obtained synthetic stellar catalogues are then used to create mock samples best resembling the compiled sample of observed SEGUE G-dwarfs. Generally, mock samples are not only ideal to compare predictions from various models. They also allow validation of the models' quality and improvement as with this work could be especially achieved for TRILEGAL. While TRILEGAL reproduces the statistical properties of the thin and thick disk as seen in the observations, the MCM model has shown to be more suitable in reproducing many chemo-kinematic correlations as revealed by the SEGUE stars. However, evidence has been found that the MCM model may be missing a stellar component with the properties of the thick disk that the observations clearly show. While the SEGUE stars do indicate a thin-thick dichotomy of the stellar Galactic disk in agreement with other spectroscopic stellar studies, no sign for a distinct metal-poor disk is seen in the MCM model. Usually stellar spectroscopic surveys are limited to a certain volume around the Sun covering different regions of the Galaxy’s disk. This often prevents to obtain a global view on the chemo-dynamics of the Galactic disk. Hence, a suitable combination of stellar samples from independent surveys is not only useful for the verification of results but it also helps to complete the picture of the Milky Way. Therefore, the thesis closes with a comparison of the SEGUE G-dwarfs and a sample of RAVE giants. The comparison reveals that the chemo-kinematic relations agree in disk regions where the samples of both surveys show a similar number of stars. For those parts of the survey volumes where one of the surveys lacks statistics they beautifully complement each other. This demonstrates that the comparison of theoretical models on the one side, and the combined observational data gathered by multiple surveys on the other side, are key ingredients to understand and disentangle the structure and formation history of the Milky Way. N2 - Die Milchstraße ist nur eine unter Milliarden von Galaxien im Universum, dennoch ist sie besonders. Sie bietet die einzigartige Möglichkeit anhand ihrer einzeln auflösbaren Sterne und deren im Detail beobachtbaren Eigenschaften die Mechanismen ihrer Evolutions- und Entstehungsgeschichte genau zu studieren und damit Rückschlüsse auf die Entwicklungsprozesse von Galaxien im Allgemeinen zu ziehen. Insbesondere der chemische Fingerabdruck ihrer Sterne liefert dabei Indizien und Beweise für Ereignisse im Leben der Galaxie. In den letzten 15 Jahren wurden daher in einer Vielzahl von Himmeldurchmusterungen Millionen von Sternen in der Milchstraße spektroskopisch beobachtet. Die so gewonnenen Informationen bieten detaillierte Einblicke in die Substrukturen unserer Galaxie und deren chemisch-kinematische Struktur. Ergänzend dazu liefern analytische Modelle und numerische Simulationen der Milchstraße wichtige Beschreibungen, die sich zum Vergleich mit Beobachtungen eignen, um die dem komplexen System der Galaxie zugrunde liegenden exakten physikalischen Eigenschaften entschlüsseln zu können. Die vorliegende Arbeit nutzt verschiedene Ansätze, um moderne theoretische Modelle der Galaxienentstehung und -evolution mit Daten aus stellaren Beobachtungskampagnen zu vergleichen. Die dazu analysierten Beobachtungsdatensätze stammen aus zwei großen Himmelsdurchmusterungen, dem „Radial Velocity Experiment“ (RAVE) und dem „Sloan Extension for Galactic Understanding and Exploration“ (SEGUE). Mit dem Fokus auf der chemisch-kinematischen Struktur der galaktischen Scheibe geht es im Wesentlichen darum, zwei Modelle der Milchstraße zu testen, nämlich ein Populationssynthesemodell (TRILEGAL) und ein Hybridmodell (MCM). Während TRILEGAL auf analytischen Verteilungsfunktionen basiert und zum Ziel hat, die Anzahl und Verteilung der Sterne innerhalb der Galaxie und ihrer unterschiedlichen Komponenten zu simulieren, verbindet das MCM Modell eine kosmologische N-Körper Simulation einer der Milchstraße ähnlichen Galaxie mit einem semi-analytischen Modell zur Beschreibung der chemischen Evolution der Milchstraße. Auf Grundlage einer Auswahl von etwa 20000 SEGUE G-Zwergsternen werden in einem ersten Ansatz die aus den Messdaten gewonnenen chemisch-kinematischen Eigenschaften der dünnen und dicken Scheibe der Milchstraße mit den direkten Vorhersagen des MCM Modells verglichen. Eine notwendige Bedingung dafür ist die Korrektur der Beobachtungsdaten für systematische Fehler bei der Objektauswahl der Beobachtungskampagne. Zudem werden mittels einer Bayesischen Methode spektro-photometrische Distanzen mit Fehlern kleiner als 15% für die Auswahl an SEGUE Sternen berechnet, die sich in einer Entfernung von bis zu 3 kpc von der Sonne befinden. Für den zweiten Ansatz werden basierend auf den oben genannten Modellen zwei synthetische Versionen der SEGUE Himmelsdurchmusterung generiert. Diese künstlichen stellaren Kataloge werden dann verwendet, um Vergleichspseudodatensätze für die verwendeten Zwergsterndaten anzufertigen. Solche synthetischen Testdatensätze eignen sich nicht nur, um die Vorhersagen verschiedener Modelle zu vergleichen, sie können auch zur Validierung der Qualität einzelner Modelle herangezogen werden. Während sich in der Analyse zeigt, dass TRILEGAL sich besonders gut eignet, statistische Eigenschaften der dünnen und dicken galaktischen Scheibe zu reproduzieren, spiegelt das MCM Modell viele der in der Milchstraße beobachtbaren chemisch-kinematischen Korrelationen gut wieder. Trotzdem finden sich Beweise dafür, dass dem MCM Modell eine stellare Komponente fehlt, deren Eigenschaften der in den Beobachtungen sichtbaren dicken Scheibe ähnlich sind. Meist sind spektroskopische Beobachtungskampagnen auf ein bestimmtes Volumen um die Sonne beschränkt. Oftmals verhindert dies die Möglichkeit einen globalen Blick auf die chemisch-kinematischen Eigenschaften der galaktischen Scheibe zu erlangen. Die Kombination von stellaren Daten unabhängiger Kampagnen ist daher nicht nur nützlich für die Verifikation von Ergebnissen, es hilft auch ein ganzheitlicheres Bild der Galaxie zu erlangen. Die vorliegende Arbeit schließt daher mit einem Vergleich der SEGUE G-Zwergsterne und einer Auswahl von RAVE Riesensternen. Es zeigt sich eine gute Übereinstimmung bzgl. der chemisch-kinematischen Struktur der galaktischen Scheibe besonders in denjenigen Regionen, die von einer Vielzahl von SEGUE und RAVE Objekten abgedeckt werden. Für Regionen des Beobachtungsvolumens, in dem die eine oder die andere der beiden Beobachtungskampagnen eine geringere Statistik von beobachteten Sternen aufweist, ergänzen sich RAVE und SEGUE gut. Dies zeigt, dass nicht nur der Vergleich von Beobachtungen und theoretischen Modellen, sondern auch die Kombination von Messdaten aus verschiedenen Himmelsdurchmusterungen wichtig ist, um die Struktur und die Entstehungsgeschichte der Milchstraße zu verstehen und zu entschlüsseln. KW - galaktische Astronomie KW - galactic astronomy KW - Entstehung der Milchstraße KW - Milky Way formation KW - Evolution der Milchstraße KW - Milky Way evolution KW - Milky Way chemo-kinematics KW - Chemokinematik der Milchstraße KW - SEGUE survey KW - SEGUE Beobachtungskampagne KW - RAVE survey KW - RAVE Beobachtungskampagne KW - mock data catalogues KW - Pseudodatensätze Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403968 ER - TY - THES A1 - Bojahr, Andre T1 - Hypersound interaction studied by time-resolved inelastic light and x-ray scattering T1 - Wechselwirkende Hyperschallwellen untersucht mittels zeitaufgelöster inelastischer Licht- und Röntgenstreuung N2 - This publications-based thesis summarizes my contribution to the scientific field of ultrafast structural dynamics. It consists of 16 publications, about the generation, detection and coupling of coherent gigahertz longitudinal acoustic phonons, also called hypersonic waves. To generate such high frequency phonons, femtosecond near infrared laser pulses were used to heat nanostructures composed of perovskite oxides on an ultrashort timescale. As a consequence the heated regions of such a nanostructure expand and a high frequency acoustic phonon pulse is generated. To detect such coherent acoustic sound pulses I use ultrafast variants of optical Brillouin and x-ray scattering. Here an incident optical or x-ray photon is scattered by the excited sound wave in the sample. The scattered light intensity measures the occupation of the phonon modes. The central part of this work is the investigation of coherent high amplitude phonon wave packets which can behave nonlinearly, quite similar to shallow water waves which show a steepening of wave fronts or solitons well known as tsunamis. Due to the high amplitude of the acoustic wave packets in the solid, the acoustic properties can change significantly in the vicinity of the sound pulse. This may lead to a shape change of the pulse. I have observed by time-resolved Brillouin scattering, that a single cycle hypersound pulse shows a wavefront steepening. I excited hypersound pulses with strain amplitudes until 1% which I have calibrated by ultrafast x-ray diffraction (UXRD). On the basis of this first experiment we developed the idea of the nonlinear mixing of narrowband phonon wave packets which we call "nonlinear phononics" in analogy with the nonlinear optics, which summarizes a kaleidoscope of surprising optical phenomena showing up at very high electric fields. Such phenomena are for instance Second Harmonic Generation, four-wave-mixing or solitons. But in case of excited coherent phonons the wave packets have usually very broad spectra which make it nearly impossible to look at elementary scattering processes between phonons with certain momentum and energy. For that purpose I tested different techniques to excite narrowband phonon wave packets which mainly consist of phonons with a certain momentum and frequency. To this end epitaxially grown metal films on a dielectric substrate were excited with a train of laser pulses. These excitation pulses drive the metal film to oscillate with the frequency given by their inverse temporal displacement and send a hypersonic wave of this frequency into the substrate. The monochromaticity of these wave packets was proven by ultrafast optical Brillouin and x-ray scattering. Using the excitation of such narrowband phonon wave packets I was able to observe the Second Harmonic Generation (SHG) of coherent phonons as a first example of nonlinear wave mixing of nanometric phonon wave packets. N2 - Diese publikationsbasierte Dissertation fasst meinen Beitrag zum Forschungsgebiet der ultraschnellen Strukturdynamik zusammen. Diese Arbeit besteht aus 16 Publikationen aus den Bereichen der Erzeugung, Detektion und Kopplung von kohärenten Gigahertz longitudinal-akustischen Phononen, auch Hyperschallwellen genannt. Um solch hochfrequente Phononen zu erzeugen, werden Femtosekunden nahinfrarot Laserpulse benutzt, um Nanostrukturen auf einer ultraschnellen Zeitskala zu erhitzen. Die aufgeheizten Regionen der Nanostruktur dehnen sich aufgrund der hohen Temperatur aus und ein hochfrequenter Schallpuls wird generiert. Um solche akustischen Pulse zu detektieren benutze ich ultraschnelle Varianten der Brillouin- und Röntgenstreuung. Dabei wird ein einfallendes optisches oder Röntgenphoton an der erzeugten Schallwelle gestreut. Die gemessene Streuintensität ist hierbei ein Maß für die Besetzung einzelner Phononenzustände. Der zentrale Teil dieser Arbeit ist die Untersuchung von kohärenten Phonon-Wellenpaketen mit sehr hoher Amplitude. Diese Wellenpakete können sich nichtlinear verhalten, sehr ähnlich zu Flachwasserwellen bei denen nichtlineare Effekte in Form eines Aufsteilens der Wellenfronten oder der Existenz von Solitonen, bekannt als Tsunamis, äußern. Durch die hohe Amplitude der akustischen Wellenpakete können sich die akustischen Eigenschaften des Festkörpers in der Umgebung des Schallpulses signifikant ändern, welches sich dann in einer Formänderung des Schallpulses widerspiegelt. Ich konnte mittels zeitaufgelöster Brillouinstreuung das Aufsteilen der Wellenfronten eines Hyperschallpulses bestehend aus einem einzigen Oszillationszyklus beobachten. Hierbei wurden Hyperschallwellen mit einer Dehnungsamplitude von bis zu 1% angeregt, wobei ich diesen Wert mittels ultraschneller Röntgenbeugung kalibrieren konnte. Mit diesem ersten Experiment als Basis entwickelten wir die Idee der nichtlinearen Wellenmischung von schmalbandigen Phonon-Wellenpaketen unter dem Titel "nichtlineare Phononik" in Analogie zur nichtlinearen Optik, welche sich aus einer Reihe von verblüffenden optischen Phänomenen bei sehr hohen elektrischen Feldstärken zusammensetzt. Solche Phänomene sind z. B. die optische Frequenzverdopplung, das Vier-Wellen-Mischen oder Solitone. Nur sind im Falle von kohärenten Phononen die erzeugten Spektren sehr breitbandig, was die Untersuchung von spezifischen Phononen mit festem Impuls und definierter Frequenz fast unmöglich macht. Aus diesem Grund testete ich verschiedene Methoden um schmalbandige Phonon-Wellenpakete anzuregen, welche im Wesentlichen aus Phononen bestimmten Impulses und definierter Frequenz bestehen. Dafür wurden schließ lich epitaktisch auf ein dielektrisches Substrat aufgewachsene Metallfilme mit einen Laserpulszug angeregt. Hier sorgen die Lichtpulse für eine periodische Oszillation des Metalfilms, wobei die Anregefrequenz durch den inversen zeitlichen Abstand der Lichtpulse gegeben ist. Diese periodische Oszillation sendet dann ein Hyperschallwellenpaket eben dieser Frequenz ins Substrat. Die Monochromie dieser Wellenpakete konnte dabei mittels ultraschneller Brillouin- und Röntgenstreuung bestätigt werden. Durch die Benutzung dieser schmalbandigen Phonon-Wellenpakete war es mir möglich, die Frequenzverdopplung (SHG) von kohärenten Phononen zu beobachten, was ein erstes Beispiel für die nichtlineare Wellenmischung von nanometrischen Phonon-Wellenpaketen ist. KW - hypersound KW - nonlinear acoustics KW - ultrafast KW - Brillouin scattering KW - x-ray diffraction KW - self-steepening KW - second-harmonic generation KW - Phononen KW - Wechselwirkung KW - Anharmonizität KW - nichtlineare Wellenmischung KW - zweite Harmonische KW - Phononenstreuung KW - nichlineare Phononik Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93860 ER - TY - THES A1 - Berner, Nadine T1 - Deciphering multiple changes in complex climate time series using Bayesian inference T1 - Bayes'sche Inferenz als diagnostischer Ansatz zur Untersuchung multipler Übergänge in komplexen Klimazeitreihen N2 - Change points in time series are perceived as heterogeneities in the statistical or dynamical characteristics of the observations. Unraveling such transitions yields essential information for the understanding of the observed system’s intrinsic evolution and potential external influences. A precise detection of multiple changes is therefore of great importance for various research disciplines, such as environmental sciences, bioinformatics and economics. The primary purpose of the detection approach introduced in this thesis is the investigation of transitions underlying direct or indirect climate observations. In order to develop a diagnostic approach capable to capture such a variety of natural processes, the generic statistical features in terms of central tendency and dispersion are employed in the light of Bayesian inversion. In contrast to established Bayesian approaches to multiple changes, the generic approach proposed in this thesis is not formulated in the framework of specialized partition models of high dimensionality requiring prior specification, but as a robust kernel-based approach of low dimensionality employing least informative prior distributions. First of all, a local Bayesian inversion approach is developed to robustly infer on the location and the generic patterns of a single transition. The analysis of synthetic time series comprising changes of different observational evidence, data loss and outliers validates the performance, consistency and sensitivity of the inference algorithm. To systematically investigate time series for multiple changes, the Bayesian inversion is extended to a kernel-based inference approach. By introducing basic kernel measures, the weighted kernel inference results are composed into a proxy probability to a posterior distribution of multiple transitions. The detection approach is applied to environmental time series from the Nile river in Aswan and the weather station Tuscaloosa, Alabama comprising documented changes. The method’s performance confirms the approach as a powerful diagnostic tool to decipher multiple changes underlying direct climate observations. Finally, the kernel-based Bayesian inference approach is used to investigate a set of complex terrigenous dust records interpreted as climate indicators of the African region of the Plio-Pleistocene period. A detailed inference unravels multiple transitions underlying the indirect climate observations, that are interpreted as conjoint changes. The identified conjoint changes coincide with established global climate events. In particular, the two-step transition associated to the establishment of the modern Walker-Circulation contributes to the current discussion about the influence of paleoclimate changes on the environmental conditions in tropical and subtropical Africa at around two million years ago. N2 - Im Allgemeinen stellen punktuelle Veränderungen in Zeitreihen (change points) eine Heterogenität in den statistischen oder dynamischen Charakteristika der Observablen dar. Das Auffinden und die Beschreibung solcher Übergänge bietet grundlegende Informationen über das beobachtete System hinsichtlich seiner intrinsischen Entwicklung sowie potentieller externer Einflüsse. Eine präzise Detektion von Veränderungen ist daher für die verschiedensten Forschungsgebiete, wie den Umweltwissenschaften, der Bioinformatik und den Wirtschaftswissenschaften von großem Interesse. Die primäre Zielsetzung der in der vorliegenden Doktorarbeit vorgestellten Detektionsmethode ist die Untersuchung von direkten als auch indirekten Klimaobservablen auf Veränderungen. Um die damit verbundene Vielzahl an möglichen natürlichen Prozessen zu beschreiben, werden im Rahmen einer Bayes’schen Inversion die generischen statistischen Merkmale Zentraltendenz und Dispersion verwendet. Im Gegensatz zu etablierten Bayes’schen Methoden zur Analyse von multiplen Übergängen, die im Rahmen von Partitionsmodellen hoher Dimensionalität formuliert sind und die Spezifikation von Priorverteilungen erfordern, wird in dieser Doktorarbeit ein generischer, Kernel-basierter Ansatz niedriger Dimensionalität mit minimal informativen Priorverteilungen vorgestellt. Zunächst wird ein lokaler Bayes’scher Inversionsansatz entwickelt, der robuste Rückschlüsse auf die Position und die generischen Charakteristika einer einzelnen Veränderung erlaubt. Durch die Analyse von synthetischen Zeitreihen die dem Einfluss von Veränderungen unterschiedlicher Signifikanz, Datenverlust und Ausreißern unterliegen wird die Leistungsfähigkeit, Konsistenz und Sensitivität der Inversionmethode begründet. Um Zeitreihen auch auf multiple Veränderungen systematisch untersuchen zu können, wird die Methode der Bayes’schen Inversion zu einem Kernel-basierten Ansatz erweitert. Durch die Einführung grundlegender Kernel-Maße können die Kernel-Resultate zu einer gewichteten Wahrscheinlichkeit kombiniert werden die als Proxy einer Posterior-Verteilung multipler Veränderungen dient. Der Detektionsalgorithmus wird auf reale Umweltmessreihen vom Nil-Fluss in Aswan und von der Wetterstation Tuscaloosa, Alabama, angewendet, die jeweils dokumentierte Veränderungen enthalten. Das Ergebnis dieser Analyse bestätigt den entwickelten Ansatz als eine leistungsstarke diagnostische Methode zur Detektion multipler Übergänge in Zeitreihen. Abschließend wird der generische Kernel-basierte Bayes’sche Ansatz verwendet, um eine Reihe von komplexen terrigenen Staubdaten zu untersuchen, die als Klimaindikatoren der afrikanischen Region des Plio-Pleistozän interpretiert werden. Eine detaillierte Untersuchung deutet auf multiple Veränderungen in den indirekten Klimaobservablen hin, von denen einige als gemeinsame Übergänge interpretiert werden. Diese gemeinsam auftretenden Ereignisse stimmen mit etablierten globalen Klimaereignissen überein. Insbesondere der gefundene Zwei-Stufen-Übergang, der mit der Ausbildung der modernen Walker-Zirkulation assoziiert wird, liefert einen wichtigen Beitrag zur aktuellen Diskussion über den Einfluss von paläoklimatischen Veränderungen auf die Umweltbedingungen im tropischen und subtropischen Afrika vor circa zwei Millionen Jahren. KW - kernel-based Bayesian inference KW - multi-change point detection KW - direct and indirect climate observations KW - Plio-Pleistocene KW - (sub-) tropical Africa KW - terrigenous dust KW - kernel-basierte Bayes'sche Inferenz KW - Detektion multipler Übergänge KW - direkte und indirekte Klimaobservablen KW - Plio-Pleistozän KW - (sub-) tropisches Afrika KW - terrigener Staub Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100065 ER - TY - THES A1 - Bendre, Abhijit B. T1 - Growth and saturation of dynamo in spiral galaxies via direct simulations T1 - Wachstum und Sättigung des Dynamos in Spiralgalaxien mit direkten Simulationen N2 - We do magnetohydrodynamic (MHD) simulations of local box models of turbulent Interstellar Medium (ISM) and analyse the process of amplification and saturation of mean magnetic fields with methods of mean field dynamo theory. It is shown that the process of saturation of mean fields can be partially described by the prolonged diffusion time scales in presence of the dynamically significant magnetic fields. However, the outward wind also plays an essential role in the saturation in higher SN rate case. Algebraic expressions for the back reaction of the magnetic field onto the turbulent transport coefficients are derived, which allow a complete description of the nonlinear dynamo. We also present the effects of dynamically significant mean fields on the ISM configuration and pressure distribution. We further add the cosmic ray component in the simulations and investigate the kinematic growth of mean fields with a dynamo perspective. N2 - Wir fuehren magnetohydrodynamische (MHD) Simulationen des turbulenten interstellaren Mediums (ISM) in lokalen Boxen durch und analysieren darin den Prozess der Verstaerkung und Saturation der mittleren Magnetfelder mit Methoden der Dynamotheorie mittlerer Felder. Es wird gezeigt, dass der Prozess der Saturation mittlerer Felder teilweise durch eine verlaengerte Diffusionzeit in Gegenwart dynamisch signifikanter Magnetfelder erklaert werden kann. Fuer hoehere Supernovae-Raten spielt auch der nach aussen treibende Wind eine essenzielle Rolle fuer die Saturation. Aus den Simulationen konnten algebraische Formeln fuer die Rueckwirkung des Magnetfeldes auf die turbulenten Transportkoeffizienten abgeleitet werden, die eine vollstaendige Beschreibung des nichtlinearen Dynamos erlauben. Wir praesentieren zudem den Einfluss signifikanter mittlerer Magnetfelder auf die ISM-Konfiguration und Druckverteilung. Wir fuegen der Simulation ausserdem kosmische Strahlung als Komponente hinzu und untersuchen das kinematische Wachstum mittlerer Felder aus einer Dynamo-Perspektive. KW - magnetohydrodynamics KW - ISM: Turbulence KW - spiral galaxies: magnetic fields KW - nonliear dynamo KW - cosmic ray dynamo KW - Magnetohydrodynamik KW - ISM: Turbulenz KW - Spiralgalaxien: Magnetfelder KW - nichtlineare Dynamo KW - kosmische Strahlung Dynamo Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407517 ER - TY - THES A1 - Bande, Alejandro T1 - The tectonic evolution of the western Tien Shan T1 - Die tektonische Entwicklung des westlichen Tien Shan N2 - Intracontinental deformation usually is a result of tectonic forces associated with distant plate collisions. In general, the evolution of mountain ranges and basins in this environment is strongly controlled by the distribution and geometries of preexisting structures. Thus, predictive models usually fail in forecasting the deformation evolution in these kinds of settings. Detailed information on each range and basin-fill is vital to comprehend the evolution of intracontinental mountain belts and basins. In this dissertation, I have investigated the complex Cenozoic tectonic evolution of the western Tien Shan in Central Asia, which is one of the most active intracontinental ranges in the world. The work presented here combines a broad array of datasets, including thermo- and geochronology, paleoenvironmental interpretations, sediment provenance and subsurface interpretations in order to track changes in tectonic deformation. Most of the identified changes are connected and can be related to regional-scale processes that governed the evolution of the western Tien Shan. The NW-SE trending Talas-Fergana fault (TFF) separates the western from the central Tien Shan and constitutes a world-class example of the influence of preexisting anisotropies on the subsequent structural development of a contractile orogen. While to the east most of ranges and basins have a sub-parallel E-W trend, the triangular-shaped Fergana basin forms a substantial feature in the western Tien Shan morphology with ranges on all three sides. In this thesis, I present 55 new thermochronologic ages (apatite fission track and zircon (U-Th)/He)) used to constrain exhumation histories of several mountain ranges in the western Tien Shan. At the same time, I analyzed the Fergana basin-fill looking for progressive changes in sedimentary paleoenvironments, source areas and stratal geometrical configurations in the subsurface and outcrops. The data presented in this thesis suggests that low cooling rates (<1°C Myr-1), calm depositional environments, and low depositional rates (<10 m Myr-1) were widely distributed across the western Tien Shan, describing a quiescent tectonic period throughout the Paleogene. Increased cooling rates in the late Cenozoic occurred diachronously and with variable magnitudes in different ranges. This rapid cooling stage is interpreted to represent increased erosion caused by active deformation and constrains the onset of Cenozoic deformation in the western Tien Shan. Time-temperature histories derived from the northwestern Tien Shan samples show an increase in cooling rates by ~25 Ma. This event is correlated with a synchronous pulse iv in the South Tien Shan. I suggest that strike-slip motion along the TFF commenced at the Oligo-Miocene boundary, facilitating CCW rotation of the Fergana basin and enabling exhumation of the linked horsetail splays. Higher depositional rates (~150 m Myr-1) in the Oligo-Miocene section (Massaget Fm.) of the Fergana basin suggest synchronous deformation in the surrounding ranges. The central Alai Range also experienced rapid cooling around this time, suggesting that the onset of intramontane basin fragmentation and isolation is coeval. These results point to deformation starting simultaneously in the late Oligocene – early Miocene in geographically distant mountain ranges. I suggest that these early uplifts are controlled by reactivated structures (like the TFF), which are probably the frictionally weakest and most-suitably oriented for accommodating and transferring N-S horizontal shortening along the western Tien Shan. Afterwards, in the late Miocene (~10 Ma), a period of renewed rapid cooling affected the Tien Shan and most mountain ranges and inherited structures started to actively deform. This episode is widely distributed and an increase in exhumation is interpreted in most of the sampled ranges. Moreover, the Pliocene section in the basin subsurface shows the higher depositional rates (>180 m Myr-1) and higher energy facies. The deformation and exhumation increase further contributed to intramontane basin partitioning. Overall, the interpretation is that the Tien Shan and much of Central Asia suffered a global increase in the rate of horizontal crustal shortening. Previously, stress transfer along the rigid Tarim block or Pamir indentation has been proposed to account for Himalayan hinterland deformation. However, the extent of the episode requires a different and broader geodynamic driver. N2 - Intra-kontinentale Deformation der Erdkruste ist in der Regel das Ergebnis weitreichender tektonischer Kräfte, die durch Interaktion der Erdplatten an entfernten Kontinentalrändern entstehen. Eine entscheidende Rolle bei der Entwicklungsgeschichte der so entstehenden Gebirge, spielt das Vorhandensein und die Orientierung präexistierender Strukturen in der Kruste. Diese Komplexität lässt bekannte Vorhersagemodelle zur Bestimmung der Deformationsgeschichte häufig scheitern. Um die Deformationsprozesse intra-kontinentaler Gebiete dennoch besser zu verstehen, sind detaillierte Informationen über die Entstehungsgeschichte einzelner Bergketten und benachbarter Becken von essentieller Bedeutung. Die vorliegende Arbeit beschäftigt sich mit der känozoischen Entwicklung tektonischer Prozesse in einer der aktivsten intra-kontinentalen Gebirgsketten der Welt, dem westlichen Tian Shan Gebirge in Zentralasien. Um räumliche und zeitliche Veränderungen der tektonischen Deformation besser nachvollziehen zu können, wird in dieser Arbeit ein breites Spektrum an Datensätzen, aus Thermo- und Geochronologie, Paläoumwelt-Interpretation, Sediment-Provenienz und der Interpretationen seismischer Profile, kombiniert. Die somit identifizierten Prozesse deuten auf einen engen Bezug und können mit regional übergreifenden Prozessen in Beziehung gesetzt werden, die für die Entwicklung des westlichen Tian Shan Gebirges verantwortlich sind. Ein Paradebeispiel des Einflusses präexistierender Krustenanomalien auf die strukturelle Entstehung eines intra-kontinentalen Gebirges wie dem Tian Shan ist die NW-SE streichende Talas-Fergana-Störung, die den westlichen vom zentralen Tian Shan trennt. Während der östlich gelegene Zentralbereich des Orogens durch subparallele, E-W streichende Gebirgszüge und Becken charakterisiert ist, ist das markant dreieckförmige Fergana-Becken im westlichen Tian Shan von allen Seiten durch hohe Gebirgsrücken flankiert. Kern dieser Arbeit sind 55 neue thermochronologische Altersdatierungen (aus Apatit-Spaltspuren-Analyse und U-Th/He an Zirkonen), mit deren Hilfe die Exhumationsgeschichte mehrerer Gebirgszüge im westlichen Tian Shan untersucht wurde. Des Weiteren wurde die sedimentäre Beckenfüllung des benachbarten Fergana-Beckens auf sukzessive Veränderungen der Paläoumweltbedingungen, der Sediment-Provenienz und der geometrischen Konfiguration der Sedimente, am Aufschluss und im Untergrund untersucht. Ergebnisse dieser Arbeit zeigen niedrige Abkühlungs- (<1°C Myr-1) und Sedimentationsraten (<10 m Myr-1) im Gebiet des westlichen Tian Shan im Paläogen und deuten auf eine tektonisch ruhige und relativ stabile Region. Demgegenüber stehen erhöhte Abkühlungsraten im späten Känozoikum, die in den verschiedenen Gebirgsketten diachron und mit unterschiedlicher Intensität einsetzen. Diese zweite Phase deutet auf erhöhte Erosionsprozesse, hervorgerufen durch aktive Deformation, und markiert den Beginn der känozoischen Deformation im westlichen Tian Shan Gebirge. Temperaturgeschichten im Gebiet des NW Tian Shan zeigen erhöhte Abkühlungsraten vor ~25 Ma und korrelieren zeitlich mit ähnlichen Ereignissen im südlichen Tian Shan. Ich vermute, dass Horizontalverschiebungen entlang der Talas-Fergana-Störung an der Oligozän-Miozän-Grenze zur Rotation des Fergana-Beckens gegen den Uhrzeigersinn, und darüber hinaus zur Exhumation entlang diverser Nebenstörungen führten. Erhöhte Sedimentationsraten (~150 m Myr-1) der Oligo-Miozänen Einheiten im Fergana Becken (Massaget Fm.) deuten ebenfalls auf eine synchrone Deformationsphase umliegender Gebieten zu dieser Zeit. Dies ist durch erhöhte Abkühlungsraten im zentralen Alai (südlich des Fergana Beckens) gut dokumentiert und impliziert, dass die intra-montane Fragmentierung und Isolierung, der ehemals zusammenhängenden Sedimentbecken, zur gleichen Zeit erfolgte. Diese Beobachtungen deuten auf eine Deformationsgeschichte hin, die zeitgleich ihren Ursprung in zwei voneinander entfernten Regionen hat. Diese frühen Hebungen scheinen durch reaktivierte Strukturen (wie der Talas-Fergana-Störung) gesteuert worden zu sein, deren Orientierung optimal für eine N-S Einengung im Bereich des westlichen Tian Shan geeignet ist. Eine erneute Phase schneller Abkühlung im späten Miozän (~10 Ma) führte zur Aktivierung der meisten heutigen Gebirgszüge und der Reaktivierung prä-existierender Strukturen. Diese Deformationsphase zeigt eine weite Verbreitung und einen Anstieg der Exhumationsraten in den meisten beprobten Bereichen. Darüberhinaus steigen die pliozänen Sedimentationsraten (>180 m Myr-1) im Fergana-Becken und die Faziesanalyse der Sedimente zeigt hoch-energetische Ablagerungsbedingungen. Fazit dieser Arbeit ist, dass der Tian Shan und ein Großteil Zentralasiens durch erhöhte Verkürzungsraten der Kruste stark beeinflusst wurden. Früher ging man davon aus, dass Stresstransfer entlang des stabilen Tarim-Blocks oder die Indentation des Pamir-Gebirges zur Deformation im Hinterland des Himalaya führten. Die beobachteten Deformationsmuster deuten jedoch auf einen anderen, viel weitreichenderen geodynamischen Prozess hin. KW - tectonics KW - Tien Shan KW - thermochronology KW - Tektonik KW - Tien Shan KW - Thermochronologie Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398933 ER - TY - THES A1 - Audörsch, Stephan T1 - Die Synthese von (2Z,4E)-Diencarbonsäureestern und ihre Anwendung in der Totalsynthese von Polyacetylenen T1 - Synthesis of (2Z,4E)-dienoic acid ester and their application in the total synthesis of natural occurring polyacetylenes N2 - Z,E-Diene sind ein häufig auftretendes Strukturmerkmal in Naturstoffen. Aus diesem Grund ist die einfache Darstellung dieser Struktureinheit von großen Interesse in der organischen Chemie. Das erste Ziel der vorliegenden Arbeit war daher die Weiterentwicklung der Ringschlussmetathese-/ baseninduzierten Ringöffnungs-/ Veresterungssequenz (RBRV-Sequenz) zur Synthese von (2Z,4E)-Diencarbonsäureethylestern ausgehend von Butenoaten. Dazu wurde zunächst die RBRV-Sequenz optimiert. Diese aus drei Schritten bestehende Sequenz konnte in einem Eintopf-Verfahren angewendet werden. Die Ringschlussmetathese gelang mit einer Katalysatorbeladung von 1 mol% des GRUBBS-Katalysators der zweiten Generation in Dichlormethan. Für die baseninduzierte Ringöffnung des β,γ-ungesättigten δ Valerolactons wurde NaHMDS verwendet. Die Alkylierung der Carboxylatspezies gelang mit dem MEERWEIN-Reagenz. Die Anwendbarkeit der Sequenz wurde für verschiedene Substrate demonstriert. Die Erweiterung der Methode auf α-substituierte Butenoate unterlag starken Einschränkungen. So konnte der Zugang für α Hydroxyderivate realisiert werden. Bei der Anwendung der RBRV-Sequenz auf die α-substituierten Butenoate wurde festgestellt, dass diese sich nur in moderaten Ausbeuten umsetzen ließen und zudem nicht selektiv zu den (2E,4E)-konfigurierten α-substituierten-Dienestern reagierten. Der Einsatz von Eninen unter den Standardbedingungen der RBRV-Sequenz gelang nicht. Erst nach Modifizierung der Sequenz (höhere Katalysatorbeladung, Wechsel des Lösungsmittels) konnten die [3]Dendralen-Produkte in geringen Ausbeuten erhalten werden. Im zweiten Teil der Arbeit wurde der Einsatz von (2Z,4E)-Diencarbonsäureethylestern in der Totalsynthese von Naturstoffen untersucht. Dazu wurden zunächst die Transformationsmöglichkeiten der Ester geprüft. Es konnte gezeigt werden, dass sich (2Z,4E)-Diencarbonsäureethylester insbesondere zur Synthese von (2Z,4E)-Aldehyden sowie zum Aufbau der (3Z,5E)-Dien-1-in-Struktur eignen. Anhand dieser Ergebnisse wurde im Anschluss die RBRV-Sequenz in der Totalsynthese eingesetzt. Dazu wurde zunächst der (2Z,4E)-Dienester Microsphaerodiolin in seiner ersten Totalsynthese auf drei verschiedene Routen hergestellt. Im Anschluss wurden sechs verschiedene Polyacetylene mit einer (3Z,5E)-Dien-1-in-Einheit hergestellt. Schlüsselschritte in ihrer Synthese waren immer die RBRV-Sequenz zum Aufbau der Z,E-Dien-Einheit, die Transformation des Esters in ein terminales Alkin sowie die CADIOT-CHODKIEWICZ-Kupplung zum Aufbau unsymmetrischer Polyine. Alle sechs Polyacetylene wurden zum ersten Mal in einer Totalsynthese synthetisiert. Drei Polyacetylene wurden ausgehend von (S)-Butantriol enantiomerenrein dargestellt. Anhand ihrer Drehwerte konnte eine Revision der von YAO und Mitarbeitern vorgenommen Zuordnung der Absolutkonfiguration der Naturstoffe vorgenommen werden. N2 - Z,E-Dienes are a common motif in natural products. Therefore their simple preparation is of high interest. The first part of this work focuses on the improvement of the one-pot sequence “RBRV” consisting of three steps: ring closing metathesis, base induced ring opening and esterification of butenoates. This method yields (2Z,4E) dienoic acid esters. As optimized conditions were found the use of Grubbs catalysts 2nd Generation in dichloromethane, NaHMDS as base and Meerwein’s reagent as alkylating agent. The extension of this method on α-substituted butenoates was subject to many restrictions. The synthesis of precursors was realized for α-hydroxy derivates only. Application of these substrates in the RBRV sequence gave the desired products in moderate yield and diminished selectivity. The use of enines was demonstrated as well. For these substrates changes of the conditions were necessary. The products, [3]dendralenes, were obtained in low yield and excellent selectivity. The second part of this thesis focuses on the application of the RBRV-sequence in the total synthesis of natural products with a Z,E-diene unit. For this purpose it was demonstrated how the ester function can be transformed. As result it was shown that especially Z,E-diene-alkynes can be easily synthesized from Z,E-diene esters. Based on these results the RBRV was used in the synthesis of some natural products. These include Microsphaerodiolin, Atractylodemayne A, C and F as well as three other, unnamed, polyacetylenes. All of them have been synthesized for the first time. Three of them were synthesized in enatioselective manner utilizing enantiopure 1,2,4-butane triole as starting material. KW - Polyacetylene KW - Totalsynthese KW - 2Z,4E-Diencarbonsäureester KW - organische Chemie KW - polyacetylenes KW - total synthesis KW - organic chemistry Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-92366 ER - TY - THES A1 - Ata, Metin T1 - Phase-space reconstructions of cosmic velocities and the cosmic web T1 - Phasenraumrekonstruktionen kosmischer Geschwindigkeiten und des kosmischen Netzes BT - structure formation models - galaxy bias models - galaxy redshift surveys - inference analysis N2 - In the current paradigm of cosmology, the formation of large-scale structures is mainly driven by non-radiating dark matter, making up the dominant part of the matter budget of the Universe. Cosmological observations however, rely on the detection of luminous galaxies, which are biased tracers of the underlying dark matter. In this thesis I present cosmological reconstructions of both, the dark matter density field that forms the cosmic web, and cosmic velocities, for which both aspects of my work are delved into, the theoretical formalism and the results of its applications to cosmological simulations and also to a galaxy redshift survey.The foundation of our method is relying on a statistical approach, in which a given galaxy catalogue is interpreted as a biased realization of the underlying dark matter density field. The inference is computationally performed on a mesh grid by sampling from a probability density function, which describes the joint posterior distribution of matter density and the three dimensional velocity field. The statistical background of our method is described in Chapter ”Implementation of argo”, where the introduction in sampling methods is given, paying special attention to Markov Chain Monte-Carlo techniques. In Chapter ”Phase-Space Reconstructions with N-body Simulations”, I introduce and implement a novel biasing scheme to relate the galaxy number density to the underlying dark matter, which I decompose into a deterministic part, described by a non-linear and scale-dependent analytic expression, and a stochastic part, by presenting a negative binomial (NB) likelihood function that models deviations from Poissonity. Both bias components had already been studied theoretically, but were so far never tested in a reconstruction algorithm. I test these new contributions againstN-body simulations to quantify improvements and show that, compared to state-of-the-art methods, the stochastic bias is inevitable at wave numbers of k≥0.15h Mpc^−1 in the power spectrum in order to obtain unbiased results from the reconstructions. In the second part of Chapter ”Phase-Space Reconstructions with N-body Simulations” I describe and validate our approach to infer the three dimensional cosmic velocity field jointly with the dark matter density. I use linear perturbation theory for the large-scale bulk flows and a dispersion term to model virialized galaxy motions, showing that our method is accurately recovering the real-space positions of the redshift-space distorted galaxies. I analyze the results with the isotropic and also the two-dimensional power spectrum.Finally, in Chapter ”Phase-space Reconstructions with Galaxy Redshift Surveys”, I show how I combine all findings and results and apply the method to the CMASS (for Constant (stellar) Mass) galaxy catalogue of the Baryon Oscillation Spectroscopic Survey (BOSS). I describe how our method is accounting for the observational selection effects inside our reconstruction algorithm. Also, I demonstrate that the renormalization of the prior distribution function is mandatory to account for higher order contributions in the structure formation model, and finally a redshift-dependent bias factor is theoretically motivated and implemented into our method. The various refinements yield unbiased results of the dark matter until scales of k≤0.2 h Mpc^−1in the power spectrum and isotropize the galaxy catalogue down to distances of r∼20h^−1 Mpc in the correlation function. We further test the results of our cosmic velocity field reconstruction by comparing them to a synthetic mock galaxy catalogue, finding a strong correlation between the mock and the reconstructed velocities. The applications of both, the density field without redshift-space distortions, and the velocity reconstructions, are very broad and can be used for improved analyses of the baryonic acoustic oscillations, environmental studies of the cosmic web, the kinematic Sunyaev-Zel’dovic or integrated Sachs-Wolfe effect. N2 - In der gegenwärtigen Anschauung der Kosmologie wird die Bildung von großräumigen Strukturen vor allem durch nicht strahlende, Dunkle Materie beeinflusst, die den überwiegenden Teil des Materieanteils des Universums ausmacht. Kosmologische Beobachtungen beruhen jedoch auf dem Nachweis von leuchtenden Galaxien, die gebiaste Indikatoren (biased tracer) der darunterliegenden Dunklen Materie sind. In dieser Arbeit präsentiere ich Rekonstruktionen des kosmischen Netzes der Dunklen Materie und kosmischer Geschwindigkeitsfelder. Beide Aspekte meiner Arbeit, der theoretische Formalismus und die Ergebnisse der Anwendungen sowohl auf kosmologische Simulationen als auch auf Galaxie-Rotverschiebungssurveys, weden detaiiert aufgeführt. Die Grundlage dieser Methode beruht auf einem statistischen Ansatz, bei dem ein gegebener Galaxienkatalog als eine Realisierung des darunter liegenden Dunklen Materiedichtefeldes interpretiert wird. Unsere Rekonstruktionen werden rechnerisch auf einem Gitter durch das Sampling einer Wahrscheinlichkeitsdichtefunktion durchgeführt, die die gemeinsame a posteriori Wahrscheinlichkeit der Materiedichte und des dreidimensionalen Geschwindigkeitsfeldes beschreibt. Der statistische Hintergrund unserer Methode ist im Kapitel "Implantation of argo" beschrieben, wobei die Einführung in die Samplingmethoden unter besonderer Berücksichtigung der Markov-Kette-Monte-Carlo-Technik erfolgt. Im Kapitel "Phase-Space Reconstructions with N-body Simulations" stelle ich ein neuartiges Biasmodell vor, welches die Galaxienanzahldichte mit der darunter liegenden Dunklen Materiedichte verknüpft. Diesen zerlege ich in einen deterministischen, nicht linearen und skalenabhängigen analytischen Teil und einen stochastischen Teil. Das letztere beschreibe ich durch einen Negativ-Binomial-Likelihood Ausdruck, welches die Abweichungen von Poissonität modelliert. Beide Biaskomponenten wurden bereits theoretisch untersucht, aber bisher noch nie in einem Rekonstruktionsalgorithmus getestet. Ich evaluiere diese neuen Beiträge mit $N$-Körper-Simulationen, um die Verbesserungen zu beurteilen und um zu zeigen, dass der stochastische Bias im Leistungsspektrum bei Wellenzahlen von k < 0.15 h Mpc^- 1 unabdingbar ist. Im zweiten Teil des Kapitels "Phase-Space Reconstructions with N-body Simulations" beschreibe und validiere ich unseren Ansatz, das kosmische Geschwindigkeitsfeld gemeinsam mit der Dunklen Materiedichte zu rekonstruieren. Ich verwende lineare Störungstheorie für die großräumigen Potentialströme und einen Dispersionsterm, um virialisierte Galaxiebewegungen zu modellieren. Die Ergebnisse zeigen, dass unsere Methode die Rotverschiebungsverzerrungen der Positionen der Galaxien genau beschreibt. Ich analysiere die Ergebnisse sowohl mit dem anisotropen Leistungsspektrum, als auch mit dem zweidimensionalen Leistungsspektrum. Schließlich zeige ich im Kapitel "Phase-space Reconstructions with Galaxy Redshift Surveys", wie ich alle Ergebnisse kombiniere und die Methode auf den CMASS (für Constant (stellar) Mass) Galaxienkatalog anwende. Ich beschreibe, wie unsere Methode die Selektionseffekte der Beobachtungen innerhalb des Rekonstruktionsalgorithmus berücksichtigt. Weiterhin demonstriere ich, dass die Renormalisierung der a priori Verteilung zwingend erforderlich ist, um die Beiträge höherer Ordnung im Strukturbildungsmodell zu berücksichtigen. Außerdem wird ein rotverschiebungsabhängiger Bias-Faktor theoretisch motiviert und in unseren Algorithmus implementiert. Unsere Rekonstruktionen, welche diese verschiedenen Verfeinerungen beinhaten, führen zu robusten Ergebnissen hinsichtlich des Feldes der Dunklen Materie bis zu Skalen von k <0.2 Mpc^-1 im Leistungsspektrum. Außerdem werden Anisotropien in dem rekonstruierten Galaxienkatalog bis zu Abständen von r~20 h^-1 Mpc in der Korrelationsfunktion zu einem hohen Grad überwunden. Wir testen die Ergebnisse unserer kosmischen Geschwindigkeitsrekonstruktion, indem wir sie mit einem synthetischen Mock-Galaxienkatalog vergleichen und bestätigen eine starke Korrelation zwischen den Mock- und den rekonstruierten Geschwindigkeiten. Die Anwendungen sowohl des Dichtefeldes ohne Rotverschiebungsverzerrungen als auch der Geschwindigkeitsrekonstruktionen sind sehr vielfältig und können für verbesserte Analysen der baryonischen akustischen Oszillationen, Umgebungsstudien des kosmischen Netzes, des kinematischen Sunjajew-Seldowitsch-Effekts oder des integrierten Sachs-Wolfe-Effekts verwendet werden. KW - large-scale structure formation KW - großräumige Strukturen KW - Kosmologie KW - Theorie KW - cosmology KW - theory Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403565 ER - TY - THES A1 - Antoniewicz, Franziska T1 - Automatic evaluations of exercising T1 - Automatische Evaluationen von Sport N2 - Changing the perspective sometimes offers completely new insights to an already well-known phenomenon. Exercising behavior, defined as planned, structured and repeated bodily movements with the intention to maintain or increase the physical fitness (Caspersen, Powell, & Christenson, 1985), can be thought of as such a well-known phenomenon that has been in the scientific focus for many decades (Dishman & O’Connor, 2005). Within these decades a perspective that assumes rational and controlled evaluations as the basis for decision making, was predominantly used to understand why some people engage in physical activity and others do not (Ekkekakis & Zenko, 2015). Dual-process theories (Ekkekakis & Zenko, 2015; Payne & Gawronski, 2010) provide another perspective, that is not exclusively influenced by rational reasoning. These theories differentiate two different processes that guide behavior “depending on whether they operate automatically or in a controlled fashion“ (Gawronski & Creighton, 2012, p. 282). Following this line of thought, exercise behavior is not solely influenced by thoughtful deliberations (e.g. concluding that exercising is healthy) but also by spontaneous affective reactions (e.g. disliking being sweaty while exercising). The theoretical frameworks of dual-process models are not new in psychology (Chaiken & Trope, 1999) and have already been used for the explanation of numerous behaviors (e.g. Hofmann, Friese, & Wiers, 2008; Huijding, de Jong, Wiers, & Verkooijen, 2005). However, they have only rarely been used for the explanation of exercise behavior (e.g. Bluemke, Brand, Schweizer, & Kahlert, 2010; Conroy, Hyde, Doerksen, & Ribeiro, 2010; Hyde, Doerksen, Ribeiro, & Conroy, 2010). The assumption of two dissimilar behavior influencing processes, differs fundamentally from previous theories and thus from the research that has been conducted in the last decades in exercise psychology. Research mainly concentrated on predictors of the controlled processes and addressed the identified predictors in exercise interventions (Ekkekakis & Zenko, 2015; Hagger, Chatzisarantis, & Biddle, 2002). Predictors arising from the described automatic processes, for example automatic evaluations for exercising (AEE), have been neglected in exercise psychology for many years. Until now, only a few researchers investigated the influence of these AEE for exercising behavior (Bluemke et al., 2010; Brand & Schweizer, 2015; Markland, Hall, Duncan, & Simatovic, 2015). Marginally more researchers focused on the impact of AEE for physical activity behavior (Calitri, Lowe, Eves, & Bennett, 2009; Conroy et al., 2010; Hyde et al., 2010; Hyde, Elavsky, Doerksen, & Conroy, 2012). The extant studies mainly focused on the quality of AEE and the associated quantity of exercise (exercise much or little; Bluemke et al., 2010; Calitri et al., 2009; Conroy et al., 2010; Hyde et al., 2012). In sum, there is still a dramatic lack of empirical knowledge, when applying dual-process theories to exercising behavior, even though these theories have proven to be successful in explaining behavior in many other health-relevant domains like eating, drinking or smoking behavior (e.g. Hofmann et al., 2008). The main goal of the present dissertation was to collect empirical evidence for the influence of AEE on exercise behavior and to expand the so far exclusively correlational studies by experimentally controlled studies. By doing so, the ongoing debate on a paradigm shift from controlled and deliberative influences of exercise behavior towards approaches that consider automatic and affective influences (Ekkekakis & Zenko, 2015) should be encouraged. All three conducted publications are embedded in dual-process theorizing (Gawronski & Bodenhausen, 2006, 2014; Strack & Deutsch, 2004). These theories offer a theoretical framework that could integrate the established controlled variables of exercise behavior explanation and additionally consider automatic factors for exercise behavior like AEE. Taken together, the empirical findings collected suggest that AEE play an important and diverse role for exercise behavior. They represent exercise setting preferences, are a cause for short-term exercise decisions and are decisive for long-term exercise adherence. Adding to the few already present studies in this field, the influence of (positive) AEE for exercise behavior was confirmed in all three presented publications. Even though the available set of studies needs to be extended in prospectively studies, first steps towards a more complete picture have been taken. Closing with the beginning of the synopsis: I think that time is right for a change of perspectives! This means a careful extension of the present theories with controlled evaluations explaining exercise behavior. Dual-process theories including controlled and automatic evaluations could provide such a basis for future research endeavors in exercise psychology. N2 - Ein anderer Blickwinkel eröffnet manchmal komplett neue Erkenntnisse in so manches bekanntes Phänomen. Sporttreiben, definiert als geplante, strukturierte und wiederholt ablaufende Körperbewegungen mit der Intention die körperliche Fitness aufrecht zu erhalten oder zu verbessern (Caspersen, Powell & Christenson, 1985), kann als ein solches bekanntes Phänomen angesehen werden, welches seit vielen Dekaden im wissenschaftlichen Fokus steht (Dishman & O’Connor, 2005). Um zu verstehen warum manche Menschen körperlich aktiv sind und andere nicht, wurde in den letzten Dekaden meist angenommen, dass rationale und kontrollierte Bewertungen Entscheidungen beeinflussen (Ekkekakis & Zenko, 2015). Zwei-Prozess Theorien (Payne & Garwonski, 2010) bieten eine andere Perspektive, welche nicht nur durch rationales Überlegen beeinflusst ist. Diese Theorien unterscheiden zwei unterschiedliche Prozesse welche Verhalten beeinflussen „depending on whether they operate automatically or in a controlled fashion“ (Gawronski & Creighton, 2012, S. 282). Sportprädiktoren mit dem Ursprung in automatischen Prozessen, z.B. automatische Evaluationen von Sport (AES), wurden in der sportpsychologischen Forschung seit vielen Jahren vernachlässigt. Bisher haben nur wenige Wissenschaftler die Rolle von AES untersucht (Brand & Schweizer, 2015; Markland, Hall, Duncan, & Simatovic, 2015). Das Hauptziel der vorliegenden Dissertation ist es, empirische Belege für den Einfluss von AES auf Sportverhalten zu sammeln und die bisher ausschließlich korrelativen Studien um experimentelle zu erweitern. Meine erste Publikation adressierte eine Kernannahme von AES, die Eigenschaft der Automatizität der erfassten affektiven Evaluationen. Der methodische Ansatz der Studie über ein subliminales AMP (Murphy & Zajonc, 1993; Payne, Cheng, Govorun, & Stewart, 2005) ermöglichte die Schlussfolgerung, dass automatische affektive Evaluationen nach der Stimulusdarstellung ausgelöst wurden. Der Einfluss von AES auf qualitative Sportcharakteristika, die Präferenz eines bestimmten Sportsettings, wurde aufgezeigt. Meine zweite Publikation beabsichtigte notwendige Informationen für die Implementation von Sportinterventionen zu liefern, welche die automatische Komponente von Sportverhalten fokussieren. Das Adressieren automatischer Komponenten in Sportintervention wurde erst kürzlich gefordert (Marteau, Hollands, & Fletcher, 2012). In einer Abfolge von drei Studien wurde die experimentelle Zugänglichkeit, die sinnvolle Manipulation in eine gesundheitsrelevante Richtung und die damit verbundenen Verhaltenskonsequenzen von veränderten AES untersucht. Positive AES wurden durch Evaluatives Konditionieren (EK; Hofmann, De Houwer, Perugini, Baeyens, & Crombez, 2010) induziert. Dabei werden systematisch Bilder von Sporttreiben mit Bildern welche angenehme Empfindungen wecken kombiniert. Nicht-sportassoziierte Bilder werden hingegen konsequent von Bildern gefolgt, die unangenehme Emotionen hervorrufen. Die experimentelle Manipulation führte zur Wahl höherer Sportintensitäten in einer nachfolgenden Sportaufgabe. Darüber hinaus deuteten die Analysen darauf hin, dass das assoziative Erlernen positiver AES nicht in gleichen Anteilen durch den Erwerb positiver Assoziationen zu Sport und negativer Assoziationen mit Nicht-Sport gesteuert wurde. Meine dritte Publikation adressierte unterschiedlichen Anteile von AES im Hinblick auf langfristiges Sportverhalten, speziell die Sportkursadhärenz in einem 14-wöchigen Sportprogramm. Sportverhalten, wie das Besuchen eines Aerobickurses, kann mit positiven affektiven Assoziationen (PAA; z.B. Sport mit Musik ist angenehm) und negativen affektiven Assoziationen (NAA; z.B. Muskelkater ist unangenehm) gleichermaßen verbunden sein. Wissen über den individuellen Einfluss der einzelnen Komponenten auf Sportverhalten würde das Verständnis von AES erleichtern. Die bisher dominierenden Befunde von AES als Prädiktor für kurzfristiges Sportverhalten (z.B.Hyde et al., 2012) wurden erweitert und der Einfluss der AES für sportspezifische Entscheidungen (Brand & Schweizer, 2015) auf eine langfristige Perspektive erweitert. Da Adhärenz in Sportkursen ein gewaltiges Problem in aktuellen Gesundheitsprogrammen (Marcus et al., 2000) darstellt, ist zusätzliches Wissen über Prädiktoren der Sportadhärenz (wie AES) wertvoll für die erfolgreiche Implementation von Sportinterventionen. Die vorgestellten Studien meiner Dissertation hatten das Ziel empirische Belege für die Bedeutung von AES für Sportverhalten zu bieten. Zusammengefasst legen die gesammelten Befunde nahe, dass AES eine wichtige und vielfältige Rolle für Sportverhalten. Diese repräsentieren Präferenzen für Sportsettings, stellen eine Ursache für kurzfristige Sportentscheidungen dar und sind entscheidend für langfristige Sportadhärenz. In Ergänzung zu den wenigen bisher existierenden Studien in dem Feld, wurde der Einfluss von (positiven) AES für Sportverhalten in allen drei beschriebenen Studien bestätigt. KW - automaticity KW - dual-processes KW - exercise KW - health KW - implicit KW - automatisch KW - Zwei-Prozess Modelle KW - Sport KW - Gesundheit KW - implizit Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-92280 ER - TY - THES A1 - Al-Saffar, Loay Talib Ahmed T1 - Analysing prerequisites, expectations, apprehensions, and attitudes of university students studying Computer science T1 - Analyse von Voraussetzungen, Erwartungen, Haltungen, Einstellungen und Befürchtungen von Bachelor-Studierenden der Informatik N2 - The main objective of this dissertation is to analyse prerequisites, expectations, apprehensions, and attitudes of students studying computer science, who are willing to gain a bachelor degree. The research will also investigate in the students’ learning style according to the Felder-Silverman model. These investigations fall in the attempt to make an impact on reducing the “dropout”/shrinkage rate among students, and to suggest a better learning environment. The first investigation starts with a survey that has been made at the computer science department at the University of Baghdad to investigate the attitudes of computer science students in an environment dominated by women, showing the differences in attitudes between male and female students in different study years. Students are accepted to university studies via a centrally controlled admission procedure depending mainly on their final score at school. This leads to a high percentage of students studying subjects they do not want. Our analysis shows that 75% of the female students do not regret studying computer science although it was not their first choice. And according to statistics over previous years, women manage to succeed in their study and often graduate on top of their class. We finish with a comparison of attitudes between the freshman students of two different cultures and two different university enrolment procedures (University of Baghdad, in Iraq, and the University of Potsdam, in Germany) both with opposite gender majority. The second step of investigation took place at the department of computer science at the University of Potsdam in Germany and analyzes the learning styles of students studying the three major fields of study offered by the department (computer science, business informatics, and computer science teaching). Investigating the differences in learning styles between the students of those study fields who usually take some joint courses is important to be aware of which changes are necessary to be adopted in the teaching methods to address those different students. It was a two stage study using two questionnaires; the main one is based on the Index of Learning Styles Questionnaire of B. A. Solomon and R. M. Felder, and the second questionnaire was an investigation on the students’ attitudes towards the findings of their personal first questionnaire. Our analysis shows differences in the preferences of learning style between male and female students of the different study fields, as well as differences between students with the different specialties (computer science, business informatics, and computer science teaching). The third investigation looks closely into the difficulties, issues, apprehensions and expectations of freshman students studying computer science. The study took place at the computer science department at the University of Potsdam with a volunteer sample of students. The goal is to determine and discuss the difficulties and issues that they are facing in their study that may lead them to think in dropping-out, changing the study field, or changing the university. The research continued with the same sample of students (with business informatics students being the majority) through more than three semesters. Difficulties and issues during the study were documented, as well as students’ attitudes, apprehensions, and expectations. Some of the professors and lecturers opinions and solutions to some students’ problems were also documented. Many participants had apprehensions and difficulties, especially towards informatics subjects. Some business informatics participants began to think of changing the university, in particular when they reached their third semester, others thought about changing their field of study. Till the end of this research, most of the participants continued in their studies (the study they have started with or the new study they have changed to) without leaving the higher education system. N2 - Thema der Dissertation ist die Untersuchung von Voraussetzungen, Erwartungen, Haltungen, Einstellungen und Befürchtungen von Bachelor Studierenden der Informatik. Darüber hinaus werden in der vorliegenden Analyse anhand des Solomon/Felder-Modells Lerntypen unter den Informatik-Studierenden untersucht mit dem Ziel, mittels einer vorteilhafter gestalteten Lernumgebung zur Lernwirksamkeit und zur Reduktion der Abbrecherquote beizutragen. Zunächst werden anhand einer Vergleichsstudie zwischen Informatik-Studierenden an der Universität Bagdad und an der Universität Potsdam sowie jeweils zwischen männlichen und weiblichen Studierenden Unterschiede in der Wahrnehmung des Fachs herausgearbeitet. Hierzu trägt insbesondere das irakische Studienplatzvergabeverfahren bei, das den Studierenden nur wenig Freiheiten lässt, ein Studienfach zu wählen mit dem Ergebnis, dass viele Studierende, darunter überwiegend weibliche Studierende, gegen ihre Absicht Informatik studieren. Dennoch arrangieren sich auch die weiblichen Studierenden mit dem Fach und beenden das Studium oft mit Best-Noten. Der zweite Teil der Dissertation analysiert Lernstile von Studierenden des Instituts für Informatik der Universität Potsdam auf der Grundlage des Modells von Solomon/Felder mit dem Ziel, Hinweise für eine verbesserte Gestaltung der Lehrveranstaltungen zu gewinnen, die Lernende in der für sie geeigneten Form anspricht. Die Ergebnisse zeigen die Schwierigkeit, dieses Ziel zu erreichen, denn sowohl männliche und weibliche Studierende als auch Studierende von Informatik, Wirtschaftsinformatik und Lehramt Informatik weisen deutliche Unterschiede in den präferierten Lernstilen auf. In einer dritten qualitativen Studie wurden mit Studierenden von Informatik, Wirtschaftsinformatik und Lehramt Informatik Interviews über einen Zeitraum der ersten drei Studiensemester geführt, um einen detaillierten Einblick in Haltungen, Einstellungen und Erwartungen zum Studium zu gewinnen sowie Probleme zu ermitteln, die möglicherweise zum Abbruch des Studiums oder zum Wechsel des Fachs oder der Universität führen können. KW - computer science education KW - dropout KW - changing the university KW - changing the study field KW - Computer Science KW - business informatics KW - study problems KW - tutorial section KW - higher education KW - teachers KW - professors KW - Informatikvoraussetzungen KW - Studentenerwartungen KW - Studentenhaltungen KW - Universitätseinstellungen KW - Bachelorstudierende der Informatik KW - Abbrecherquote KW - Wirtschaftsinformatik KW - Informatik KW - Universität Potsdam KW - Universität Bagdad KW - Probleme in der Studie KW - Lehrer KW - Professoren KW - Theoretischen Vorlesungen KW - Programmierung KW - Anleitung KW - Hochschulsystem KW - Informatik-Studiengänge KW - Didaktik der Informatik Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98437 ER -