TY - THES A1 - Giesewetter, Stefan T1 - Resolute readings of later Wittgenstein and the challenge of avoiding hierarchies in philosophy T1 - Strenge Lesarten der Spätphilosophie Wittgensteins und die Vermeidung von Hierarchien in der Philosophie N2 - This dissertation addresses the question: How did later Wittgenstein aim to achieve his goal of putting forward a way of dissolving philosophical problems which centered on asking ourselves what we mean by our words – yet which did not entail any claims about the essence of language and meaning? This question is discussed with reference to “resolute” readings of Wittgenstein. I discuss the readings of James Conant, Oskari Kuusela, and Martin Gustafsson. I follow Oskari Kuusela’s claim that in order to fully appreciate how later Wittgenstein meant to achieve his goal, we need to clearly see how he aimed to do away with hierarchies in philosophy: Not only is the dissolution of philosophical problems via the method of clarifying the grammar of expressions to be taken as independent from any theses about what meaning must be – but furthermore, it is to be taken as independent from the dissolution of any particular problem via this method. As Kuusela stresses, this also holds for the problems involving rule-following and meaning: the clarification of the grammar of “rule” and “meaning” has no foundational status – it is nothing on which the method of clarifying the grammar of expressions as such were meant to in any way rely on. The lead question of this dissertation then is: What does it mean to come to see that the method of dissolving philosophical problems by asking “How is this word actually used?” does not in any way rely on the results of our having investigated the grammar of the particular concepts “rule” and “meaning”? What is the relation of such results – results such as “To follow a rule, [...], to obey an order, [...] are customs (uses, institutions)” or “The meaning of a word is its use in the language” – to this method? From this vantage point, I concern myself with two aspects of the readings of Gustafsson and Kuusela. In Gustafsson, I concern myself with his idea that the dissolution of philosophical problems in general “relies on” the very agreement which – during the dissolution of the rule-following problem – comes out as a presupposition for our talk of “meaning” in terms of rules. In Kuusela, I concern myself with his idea that Wittgenstein, in adopting a way of philosophical clarification which investigates the actual use of expressions, is following the model of “meaning as use” – which model he had previously introduced in order to perspicuously present an aspect of the actual use of the word “meaning”. This dissertation aims to show how these two aspects of Gustafsson’s and Kuusela’s readings still fail to live up to the vision of Wittgenstein as a philosopher who aimed to do away with any hierarchies in philosophy. I base this conclusion on a detailed analysis of which of the occasions where Wittgenstein invokes the notions of “use” and “application” (as also “agreement”) have to do with the dissolution of a specific problem only, and which have to do with the dissolution of philosophical problems in general. I discuss Wittgenstein’s remarks on rule-following, showing how in the dissolution of the rule-following paradox, notions such as “use”, “application”, and “practice” figure on two distinct logical levels. I then discuss an example of what happens when this distinction is not duly heeded: Gordon Baker and Peter Hacker’s idea that the rule-following remarks have a special significance for his project of dissolving philosophical problems as such. I furnish an argument to the effect that their idea that the clarification of the rules of grammar of the particular expression “following a rule” could answer a question about rules of grammar in general rests on a conflation of the two logical levels on which “use” occurs in the rule-following remarks, and that it leads into a regress. I then show that Gustafsson’s view – despite its decisive advance over Baker and Hacker – contains a version of that same idea, and that it likewise leads into a regress. Finally, I show that Kuusela’s idea of a special significance of the model “meaning as use” for the whole of the method of stating rules for the use of words is open to a regress argument of a similar kind as that he himself advances against Baker and Hacker. I conclude that in order to avoid such a regress, we need to reject the idea that the grammatical remark “The meaning of a word is its use in the language” – because of the occurrence of “use” in it – stood in any special relation to the method of dissolving philosophical problems by describing the use of words. Rather, we need to take this method as independent from this outcome of the investigation of the use of the particular word “meaning”. N2 - Die Ausgangsfrage dieser Dissertation ist: Wie gedachte der späte Wittgenstein sein Ziel zu erreichen, eine Art und Weise der Auflösung philosophischer Probleme zu vorzulegen, die daran ansetzt, was wir mit unseren Worten meinen, jedoch keine Thesen über Sprache und Bedeutung mit sich zieht? Ich behandele diese Frage mit Bezug auf sogenannte „strenge“ Lesarten Wittgensteins. Ich befasse mich mit den Interpretationen von James Conant, Oskari Kuusela und Martin Gustafsson. Ich nehme Kuuselas Gedanken auf, daß zu einem vollen Verständnis davon, wie Wittgenstein sein philosophisches Ziel zu erreichen gedachte, gehört, die Abwesenheit von Hierarchien in seiner Spätphilosophie zu sehen: nicht nur sollte die Auflösung philosophischer Probleme mithilfe der Methode der Klärung der Grammatik von Ausdrücken von jeden Thesen darüber, wie sprachliche Bedeutung zustande kommt, unabhängig sein – sondern darüberhinaus auch unabhängig von der Auflösung bestimmter Einzelprobleme mittels dieser Methode. Dies, so Kuusela, gelte auch für die Probleme um Regelfolgen und um Bedeutung: „Regel“, „meinen“, und „Bedeutung“ seien keine Grundbegriffe, auf deren Klärung die Methode der Klärung der Grammatik von Ausdrücken in irgendeiner Weise aufbaue. Die Leitfrage dieser Dissertation ist: Was genau heißt es zu verstehen, daß die Auflösung philosophischer Probleme mittels der Frage „Wie wird dieses Wort tatsächlich gebraucht?“ nicht auf Ergebnissen der Untersuchung der Grammatik der Begriffe „Regel“ und „Bedeutung“ aufbaut? In welcher Beziehung stehen diese Ergebnisse – Ergebnisse wie „Einer Regel folgen, [...], einen Befehl geben, [...] sind Gepflogenheiten (Gebräuche, Institutionen)“ und „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache“ – dann zu dieser Methode? Unter diesem Blickwinkel befasse ich mich mit zwei Aspekten der Lesarten von Gustafsson und Kuusela. Bei Gustafsson befasse ich mit der Auffassung, die Auflösung philosophischer Probleme an sich „beruhe auf“ genau der Art von Übereinstimmung, die sich – im Zuge der Auflösung des Regelfolgen-Problems – als eine Voraussetzung für unsere Rede von „meinen“ und „bedeuten“ herausstellt. Bei Kuusela befasse ich mich mit der Idee, daß Wittgenstein, indem er zur Auflösung philosophischer Probleme die Frage nach dem tatsächlichen Gebrauch von Wörtern einführt, dem Modell „Bedeutung als Gebrauch“ folgt – welches er vorher eingeführt hatte, um einen Aspekt des tatsächlichen Gebrauchs des Wortes „Bedeutung“ übersichtlich darzustellen. Ich versuche zu zeigen, warum diese beiden Aspekte der Lesarten von Gustafsson und Kuusela noch zurückfallen hinter die Vision von Wittgenstein als einem Philosophen, dem es darum geht, Hierarchien zu vermeiden. Zur Begründung lege ich eine detaillierte Analyse der Art und Weise des Auftretens der Begriffe „Gebrauch“, „Verwendung“ und „Anwendung“ (sowie „Übereinstimmung“) in Wittgensteins Spätphilosophie vor. Wie ich zeige, läßt sich das Auftreten dieser Begriffe unterteilen in Fälle, wo es im Zusammenhang steht mit der Auflösung bestimmter Einzelprobleme, und Fälle, in denen es im Zusammenhang steht mit Auflösung philosophischer Probleme im Allgemeinen. Als Beispiel behandele ich Wittgensteins Bemerkungen über Regelfolgen. Ich zeige, wie in der Auflösung des Regelparadoxes Begriffe wie „Gebrauch“, „Verwendung“, „Anwendung“ auf zwei unterschiedlichen logischen Ebenen auftreten. Dann behandele ich Gordon Bakers und Peter Hackers Auffassung, Wittgensteins Bemerkungen zum Regelfolgen hätten eine besondere Bedeutung für sein Projekt der Auflösung philosophischer Probleme an sich. Ich lege ein Argument dafür vor, daß ihre Idee, die Klärung der Regeln der Grammatik des bestimmten einzelnen Ausdrucks „einer Regel folgen“ könne eine Frage über Regeln der Grammatik im Allgemeinen beantworten, auf einer Vermengung der beiden Ebenen basiert, auf denen der Begriff „Gebrauch“ in den Regelfolgen-Bemerkungen vorkommt, und daher in einen Regreß führt. Anschließend zeige ich, daß dies auch für Gustafssons Idee gilt. Schließlich zeige ich, daß Kuuselas Auffassung, das Modell „Bedeutung als Gebrauch“ – gewonnen im Rahmen der Untersuchung der tatsächlichen Verwendung des Wortes „Bedeutung“ – habe eine besondere Relevanz für die Methode der Untersuchung der tatsächlichen Verwendung von Wörtern an sich, ebenfalls in einen Regreß führt. Meine Schlußfolgerung ist, daß die grammatische Bemerkung „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache“ in keinem besonderen Bezug zu Wittgensteins Methode der Untersuchung des tatsächlichen Gebrauchs von Ausdrücken stehen kann. Stattdessen muß diese Methode als unabhängig von diesem Ergebnis der Untersuchung des Gebrauchs des bestimmten Wortes „Bedeutung“ betrachtet werden. KW - Wittgenstein KW - Methode KW - Regelfolgen KW - Conant KW - Kuusela KW - Wittgenstein KW - method KW - rule-following KW - Conant KW - Kuusela Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57021 ER - TY - THES A1 - Schatz, Daniela T1 - LNA-clamp-PCR zum sensitiven Nachweis von Punktmutationen im Rahmen der Entwicklung eines Darmkrebsfrüherkennungstests T1 - LNA-clamp-PCR as a method for sensitive detection of point mutations as part of the development of an assay for the early diagnosis of colon cancer N2 - Darmkrebs ist die zweithäufigste malignombedingte Todesursache in den westlichen Industrieländern. Durch eine frühzeitige Diagnose besteht jedoch eine hohe Chance auf Heilung. Der Goldstandard zur Darmkrebsfrüherkennung ist gegenwärtig die Koloskopie. Eine Darmspiegelung ist jedoch invasiv und mit Unannehmlichkeiten für den Patienten verbunden. Die Akzeptanz in der Bevölkerung ist daher gering. Ziel des BMBF- Projektes „Entwicklung eines nichtinvasiven Nachweissystems zur Früherkennung von humanem Darmkrebs“, in dessen Rahmen diese Arbeit entstand, ist die Bereitstellung eines nichtinvasiven Nachweisverfahrens zur Darmkrebsfrüherkennung. Der Nachweis soll über die Detektion von aus neoplastischen Zellen stammender DNA in Stuhl erfolgen. Die Entartung dieser Zellen beruht auf Veränderungen im Erbgut, welches unter anderem Mutationen sind. Im ersten Teil des BMBF-Projektes wurde ein Set von Mutationen zusammengestellt, welches eine hohe Sensitivität für Vorstufen von Darmkrebs aufweist. Ziel dieser Arbeit war es, eine Nachweismethode für die zuvor identifizierten Punktmutationen zu entwickeln. Das Nachweisverfahren musste dabei unempfindlich gegen einen hohen Hintergrund nichtmutierter DNA sein, da im Stuhl geringe Mengen DNA aus neoplastischen Zellen bei einem hohen Hintergrund von DNA aus gesunden Zellen vorliegen. Hierzu wurden Plasmidmodellsysteme für die aus dem Marker-Set stammenden Genfragmente BRAF und dessen Mutante V600E, CTNNB1 und T41I, T41A, S45P und K-ras G12C hergestellt. Mit Hilfe dieser Plasmidmodellsysteme wurde dann das Nachweissystem entwickelt. Der entscheidende Schritt für die Detektion von Punktmutationen bei hohem Wildtypüberschuss ist eine vorhergehende Anreicherung. In der vorliegenden Arbeit wurde dazu die Methode der LNA-clamp-PCR (locked nucleic acid) etabliert. Die Bewertung der erzielten Anreicherung erfolgte über das relative Detektionslimit. Zur Bestimmung des Detektionslimits wurde die Schmelzkurvenanalyse von Hybridisierungssonden eingesetzt; diese wurde im Rahmen dieser Arbeit für die drei oben genannten Genfragmente und ihre Mutanten entwickelt. Die LNA-clamp-PCR wird in Anwesenheit eines LNA-Blockers durchgeführt. Das Nukleotidanalogon LNA weist im Vergleich zu DNA eine erhöhte Affinität zu komplementären DNA-Strängen auf. Gleichzeitig kommt es bei Anwesenheit einer Basenfehlpaarung zu einer größeren Destabilisierung der Bindung. Als Blocker werden kurze LNA-DNA-Hybridoligonukleotide eingesetzt, die den mutierten Sequenzbereich überspannen und selbst der Wildtypsequenz entsprechen. Durch Bindung an die Wildtypsequenz wird deren Amplifikation während der PCR verhindert (clamp = arretieren, festklemmen). Der Blocker selbst wird dabei nicht verlängert. Der Blocker bindet unter optimalen Bedingungen jedoch nicht an die mutierte Sequenz. Die Mutante wird daher ungehindert amplifiziert und somit gegenüber dem Wildtyp-Fragment angereichert. Die Position des Blockers kann im Bindungsbereich eines der Primer sein und hier dessen Hybridisierung an dem Wildtyp-Fragment verhindern oder zwischen den beiden Primern liegen und so die Synthese durch die Polymerase inhibieren. Die Anwendbarkeit beider Systeme wurde in dieser Arbeit gezeigt. Die LNA-clamp-PCR mit Primerblocker wurde für BRAF etabliert. Es wurde ein Detektionslimit von mindestens 1:100 erzielt. Die LNA-clamp-PCR mit Amplifikationsblocker wurde erfolgreich für BRAF, K-ras und CTNNB1: T41I, T41A mit einem Detektionslimit von 1:1000 bis 1:10 000 entwickelt. In Stuhlproben liegt DNA aus neoplastischen Zellen nach Literaturangaben zu einem Anteil von 1% bis 0,1% vor. Die LNA-clamp-PCR weist also mit Amplifikationsblockern ein ausreichend hohes Detektionslimit für die Analyse von Stuhlproben auf. Durch die erfolgreiche Etablierung der Methode auf drei verschiedenen Genfragmenten und vier unterschiedlichen Punktmutationen konnte deren universelle Einsetzbarkeit gezeigt werden. Für die Ausweitung der LNA-clamp-PCR auf die übrigen Mutationen des Marker-Sets wurden Richtlinien ausgearbeitet und die Blockereffizienz als Kennzahl eingeführt. Die LNA-clamp-PCR ist ein schnelles, kostengünstiges Verfahren, welches einen geringen Arbeitsaufwand erfordert und wenig fehleranfällig ist. Sie ist somit ein geeignetes Anreicherungsverfahren für Punktmutationen in einem diagnostischen System zur Darmkrebsfrüherkennung. Darüber hinaus kann die LNA-clamp-PCR auch in anderen Bereichen, in denen die Detektion von Punktmutationen in einem hohen Wildtyphintergrund erforderlich ist, eingesetzt werden. N2 - Colon cancer is the second leading cause of cancer related deaths in the western world. However if diagnosed early there is a great chance curing the disease. Coloscopy is the gold standard for early detection of colorectal cancer today. Its greatest disadvantage is the fact that it is an invasive technique and provides some discomfort for the patients. Therefore, the compliance to undergo such a procedure is extremely low. This work was generated in the context of the BMBF-project „Development of a non-invasive assay for the early detection of preneoplastic and neoplastic lesions in the human colon“. The aim of the work described here is the development of a non-invasive assay for the early detection of colon cancer. The assay should detect DNA from neoplastic cells in feces samples. The transformation of these cells is based on alterations in the genome predominantly mutations. In the first part of the BMBF-project a mutation panel with high sensitivity for preneoplastic lesions of colon cancer was determined. The aim of this work was to develop a detection method for the point mutations of the determined mutation panel. The rare mutant DNA needs to be detected in the presence of a great amount of wild-type DNA shed from healthy tissue. The assay system needs to be insensitive to this high background of healthy DNA. Therefore a model system of plasmid DNA containing gene fragments of BRAF and its mutation V600E, CTNNB1 and T41I, T41A, S45P and K-ras G12C obtained from the marker panel was established. Using these plasmid system the detection method was developed. The most critical parameter for the detection of rare point mutations is an enrichment of these rare DNA molecules. In this work LNA-clamp-PCR (locked nucleic acid) technology was used to enrich the mutant DNA.. For the estimation of the achieved enrichment the relative detection limit was used. The detection limit was determined by melting curve analysis of hybridization probes. These assays were established in the present work for the three above mentioned gene fragments. LNA-clamp-PCR is performed in the presence of an LNA blocker. LNA is a synthetic DNA analog. LNA nucleotide analog bind to complementary DNA strands with higher affinity. In addition a single mismatch in the LNA-DNA duplex causes a much greater destabilization compared to a DNA-DNA duplex. Short LNA-DNA-hybrids were used as clamp, which cover the mutated region and represent the wild-type sequence. Within an appropriate temperature range, LNA can specifically bind to wild type template and can inhibit its amplification. The clamp itself will not be elongated. Under optimal conditions the LNA clamp will not interfere with the amplification of the mismatched template. Therefore the mutated gene fragment will be enriched in comparison to the wild-type. The position of the LNA clamp can either be at the primer binding site inhibiting primer hybridization on the wild-type fragment or the LNA clamp is positioned between the two primer binding sites inhibiting chain elongation of the perfectly matched template. In the present work both systems were applied. For the gene fragment BRAF the LNA was used at the primer binding site. The achieved detection limit was at least 1:100. The LNA-clamp-PCR with LNA inhibiting the chain elongation were developed successfully for BRAF, K-ras and CTNNB1: T41I, T41A achieving a detection limit of 1:1000 to 1:10 000. According to the literature 1% to 0.1% of the DNA in feces derives from neoplastic cells. Therefore the detection limit achieved by LNA-clamp-PCR with LNA inhibiting chain elongation would be sufficient for analyzing feces samples. LNA-clamp-PCR protocols were established for three different gene fragments and four diverse point mutations indicating that the technology can generally be used for high sensitive detection of DNA mutations. For the development of LNA-clamp-PCR protocols for the other mutations of the marker panel development guidelines were established. Clamp efficiency was identified as a quantitative parameter for protocol optimization. The LNA-clamp-PCR is a robust, fast and cost-saving technique which needs low labor input. Therefore the method is adequate for enriching point mutated gene fragments in a diagnostic assay for the detection of early colon cancer stages. In addition LNA-clamp-PCR can be applied in other fields where rare sequence variations need to be detected in the presence of high wild-type DNA background. KW - LNA-clamp-PCR KW - Darmkrebsdiagnostik KW - Punktmutation KW - BRAF KW - K-ras KW - LNA- clamp-PCR KW - colon cancer diagnosis KW - point mutation KW - BRAF KW - K-ras Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52308 ER - TY - THES A1 - Grochowska, Marta T1 - Ökonomische, soziale und räumliche Folgen der saisonalen Arbeitsmigration im Herkunftsgebiet : am Beispiel der Region Konin (Polen) T1 - Economic, social and spatial consequences of seasonal migration in the place of origin – case study : Konin (Poland) N2 - Die vorliegende Arbeit basiert auf Forschungen in den Jahren 2007-2009. Sie betrachtet die saisonale Arbeitsmigration aus der polnischen Region Konin, wo die Arbeitsmigration aus ökonomischen Gründen, wie auch in ähnlich strukturierten Gebieten Polens, eine lange Tradition hat, die bis ins 19. Jahrhundert zurückgeht. Sie wird die saisonale Migration ins Ausland mit den ökonomischen, sozialen und räumlichen Auswirkungen aus der Perspektive des Einzelnen und seiner unmittelbaren Umgebung, aber auch der Gesellschaft und Herkunftsgebiet der Migranten betrachtet. N2 - Mobility for economic reasons is treated in science primarily from the perspective of permanent resettlement. However, other varieties of migration are more and more often studied. This paper deals with the seasonal migration for economic reasons, which is an important area of migration undertaken for economic reasons. Seasonal migration, which leads to crossing the country borders, in the literature is called the Transnational Migration. Unlike international migration, which is usually connected with a permanent settling in the target area, the concept of Transnational migration describes the situation, in which migrants return to their place of origin and do not give it up as their main residence, but every time they travel to another country to get employed. As a research area of this work, the Konin region was chosen, because - in comparison with other regions in Poland - the phenomenon of a very high level of seasonal migration was observed there. Seasonal labor migration is a long tradition that goes back to 19. century here and in other Polish regions with similar structure. From the results of conducted in 2007−2009 research, some general facts can be drawn. Due to the seasonal work abroad, a seasonal migrant can increase their and their family’s standard of living. If the cost of living in the place of seasonal work is higher than in the place of origin, the profit of such visits is obviously higher if the family of a seasonal worker remains in the place of origin. This leads to the geographic division bet389 ween the place of working and place of permanent residence. Higher wages can be determined at the level of benefits to both personal and societal level. On the other hand, both forprofit workers and society in dealing with this phenomenon, costs cannot be ignored. This paper considers the pros and cons of seasonal paid work, both from the perspective of individuals and their surroundings, and the consequences for society and region of origin of the employee. This paper is considering economic, social and spatial consequences, each time at the macro and micro levels. The study was based primarily on interviews with several respondents and experts in the subject of Polish and German migrations for profit. T3 - Potsdamer Geographische Forschungen - 29 KW - saisonale Arbeitsmigration KW - transnationale Migration KW - Transnationalismus KW - Polen KW - Region Konin KW - Sachsengängerei KW - seasonal labor migration KW - transnational migration KW - transnationalism KW - Poland KW - Konin region KW - Sachsengängerei Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49649 SN - 978-3-86956-137-0 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Schulze, Andreas T1 - Demographics of supermassive black holes T1 - Demgraphie supermassereicher Schwarzer Löcher N2 - Supermassive black holes are a fundamental component of the universe in general and of galaxies in particular. Almost every massive galaxy harbours a supermassive black hole (SMBH) in its center. Furthermore, there is a close connection between the growth of the SMBH and the evolution of its host galaxy, manifested in the relationship between the mass of the black hole and various properties of the galaxy's spheroid component, like its stellar velocity dispersion, luminosity or mass. Understanding this relationship and the growth of SMBHs is essential for our picture of galaxy formation and evolution. In this thesis, I make several contributions to improve our knowledge on the census of SMBHs and on the coevolution of black holes and galaxies. The first route I follow on this road is to obtain a complete census of the black hole population and its properties. Here, I focus particularly on active black holes, observable as Active Galactic Nuclei (AGN) or quasars. These are found in large surveys of the sky. In this thesis, I use one of these surveys, the Hamburg/ESO survey (HES), to study the AGN population in the local volume (z~0). The demographics of AGN are traditionally represented by the AGN luminosity function, the distribution function of AGN at a given luminosity. I determined the local (z<0.3) optical luminosity function of so-called type 1 AGN, based on the broad band B_J magnitudes and AGN broad Halpha emission line luminosities, free of contamination from the host galaxy. I combined this result with fainter data from the Sloan Digital Sky Survey (SDSS) and constructed the best current optical AGN luminosity function at z~0. The comparison of the luminosity function with higher redshifts supports the current notion of 'AGN downsizing', i.e. the space density of the most luminous AGN peaks at higher redshifts and the space density of less luminous AGN peaks at lower redshifts. However, the AGN luminosity function does not reveal the full picture of active black hole demographics. This requires knowledge of the physical quantities, foremost the black hole mass and the accretion rate of the black hole, and the respective distribution functions, the active black hole mass function and the Eddington ratio distribution function. I developed a method for an unbiased estimate of these two distribution functions, employing a maximum likelihood technique and fully account for the selection function. I used this method to determine the active black hole mass function and the Eddington ratio distribution function for the local universe from the HES. I found a wide intrinsic distribution of black hole accretion rates and black hole masses. The comparison of the local active black hole mass function with the local total black hole mass function reveals evidence for 'AGN downsizing', in the sense that in the local universe the most massive black holes are in a less active stage then lower mass black holes. The second route I follow is a study of redshift evolution in the black hole-galaxy relations. While theoretical models can in general explain the existence of these relations, their redshift evolution puts strong constraints on these models. Observational studies on the black hole-galaxy relations naturally suffer from selection effects. These can potentially bias the conclusions inferred from the observations, if they are not taken into account. I investigated the issue of selection effects on type 1 AGN samples in detail and discuss various sources of bias, e.g. an AGN luminosity bias, an active fraction bias and an AGN evolution bias. If the selection function of the observational sample and the underlying distribution functions are known, it is possible to correct for this bias. I present a fitting method to obtain an unbiased estimate of the intrinsic black hole-galaxy relations from samples that are affected by selection effects. Third, I try to improve our census of dormant black holes and the determination of their masses. One of the most important techniques to determine the black hole mass in quiescent galaxies is via stellar dynamical modeling. This method employs photometric and kinematic observations of the galaxy and infers the gravitational potential from the stellar orbits. This method can reveal the presence of the black hole and give its mass, if the sphere of the black hole's gravitational influence is spatially resolved. However, usually the presence of a dark matter halo is ignored in the dynamical modeling, potentially causing a bias on the determined black hole mass. I ran dynamical models for a sample of 12 galaxies, including a dark matter halo. For galaxies for which the black hole's sphere of influence is not well resolved, I found that the black hole mass is systematically underestimated when the dark matter halo is ignored, while there is almost no effect for galaxies with well resolved sphere of influence. N2 - Supermassereiche Schwarze Löcher sind ein fundamentaler Bestandteil unseres Universims im Allgemeinen, und von Galaxien im Besonderen. Fast jede massereiche Galaxie beherbergt ein supermassereiches Schwarzes Loch in seinem Zentrum. Außerdem existiert eine enge Beziehung zwischen dem Wachstum des Schwarzen Loches und der Entwicklung seiner umgebenden Galaxie. Diese zeigt sich besonders in der engen Beziehung zwischen der Masse eines Schwarzen Loches und den Eigenschaften der sphäroidalen Komponente der Galaxie, beispielsweise seiner stellaren Geschwindigkeitsdispersion, seiner Leuchtkraft und seiner Masse. Diese Beziehung erklären zu können, sowie das Wachstum von Schwarzen Löchern zu verstehen, liefert einen wichtigen Beitrag zu unserem Bild der Entstehung und Entwicklung von Galaxien. In dieser Arbeit steuere ich verschiedene Beiträge dazu bei unser Verständnis des Vorkommens Schwarzer Löcher und der Beziehung zu ihren Galaxien zu verbessern. Zunächst versuche ich ein vollständiges Bild der Anzahl und Eigenschaften Schwarzer Löcher zu erhalten. Dazu beschränke ich mich auf aktive Schwarze Löcher, wie man sie im Universum als Aktive Galaxienkerne (AGN) in großen Himmelsdurchmusterungen finden kann. Ich benutze eine solche Durchmusterung, das Hamburg/ESO Survey (HES), um die AGN Population im lokalen Universum zu studieren. Dazu habe ich die optische Leuchtkraftfunktion von AGN bestimmt. Diese habe ich mit anderen Ergebnissen leuchtschwächerer AGN kombiniert um die bisher beste AGN Leuchtkraftfunktion im lokalen Universum zu erhalten. Der Vergleich mit Ergebnissen bei höherer kosmischer Rotverschiebung bestätigt unser Bild des sogenannten "AGN downsizing". Dies sagt aus, dass leuchtkräftige AGN bei hoher Rotverschiebung am häufigsten vorkommen, während leuchtschwache AGN bei niedriger Rotverschiebung am häufigsten sind. Allerdings verrät uns die AGN Leuchtkraftfunktion allein noch nicht das ganze Bild der Demographie Schwarzer Löcher. Vielmehr sind wir an den zugrunde liegenden Eigenschaften, vor allem der Masse und der Akkretionsrate der Schwarzen Löcher, sowie deren statistischen Verteilungsfunktionen, interessiert. Ich habe eine Methode entwickelt um diese beiden Verteilungsfunktionen zu bestimmen, basierend auf der Maximum-Likelihood-Methode. Ich habe diese Methode benutzt um die aktive Massenfunktion Schwarzer Löcher, sowie die Verteilungsfunktion ihrer Akkretionsraten für das lokale Universum aus dem HES zu bestimmen. Sowohl die Akkretionsraten, als auch die Massen der Schwarzen Löcher zeigen intrinsisch eine breite Verteilung, im Gegensatz zur schmaleren beobachtbaren Verteilung. Der Vergleich der aktiven Massenfunktion mit der gesamten Massenfunktion Schwarzer Löcher zeigt ebenfalls Hinweise auf "AGN downsizing". Als nächstes habe ich mich mit Untersuchungen zur zeitlichen Entwicklung in den Beziehungen zwischen Schwarzem Loch und Galaxie beschäftigt. Diese kann helfen unser theoretisches Veständnis der physikalischen Vorgänge zu verbessern. Beobachtungen sind immer auch Auswahleffekten unterworfen. Diese können die Schlussfolgerungen aus den Beobachtungen zur Entwicklung in den Beziehungen beeinflussen, wenn sie nicht entsprechend berücksichtigt werden. Ich habe den Einfluss von Auswahleffekten auf AGN Stichproben im Detail untersucht, und verschiedende möchgliche Einflussquellen identifiziert, die die Beziehung verfälschen können. Wenn die Auswahlkriterien der Stichprobe, sowie die zugrunde liegenden Verteilungen bekannt sind, so ist es möglich für die Auswahleffekte zu korrigieren. Ich habe eine Methode entwickelt, mit der man die intrinsische Beziehung zwischem Schwarzem Loch und Galaxie aus den Beobachtungen rekonstruieren kann. Schließlich habe ich mich auch inaktiven Schwarzen Löchern und der Bestimmung ihrer Massen gewidmet. Eine der wichtigsten Methoden die Masse Schwarzer Löcher in normalen Galaxien zu bestimmen ist stellardynamische Modellierung. Diese Methode benutzt photometrische und kinematische Beobachtungen, und rekonstruiert daraus das Gravitationspotenzial aus der Analyse stellarer Orbits. Bisher wurde in diesen Modellen allerdings der Einfluss des Halos aus Dunkler Materie vernachlässigt. Dieser kann aber die Bestimmung der Masse des Schwarzen Loches beeinflussen. Ich habe 12 Galaxien mit Hilfe stellardynamischer Modellierung untersucht und dabei auch den Einfluss des Halos aus Dunkler Materie berücksichtigt. Für Galaxien bei denen der Einflussbereich des Schwarzen Loches nicht sehr gut räumlich aufgelöst war, wird die Masse des Schwarzen Loches systematisch unterschätzt, wenn der Dunkle Materie Halo nicht berücksichtigt wird. Auf der anderen Seite ist der Einfluss gering, wenn die Beobachtungen diesen Einflussbereich gut auflösen können. KW - Astrophysik KW - Quasare KW - Schwarze Löcher KW - AGN KW - Statistik KW - astrophysics KW - quasars KW - black holes KW - AGN KW - statistics Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54464 ER - TY - THES A1 - Avila, Gastón T1 - Asymptotic staticity and tensor decompositions with fast decay conditions T1 - Asymptotisch statische Anfangsdaten und Tensor-Zerlegungen mit starken Abfallbedingungen N2 - Corvino, Corvino and Schoen, Chruściel and Delay have shown the existence of a large class of asymptotically flat vacuum initial data for Einstein's field equations which are static or stationary in a neighborhood of space-like infinity, yet quite general in the interior. The proof relies on some abstract, non-constructive arguments which makes it difficult to calculate such data numerically by using similar arguments. A quasilinear elliptic system of equations is presented of which we expect that it can be used to construct vacuum initial data which are asymptotically flat, time-reflection symmetric, and asymptotic to static data up to a prescribed order at space-like infinity. A perturbation argument is used to show the existence of solutions. It is valid when the order at which the solutions approach staticity is restricted to a certain range. Difficulties appear when trying to improve this result to show the existence of solutions that are asymptotically static at higher order. The problems arise from the lack of surjectivity of a certain operator. Some tensor decompositions in asymptotically flat manifolds exhibit some of the difficulties encountered above. The Helmholtz decomposition, which plays a role in the preparation of initial data for the Maxwell equations, is discussed as a model problem. A method to circumvent the difficulties that arise when fast decay rates are required is discussed. This is done in a way that opens the possibility to perform numerical computations. The insights from the analysis of the Helmholtz decomposition are applied to the York decomposition, which is related to that part of the quasilinear system which gives rise to the difficulties. For this decomposition analogous results are obtained. It turns out, however, that in this case the presence of symmetries of the underlying metric leads to certain complications. The question, whether the results obtained so far can be used again to show by a perturbation argument the existence of vacuum initial data which approach static solutions at infinity at any given order, thus remains open. The answer requires further analysis and perhaps new methods. N2 - Corvino, Corvino und Schoen als auch Chruściel und Delay haben die Existenz einer grossen Klasse asymptotisch flacher Anfangsdaten für Einsteins Vakuumfeldgleichungen gezeigt, die in einer Umgebung des raumartig Unendlichen statisch oder stationär aber im Inneren der Anfangshyperfläche sehr allgemein sind. Der Beweis beruht zum Teil auf abstrakten, nicht konstruktiven Argumenten, die Schwierigkeiten bereiten, wenn derartige Daten numerisch berechnet werden sollen. In der Arbeit wird ein quasilineares elliptisches Gleichungssystem vorgestellt, von dem wir annehmen, dass es geeignet ist, asymptotisch flache Vakuumanfangsdaten zu berechnen, die zeitreflektionssymmetrisch sind und im raumartig Unendlichen in einer vorgeschriebenen Ordnung asymptotisch zu statischen Daten sind. Mit einem Störungsargument wird ein Existenzsatz bewiesen, der gilt, solange die Ordnung, in welcher die Lösungen asymptotisch statische Lösungen approximieren, in einem gewissen eingeschränkten Bereich liegt. Versucht man, den Gültigkeitsbereich des Satzes zu erweitern, treten Schwierigkeiten auf. Diese hängen damit zusammen, dass ein gewisser Operator nicht mehr surjektiv ist. In einigen Tensorzerlegungen auf asymptotisch flachen Räumen treten ähnliche Probleme auf, wie die oben erwähnten. Die Helmholtzzerlegung, die bei der Bereitstellung von Anfangsdaten für die Maxwellgleichungen eine Rolle spielt, wird als ein Modellfall diskutiert. Es wird eine Methode angegeben, die es erlaubt, die Schwierigkeiten zu umgehen, die auftreten, wenn ein schnelles Abfallverhalten des gesuchten Vektorfeldes im raumartig Unendlichen gefordert wird. Diese Methode gestattet es, solche Felder auch numerisch zu berechnen. Die Einsichten aus der Analyse der Helmholtzzerlegung werden dann auf die Yorkzerlegung angewandt, die in den Teil des quasilinearen Systems eingeht, der Anlass zu den genannten Schwierigkeiten gibt. Für diese Zerlegung ergeben sich analoge Resultate. Es treten allerdings Schwierigkeiten auf, wenn die zu Grunde liegende Metrik Symmetrien aufweist. Die Frage, ob die Ergebnisse, die soweit erhalten wurden, in einem Störungsargument verwendet werden können um die Existenz von Vakuumdaten zu zeigen, die im räumlich Unendlichen in jeder Ordnung statische Daten approximieren, bleibt daher offen. Die Antwort erfordert eine weitergehende Untersuchung und möglicherweise auch neue Methoden. KW - Einsteins Feldgleichungen KW - Zwangsgleichungen KW - Tensor-Zerlegungen KW - raumartige Unendliche KW - elliptisches Gleichungssystem KW - Einstein's field equations KW - constraint equations KW - tensor decompositions KW - space-like infinity KW - elliptic systems Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54046 ER - TY - THES A1 - Kluth, Stephan T1 - Quantitative modeling and analysis with FMC-QE T1 - Quantitative Modellierung und Analyse mit FMC-QE N2 - The modeling and evaluation calculus FMC-QE, the Fundamental Modeling Concepts for Quanti-tative Evaluation [1], extends the Fundamental Modeling Concepts (FMC) for performance modeling and prediction. In this new methodology, the hierarchical service requests are in the main focus, because they are the origin of every service provisioning process. Similar to physics, these service requests are a tuple of value and unit, which enables hierarchical service request transformations at the hierarchical borders and therefore the hierarchical modeling. Through reducing the model complexity of the models by decomposing the system in different hierarchical views, the distinction between operational and control states and the calculation of the performance values on the assumption of the steady state, FMC-QE has a scalable applica-bility on complex systems. According to FMC, the system is modeled in a 3-dimensional hierarchical representation space, where system performance parameters are described in three arbitrarily fine-grained hierarchi-cal bipartite diagrams. The hierarchical service request structures are modeled in Entity Relationship Diagrams. The static server structures, divided into logical and real servers, are de-scribed as Block Diagrams. The dynamic behavior and the control structures are specified as Petri Nets, more precisely Colored Time Augmented Petri Nets. From the structures and pa-rameters of the performance model, a hierarchical set of equations is derived. The calculation of the performance values is done on the assumption of stationary processes and is based on fundamental laws of the performance analysis: Little's Law and the Forced Traffic Flow Law. Little's Law is used within the different hierarchical levels (horizontal) and the Forced Traffic Flow Law is the key to the dependencies among the hierarchical levels (vertical). This calculation is suitable for complex models and allows a fast (re-)calculation of different performance scenarios in order to support development and configuration decisions. Within the Research Group Zorn at the Hasso Plattner Institute, the work is embedded in a broader research in the development of FMC-QE. While this work is concentrated on the theoretical background, description and definition of the methodology as well as the extension and validation of the applicability, other topics are in the development of an FMC-QE modeling and evaluation tool and the usage of FMC-QE in the design of an adaptive transport layer in order to fulfill Quality of Service and Service Level Agreements in volatile service based environments. This thesis contains a state-of-the-art, the description of FMC-QE as well as extensions of FMC-QE in representative general models and case studies. In the state-of-the-art part of the thesis in chapter 2, an overview on existing Queueing Theory and Time Augmented Petri Net models and other quantitative modeling and evaluation languages and methodologies is given. Also other hierarchical quantitative modeling frameworks will be considered. The description of FMC-QE in chapter 3 consists of a summary of the foundations of FMC-QE, basic definitions, the graphical notations, the FMC-QE Calculus and the modeling of open queueing networks as an introductory example. The extensions of FMC-QE in chapter 4 consist of the integration of the summation method in order to support the handling of closed networks and the modeling of multiclass and semaphore scenarios. Furthermore, FMC-QE is compared to other performance modeling and evaluation approaches. In the case study part in chapter 5, proof-of-concept examples, like the modeling of a service based search portal, a service based SAP NetWeaver application and the Axis2 Web service framework will be provided. Finally, conclusions are given by a summary of contributions and an outlook on future work in chapter 6. [1] Werner Zorn. FMC-QE - A New Approach in Quantitative Modeling. In Hamid R. Arabnia, editor, Procee-dings of the International Conference on Modeling, Simulation and Visualization Methods (MSV 2007) within WorldComp ’07, pages 280 – 287, Las Vegas, NV, USA, June 2007. CSREA Press. ISBN 1-60132-029-9. N2 - FMC-QE (Fundamental Modeling Concepts for Quantitative Evaluation [1]) ist eine auf FMC, den Fundamental Modeling Concepts, basierende Methodik zur Modellierung des Leistungsverhaltens von Systemen mit einem dazugehörenden Kalkül zur Erstellung von Leistungsvorhersagen wie Antwortzeiten und Durchsatz. In dieser neuen Methodik steht die Modellierung der hierarchischen Bedienanforderungen im Mittelpunkt, da sie der Ursprung aller dienstbasierenden Systeme sind. Wie in der Physik sind in FMC-QE die Bedienanforderungen Tupel aus Wert und Einheit, um Auftragstransformationen an Hierarchiegrenzen zu ermöglichen. Da die Komplexität durch eine Dekomposition in mehreren Sichten und in verschiedene hierarchische Schichten, die Unterscheidung von Operations- und Kontrollzuständen, sowie dazugehörige Berechungen unter Annahme der Stationarität reduziert wird, skaliert die Anwendbarkeit von FMC-QE auf komplexe Systeme. Gemäß FMC wird das zu modellierende System in einem 3-dimensionalen hierarchischen Beschreibungsraum dargestellt. Die quantitativen Kenngrößen der Systeme werden in drei beliebig frei-granularen hierarchischen bi-partiten Graphen beschrieben. Die hierarchische Struktur der Bedienanforderungen wird in Entity Relationship Diagrammen beschrieben. Die statischen Bedienerstrukturen, unterteilt in logische und reale Bediener, sind in Aufbaudiagrammen erläutert. Außerdem werden Petri Netze, genauer Farbige Zeit-behaftete Petri Netze, dazu verwendet, die dynamischen Abläufe, sowie die Kontrollflüsse im System zu beschreiben. Anschließend wird eine Menge von hierarchischen Gleichungen von der Struktur und den Parametern des Modells abgeleitet. Diese Gleichungen, die auf dem stationären Zustand des Systems beruhen, basieren auf den beiden Fundamental Gesetzen der Leistungsanalyse, dem Gesetz von Little und dem Verkehrsflussgesetz. Das Gesetz von Little definiert hierbei Beziehungen innerhalb einer hierarchischen Schicht (horizontal) und das Verkehrsflussgesetz wiederum Beziehungen zwischen hierarchischen Schichten (vertikal). Die Berechungen erlauben Leistungsvorhersagen für komplexe Systeme durch eine effiziente Berechnung von Leistungsgrößen für eine große Auswahl von System- und Lastkonfigurationen. Innerhalb der Forschungsgruppe von Prof. Dr.-Ing Werner Zorn am Hasso Plattner Institut an der Universität Potsdam ist die vorliegende Arbeit in einen größeren Forschungskontext im Bereich FMC-QE eingebettet. Während hier ein Fokus auf dem theoretischen Hintergrund, der Beschreibung und der Definition der Methodik als auch der Anwendbarkeit und Erweiterung gelegt wurde, sind andere Arbeiten auf dem Gebiet der Entwicklung einer Anwendung zur Modellierung und Evaluierung von Systemen mit FMC-QE bzw. der Verwendung von FMC-QE zur Entwicklung einer adaptiven Transportschicht zur Einhaltung von Dienstgüten (Quality of Service) und Dienstvereinbarungen (Service Level Agreements) in volatilen dienstbasierten Systemen beheimatet. Diese Arbeit umfasst einen Einblick in den Stand der Technik, die Beschreibung von FMC-QE sowie die Weiterentwicklung von FMC-QE in repräsentativen allgemeinen Modellen und Fallstudien. Das Kapitel 2: Stand der Technik gibt einen Überblick über die Warteschlangentheorie, Zeit-behaftete Petri Netze, weitere Leistungsbeschreibungs- und Leistungsvorhersagungstechniken sowie die Verwendung von Hierarchien in Leistungsbeschreibungstechniken. Die Beschreibung von FMC-QE in Kapitel 3 enthält die Erläuterung der Grundlagen von FMC-QE, die Beschreibung einiger Grundannahmen, der graphischen Notation, dem mathematischen Modell und einem erläuternden Beispiel. In Kapitel 4: Erweiterungen von FMC-QE wird die Behandlung weiterer allgemeiner Modelle, wie die Modellklasse von geschlossenen Netzen, Synchronisierung und Mehrklassen-Modelle beschrieben. Außerdem wird FMC-QE mit dem Stand der Technik verglichen. In Kapitel 5 werden Machbarkeitsstudien beschrieben. Schließlich werden in Kapitel 6 eine Zusammenfassung und ein Ausblick gegeben. [1] Werner Zorn. FMC-QE - A New Approach in Quantitative Modeling. In Hamid R. Arabnia, editor, Proceedings of the International Conference on Modeling, Simulation and Visualization Methods (MSV 2007) within WorldComp ’07, 280 – 287, Las Vegas, NV, USA, Juni 2007. CSREA Press. ISBN 1-60132-029-9. KW - FMC-QE KW - Quantitative Modellierung KW - Leistungsvorhersage KW - Warteschlangentheorie KW - Zeitbehaftete Petri Netze KW - FMC-QE KW - Quantitative Modeling KW - Performance Prediction KW - Queuing Theory KW - Time Augmented Petri Nets Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52987 ER - TY - THES A1 - Off, Thomas T1 - Durchgängige Verfolgbarkeit im Vorfeld der Softwareentwicklung von E-Government-Anwendungen : ein ontologiebasierter und modellgetriebener Ansatz am Beispiel von Bürgerdiensten T1 - Continuous pre-requirements specification traceability for e-government : ontology based and model driven approach using the example of citizen services N2 - Die öffentliche Verwaltung setzt seit mehreren Jahren E-Government-Anwendungssysteme ein, um ihre Verwaltungsprozesse intensiver mit moderner Informationstechnik zu unterstützen. Da die öffentliche Verwaltung in ihrem Handeln in besonderem Maße an Recht und Gesetz gebunden ist verstärkt und verbreitet sich der Zusammenhang zwischen den Gesetzen und Rechtsvorschriften einerseits und der zur Aufgabenunterstützung eingesetzten Informationstechnik andererseits. Aus Sicht der Softwaretechnik handelt es sich bei diesem Zusammenhang um eine spezielle Form der Verfolgbarkeit von Anforderungen (engl. Traceability), die so genannte Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (Pre-Requirements Specification Traceability, kurz Pre-RS Traceability), da sie Aspekte betrifft, die relevant sind, bevor die Anforderungen in eine Spezifikation eingeflossen sind (Ursprünge von Anforderungen). Der Ansatz dieser Arbeit leistet einen Beitrag zur Verfolgbarkeit im Vorfeld der Anforderungsspezifikation von E-Government-Anwendungssystemen. Er kombiniert dazu aktuelle Entwicklungen und Standards (insbesondere des World Wide Web Consortium und der Object Management Group) aus den Bereichen Verfolgbarkeit von Anforderungen, Semantic Web, Ontologiesprachen und modellgetriebener Softwareentwicklung. Der Lösungsansatz umfasst eine spezielle Ontologie des Verwaltungshandeln, die mit den Techniken, Methoden und Werkzeugen des Semantic Web eingesetzt wird, um in Texten von Rechtsvorschriften relevante Ursprünge von Anforderungen durch Annotationen mit einer definierten Semantik zu versehen. Darauf aufbauend wird das Ontology Definition Metamodel (ODM) verwendet, um die Annotationen als spezielle Individuen einer Ontologie auf Elemente der Unified Modeling Language (UML) abzubilden. Dadurch entsteht ein neuer Modelltyp Pre-Requirements Model (PRM), der das Vorfeld der Anforderungsspezifikation formalisiert. Modelle diesen Typs können auch verwendet werden, um Aspekte zu formalisieren die sich nicht oder nicht vollständig aus dem Text der Rechtsvorschrift ergeben. Weiterhin bietet das Modell die Möglichkeit zum Anschluss an die modellgetriebene Softwareentwicklung. In der Arbeit wird deshalb eine Erweiterung der Model Driven Architecture (MDA) vorgeschlagen. Zusätzlich zu den etablierten Modelltypen Computation Independent Model (CIM), Platform Independent Model (PIM) und Platform Specific Model (PSM) könnte der Einsatz des PRM Vorteile für die Verfolgbarkeit bringen. Wird die MDA mit dem PRM auf das Vorfeld der Anforderungsspezifikation ausgeweitet, kann eine Transformation des PRM in ein CIM als initiale Anforderungsspezifikation erfolgen, indem der MOF Query View Transformation Standard (QVT) eingesetzt wird. Als Teil des QVT-Standards ist die Aufzeichnung von Verfolgbarkeitsinformationen bei Modelltransformationen verbindlich. Um die semantische Lücke zwischen PRM und CIM zu überbrücken, erfolgt analog zum Einsatz des Plattformmodells (PM) in der PIM nach PSM Transformation der Einsatz spezieller Hilfsmodelle. Es kommen dafür die im Projekt "E-LoGo" an der Universität Potsdam entwickelten Referenzmodelle zum Einsatz. Durch die Aufzeichnung der Abbildung annotierter Textelemente auf Elemente im PRM und der Transformation der Elemente des PRM in Elemente des CIM kann durchgängige Verfolgbarkeit im Vorfeld der Anforderungsspezifikation erreicht werden. Der Ansatz basiert auf einer so genannten Verfolgbarkeitsdokumentation in Form verlinkter Hypertextdokumente, die mittels XSL-Stylesheet erzeugt wurden und eine Verbindung zur graphischen Darstellung des Diagramms (z. B. Anwendungsfall-, Klassendiagramm der UML) haben. Der Ansatz unterstützt die horizontale Verfolgbarkeit zwischen Elementen unterschiedlicher Modelle vorwärts- und rückwärtsgerichtet umfassend. Er bietet außerdem vertikale Verfolgbarkeit, die Elemente des gleichen Modells und verschiedener Modellversionen in Beziehung setzt. Über den offensichtlichen Nutzen einer durchgängigen Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (z. B. Analyse der Auswirkungen einer Gesetzesänderung, Berücksichtigung des vollständigen Kontextes einer Anforderung bei ihrer Priorisierung) hinausgehend, bietet diese Arbeit eine erste Ansatzmöglichkeit für eine Feedback-Schleife im Prozess der Gesetzgebung. Stehen beispielsweise mehrere gleichwertige Gestaltungsoptionen eines Gesetzes zur Auswahl, können die Auswirkungen jeder Option analysiert und der Aufwand ihrer Umsetzung in E-Government-Anwendungen als Auswahlkriterium berücksichtigt werden. Die am 16. März 2011 in Kraft getretene Änderung des NKRG schreibt eine solche Analyse des so genannten „Erfüllungsaufwands“ für Teilbereiche des Verwaltungshandelns bereits heute verbindlich vor. Für diese Analyse kann die vorliegende Arbeit einen Ansatz bieten, um zu fundierten Aussagen über den Änderungsaufwand eingesetzter E-Government-Anwendungssysteme zu kommen. N2 - Public administration is using electronic government (e-government) application systems for several years to support their processes more intensive with modern information and communication technology than ever before. This increases and broadens the relationship between law and legislation executed by the administration on the one hand and requirements to e-government application systems used to support administrative execution on the other hand. This relationship is subject matter of pre-requirements specification traceability (pre-RS traceability). This work introduces an approach to pre-RS traceabiliy for e-government application. It combines research efforts and standards (i.e. of World Wide Web Consortium and Object Management Group) from different fields: traceability, semantic web, ontology engineering and model driven software engineering. Using this approach it is possible to add a semantic to elements of law and legislation texts using annotations. Annotation semantics is based on an ontology of public administration execution developed especially for this approach. A mapping from annotated text elements as a special kind of ontology individuals to elements of Unified Modeling Language (UML) is created using the Ontology Definition Metamodel (ODM). This mapping results in a new model type referred to as Pre-Requirements Model (PRM). This model uses elements that exist before requirements are explicitly documented in a requirements specification. Therefore it can be primary used to formalize elements and their relationships in the pre-requirements scope. Through the mapping rules of ODM it keeps a traceable relationship from each model element to its corresponding annotated text elements. PRM can also be used to model and refine elements that are not or not completely derived directly from text of law and legislation. In this work is argued that Model Driven Architecture (MDA) might profit from extending the existing model types Computation Independent Model (CIM), Platform Independent Model (PIM) and Platform Specific Model (PSM) by using a PRM. This extension leads to an Architecture that starts with a pre-requirements viewpoint before any requirements are formalized and documented in models of type CIM. It offers also the opportunity to use model transformation to create an initial CIM from PRM by allying the MOF Query View Transformation standard (QVT). Using QVT ensures the traceability of model transformation because standard enforces recording of traceability information. A Transformation from PRM to CIM creates an initial requirements specification that can be refined using common techniques, methods and tools. To bridge the semantic gap between PRM and CIM the approach follows the pattern of PIM to PSM transformation which uses the Platform Model (PM). Analogues PRM to CIM transformation uses special reference models for e-government developed in the project "E-LoGo" at university of Potsdam. By recoding traces of mapping annotation to elements in PRM and transforming elements of PRM to elements in CIM using reference models continuous pre-RS traceability can be achieved. The approach uses simple Extensible Stylesheet Language Transformations (XSLT) to create a hypertext documentation that links all relevant elements. Navigating along these links makes it possible for example to start with an annotated element of a law text and follow to all resulting requirements in a CIM. Using the opposite direction it is possible to see for each requirement from which text element of a law it is derived or even if there is no relation to law. By integrating the graphical representation of a model element this navigation can even start directly in a UML diagram. This illustrates that the approach offers vertical and horizontal traceability in forward and backward direction. Besides the obvious use cases continuous pre-requirements specification traceability offers in general (i.e. impact analysis on changes of law and legislation, consider context of a requirements when prioritizing them) is also offers the chance to create a feedback on the consequences of a change in law to existing e-government systems. As long as alternatives and the necessary scope in legislative process are still left, a feedback can be used to choose an alternative with less effort or faster implementation. For federal law it is in Germany since 2011 obligatory to make a similar estimation referred to as achievement effort (“Erfüllungsaufwand”). This work contributes to the first step of making a solid estimation of this kind of effort using pre-RS traceability. KW - Modellgetriebene Architektur KW - Pre-RS Traceability KW - Ontologie KW - semantisches Netz KW - Model Driven Architecture KW - Pre-RS Traceability KW - Ontology KW - Semantic Web Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57478 ER - TY - THES A1 - Mallien, Grit T1 - Explorative multizentrische Querschnittsstudie zur Diagnostik der Dysarthrie bei Progressiver Supranukleärer Blickparese - PSP T1 - Exploratory cross-sectional multicenter study on the diagnosis of dysarthria in progressive supranuclear palsy - PSP N2 - Die Progressive Supranukleäre Blickparese (PSP) ist eine sporadisch auftretende neurodegenerative Erkrankung im Rahmen der atypischen Parkinson-Syndrome (APS), die im frühen Verlauf häufig mit dem Idiopathischen Parkinson-Syndrom (IPS) verwechselt wird. Dabei ist die Dysarthrie als eine erworbene, zentral bedingte sprechmotorische Störung ein häufiges und früh auftretendes Symptom bei PSP. Bislang spricht man von einer eher unspezifischen „gemischten“ Dysarthrie aus hypokinetischen, spastischen und auch ataktischen Komponenten. Im Rahmen einer explorativen Querschnittsstudie am „Fachkrankenhaus für Bewegungsstörungen und Parkinson“ Beelitz-Heilstätten in Kooperation mit der „Entwicklungsgruppe Klinische Neuropsychologie“ München (EKN) sowie der „Interdisziplinären Ambulanz für Bewegungsstörungen“ am Klinikum München-Großhadern wurden 50 Patienten dahingehend untersucht, ob sich für die Progressive Supranukleäre Blickparese (PSP) eine spezielle, frühzeitig zu diagnostizierende und differentialdiagnostisch relevante Dysarthrie beschreiben ließe. In diesem Zusammenhang soll geklärt werden, ob es sich um phänotypische Ausprägungen im Rahmen eines Störungsspektrums handelt oder ob sich differenzierbare Subtypen der Krankheit, insbesondere ein „klassischer“ PSP-Typ (PSP-RS) und ein „atypischer“ PSP-Typ (PSP-P), auch im Bereich der Dysarthrie zeigen. Im Rahmen der Untersuchungen wurde der Schweregrad der Erkrankung mittels der „PSP-sensitiven Ratingskala (PSPRS)“ gemessen. Die Dysarthriediagnostik erfolgte anhand der „Bogenhausener Dysarthrieskalen (BoDyS)“ zur Beschreibung der Art und Ausprägung der Dysarthrie bei PSP. Die Verständlichkeit wurde mithilfe des „Münchner Verständlichkeits-Profils (MVP)" sowie eines weiteren Transkriptionsverfahrens ermittelt, wobei Ausschnitte aus den Tests zum Lesen und Nachsprechen der BoDyS zugrunde lagen. Weiterhin erfolgte eine Einschätzung der Natürlichkeit des Sprechens. Die Ergebnisse hinsichtlich des Einflusses von Natürlichkeit und Verständlichkeit des Sprechens auf den Schweregrad der Dysarthrie zeigten, dass dieser modalitätenübergreifend mit beiden Schweregradaspekten korreliert, wenngleich es offenbar die Natürlichkeit des Sprechens ist, die bei PSP bereits frühzeitig beeinträchtigt ist und somit als das entscheidende differentialdiagnostische Kriterium zur Differenzierung zwischen beiden PSP-Subtypen zu beurteilen ist, möglicherweise auch gegenüber anderen Parkinson-Syndromen. Anhand statistisch valider Ergebnisse konnten spezifische Störungsmerkmale der Dysarthrie extrahiert werden, die eine signifikante Trennung von PSP-RS und PSP-P ermöglichen: eine leise und behaucht-heisere Stimme sowie ein verlangsamtes Sprechtempo und Hypernasalität. Damit können für die hier fokussierten Subtypen der PSP zwei unterschiedliche Dysarthrietypen postuliert werden. Danach wird dem Subtyp PSP-RS eine spastisch betonte Dysarthrie mit ausgeprägter Verlangsamung des Sprechtempos zugeordnet, dem Subtyp PSP-P hingegen eine hypokinetische Dysarthrie mit behaucht-heiserer Hypophonie. Desweiteren konnte ein „Dysarthrie-Schwellenwert“ als Zusatzkriterium für eine zeitliche Differenzierung beider PSP-Subtypen ermittelt werden. Anhand der Daten zeigte sich die Dysarthrie bei dem Subtyp PSP-RS gleich zu Beginn der Erkrankung, jedoch spätestens 24 Monate danach. Hingegen konnte die Dysarthrie beim Subtyp PSP-P frühestens 24 Monate nach Erkrankungsbeginn festgestellt werden. Die Daten dieser Studie verdeutlichen, dass der Frage nach einer subtypenspezifischen Ausprägung der Dysarthrie bei PSP eine Längsschnittsstudie folgen sollte, um die ermittelten Ergebnisse zu konsolidieren. N2 - Progressive Supranuclear Palsy (PSP) is an atypical Parkinsonian syndrome characterized by gait ataxia, slowing or inability to generate vertical saccadic eye movements, axial rigidity, cognitive disorders and a progressive dysarthria. The dysarthria may include abnormalities in strength, speed, range, tone or accuracy of speech movements. As the disease progresses, important functional components of speech including respiration, phonation, resonance, articulation and prosody are affected. The question is what kind of dysarthria do we find in PSP? Until now it remains unclear, if the dysarthric characteristics of PSP vary in way as described by Williams et al. (2005) who found clinically distinct symptom patterns of a Parkinsonian form of PSP (PSP-P) distinct from a classical form (Richardson Syndrome). The aim of the cross-sectional multi center study was to investigate the specific dysarthric symptoms in patients with PSP. Until now it remains unclear, whether there are two different points on a continuous spectrum of speech disturbances or if there exist distinct „profiles“ of dysarthria according to the proposed Richardson Syndrome (PSP-RS) with early onset of postural instability and falls, vertical gaze palsy and cognitive dysfunctions and the PSP with Parkinsonism (PSP-P) with asymmetric onset, tremor, early bradykinesia, non-axial dystonia and response to levodopa medications in the beginning. „Bogenhausener Dysarthrieskalen“ (BoDys) was used as base-line dysarthria scale: pitch pattern, loudness range, voice quality, respiration and resonance capacities, prosody and articulation were rated. Furthermore, the intelligibility is a most important index of functional impairment in dysarthria. Therefore, the „Munich Intelligibility Profile (MVP)“, a computer-based method for the assessment of the intelligibility of dysarthric patients, was used to describe the intelligibility of the patients. The PSP-P-group, at the beginning frequently confused with patients with PD, showed rigide-hypokinetic dysarthric features with hypophonia as cardinal symptom. In contrast the patients with the “classical” PSP-RS-Type show severe speech impairments in terms of a very effortful speak with a progressive loss of intelligibility. They show spastic components of dysarthria, like a very strained-strangled voice with breaks and voice stoppages, harshness and reduced pitch and loudness variability. Their loudness often is inadequate in terms of the so called “lions voice”. Further they show a hypernasality, the articulation is imprecise, the vowels are distorted. Concerning the prosody there is a very slow and strained rate of speech with equal or excess stress. The results show that the patients with PSP-RS generally suffer from severe and more progressive speech impairments beginning early after disease onset, whereas the PSP-P-group shows rather moderate symptoms. The dysarthria in PSP is subtype-specific. The hypothesis of different dysarthric profiles for the proposed clinical subtypes "Richardson Syndrome" (PSP-RS) and "PSP with parkinsonism" (PSP-P) was confirmed and based on a discriminant analysis that identified distinctive dysarthric features for both subgroups. KW - Dysarthrie KW - PSP KW - PSP-RS KW - Richardson Syndrom KW - PSP-P KW - Merkmale KW - dysarthria KW - PSP-P KW - PSP-RS KW - Richardson Syndrome KW - PSP KW - dysarthric features Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58045 ER - TY - THES A1 - Loßow, Kristina T1 - Erzeugung und Charakterisierung von Mausmodellen mit lichtsensitivem Geschmackssystem zur Aufklärung der neuronalen Geschmackskodierung T1 - Generation and characterization of transgenic lines of mice to elucidate neuralnetworks engaged in processing of gustatory information N2 - Die Wahrnehmung von Geschmacksempfindungen beruht auf dem Zusammenspiel verschiedener Sinneseindrücke wie Schmecken, Riechen und Tasten. Diese Komplexität der gustatorischen Wahrnehmung erschwert die Beantwortung der Frage wie Geschmacksinformationen vom Mund ins Gehirn weitergeleitet, prozessiert und kodiert werden. Die Analysen zur neuronalen Prozessierung von Geschmacksinformationen erfolgten zumeist mit Bitterstimuli am Mausmodell. Zwar ist bekannt, dass das Genom der Maus für 35 funktionelle Bitterrezeptoren kodiert, jedoch war nur für zwei unter ihnen ein Ligand ermittelt worden. Um eine bessere Grundlage für tierexperimentelle Arbeiten zu schaffen, wurden 16 der 35 Bitterrezeptoren der Maus heterolog in HEK293T-Zellen exprimiert und in Calcium-Imaging-Experimenten funktionell charakterisiert. Die Daten belegen, dass das Funktionsspektrum der Bitterrezeptoren der Maus im Vergleich zum Menschen enger ist und widerlegen damit die Aussage, dass humane und murine orthologe Rezeptoren durch das gleiche Ligandenspektrum angesprochen werden. Die Interpretation von tierexperimentellen Daten und die Übertragbarkeit auf den Menschen werden folglich nicht nur durch die Komplexität des Geschmacks, sondern auch durch Speziesunterschiede verkompliziert. Die Komplexität des Geschmacks beruht u. a. auf der Tatsache, dass Geschmacksstoffe selten isoliert auftreten und daher eine Vielzahl an Informationen kodiert werden muss. Um solche geschmacksstoffassoziierten Stimuli in der Analyse der gustatorischen Kommunikationsbahnen auszuschließen, sollten Opsine, die durch Licht spezifischer Wellenlänge angeregt werden können, für die selektive Ersetzung von Geschmacksrezeptoren genutzt werden. Um die Funktionalität dieser angestrebten Knockout-Knockin-Modelle zu evaluieren, die eine Kopplung von Opsinen mit dem geschmacksspezifischen G-Protein Gustducin voraussetzte, wurden Oozyten vom Krallenfrosch Xenopus laevis mit dem Zwei-Elektroden-Spannungsklemm-Verfahren hinsichtlich dieser Interaktion analysiert. Der positiven Bewertung dieser Kopplung folgte die Erzeugung von drei Mauslinien, die in der kodierenden Region eines spezifischen Geschmacksrezeptors (Tas1r1, Tas1r2, Tas2r114) Photorezeptoren exprimierten. Durch RT-PCR-, In-situ-Hybridisierungs- und immunhistochemische Experimente konnte der erfolgreiche Knockout der Rezeptorgene und der Knockin der Opsine belegt werden. Der Nachweis der Funktionalität der Opsine im gustatorischen System wird Gegenstand zukünftiger Analysen sein. Bei erfolgreichem Beleg der Lichtempfindlichkeit von Geschmacksrezeptorzellen dieser Mausmodelle wäre ein System geschaffen, dass es ermöglichen würde, gustatorische neuronale Netzwerke und Hirnareale zu identifizieren, die auf einen reinen geschmacks- und qualitätsspezifischen Stimulus zurückzuführen wären. N2 - Taste impression is based on the interaction of taste, smell and touch. To evaluate the nutritious content of food mammals possess five distinct taste qualities: sweet, bitter, umami (taste of amino acids), sour and salty. For bitter, sweet, and umami compounds taste signaling is initiated by binding of tastants to G protein-coupled receptors. The interactions of taste stimuli, usually watersoluble chemicals, with their cognate receptors lead to the activation of the G protein gustducin, which, in turn, initiates a signal resulting in the activation of gustatory afferents. However, details of gustatory signal transmission and processing as well as neural coding are only incompletely understood. This is partly due to the property of some tastants to elicit several sensations simultaneously, unspecific effects caused by the temperature, viscosity, osmolarity, and pH of the solvents, as well as by mechanical stimulation of the tongue during stimulus application. The analysis of gustatory processing of taste information are mainly based on mouse models after stimulation with bitter taste stimuli. Even though it is known that the mouse genome codes for 35 bitter taste receptor genes only few of them had been analysed so far. For better understanding and interpretation of animal experiments 16 mouse bitter receptors had been analysed by Calcium Imaging experiments with HEK293T cells. The data reveal that mouse bitter taste receptors are more narrow tuned than human bitter taste receptors, proving that the ligand spectra of murine and human orthologous receptors are not complient. In order to avoid the disturbing effects of solvents and stimulus application on the analysis of gustatory information transfer and processing, I employ an optogenetical approach to address this problem. For this purpose I generated three strains of gene-targeted mice in which the coding regions of the genes for the umami receptor subunit Tas1r1, the sweet receptor subunit Tas1r2 or the bitter taste receptor Tas2r114 have been replaced by the coding sequences of different opsins (photoreceptors of visual transduction) that are sensitive to light of various wavelengths. In these animals I should be able to activate sweet, bitter, or umami signalling by light avoiding any solvent effects. In initial experiments of this project I demonstrated that the various visual opsins indeed functionally couple to taste signal transduction pathway in oocyte expression system, generating basic knowledge and foundation for the generation of the gene-targeted animals. The knockout-knockin strategies have been successfully realized in the case of all three mouse models, revealed by RT-PCR, in situ hybridization and immunohistochemical analysis of taste papillae. All data confirm that the particular taste receptors have been replaced by the different opsins in taste cells. Further analysis concerning the functional consequences of opsin knockin and taste receptor knockout are part of prospective work. KW - Geschmack KW - G-Protein-gekoppelte Rezeptoren KW - Bitterrezeptoren KW - Optogenetik KW - taste KW - G protein-coupled receptors KW - bitter taste receptors KW - optogenetic Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58059 ER - TY - THES A1 - Spreyer, Kathrin T1 - Does it have to be trees? : Data-driven dependency parsing with incomplete and noisy training data T1 - Müssen es denn Bäume sein? Daten-gesteuertes Dependenzparsing mit unvollständigen und verrauschten Trainingsdaten N2 - We present a novel approach to training data-driven dependency parsers on incomplete annotations. Our parsers are simple modifications of two well-known dependency parsers, the transition-based Malt parser and the graph-based MST parser. While previous work on parsing with incomplete data has typically couched the task in frameworks of unsupervised or semi-supervised machine learning, we essentially treat it as a supervised problem. In particular, we propose what we call agnostic parsers which hide all fragmentation in the training data from their supervised components. We present experimental results with training data that was obtained by means of annotation projection. Annotation projection is a resource-lean technique which allows us to transfer annotations from one language to another within a parallel corpus. However, the output tends to be noisy and incomplete due to cross-lingual non-parallelism and error-prone word alignments. This makes the projected annotations a suitable test bed for our fragment parsers. Our results show that (i) dependency parsers trained on large amounts of projected annotations achieve higher accuracy than the direct projections, and that (ii) our agnostic fragment parsers perform roughly on a par with the original parsers which are trained only on strictly filtered, complete trees. Finally, (iii) when our fragment parsers are trained on artificially fragmented but otherwise gold standard dependencies, the performance loss is moderate even with up to 50% of all edges removed. N2 - Wir präsentieren eine neuartige Herangehensweise an das Trainieren von daten-gesteuerten Dependenzparsern auf unvollständigen Annotationen. Unsere Parser sind einfache Varianten von zwei bekannten Dependenzparsern, nämlich des transitions-basierten Malt-Parsers sowie des graph-basierten MST-Parsers. Während frühere Arbeiten zum Parsing mit unvollständigen Daten die Aufgabe meist in Frameworks für unüberwachtes oder schwach überwachtes maschinelles Lernen gebettet haben, behandeln wir sie im Wesentlichen mit überwachten Lernverfahren. Insbesondere schlagen wir "agnostische" Parser vor, die jegliche Fragmentierung der Trainingsdaten vor ihren daten-gesteuerten Lernkomponenten verbergen. Wir stellen Versuchsergebnisse mit Trainingsdaten vor, die mithilfe von Annotationsprojektion gewonnen wurden. Annotationsprojektion ist ein Verfahren, das es uns erlaubt, innerhalb eines Parallelkorpus Annotationen von einer Sprache auf eine andere zu übertragen. Bedingt durch begrenzten crosslingualen Parallelismus und fehleranfällige Wortalinierung ist die Ausgabe des Projektionsschrittes jedoch üblicherweise verrauscht und unvollständig. Gerade dies macht projizierte Annotationen zu einer angemessenen Testumgebung für unsere fragment-fähigen Parser. Unsere Ergebnisse belegen, dass (i) Dependenzparser, die auf großen Mengen von projizierten Annotationen trainiert wurden, größere Genauigkeit erzielen als die zugrundeliegenden direkten Projektionen, und dass (ii) die Genauigkeit unserer agnostischen, fragment-fähigen Parser der Genauigkeit der Originalparser (trainiert auf streng gefilterten, komplett projizierten Bäumen) annähernd gleichgestellt ist. Schließlich zeigen wir mit künstlich fragmentierten Gold-Standard-Daten, dass (iii) der Verlust an Genauigkeit selbst dann bescheiden bleibt, wenn bis zu 50% aller Kanten in den Trainingsdaten fehlen. KW - Dependenzparsing KW - partielle Annotationen KW - schwach überwachte Lernverfahren KW - Annotationsprojektion KW - Parallelkorpora KW - dependency parsing KW - partial annotations KW - weakly supervised learning techniques KW - annotation projection KW - parallel corpora Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57498 ER - TY - THES A1 - Wulf, Hendrik T1 - Seasonal precipitation, river discharge, and sediment flux in the western Himalaya T1 - Saisonaler Niederschlag, Wasserabfluss und Sedimentationsfluss im westlichen Himalaya N2 - Rainfall, snow-, and glacial melt throughout the Himalaya control river discharge, which is vital for maintaining agriculture, drinking water and hydropower generation. However, the spatiotemporal contribution of these discharge components to Himalayan rivers is not well understood, mainly because of the scarcity of ground-based observations. Consequently, there is also little known about the triggers and sources of peak sediment flux events, which account for extensive hydropower reservoir filling and turbine abrasion. We therefore lack basic information on the distribution of water resources and controls of erosion processes. In this thesis, I employ various methods to assess and quantify general characteristics of and links between precipitation, river discharge, and sediment flux in the Sutlej Valley. First, I analyze daily precipitation data (1998-2007) from 80 weather stations in the western Himalaya, to decipher the distribution of rain- and snowfall. Rainfall magnitude frequency analyses indicate that 40% of the summer rainfall budget is attributed to monsoonal rainstorms, which show higher variability in the orogenic interior than in frontal regions. Combined analysis of rainstorms and sediment flux data of a major Sutlej River tributary indicate that monsoonal rainfall has a first order control on erosion processes in the orogenic interior, despite the dominance of snowfall in this region. Second, I examine the contribution of rainfall, snow and glacial melt to river discharge in the Sutlej Valley (s55,000 km2), based on a distributed hydrological model, which covers the period 2000-2008. To achieve high spatial and daily resolution despite limited ground-based observations the hydrological model is forced by daily remote sensing data, which I adjusted and calibrated with ground station data. The calibration shows that the Tropical Rainfall Measuring Mission (TRMM) 3B42 rainfall product systematically overestimates rainfall in semi-arid and arid regions, increasing with aridity. The model results indicate that snowmelt-derived discharge (74%) is most important during the pre-monsoon season (April to June) whereas rainfall (56%) and glacial melt (17%) dominate the monsoon season (July-September). Therefore, climate change most likely causes a reduction in river discharge during the pre-monsoon season, which especially affects the orogenic interior. Third, I investigate the controls on suspended sediment flux in different parts of the Sutlej catchments, based on daily gauging data from the past decade. In conjunction with meteorological data, earthquake records, and rock strength measurements I find that rainstorms are the most frequent trigger of high-discharge events with peaks in suspended sediment concentrations (SSC) that account for the bulk of the suspended sediment flux. The suspended sediment flux increases downstream, mainly due to increases in runoff. Pronounced erosion along the Himalayan Front occurs throughout the monsoon season, whereas efficient erosion of the orogenic interior is confined to single extreme events. The results of this thesis highlight the importance of snow and glacially derived melt waters in the western Himalaya, where extensive regions receive only limited amounts of monsoonal rainfall. These regions are therefore particularly susceptible to global warming with major implications on the hydrological cycle. However, the sediment discharge data show that infrequent monsoonal rainstorms that pass the orographic barrier of the Higher Himalaya are still the primary trigger of the highest-impact erosion events, despite being subordinate to snow and glacially–derived discharge. These findings may help to predict peak sediment flux events and could underpin the strategic development of preventative measures for hydropower infrastructures. N2 - Regen, Schnee- und Gletscherschmelze speisen die Flüsse des Himalajas, die eine große Bedeutung für die Landwirtschaft, Trinkwasserversorgung und Wasserkraftnutzung in Südasien aufweisen. Welchen Anteil die einzelnen Abflusskomponenten am Gesamtabfluss in Raum und Zeit besitzen, ist jedoch kaum quantifiziert, da es in der entlegenen Region an Bodenmessstationen mangelt. Aus diesem Grund ist auch wenig über die Auslöser und Herkunftsgebiete von hohen Sedimentaustragsereignissen bekannt, die im erheblichen Maße dazu beitragen, dass die Kapazität vonWasserkraftreservoiren abnimmt undWasserkraftturbinen abradieren. Daher fehlen bisher grundlegende Informationen zur räumlichen Verteilung von Wasserressourcen und zu den Ursachen von Erosionsprozessen. In dieser Arbeit benutze ich verschiedene Methoden um die Eigenschaften von und die Beziehungen zwischen Niederschlag, Abflussmenge und Sedimentaustrag im Sutlej-Tal zu untersuchen. In einer ersten Studie analysiere ich Tagesniederschläge (1998-2007) von 80 Wetterstationen aus dem westlichen Himalaja, um die räumliche Verteilung von Regen- und Schneeniederschlägen zu charakterisieren. Die weitere Analyse der Magnituden-Häufigkeitsverteilung von Regenfällen zeigt, dass 40% der sommerlichen Niederschläge auf monsunale Starkregenereignisse zurückgehen, die eine höhere Variabilität im Gebirgsinneren aufweisen als an der Gebirgsfront. Die Kombination von Niederschlagsdaten mit Sedimentaustragsdaten für einen der größten Zuflüsse des Sutlejs zeigt, dass monsunaler Niederschlag der primäre Auslöser von Erosionsprozessen im Gebirgsinneren ist, ungeachtet größerer Abflussmengen durch Schnee- und Gletscherschmelze. In einer zweiten Studie untersuche ich den Beitrag von Regen, Schnee- und Gletscherschmelze zur Abflussmenge im Sutlej-Tal (s55.000 km2) mit Hilfe eines hydrologischen Modells für den Jahreszeitraum 2000-2008. Um trotz der begrenzten Bodenmessungen eine hohe räumliche und zeitliche Auflösung zu erzielen, basiert das Modell auf täglichen Fernerkundungsdaten, die ich mit allen verfügbaren Bodenstationsdaten kalibriert und an diese angepasst habe. Die Kalibrierung zeigt, dass das Regenniederschlagsprodukt 3B42 der „Tropical Rainfall Measuring Mission“ (TRMM) den Bodenniederschlag in den semi-ariden bis ariden Gebirgsregionen mit zunehmender Trockenheit systematisch überschätzt. Die Modellierungsergebnisse verdeutlichen, dass die Schneeschmelze den bedeutendsten Beitrag zur Abflussmenge (74 %) zwischen April und Juni aufbringt, während Regen (56%) und Gletscherschmelze (17%) die Monsunsaison (Juli-September) prägen. Daher ist anzunehmen, dass der Klimawandel zu einer Verringerung der Abflussmenge zwischen April und Juni führen wird, was sich besonders auf das Gebirgsinnere auswirkt. In einer dritten Studie untersuche ich mit Hilfe von täglichen Messdaten der letzten Dekade die Ursachen und Eigenschaften des Sedimentaustrags in verschiedenen Bereichen des Sutlej-Einzugsgebietes. Auf der Grundlage von meteorologischen Daten, Erdbebenaufzeichnungen und Gesteinsfestigkeitsmessungen identifiziere ich Starkregenereignisse als häufigste Ursache für extreme Erosionsereignisse, die einen Großteil des gesamten Sedimentaustrags ausmachen. Großräumig betrachtet nimmt der Sedimentaustrag flussabwärts zu, was hauptsächlich auf den Anstieg der Abflussmenge zurückzuführen ist. Zur Monsunzeit treten Erosionsprozesse entlang der Himalajafront besonders häufig auf, während im Gebirgsinneren die Erosion auf einzelne Extremereignisse beschränkt ist. Die Ergebnisse dieser Arbeit untersteichen die Bedeutung von Schnee- und Gletscherschmelze im westlichen Himalaja, in dem große Gebiete nur vereinzelt von monsunalen Niederschlägen erreicht werden. Diese Gebiete sind daher besonders anfällig für den Klimawandel mit weitreichenden Konsequenzen für den Wasserhaushalt in der Region. Die Analyse von Sedimentaustragsdaten zeigt jedoch, dass vereinzelte monsunale Regenstürme, welche die topographische Barriere des Himalaja überqueren, die primäre Ursache von extremen Erosionsereignissen sind, trotz der größeren Abflussmengen von Schnee- und Gletscherschmelze im Gebirgsinneren. Diese Ergebnisse können dazu beitragen, große Erosionsereignisse vorherzusagen und vorbeugende Maßnahmen zum Schutz von Wasserkraftanlagen zu entwickeln. KW - Klimawandel KW - Erosion KW - Monsun KW - Regensturm KW - Suspendsionsfracht KW - climate change KW - erosion KW - monsoon KW - rainstorm KW - suspended sediment Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57905 ER - TY - THES A1 - Malik, Nishant T1 - Extremes in events and dynamics : a nonlinear data analysis perspective on the past and present dynamics of the Indian summer monsoon N2 - To identify extreme changes in the dynamics of the Indian Summer Monsoon (ISM) in the past, I propose a new approach based on the quantification of fluctuations of a nonlinear similarity measure, to identify regimes of distinct dynamical complexity in short time series. I provide an analytical derivation for the relationship of the new measure with the dynamical invariants such as dimension and Lyapunov exponents of the underlying system. A statistical test is also developed to estimate the significance of the identified transitions. Our method is justified by uncovering bifurcation structures in several paradigmatic models, providing more complex transitions compared with traditional Lyapunov exponents. In a real world situation, we apply the method to identify millennial-scale dynamical transitions in Pleistocene proxy records of the south Asian summer monsoon system. We infer that many of these transitions are induced by the external forcing of solar insolation and are also affected by internal forcing on Monsoonal dynamics, i.e., the glaciation cycles of the Northern Hemisphere and the onset of the tropical Walker circulation. Although this new method has general applicability, it is particularly useful in analysing short palaeo-climate records. Rainfall during the ISM over the Indian subcontinent occurs in form of enormously complex spatiotemporal patterns due to the underlying dynamics of atmospheric circulation and varying topography. I present a detailed analysis of summer monsoon rainfall over the Indian peninsular using Event Synchronization (ES), a measure of nonlinear correlation for point processes such as rainfall. First, using hierarchical clustering I identify principle regions where the dynamics of monsoonal rainfall is more coherent or homogenous. I also provide a method to reconstruct the time delay patterns of rain events. Moreover, further analysis is carried out employing the tools of complex network theory. This study provides valuable insights into the spatial organization, scales, and structure of the 90th and 94th percentile rainfall events during the ISM (June to September). I furthermore analyse the influence of different critical synoptic atmospheric systems and the impact of the steep Himalayan topography on rainfall patterns. The presented method not only helps in visualising the structure of the extremeevent rainfall fields, but also identifies the water vapor pathways and decadal-scale moisture sinks over the region. Furthermore a simple scheme based on complex networks is presented to decipher the spatial intricacies and temporal evolution of monsoonal rainfall patterns over the last six decades. Some supplementary results on the evolution of monsoonal rainfall extremes over the last sixty years are also presented. N2 - Um Extremereignisse in der Dynamik des indischen Sommermonsuns (ISM) in der geologischen Vergangenheit zu identifizieren, schlage ich einen neuartigen Ansatz basierend auf der Quantifikation von Fluktuationen in einem nichtlinearen Ähnlichkeitsmaß vor. Dieser reagiert empfindlich auf Zeitabschnitte mit deutlichen Veränderungen in der dynamischen Komplexität kurzer Zeitreihen. Ein mathematischer Zusammenhang zwischen dem neuen Maß und dynamischen Invarianten des zugrundeliegenden Systems wie fraktalen Dimensionen und Lyapunovexponenten wird analytisch hergeleitet. Weiterhin entwickle ich einen statistischen Test zur Schätzung der Signifikanz der so identifizierten dynamischen Übergänge. Die Stärken der Methode werden durch die Aufdeckung von Bifurkationsstrukturen in paradigmatischen Modellsystemen nachgewiesen, wobei im Vergleich zu den traditionellen Lyapunovexponenten eine Identifikation komplexerer dynamischer Übergänge möglich ist. Wir wenden die neu entwickelte Methode zur Analyse realer Messdaten an, um ausgeprägte dynamische Veränderungen auf Zeitskalen von Jahrtausenden in Klimaproxydaten des südasiatischen Sommermonsunsystems während des Pleistozäns aufzuspüren. Dabei zeigt sich, dass viele dieser Übergänge durch den externen Einfluss der veränderlichen Sonneneinstrahlung, sowie durch dem Klimasystem interne Einflussfaktoren auf das Monsunsystem (Eiszeitzyklen der nördlichen Hemisphäre und Einsatz der tropischenWalkerzirkulation) induziert werden. Trotz seiner Anwendbarkeit auf allgemeine Zeitreihen ist der diskutierte Ansatz besonders zur Untersuchung von kurzen Paläoklimazeitreihen geeignet. Die während des ISM über dem indischen Subkontinent fallenden Niederschläge treten, bedingt durch die zugrundeliegende Dynamik der atmosphärischen Zirkulation und topographische Einflüsse, in äußerst komplexen, raumzeitlichen Mustern auf. Ich stelle eine detaillierte Analyse der Sommermonsunniederschläge über der indischen Halbinsel vor, die auf Ereignissynchronisation (ES) beruht, einem Maß für die nichtlineare Korrelation von Punktprozessen wie Niederschlagsereignissen. Mit hierarchischen Clusteringalgorithmen identifiziere ich zunächst Regionen mit besonders kohärenten oder homogenen Monsunniederschlägen. Dabei können auch die Zeitverzögerungsmuster von Regenereignissen rekonstruiert werden. Darüber hinaus führe ich weitere Analysen auf Basis der Theorie komplexer Netzwerke durch. Diese Studien ermöglichen wertvolle Einsichten in räumliche Organisation, Skalen und Strukturen von starken Niederschlagsereignissen oberhalb der 90% und 94% Perzentilen während des ISM (Juni bis September). Weiterhin untersuche ich den Einfluss von verschiedenen, kritischen synoptischen Systemen der Atmosphäre sowie der steilen Topographie des Himalayas auf diese Niederschlagsmuster. Die vorgestellte Methode ist nicht nur geeignet, die Struktur extremer Niederschlagsereignisse zu visualisieren, sondern kann darüber hinaus über der Region atmosphärische Transportwege von Wasserdampf und Feuchtigkeitssenken auf dekadischen Skalen identifizieren.Weiterhin wird ein einfaches, auf komplexen Netzwerken basierendes Verfahren zur Entschlüsselung der räumlichen Feinstruktur und Zeitentwicklung von Monsunniederschlagsextremen während der vergangenen 60 Jahre vorgestellt. T2 - Extrema in Ereignissen und Dynamiken : historische und heutige Dynamik des Indischen Sommer-Monsuns aus der Perspektive nichtlinearer Datenanalyse KW - nichtlineare Datenanalyse KW - Paläoklimatologie KW - Indischer Sommer-Monsun KW - Extremereignisse KW - komplexe Netzwerke KW - nonlinear time series analysis KW - Paleoclimatology KW - Indian summer monsoon KW - extreme events KW - complex networks Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58016 ER - TY - THES A1 - Partskhaladze, Vakhtang T1 - Development perspectives of small and medium businesses in Georgia T1 - Entwicklungsperspektiven der kleinen und mittleren Unternehmen in Georgien N2 - After the collapse of the Soviet Union the former member states have started the transformation process. The transformation process from planned to market economy includes not only the adaptation of the economy to the new market rules but also the profound social and political transformation. For this reason such processes present huge challenges to affected societies. The transformational recession in Georgia was significantly enhanced by the civil war and by ethnic conflicts in Abkhazia and South Ossetia. During the ethnic conflicts and civil war the business and technical infrastructure were damaged and most of them were completely destroyed. Poverty and political instability were predominated. The trade relations with the member countries of Council of Mutual Economic Assistance (Comecon) were aborted. Moreover, the conflict in South Ossetia hampered the power supply from Russia and a conflict in Abkhazia, the production and trade with tea and citruses, which were major trade commodities at that time. In the beginning of 90-ies, Georgian government with the assistance of international organizations, such as International Monetary Fund and World Bank started to elaborate political and economical reforms. The reforms included several aspects, such as the transfer of public assets to private through privatization, the liberalization of domestic market and trade and the creation of market-oriented institutions. Because of lack in implementation neither economical nor political transformation has been achieved. For instance, by the begin of market oriented reforms the awareness of policy makers about the importance of entrepreneurship, in particular small and medium ones for the economy was low. The absence of previous experience prevented the elaboration of appropriate policy instruments and methods for the development of competitive market economy. The stimulation of private sector has been generally neglected. This had a severe affect on political, social and economical problems, which still hampers the development of middle class in Georgia. The presented research indicates that productive entrepreneurship is a driving force of an economy. The entrepreneurial activities on the one hand facilitate the resource allocation and on the other through the development of new products and services urge the competition. Furthermore, they contribute to technological improvements through innovation, create jobs and thus boost the economic and social development of a particular region or country. However, it is important that the legal and institutional framework is appropriately settled. Unlike mature market economies, Georgia is not characterized by well-developed sector of small and medium sized businesses. Most existing SMEs are operating in local markets and predominantly in the shadow economy. It is also noteworthy that small business in Georgia belongs to so called “mom and pop” rather than to innovative, growth oriented businesses. They are mostly engaged in trade and craft. In addition of poor performance, the business activity of SMEs is very centralized. The vast majority of them are operating in the capital Tbilisi. The poor performance of small and medium businesses in Georgia and their negligence by the market forces is among others due to the armed conflicts and state failure. As in the beginning of transformation process, down to the present day, the state fails to provide necessary conditions, such as rule of law, the protection of property rights and competition, transparent and uncorrupted public administration. The result is the weak middle class. The weak middle class by itself has a negative impact on economic development and democratization process in Georgia. N2 - Nach dem Zusammenbruch der Sowjetunion haben die ehemaligen Mitgliedstaaten angefangen, ihre Wirtschaftssysteme zu transformieren. Beim Prozess der Transformation von einer Planwirtschaft zu einer Marktwirtschaft handelt es sich um mehr als um einen Prozess der wirtschaftlichen Umwandlung: Er beinhaltete sowohl einen tiefgreifenden sozialen als auch einen politischen Wandel. Aus diesem Grund stellen derartige Transformationsprozesse eine große Herausforderung für die betroffenen Gesellschaften dar. Die transformationsbedingte Rezession in Georgien wurde in der Anfangszeit durch den Bürgerkrieg und ethnische Konflikte wesentlich verstärkt. Im Laufe der Kriegszeit wurden sowohl die technische als auch die geschäftliche Infrastruktur im Wesentlichen zerstört. Es herrschten Armut und politische Instabilität. Die Handelsbeziehungen mit Mitgliedstaaten des Rates für Gegenseitige Wirtschaftshilfe (RGW) wurden abgebrochen. Zudem behinderte einerseits der Krieg in Südossetien Energielieferungen aus Russland andererseits schwächte der Krieg in Abchasien die Produktion von Zitrusgewächsen und Tee sowie den Handel mit ihnen. Diese Produkte gehörten damals zu den wesentlichen Exportgütern von Georgien. Im Jahr 1994 wurden die marktwirtschaftlichen Reformen in Georgien durch den Internationalen Währungsfonds und die Weltbank unterstützt. Die Unterstützungsmaßnahmen konzentrierten sich zunächst auf den Privatisierungsprozess, auf die Stabilisierung und die Liberalisierung der Märkte. Die Stabilisierungs-und Liberalisierungsmaßnahmen wurden durch diese Unterstützung effektiv durchgeführt. Dadurch wurde ein gewisses Maß an wirtschaftlicher Stabilisierung erreicht, was jedoch die Privatisierung anbetrifft, blieben die Ergebnisse des Prozesses insgesamt mangelhaft. Es ist ganz offensichtlich, dass mit dem Beginn der marktwirtschaftlichen Reformen das Bewusstsein für die volkswirtschaftliche Bedeutung des Unternehmertums, insbesondere der KMU, unter den politischen Entscheidungsträgern allerdings nicht mit der notwendigen Geschwindigkeit gewachsen ist. Die Rolle der kleinen und mittleren Unternehmen für die Volkswirtschaft sowie die Instrumente und Methoden, um eine moderne wettbewerbsfähige Marktwirtschaft aufzubauen und institutionell zu kräftigen, waren den Entscheidungsträgern in den Georgien aus Mangel an früheren Erfahrungen zunächst unbekannt. Deswegen wurde es versäumt, Maßnahmen zur Förderung der kleinen und mittleren Unternehmen zu erarbeiten. Dies führt bis heute zu transformationsbedingten politischen, wirtschaftlichen und sozialen Problemen, welche die Entstehung eines starken Mittelstands bremsen. Die Ergebnisse der Forschung zeigen, dass auf die makroökonomische Ebene bezogen das produktive „Entrepreneurship“ einen Schlüssel zu Wachstum und Dynamik der Wirtschaft darstellt. Unternehmerische Aktivitäten ermöglichen einerseits eine effiziente Allokation der Ressourcen, andererseits treiben sie durch die Entwicklung neuer Produkte und Dienstleistungen den Wettbewerb an. Darüber hinaus erfüllen sie im praktischen Wirtschaftsleben aber noch weitere wichtige Funktionen: Vor allem gewährleisten sie den technischen Fortschritt, indem sie Innovationen durchsetzen, sie tragen zum Entstehen von Arbeitsplätzen bei und beschleunigen die wirtschaftliche und gesellschaftliche Entwicklung, indem sie brach liegende Potenziale mobilisieren. Es ist jedoch unbedingt notwendig, dass die rechtlichen und institutionellen Rahmenbedingungen korrekt festgesetzt sind, damit die Entrepreneure diese Ziele erreichen können. Die Analyse des Status quo in Georgien hat verdeutlicht, dass die überwiegende Zahl der kleinen und mittleren Unternehmen in den Bereichen Handel und Dienstleistungen beschäftigt ist. Die Tätigkeit von vielen davon ist eher als „Proprietorship“ statt „Entrepreneurship“ zu charakterisieren. Die Ursache, dass sich in Georgien eine unproduktive Form unternehmerischer Tätigkeit entwickelt hat, ist u. a. auf Staatsversagen zurückzuführen. Wie in der Anfangsphase versagt der Staat bis heute bei der Bereitstellung der notwendigen Rahmenbedingungen und der Festlegung gerechter Spielregeln, und darunter leiden kleine und mittlere Unternehmen stärker als die großen. Da die notwendigen Rahmenbedingungen in Georgien noch nicht im gewünschten Maße bereitgestellt sind, und die Institutionen einfach fehlen, erschwert das weiter die Funktion der Märkte, sodass die kleinen und mittleren Unternehmen auch durch die Märkte benachteiligt werden. KW - Kleine und mittlere Unternehmen in Georgien KW - Unternehmenspolitik in Georgien KW - Transformation in Georgien KW - Small and medium businesses in Georgia KW - Entrepreneurship in Georgia KW - SME-Policy in Georgia Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66397 ER - TY - THES A1 - Krehl, Susanne T1 - Das Selenoprotein Glutathionperoxidase-2 : physiologische Funktion und Einfluss auf die entzündungsassoziierte Colonkarzinogenese T1 - The selenoprotein glutathione peroxidase-2 : physiological function and influence on inflammation triggered coloncarcinogenesis N2 - Bei der Entdeckung der Glutathionperoxidase-2 (GPx2) wurde zunächst davon ausgegangen, dass die Funktion dieses Enzyms im Kryptengrund des Colons einzig in der Reduktion von H2O2 besteht. Im Laufe der weiteren Erforschung zeigte sich, dass GPx2 auch in verschiedenen Tumorgeweben vermehrt exprimiert wird. Dabei wird diskutiert, ob die Wirkung von GPx2 im Tumor eher als pro- oder als antikarzinogen einzustufen ist. Mehrere Experimente in vitro und in vivo zeigten antiinflammatorische Eigenschaften der GPx2. Aufgrund dieser Befunde wird derzeit über weitere Funktionen der GPx2 spekuliert. In dieser Arbeit wurde die physiologische Funktion von GPx2 näher erforscht, dazu wurden Wildtyp- und GPx2-Knockout-Mäuse in Hinblick auf Veränderungen der Enzymexpression und der Colonmorphologie untersucht. Es wurden drei verschiedene Selendiäten verfüttert: selenarmes, selenadäquates und selensupplementiertes Futter. Unter physiologischen Bedingungen ist am Kryptengrund des Colons, innerhalb der proliferierenden Zone, die Mitoserate am höchsten. Der Großteil der apoptotischen Zellen ist hingegen an der Kryptenspitze vorzufinden. Durch den Knockout von GPx2 kam es zu einer signifikanten Erhöhung der Apoptoserate am Kryptengrund. Dabei war der größte Effekt auf selenarmem Futter zu verzeichnen. Hierbei wurde sogar eine Veränderung der Colonmorphologie dokumentiert, da die Verschiebung der Proliferationszone in Richtung Kryptenspitze eine Verlängerung der Krypten nach sich zog. Im Wildtyp wurden keine Apoptosen im Kryptengrund detektiert. GPx1 wird unter physiologischen Bedingungen im Gegensatz zur GPx2 in der Kryptenspitze exprimiert und ist im Selenmangel nicht mehr detektierbar. Der Knockout von GPx2 erhöhte die GPx1-Expression im Kryptengrund auf allen drei Selendiäten. Diese Überexpression von GPx1 am Kryptengrund soll vermutlich den Verlust von GPx2 an dieser Stelle kompensieren. Da jedoch dort die massive Apoptoserate detektiert wurde, kann die GPx1 nicht die komplette Funktion von GPx2 kompensieren. Diese Ergebnisse deuten darauf hin, dass die Funktion von GPx2 nicht nur in der Reduktion von H2O2 liegt. Vielmehr kann eine Rolle bei der Aufrechterhaltung der Homöostase von Zellen postuliert werden. Ein weiterer Bestandteil dieser Arbeit war die Klärung der Frage, welchen Einfluss GPx2 auf die entzündungsassoziierte Colonkarzinogenese ausübt. In dem hierfür verwendeten AOM/DSS-Model wird der karzinogene Prozess durch Entzündung vorangetrieben. Es erfolgte sowohl im Wildtyp als auch im GPx2-Knockout zum einen die Bewertung des Entzündungsstatus des Colons und zum anderen wurde die Anzahl von ACF und Tumoren verglichen. Das Colon im GPx2-Knockout war wesentlich stärker entzündet als im Wildtyp. Diese Ergebnisse bestätigen die für die GPx2 postulierte antiinflammatorische Funktion. Normalerweise führt eine Erhöhung der Mitoseanzahl zur Regeneration des entzündeten Gewebes. Jedoch beeinflusst der Verlust von GPx2 vermutlich den Ablauf der Entzündung, indem beispielsweise die Regeneration des Gewebes durch die enorm hohe Apoptoserate am Kryptengrund verlangsamt wird. Des Weiteren hatten sich im GPx2-Knockout tendenziell mehr Tumore entwickelt. Somit korrelierte die Entzündung des Colons mit der Entwicklung von Tumoren. Der Verlust von GPx2 begünstigte vermutlich sowohl die Tumorinitiation als auch die Tumorprogression. Allerdings stimulierte die Expression von GPx2 ebenfalls das Tumorwachstum. Es kann geschlussfolgert werden, dass eine adäquate GPx2-Expression vor Entzündung schützt und somit das Risiko für Colonkrebs senkt. Ob GPx2 aber insgesamt pro- oder antikarzinogen wirkt, hängt vermutlich vom Stadium des Colonkarzinogenese ab. N2 - Since the detection of glutathione peroxidase-2 (GPx2) it was assumed that reducing hydroperoxides is the only function of this enzyme in the crypt ground of the colon. But further studies showed that GPx2 is also highly expressed in tumor tissue. However, it is not known whether it acts a pro- or anticarcinogenic manner at this site. In vitro and in vivo experiments elucidate antiinflammatory features of GPx2, based on these findings additional functions of GPx2 are discussed. In this dissertation the physiological function of GPx2 was investigated. For this purpose in wild type and GPx2-knockout mice, changes of enzyme expression and colon morphology were analyzed. The mice were fed three diets containing different selenium concentrations: selenium deficient, selenium adequate and selenium supplemented. Under physiological conditions the mitosis rate is highest in the proliferating zone in the crypt ground of the colon. The majority of apoptotic cells are located at the tip of the crypt. The knockout of GPx2 significantly increased the rate of apoptosis in the crypt ground. The greatest effect was documented on the selenium deficient diet. Here, changes of the colonic morphology were detectable, because the shift of the proliferating zone towards the tip of the crypt lead to an extension of the crypts. In the wild type mice no apoptotic cells were detected on the crypt ground. Under physiological conditions GPx1, in contrast to GPx2, is mainly expressed on the top of the crypt, and this enzyme is no longer detectable under selenium deficiency. The knockout of GPx2 increased the expression of GPx1 in the crypt ground of the colon on all three selenium diets. It is likely that this over expression of GPx1 compensates for the loss of GPx2. However the massive apoptotic rate in the crypt ground shows that GPx1 can not compensate the complete function of GPx2. These results elucidate that GPx2 not only functions as a hydroperoxide reducer, but that it is also important for the maintenance of the stem cell character and the homeostasis of cells. The question if GPx2 influences the inflammation triggered by the coloncarcinogenic process was next assessed in this dissertation. Therefore the AOM/DSS model was used to trigger the carcinogenic process through inflammation. The amount of aberrant crypt foci (ACF) and tumors in the colon were analyzed in both wild type and GPx2-knockout mice. However initially the inflammation status was compared between the two genotypes. The inflammation of the colon was stronger in the GPx2-knockout mice than in wild type. These results support the postulated antiinflammatory features of GPx2. The loss of GPx2 may influence the inflammation process by decelerating the regeneration of the tissue caused by the increased apoptotic rate in the proliferating zone. Additionally, the GPx2-knockout mice developed more tumors in the colon. Therefore the inflammation of the colon correlated with the development of tumors. The loss of GPx2 may have enhanced both tumor initiation and progression. But the expression of GPx2 also stimulated the growth of tumors. These results indicate that an adequate GPx2-expression can protect from colonic inflammation, and therefore decrease the risk of developing colon cancer. Whether GPx2 acts in a pro- or anticarcinogenic manner appears to depend on the state of the carcinogenic process. KW - Glutathionperoxidase-2 GPx2 KW - Apoptose KW - Colonkrebs KW - Entzündung KW - Selen KW - glutathione peroxidase-2 GPx2 KW - apoptosis KW - colon cancer KW - inflammation KW - selenium Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50220 ER - TY - THES A1 - Wichura, Henry T1 - Topographic evolution of the East African Plateau : a combined study on lava-flow modeling and paleo-topography T1 - Die topographische Entwicklung des Ostafrikanischen Plateaus : eine kombinierte Studie über Lavastrommodellierung und Paläotopographie N2 - The East African Plateau provides a spectacular example of geodynamic plateau uplift, active continental rifting, and associated climatic forcing. It is an integral part of the East African Rift System and has an average elevation of approximately 1,000 m. Its location coincides with a negative Bouguer gravity anomaly with a semi-circular shape, closely related to a mantle plume, which influences the Cenozoic crustal development since its impingement in Eocene-Oligocene time. The uplift of the East African Plateau, preceding volcanism, and rifting formed an important orographic barrier and tectonically controlled environment, which is profoundly influenced by climate driven processes. Its location within the equatorial realm supports recently proposed hypotheses, that topographic changes in this region must be considered as the dominant forcing factor influencing atmospheric circulation patterns and rainfall distribution. The uplift of this region has therefore often been associated with fundamental climatic and environmental changes in East Africa and adjacent regions. While the far-reaching influence of the plateau uplift is widely accepted, the timing and the magnitude of the uplift are ambiguous and are still subject to ongoing discussion. This dilemma stems from the lack of datable, geomorphically meaningful reference horizons that could record surface uplift. In order to quantify the amount of plateau uplift and to find evidence for the existence of significant relief along the East African Plateau prior to rifting, I analyzed and modeled one of the longest terrestrial lava flows; the 300-km-long Yatta phonolite flow in Kenya. This lava flow is 13.5 Ma old and originated in the region that now corresponds to the eastern rift shoulders. The phonolitic flow utilized an old riverbed that once drained the eastern flank of the plateau. Due to differential erosion this lava flow now forms a positive relief above the parallel-flowing Athi River, which is mimicking the course of the paleo-river. My approach is a lava-flow modeling, based on an improved composition and temperature dependent method to parameterize the flow of an arbitrary lava in a rectangular-shaped channel. The essential growth pattern is described by a one-dimensional model, in which Newtonian rheological flow advance is governed by the development of viscosity and/or velocity in the internal parts of the lava-flow front. Comparing assessments of different magma compositions reveal that length-dominated, channelized lava flows are characterized by high effusion rates, rapid emplacement under approximately isothermal conditions, and laminar flow. By integrating the Yatta lava flow dimensions and the covered paleo-topography (slope angle) into the model, I was able to determine the pre-rift topography of the East African Plateau. The modeling results yield a pre-rift slope of at least 0.2°, suggesting that the lava flow must have originated at a minimum elevation of 1,400 m. Hence, high topography in the region of the present-day Kenya Rift must have existed by at least 13.5 Ma. This inferred mid-Miocene uplift coincides with the two-step expansion of grasslands, as well as important radiation and speciation events in tropical Africa. Accordingly, the combination of my results regarding the Yatta lava flow emplacement history, its location, and its morphologic character, validates it as a suitable “paleo-tiltmeter” and has thus to be considered as an important topographic and volcanic feature for the topographic evolution in East Africa. N2 - Das Ostafrikanische Plateau ist ein eindrucksvolles Beispiel für aktive, kontinentale Grabenbildung, aber auch für geodynamische Hochebenenbildung mit weitreichendem klimatischen Einfluss auf die gesamte Region. Als integraler Bestandteil des Ostafrikanischen Grabensystems beläuft sich die mittlere Höhe des Plateaus auf durchschnittlich 1000 m ü.NN. Seine Lage korreliert gut mit der Präsenz einer halbkreisförmigen negativen Bouguer-Schwereanomalie, die an den Aufstieg eines Manteldiapirs im Untergrund gekoppelt ist. Dieser prägte die känozoische Krustenentwicklung seit seinem Aufstieg im Eozän-Oligozän. Die Hebungsgeschichte und topographische Entwicklung des Hochlandes steht seither in enger Beziehung zum einsetzenden Vulkanismus, der Bildung erster Abschiebungssysteme und führte schließlich zur Entwicklung des heutigen Vollgrabensystems. Neueste Hypothesen lassen den Schluss zu, dass topographische Veränderungen als dominierende Einflussgrößen atmosphärischer Zirkulationsmuster sowie der regionalen Niederschlagsverbreitung anzusehen sind. Zusätzlich werden diese Prozesse durch die äquatoriale Lage des Ostafrikanischen Plateaus verstärkt und die Hebung dieser Region oft mit wichtigen Klima- und Umweltveränderungen in Ostafrika und angrenzende Gebiete in Verbindung gebracht. Während der weitreichende klimatische Einfluss des Hochlandes größtenteils akzeptiert ist, sind Zeitpunkt und Ausmaß seiner Heraushebung nicht eindeutig bestimmt und daher noch immer Grundlage bestehender Diskussionen. Diese Zwangslage hat ihre Ursache im Fehlen aussagekräftiger und datierbarer Referenzhorizonte. Um den Hebungsbetrag zu quantifizieren und Beweise signifikanten Reliefs vor der Entwicklung des Grabensystems entlang des Ostafrikanischen Hochlandes zu erbringen, analysierte und modellierte ich einen der längsten terrestrischen Lavaströme. Dieser vor 13,5 Ma abgelagerte Yatta-Lavastrom hat mit 300 km Länge seinen Ursprung in der Region der heutigen östlichen Grabenschulter des zentralen Kenia-Rifts. Die phonolitische Lava ergoss sich entlang eines Flussbettes, das einst die östliche Flanke des Hochlandes entwässerte. Aufgrund unterschiedlicher Erosionspotentiale bildet der Lavastrom gegenwärtig ein positives Relief und befindet sich oberhalb des Athi Flusses, der parallel zum Paläofluß, und somit versetzt zu seinen früheren Verlauf, strömt. Mein Ansatz der Lavastrom-Modellierung basiert auf einer Methode, die das Fließverhalten einer beliebigen Lava in Abhängigkeit von Temperatur und Magmenzusammensetzung in einem rechtwinkligen Kanal berechnet. Die wesentlichen Wachstumsmuster des Lavastroms sind durch ein eindimensionales Modell beschrieben, wobei Newtonsches Fließverhalten im Innern hinter der Lavastromfront von der zeitlichen Entwicklung der Viskosität und/oder der Fließgeschwindigkeit bestimmt wird. Vergleiche meiner Resultate mit verschiedenen Magmenzusammensetzungen zeigen, dass sich lange, kanalisierte Lavaströme mit hohen Ergussraten und schneller Platznahme bilden können. Dies geschieht unter annähernd isothermalen Bedingungen und erfordert laminares Fließen. Die Integration der Yatta- Lavastrom-Dimensionen und der bedeckten Paläotopographie (Neigungswinkel) in das Modell, erlaubte es mir die Topographie des Ostafrikanischen Hochlandes vor der Grabenbildung zu modellieren. Das Ergebnis der Modellierung ergibt einen Neigungswinkel von mindestens 0,2° und impliziert, dass der Lavastrom seinen Ursprung in einer Höhe von mindestens 1400 m ü.NN gehabt haben muss. Somit existierte bereits vor 13,5 Ma hohe Topographie in der heutigen Region des zentralen Kenia-Rifts. Diese abgeleitete regionale Hebungsgeschichte im mittleren Miozän korreliert mit der zweistufigen Ausbreitung der Graslandschaften, sowie dem Aufkommen neuer Arten im tropischen Afrika. Die Kombination aus Fließverhalten, Entstehungsort und morphologischer Eigenschaften macht den Yatta-Lavastrom zu einem “Paläoneigungsmesser” und wichtigen vulkanischen Untersuchungsobjekt für die topographische Entwicklung in Ostafrika. KW - Ostafrika KW - Plateau KW - Paläotopographie KW - Miozän KW - Yatta KW - East African Plateau KW - paleo-topography KW - Miocene KW - Yatta Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52363 ER - TY - THES A1 - Kellermann, Thorsten T1 - Accurate numerical relativity simulations of non-vacuumspace-times in two dimensions and applications to critical collapse T1 - Exakte numerisch relativistische Simulationen der Nicht-Vakuum-Raum-Zeit in zwei Dimensionen und deren Anwendung zu Problemen des kritischen Kollaps N2 - This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse. N2 - Diese Arbeit legt seinen Schwerpunkt auf die Physik von Neutronensternen und deren Beschreibung mit Methoden der numerischen Relativitätstheorie. Im ersten Schritt wird eine neue numerische Umgebung, der Whisky2D Code entwickelt, dieser löst die relativistischen Gleichungen der Hydrodynamik in Axialymmetrie. Hierzu betrachten wir eine verbesserte Formulierung der sog. "flux conserved formulation" der Gleichungen. Im zweiten Teil wird der neue Code verwendet , um das kritische Verhalten zweier kollidierenden Neutronensternen zu untersuchen. In Anbetracht der Analogie, um Übergänge in der statistischen Physik Phase werden wir die Entwicklung der Entropie der Neutronensterne während des gesamten Prozesses betrachten. Ein besseres Verständnis der Evolution von thermodynamischen Größen, wie der Entropie in kritischer Prozess, sollte zu einem tieferen Verständnis der relativistischen Thermodynamik führen. Der Whisky2D Code, zur Lösung Gleichungen relativistischer Hydrodynamik wurde in einer „flux conserved form“ und in zylindrischen Koordinaten geschrieben. Hierdurch entstehen 1 / r singuläre Terme, wobei r der ist, die entsprechend behandelt werden müssen. In früheren Arbeiten, wird der Operator expandiert und die 1 / r spezifisch Therme auf die rechte Seite geschrieben, so dass die linke Seite eine Form annimmt, die identisch ist mit der kartesischen Formulierung. Wir nennen dies die Standard-Formulierung. Eine andere Möglichkeit ist, die Terme nicht zu expandieren, den und den 1/r Term in die Gleichung hinein zu ziehen. Wir nennen dies die Neue-Formulierung. Die neuen Gleichungen werden mit den gleichen Verfahren wie im kartesischen Fall gelöst. Aus mathematischer Sicht ist keine Unterschiede zwischen den beiden Formulierungen zu erwarten, erst die numerische Sicht zeigt die Unterschiede auf. Versuche zeigen, dass die Neue-Formulierung numerische Fehler um mehrere Größenordnungen reduziert. Der zweite Teil der Dissertation verwendet den neuen Code für die Untersuchung kritischer Phänomene in der allgemeinen Relativitätstheorie. Insbesondere betrachten wir die Kopf-auf-Kollision zweier Neutronensterne in einem Bereich des Parameter Raums, deren zwei mögliche Endzustände entweder einen neuen stabilen Neutronenstern oder ein Schwarzes Loch darstellen. Im Jahr 1993, betrachtete Choptuik Ein-Parameter-Familien von Lösungen, S [P], der Einstein-Klein-Gordon-Gleichung für ein masseloses Skalarfeld in sphärischer Symmetrie, so dass für jedes P> P ⋆, S[P] ein Schwarzes Loch enthalten ist und jedes P

1. These amplifier lakes, a term first introduced but not fully parameterized by Alayne Street-Perrott in the early 80s, are unexceptionally located in the crest of the Kenyan and Ethiopian domes. The non-amplifier lakes in the EARS either have lower HI 0.13-0.22 and higher AI (>1) or higher HI (0.31-0.37) and low AI (<1), reflecting pan-shaped morphologies with more arid hydroclimatic conditions. Part 2 of this work addresses the third important factor to be considered when using lake-level and proxy records to unravel past climate changes in the EARS: interbasin connectivity and groundwater flow through faulted and porous subsurface lithologies in a rift setting. First, I have compiled the available hydrogeological data including lithology, resistivity and water-well data for the adjacent Naivasha and Elmenteita-Nakuru basins in the Central Kenya Rift. Using this subsurface information and established records of lake-level decline at the last wet-dry climate transitions, i.e., the termination of the African Humid Period (AHP, 15 to 5 kyr BP), I used a linear decay model to estimate typical groundwater flow between the two basins. The results suggest a delayed response of the groundwater levels of ca. 5 kyrs if no recharge of groundwater occurs during the wet-dry transition, whereas the lag is 2-2.7 kyrs only using the modern recharge of ca. 0.52 m/yr. The estimated total groundwater flow from higher Lake Naivasha (1,880 m a.s.l. during the AHP) to Nakuru-Elmenteita (1,770 m) was 40 cubic kilometers. The unexpectedly large volume, more than half of the volume of the paleo-Lake Naivasha during the Early Holocene, emphasizes the importance of groundwater in hydrological modeling of paleo-lakes in rifts. Moreover, the subsurface connectivity of rift lakes also causes a significant lag time to the system introducing a nonlinear component to the system that has to be considered while interpreting paleo-lake records. Part 3 of this thesis investigated the modern intraseasonal precipitation variability within eleven lake basins discussed in the first section of the study excluding Lake Victoria and including Lake Tana. Remotely sensed rainfall estimates (RFE) from FEWS NET for 1996-2010, are used for the, March April May (MAM) July August September (JAS), October November (ON) and December January February (DJF). The seasonal precipitation are averaged and correlated with the prevailing regional and local climatic mechanisms. Results show high variability with Biennial to Triennial precipitation patterns. The spatial distribution of precipitation in JAS are linked to the onset and strength of the Congo Air Boundary (CAB) and Indian Summer Monsoon (ISM) dynamics. while in ON they are related to the strength of Positive ENSO and IOD phases This study describes the influence of graben morphologies, extreme climate constrasts within catchments and basins connectivity through faults and porous lithologies on rift lakes. Hence, it shows the importance of a careful characterization of a rift lake by these parameters prior to concluding from lake-level and proxy records to climate changes. Furthermore, this study highlights the exceptional sensitivity of rift lakes to relatively moderate climate change and its consequences for water availability to the biosphere including humans. N2 - Die Seen des Ostafrikanischen Riftsystems (EARS) wurden bereits intensiv untersucht, um den Einfluss des Klimawandels auf das hydrologische Systeme besser verstehen zu können. Dabei stellt die außergewöhnliche Sensitivität dieser Riftseen sowohl eine Herausforderung als auch eine Möglichkeit dar, um den historischen Klimawandel von dem hydrologischen Budget der Seebecken auf Zeitskalen von 10 bis 10000 Jahre abzuleiten. Auf der einen Seite verkomplizieren verschiedene Beckengeometrien (Form, Fläche, Volumen, Tiefe), unterschiedliche Niederschlagsverteilungen der einzelnen Zuflüsse und variierende Erosions- und Sedimentationsraten, die aus den Informationen von Seesedimenten generierten, regionalen Interpretationen des Paleoklimas. Andererseits ergibt sich aus der hohen Sensitivität der Riftseen eine exzellente Datenqualität, was sich in dem hohen Signal - Rausch-Verhältnis widerspiegelt. Das Ziel meiner Untersuchungen ist das verbesserte Verständlichkeit der Klimainformationen generierenden Prozesse in den Riftseen als Voraussetzung für weitere Klimarekonstruktion. Fortschritte gab es vor allem in der Entwicklung von regionalen Kalibrationen durch die Parametrisierung der geomorphologischen und hydroklimatischen Gegebenheiten einer wichtigen Lokalität, wodurch es jetzt möglich ist, von Sedimentfunden auf die Umgebungsbedingungen Rückschlüsse zu ziehen. Das Wissen um die Reaktion der Seebecken auf Klimaschwankungen ist unerlässlich für eine bessere Abschätzung der Wahrscheinlichkeit von katastrophalen Änderungen in der Zukunft:ein Szenario das sowohl für Umwelt, Ökosysteme und Organismen, einschließlich des Menschen, Risiken birgt. Im ersten Teil meiner Doktorarbeit untersuche ich den Effekt der Morphologie und der effektiven Feuchtigkeit auf das Einzugsgebiet eines Sees. Die Verfügbarkeit von digitalen Höhenmodellen (DEM) und gerasterten Klimadatensätzen ermöglicht den Vergleich von morphologischen und hydroklimatischen Bedingungen der Riftseen. Ich nutzte das hypsometrische Integral (HI), berechnet aus Daten der “Shuttle Radar Topography Mission (SRTM)”, um die Morphologie von zehn Seebecken in Kenia und Äthopien zu beschreiben. Der Dürreindex (AI), der die Differenz von Niederschlag zu Verdunstung innerhalb eines Einzugsgebietes beschreibt, wurde benutzt, um das Hydroklima dieser Becken zu vergleichen. Die Korrelation von hypsometrischem Integral und Dürreindex mit publizierten holozänen Seespiegelschwankungen zeigte, dass vor allem Seen mit kleiner Oberfläche und großer Tiefe (Grabenform), charakterisiert durch ein HI von 0.23-0.30 und feuchte Bedingungen mit einem AI > 1, empfindlich auf relativ moderate Klimaänderungen reagieren. Diese “verstärkenden” Seen (amplifier lakes), ein Begriff der von Alayne Street-Perrott in den Achzigerjahren eingeführt wurde aber bis heute nicht völlig quantitativ definiert ist, sind ohne Ausnahme in den tiefen Gräben der kenianischen und äthiopischen Dome zu finden. Seen innerhalb des EARS, die nicht derart empfindlich reagieren, haben entweder ein niedrigeres HI von 0.13-0.22 und einen höheren AI (>1) oder ein höherers HI (0.31-0.37) aber einen niedrigen AI (<1) und zeigen großflächige, flache Morphologien (Pfannenform) unter trockenen klimatischen Bedingungen. Der zweite Teil der Arbeit beschäftigt sich mit einem weiteren wichtigen Faktor innerhalb der Klimarekonstruktion, wenn Seespiegelschwankungen und indirekte Messungen (Proxies) betrachtet werden:den störungsbezogenen und porösen Gesteinsschichten geschuldeten Grundwasserverbindungen zwischen den Becken. Als erstes habe ich die vorhandenen hydrogeologischen Daten bestehend aus den Gesteinsformationen, deren Widerstandsfähigkeit und den wasserbezogenen Bohrdaten für die Seen Naivasha und Elementaita-Nakuru zusammengestellt. Mit diesen bereits etablierten Untergrunddaten, z.B. zum Seespiegelrückgang am letzten Übergang von feuchtem zum trockeneren Klima am Ende der afrikanischen Feuchtperiode (AHP) um 15000 bis 5000 Jahre vor heute, schätzte ich den typischen Grundwasserfluss zwischen den beiden benachbarten Becken mittels eines linearen Modells ab. Die Ergebnisse zeigen eine Zeitverzögerung der Grundwasserspiegelanpassung um ca. 5000 Jahre an, falls keine Auffüllung der Grundwasserzufuhr zum Ende der letzten Feuchtperiode eintrat. In heutiger Zeit, ist bedingt durch die Grundwassererzufuhr von ca. 0.52 m/Jahr, nur eine Zeitverzögerung um ca. 2000-2700 Jahre zu sehen. Der geschätzte totale Grundwasserfluss vom höher gelegenden Naivasha See (1880 m über dem Meeresspiegel zum Ende der AHP) zum Elementaita-Nakuru See (1770 m) betrug 40 km3. Dieses unerwartet große Volumen, mehr als die Hälfte des Volumens vom Naivasha See während des frühen Holozäns, verdeutlicht, dass das Grundwasser für die hydrologische Modellierung von Paleoseen in Riftgebieten unbedingt mit einbezogen werden muss. Darüber hinaus führt die Grundwasserverbindung dieser Riftseen zu einer Zeitverzögerung in deren Reaktionen, was eine nichtlineare Komponente darstellt und bei jeder Interpretation von Paleoseespiegeldaten beachtet werden muss. Der dritte Teil dieser Arbeit untersucht die intrasaisonale Niederschlagsvariabilität innerhalb von 11 Einzugsgebieten die im ersten Teil Arbeit vorgestellt wurden, mit Ausnahme des Viktoriasees, aber inklusive des Tanasees. Aus Satellitenbilddaten des FEWS NET der Jahre 1996-2010 wurden Niederschlagsabschätzungen für die Monatsreihen März-April-Mai (MAM), Juli-August-September (JAS), Oktober-November (ON) und Dezember-Januar-Februar (DJF) berechnet. Der jahreszeitliche Niederschlag wurde gemittelt und mit den dominierenden regionalen und lokalen Klimafaktoren korreliert. Die Ergebnisse zeigen eine deutliche zwei- bis dreijährige Niederschlagsvariabilität. Die räumliche Niederschlagsverteilung innerhalb des Ostafrikanische Rifts im JAS ist an die Ausbildung und Stärke der Kongoluftmassengrenze (CAB) und an die Dynamik des Indischen Sommermonsuns gekoppelt, während sie im ON an die Stärke der positiven ENSO und IOD Phasen gebunden ist. Diese Doktorarbeit beschreibt den Einfluss von Grabenmorphologien, extremen Klimakontrasten innerhalb der Zuflussgebiete und die unterirdischen Beckenverbindung durch Störungszonen und poröse Gesteinsschichten zwischen den Riftseen. Damit zeigt sie die Unerlässlichkeit einer genauen Charakterisierung von Riftseen durch morphologische und klimatische Parameter, bevor von Seespiegelschwankungen und indirekten Datensätzen auf Klimaänderungen geschlossen werden kann. Desweiteren stellt diese Arbeit die hohe Empfindsamkeit dieser Seen gegenüber relativ moderaten Klimaänderungen und deren Konsequenzen für die insgesamte Wasserverfügbarkeit heraus. KW - Ostafrikanisches Riftsystem KW - Klima KW - verstärkende Seen KW - Grundwasser KW - Skalierung KW - East African Rift System KW - Climate KW - Amplifier Lakes KW - Groundwater KW - Scaling Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55029 ER - TY - THES A1 - Kittner, Madeleine T1 - Folding and aggregation of amyloid peptides T1 - Faltung und Aggregation von Amyloidpeptiden N2 - Aggregation of the Amyloid β (Aβ) peptide to amyloid fibrils is associated with the outbreak of Alzheimer’s disease. Early aggregation intermediates in form of soluble oligomers are of special interest as they are believed to be the major toxic components in the process. These oligomers are of disordered and transient nature. Therefore, their detailed molecular structure is difficult to access experimentally and often remains unknown. In the present work extensive, fully atomistic replica exchange molecular dynamics simulations were performed to study the preaggregated, monomer states and early aggregation intermediates (dimers, trimers) of Aβ(25-35) and Aβ(10-35)-NH2 in aqueous solution. The folding and aggregation of Aβ(25-35) were studied at neutral pH and 293 K. Aβ(25-35) monomers mainly adopt β-hairpin conformations characterized by a β-turn formed by residues G29 and A30, and a β-sheet between residues N27–K28 and I31–I32 in equilibrium with coiled conformations. The β-hairpin conformations served as initial configurations to model spontaneous aggregation of Aβ(25-35). As expected, within the Aβ(25-35) dimer and trimer ensembles many different poorly populated conformations appear. Nevertheless, we were able to distinguish between disordered and fibril-like oligomers. Whereas disordered oligomers are rather compact with few intermolecular hydrogen bonds (HBs), fibril-like oligomers are characterized by the formation of large intermolecular β-sheets. In most of the fibril-like dimers and trimers individual peptides are fully extended forming in- or out-of-register antiparallel β-sheets. A small amount of fibril-like trimers contained V-shaped peptides forming parallel β-sheets. The dimensions of extended and V-shaped oligomers correspond well to the diameters of two distinct morphologies found for Aβ(25-35) fibrils. The transition from disordered to fibril-like Aβ(25-35) dimers is unfavorable but driven by energy. The lower energy of fibril-like dimers arises from favorable intermolecular HBs and other electrostatic interactions which compete with a loss in entropy. Approximately 25 % of the entropic cost correspond to configurational entropy. The rest relates to solvent entropy, presumably caused by hydrophobic and electrostatic effects. In contrast to the transition towards fibril-like dimers the first step of aggregation is driven by entropy. Here, we compared structural and thermodynamic properties of the individual monomer, dimer and trimer ensembles to gain qualitative information about the aggregation process. The β-hairpin conformation observed for monomers is successively dissolved in dimer and trimer ensembles while instead intermolecular β-sheets are formed. As expected upon aggregation the configurational entropy decreases. Additionally, the solvent accessible surface area (SASA), especially the hydrophobic SASA, decreases yielding a favorable solvation free energy which overcompensates the loss in configurational entropy. In summary, the hydrophobic effect, possibly combined with electrostatic effects, yields an increase in solvent entropy which is believed to be one major driving force towards aggregation. Spontaneous folding of the Aβ(10-35)-NH2 monomer was modeled using two force fields, GROMOS96 43a1 and OPLS/AA, and compared to primary NMR data collected at pH 5.6 and 283 K taken from the literature. Unexpectedly, the two force fields yielded significantly different main conformations. Comparison between experimental and calculated nuclear Overhauser effect (NOE) distances is not sufficient to distinguish between the different force fields. Additionally, the comparison with scalar coupling constants suggest that the chosen protonation in both simulations corresponds to a pH lower than in the experiment. Based on this analysis we were unable to determine which force field yields a better description of this system. Dimerization of Aβ(10-35)-NH2 was studied at neutral pH and 300 K. Dimer conformations arrange in many distinct, poorly populated and rather complex alignments or interlocking patterns which are rather stabilized by side chain interactions than by specific intermolecular hydrogen bonds. Similar to Aβ(25-35) dimers, transition towards β-sheet-rich, fibril-like Aβ(10-35) dimers is driven by energy competing with a loss in entropy. Here, transition is mediated by favorable peptide-solvent and solvent-solvent interactions mainly arising from electrostatic interactions. N2 - Die Aggregation des Amyloid β (Aβ) Peptids zu Amyloidfibrillen wird mit dem Ausbruch der Alzheimer Krankheit in Verbindung gebracht. Die toxische Wirkung auf Zellen wird vor allem den zeitigen Intermediaten in Form von löslichen Oligomeren zugeschrieben. Aufgrund deren ungeordneter und flüchtiger Natur kann die molekulare Struktur solcher zeitigen Oligomere oft experimentell nicht aufgelöst werden. In der vorliegenden Arbeit wurden aufwendige atomistische Replica-Exchange-Molekulardynamik-Simulationen durchgeführt, um die molekulare Struktur von Monomeren und Oligomeren der Fragmente Aβ(25-35) und Aβ(10-35)-NH2 in Wasser zu untersuchen. Die Faltung und Aggregation von Aβ(25-35) wurde bei neutralem pH und 293 K untersucht. Monomere dieses Fragments bilden hauptsächlich β-Haarnadelkonformationen im Gleichgewicht mit Knäulstrukturen. Innerhalb der β-Haarnadelkonformationen bilden die Residuen G29 und A30 einen β-turn, während N27–K28 and I31–I32 ein β-Faltblatt bilden. Diese β-Haarnadelkonformationen bildeten den Ausgangspunkt zur Modellierung spontaner Aggregation. Wie zu erwarten, bilden sich eine Vielzahl verschiedener, gering besetzter Dimer- und Trimerkonformationen. Mit Hilfe einer gröberen Einteilung können diese in ungeordnete und fibrillähnliche Oligomere unterteilt werden. Ungeordnete Oligomere bilden kompakte Strukturen, die nur durch wenige intermolekulare Wasserstoffbrückenbindungen (HBB) stabilisiert sind. Typisch für fibrillähnliche Oligomere ist hingegen die Ausbildung großer intermolekularer β-Faltblätter. In vielen dieser Oligomere finden wir antiparallele, in- oder out-of-register β-Faltblätter gebildet durch vollständig ausgestreckte Peptide. Ein kleiner Teil der fibrillähnlichen Trimere bildet parallele, V-förmige β-Faltblätter. Die Ausdehnungen ausgestreckter und V-förmiger Oligomere entspricht in etwa den Durchmessern von zwei verschiedenen, experimentell gefundenen Fibrillmorphologien für Aβ(25-35). Die Umwandlung von ungeordneten zu fibrillähnlichen Aβ(25-35) Dimeren ist energetisch begünstigt, läuft aber nicht freiwillig ab. Fibrillähnliche Dimere haben eine geringere Energie aufgrund günstiger Peptidwechselwirkungen (HBB, Salzbrücken), welche durch den Verlust an Entropie kompensiert wird. Etwa 25 % entsprechen dem Verlust an Konfigurationsentropie. Der restliche Anteil wird einem Verlust an Lösungsmittelentropie aufgrund von hydrophoben und elektrostatischen Effekten zugesprochen. Im Gegensatz zur Umwandlung in fibrillähnliche Dimere, ist die Assoziation von Monomeren oder Oligomeren entropisch begünstigt. Beim Vergleich thermodynamischer Eigenschaften der Monomer-, Dimer- und Trimersysteme zeigt sich im Verlauf der Aggregation, wie erwartet, eine Abnahme der Konfigurationsentropie. Zusätzlich nimmt die dem Lösungsmittel zugängliche Oberfläche (SASA), insbesondere die hydrophobe SASA, ab. In Verbindung damit beobachten wir eine Abnahme der freien Solvatisierungsenergie, welche den Verlust an Konfigurationsentropie kompensiert. Mit anderen Worten, der hydrophobe Effekt in Kombination mit elektrostatischen Wechselwirkungen führt zu einem Ansteigen der Lösungsmittelentropie und begünstigt damit die Aggegation. Die spontane Faltung des Aβ(10-35)-NH2 Monomers wurde für zwei verschiedene Proteinkraftfelder, GROMOS96 43a1 und OPLS/AA, untersucht und mit primären NMR-Daten aus der Literatur, gemessen bei pH 5.6 und 283 K, verglichen. Beide Kraftfelder generieren unterschiedliche Hauptkonformationen. Der Vergleich zwischen experimentellen und berechneten Kern-Overhauser-Effekt (NOE) Abständen ist nicht ausreichend, um zwischen beiden Kraftfeldern zu unterscheiden. Der Vergleich mit Kopplungskonstanten aus Experiment und Simulation zeigt, dass beide Simulationen einem pH-Wert geringer als 5.6 ensprechen. Basierend auf den bisherigen Ergebnissen können wir nicht entscheiden, welches Kraftfeld eine bessere Beschreibung für dieses System liefert. Die Dimerisierung von Aβ(10-35)-NH2 wurde bei neutralem pH und 300 K untersucht. Wir finden eine Vielzahl verschiedener, gering besetzter Dimerstrukturen, welche eher durch Seitenkettenkontakte als durch spezifische HBB stabilisiert sind. Wie bei den Aβ(25-35) Dimeren, ist die Umwandlung zu β-Faltblattreichen, fibrillähnlichen Aβ(10-35) Dimeren energetisch begünstigt, konkurriert aber mit einem Entropieverlust. Die Umwandlung wird in diesem Fall durch elektrostatische Wechselwirkungen zwischen Peptid und Lösungsmittel und innerhalb des Lösungsmittels bestimmt. KW - Amyloid beta KW - Proteinaggregation KW - Alzheimer KW - Molekulardynamik-Simulation KW - Thermodynamische Stabilität KW - amyloid beta KW - protein aggregation KW - Alzheimer KW - molecular dynamics simulation KW - thermodynamic stability Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53570 ER - TY - THES A1 - Kartal, Önder T1 - The role of interfacial and 'entropic' enzymes in transitory starch degradation : a mathematical modeling approach T1 - Zur Aufklärung der Rolle grenzflächenaktiver und "entropischer" Enzyme beim Abbau transitorischer Stärke auf Grundlage mathematischer Modelle N2 - Plants and some unicellular algae store carbon in the form of transitory starch on a diurnal basis. The turnover of this glucose polymer is tightly regulated and timely synthesis as well as mobilization is essential to provide energy for heterotrophic growth. Especially for starch degradation, novel enzymes and mechanisms have been proposed recently. However, the catalytic properties of these enzymes and their coordination with metabolic regulation are still to be discovered. This thesis develops theoretical methods in order to interpret and analyze enzymes and their role in starch degradation. In the first part, a novel description of interfacial enzyme catalysis is proposed. Since the initial steps of starch degradation involve reactions at the starch-stroma interface it is necessary to have a framework which allows the derivation of interfacial enzyme rate laws. A cornerstone of the method is the introduction of the available area function - a concept from surface physics - to describe the adsorption step in the catalytic cycle. The method is applied to derive rate laws for two hydrolases, the Beta-amylase (BAM3) and the Isoamylase (DBE/ISA3), as well as to the Glucan, water dikinase (GWD) and a Phosphoglucan phosphatase (DSP/SEX4). The second part uses the interfacial rate laws to formulate a kinetic model of starch degradation. It aims at reproducing the stimulatory effect of reversible phosphorylation by GWD and DSP on the breakdown of the granule. The model can describe the dynamics of interfacial properties during degradation and suggests that interfacial amylopectin side-chains undergo spontaneous helix-coil transitions. Reversible phosphorylation has a synergistic effect on glucan release especially in the early phase dropping off during degradation. Based on the model, the hypothesis is formulated that interfacial phosphorylation is important for the rapid switch from starch synthesis to starch degradation. The third part takes a broader perspective on carbohydrate-active enzymes (CAZymes) but is motivated by the organization of the downstream pathway of starch breakdown. This comprises Alpha-1,4-glucanotransferases (DPE1 and DPE2) and Alpha-glucan-phosphorylases (Pho or PHS) both in the stroma and in the cytosol. CAZymes accept many different substrates and catalyze numerous reactions and therefore cannot be characterized in classical enzymological terms. A concise characterization is provided by conceptually linking statistical thermodynamics and polymer biochemistry. Each reactant is interpreted as an energy level, transitions between which are constrained by the enzymatic mechanisms. Combinations of in vitro assays of polymer-active CAZymes essential for carbon metabolism in plants confirmed the dominance of entropic gradients. The principle of entropy maximization provides a generalization of the equilibrium constant. Stochastic simulations confirm the results and suggest that randomization of metabolites in the cytosolic pool of soluble heteroglycans (SHG) may contribute to a robust integration of fluctuating carbon fluxes coming from chloroplasts. N2 - Stärke hat eine herausragende Bedeutung für die menschliche Ernährung. Sie ist ein komplexes, wasserunlösliches Glucosepolymer und dient - als eine der wichtigsten Speicherformen von Kohlenhydraten in Pflanzen - der Aufrechterhaltung des Energiestoffwechsels. Unterschiedliche Organe enthalten Stärke. In Knollen und Samen wird die sogenannte Speicherstärke über lange Zeiträume auf- und abgebaut. Die im Allgemeinen weniger bekannte transitorische Stärke in Blättern und einigen einzelligen Algen wird in einem täglichen Rhythmus umgesetzt: Sie wird während der Photosynthese aufgebaut und in der Nacht abgebaut. Experimentelle Studien haben nachgewiesen, dass die Fähigkeit der Pflanze, den Abbau transitorischer Stärke zu regeln, essentiell ist, um während der Nacht das Wachstum der Pflanze zu gewährleisten. Da die Geschwindigkeit von biochemischen Reaktionen über Enzyme reguliert wird, ist die Aufklärung ihrer Funktion im Stoffwechsel eine notwendige Voraussetzung, um den komplexen Prozess des Wachstums zu erklären. Die vorliegende Arbeit stellt einen Versuch dar, die Funktion von Enzymen beim Stärkeabbau anhand von mathematischen Modellen und Computersimulationen besser zu verstehen. Dieser Ansatz erlaubt es, Eigenschaften des Systems durch Abstraktion anhand eines idealisierten Abbildes herzuleiten. Die mathematisch notwendigen Folgerungen dienen der Aufstellung von Hypothesen, die wiederum mit experimentellen Resultaten konfrontiert werden können. Stoffwechselsysteme sind komplexe Untersuchungsobjekte, bei denen eine rein qualitative Argumentation schnell an Grenzen gerät, wo mathematische Methoden die Möglichkeit von Aussagen noch zulassen. Der erste Teil der Arbeit entwickelt einen theoretischen Rahmen, um Gleichungen für die Geschwindigkeit oberflächenaktiver Enzyme herzuleiten. Dies ist notwendig, da die ersten Reaktionen, die dem Stärkeabbau zugeordnet werden, an ihrer Oberfläche stattfinden. Die Methode wird auf vier essentielle Enzyme angewandt: zwei abbauende Enzyme (Beta-Amylase und Isoamylase) und zwei den Abbau unterstützende Enzyme (Alpha-Glucan,Wasser-Dikinase und Phosphoglucan Phosphatase). Der zweite Teil entwickelt ein kinetisches Modell des Stärkeabbaus unter Verwendung der hergeleiteten Ratengleichungen. Das Modell bildet die Dynamik des Systems realistisch ab und legt nahe, dass ein spontaner Phasenübergang an der Oberfläche von geordneten zu weniger geordneten Zuständen stattfindet. Ferner wird die Hypothese aufgestellt, dass die reversible Modifikation der Oberfläche durch Enzyme besonders in der Anfangsphase des Abbaus einen synergetischen Effekt hat, d.h. den Abbau enorm beschleunigt. Dies könnte beim schnellen Umschalten von Stärkeaufbau zu Stärkeabbau regulatorisch relevant sein. Im letzten Teil werden kohlenhydrataktive Enzyme betrachtet, die in der löslichen Phase die Produkte des Stärkeabbaus weiterverarbeiten. Da diese sogenannten Transferasen auch in vielen anderen Organismen und Stoffwechselwegen vorkommen, wird ein allgemeiner Standpunkt eingenommen. Anhand von Methoden aus der statistischen Physik wird theoretisch wie experimentell nachgewiesen, dass diese Enzyme spontan die Entropie innerhalb des Stoffwechselsystems erhöhen. Diese Neigung, "Unordnung" zu schaffen, wird vom Organismus aber paradoxerweise ausgenutzt, um die Weiterverarbeitung von Kohlenhydraten im Stärkestoffwechsel zu stabilisieren. Dieser Mechanismus eröffnet einen neuen Blick auf energie- und entropiegetriebene Prozesse in Zellen. KW - Enzymkinetik KW - Enzymadsorption KW - Disproportionierungsenzym KW - Polysaccharide KW - Statistische Physik KW - Enzyme kinetics KW - Enzyme adsorption KW - Disproportionating Enzyme KW - Polysaccharides KW - Statistical Physics Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53947 ER - TY - THES A1 - Gebser, Martin T1 - Proof theory and algorithms for answer set programming T1 - Beweistheorie und Algorithmen für die Antwortmengenprogrammierung N2 - Answer Set Programming (ASP) is an emerging paradigm for declarative programming, in which a computational problem is specified by a logic program such that particular models, called answer sets, match solutions. ASP faces a growing range of applications, demanding for high-performance tools able to solve complex problems. ASP integrates ideas from a variety of neighboring fields. In particular, automated techniques to search for answer sets are inspired by Boolean Satisfiability (SAT) solving approaches. While the latter have firm proof-theoretic foundations, ASP lacks formal frameworks for characterizing and comparing solving methods. Furthermore, sophisticated search patterns of modern SAT solvers, successfully applied in areas like, e.g., model checking and verification, are not yet established in ASP solving. We address these deficiencies by, for one, providing proof-theoretic frameworks that allow for characterizing, comparing, and analyzing approaches to answer set computation. For another, we devise modern ASP solving algorithms that integrate and extend state-of-the-art techniques for Boolean constraint solving. We thus contribute to the understanding of existing ASP solving approaches and their interconnections as well as to their enhancement by incorporating sophisticated search patterns. The central idea of our approach is to identify atomic as well as composite constituents of a propositional logic program with Boolean variables. This enables us to describe fundamental inference steps, and to selectively combine them in proof-theoretic characterizations of various ASP solving methods. In particular, we show that different concepts of case analyses applied by existing ASP solvers implicate mutual exponential separations regarding their best-case complexities. We also develop a generic proof-theoretic framework amenable to language extensions, and we point out that exponential separations can likewise be obtained due to case analyses on them. We further exploit fundamental inference steps to derive Boolean constraints characterizing answer sets. They enable the conception of ASP solving algorithms including search patterns of modern SAT solvers, while also allowing for direct technology transfers between the areas of ASP and SAT solving. Beyond the search for one answer set of a logic program, we address the enumeration of answer sets and their projections to a subvocabulary, respectively. The algorithms we develop enable repetition-free enumeration in polynomial space without being intrusive, i.e., they do not necessitate any modifications of computations before an answer set is found. Our approach to ASP solving is implemented in clasp, a state-of-the-art Boolean constraint solver that has successfully participated in recent solver competitions. Although we do here not address the implementation techniques of clasp or all of its features, we present the principles of its success in the context of ASP solving. N2 - Antwortmengenprogrammierung (engl. Answer Set Programming; ASP) ist ein Paradigma zum deklarativen Problemlösen, wobei Problemstellungen durch logische Programme beschrieben werden, sodass bestimmte Modelle, Antwortmengen genannt, zu Lösungen korrespondieren. Die zunehmenden praktischen Anwendungen von ASP verlangen nach performanten Werkzeugen zum Lösen komplexer Problemstellungen. ASP integriert diverse Konzepte aus verwandten Bereichen. Insbesondere sind automatisierte Techniken für die Suche nach Antwortmengen durch Verfahren zum Lösen des aussagenlogischen Erfüllbarkeitsproblems (engl. Boolean Satisfiability; SAT) inspiriert. Letztere beruhen auf soliden beweistheoretischen Grundlagen, wohingegen es für ASP kaum formale Systeme gibt, um Lösungsmethoden einheitlich zu beschreiben und miteinander zu vergleichen. Weiterhin basiert der Erfolg moderner Verfahren zum Lösen von SAT entscheidend auf fortgeschrittenen Suchtechniken, die in gängigen Methoden zur Antwortmengenberechnung nicht etabliert sind. Diese Arbeit entwickelt beweistheoretische Grundlagen und fortgeschrittene Suchtechniken im Kontext der Antwortmengenberechnung. Unsere formalen Beweissysteme ermöglichen die Charakterisierung, den Vergleich und die Analyse vorhandener Lösungsmethoden für ASP. Außerdem entwerfen wir moderne Verfahren zum Lösen von ASP, die fortgeschrittene Suchtechniken aus dem SAT-Bereich integrieren und erweitern. Damit trägt diese Arbeit sowohl zum tieferen Verständnis von Lösungsmethoden für ASP und ihrer Beziehungen untereinander als auch zu ihrer Verbesserung durch die Erschließung fortgeschrittener Suchtechniken bei. Die zentrale Idee unseres Ansatzes besteht darin, Atome und komposite Konstrukte innerhalb von logischen Programmen gleichermaßen mit aussagenlogischen Variablen zu assoziieren. Dies ermöglicht die Isolierung fundamentaler Inferenzschritte, die wir in formalen Charakterisierungen von Lösungsmethoden für ASP selektiv miteinander kombinieren können. Darauf aufbauend zeigen wir, dass unterschiedliche Einschränkungen von Fallunterscheidungen zwangsläufig zu exponentiellen Effizienzunterschieden zwischen den charakterisierten Methoden führen. Wir generalisieren unseren beweistheoretischen Ansatz auf logische Programme mit erweiterten Sprachkonstrukten und weisen analytisch nach, dass das Treffen bzw. Unterlassen von Fallunterscheidungen auf solchen Konstrukten ebenfalls exponentielle Effizienzunterschiede bedingen kann. Die zuvor beschriebenen fundamentalen Inferenzschritte nutzen wir zur Extraktion inhärenter Bedingungen, denen Antwortmengen genügen müssen. Damit schaffen wir eine Grundlage für den Entwurf moderner Lösungsmethoden für ASP, die fortgeschrittene, ursprünglich für SAT konzipierte, Suchtechniken mit einschließen und darüber hinaus einen transparenten Technologietransfer zwischen Verfahren zum Lösen von ASP und SAT erlauben. Neben der Suche nach einer Antwortmenge behandeln wir ihre Aufzählung, sowohl für gesamte Antwortmengen als auch für Projektionen auf ein Subvokabular. Hierfür entwickeln wir neuartige Methoden, die wiederholungsfreies Aufzählen in polynomiellem Platz ermöglichen, ohne die Suche zu beeinflussen und ggf. zu behindern, bevor Antwortmengen berechnet wurden. KW - Wissensrepräsentation und -verarbeitung KW - Antwortmengenprogrammierung KW - Beweistheorie KW - Algorithmen KW - Knowledge Representation and Reasoning KW - Answer Set Programming KW - Proof Theory KW - Algorithms Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55425 ER - TY - THES A1 - Devers, Emanuel T1 - Phosphate homeostasis and novel microRNAs are involved in the regulation of the arbuscular mycorrhizal symbiosis in Medicago truncatula T1 - Die Phosphat-Homöostase und neue mikroRNAs sind in die Regulation der arbuskulären Mykorrhiza in Medicago truncatula involviert N2 - Die arbuskuläre Mykorrhiza ist die wahrscheinlich älteste Form der Wurzelsymbiosen zwischen Pflanzen und Pilzen und hat sich vor 420 Millionen Jahren entwickelt. In dieser Symbiose, die zwischen nahezu allen Landpflanzen und Pilzen des Reiches Glomeromycota ausgebildet wird, versorgt der Pilz die Pflanze mit Nährstoffen, wobei die verbesserte Versorgung mit Phosphat für die Pflanze sicher den größten Vorteil darstellt. Im Gegenzug erhält der Pilz Zucker, welche die Pflanze aus der Photosynthese bereitstellt. Zu hohe Phosphatkonzentrationen im Boden oder Dünger führen allerdings zu einer Verringerung in der Ausprägung der arbuskulären Mykorrhiza. Diese Unterdrückung der Symbiose wird nicht durch eine lokale Reaktion der Wurzeln ausgelöst, sondern in erster Linie durch einen hohen Phosphatgehalt im Pflanzenspross. Somit handelt es sich also um eine systemische, also dem Gesamtsystem „Pflanze“ betreffende Antwort. Die molekularen Mechanismen dieser Anpassung sind noch wenig bekannt und sind vor allem für die Agrarwirtschaft von besonderem Interesse. Eine Mikro-RNA (miRNA) des bereits bekannten Phosphathomöostasesignalwegs (PHR1-miRNA399-PHO2 Signalweg) akkumuliert verstärkt in mykorrhizierten Wurzeln. Das deutet daraufhin, dass dieser Signalweg und diese miRNA eine wichtige Rolle in der Regulation der arbuskulären Mykorrhiza spielen. Ziel dieser Studie war es neue Einblicke in die molekularen Mechanismen, die zur Unterdrückung der arbuskulären Mykorrhiza bei hohen Phosphatkonzentrationen führen, zu gewinnen. Dabei sollte der Einfluss von PHO2, sowie von miRNAs in dieser Symbiose genauer untersucht werden. Ein funktionelles Ortholog von PHO2, MtPho2, wurde in der Pflanze Medicago truncatula identifiziert. MtPho2-Mutanten, welche nicht mehr in der Lage waren ein funktionales PHO2 Protein zu exprimieren, zeigten schnellere Kolonisierung durch den AM-Pilz. Jedoch wurde auch in den mtpho2-Mutanten die Symbiose durch hohe Phosphatkonzentrationen unterdrückt. Dies bedeutet, dass PHO2 und somit der PHR1-miRNA399-PHO2 Signalweg eine wichtige Funktion während der fortschreitenden Kolonisierung der Wurzel durch den Pilz hat, aber und weitere Mechanismen in der Unterdückung der Symbiose bei hohen Phosphatkonzentrationen beteiligt sein müssen. Die Analyse von Transkriptionsprofilen von Spross- und Wurzeln mittels Microarrays zeigte, dass die Unterdrückung der AM Symbiose durch hohe Phosphatkonzentrationen möglicherweise auf eine Unterdrückung der Expression einer Reihe symbiosespezifischer Gene im Spross der Pflanze beruht. Um die Rolle weiterer miRNA in der AM Symbiose zu untersuchen, wurden mittels einer Hochdurchsatz-Sequenzierung 243 neue und 181 aus anderen Pflanzen bekannte miRNAs in M. truncatula entdeckt. Zwei dieser miRNAs, miR5229 und miR160f*, sind ausschließlich während der arbuskulären Mykorrhiza zu finden und weitere miRNAs werden während dieser Symbiose verstärkt gebildet. Interessanterweise führen einige dieser miRNAs zum Abbau von Transkripten, die eine wichtige Funktion in der arbuskulären Mykorrhiza und Wurzelknöllchensymbiose besitzen. Die Ergebnisse dieser Studie liefern eine neue Grundlage für die Untersuchung von regulatorischen Netzwerken, die zur zellulären Umprogrammierung während der Interaktion zwischen Pflanzen und arbuskulären Mykorrhiza-Pilzen bei verschiedenen Phosphatbedingungen führen. N2 - AM symbiosis has a positive influence on plant P-nutrition and growth, but little is known about the molecular mechanism of the symbiosis adaptation to different phosphate conditions. The recently described induction of several pri-miR399 transcripts in mycorrhizal shoots and subsequent accumulation of mature miR399 in mycorrhizal roots indicates that local PHO2 expression must be controlled during symbiosis, presumably in order to sustain AM symbiosis development, in spite of locally increased Pi-concentration. A reverse genetic approach used in this study demonstrated that PHO2 and thus the PHR1-miR399-PHO2 signaling pathway, is involved in certain stages of progressive root colonization. In addition, a transcriptomic approach using a split-root system provided a comprehensive insight into the systemic transcriptional changes in mycorrhizal roots and shoots of M. truncatula in response to high phosphate conditions. With regard to the transcriptional responses of the root system, the results indicate that, although the colonization is drastically reduced, AM symbiosis is still functional at high Pi concentrations and might still be beneficial to the plant. Additionally, the data suggest that a specific root-borne mycorrhizal signal systemically induces protein synthesis, amino acid metabolism and photosynthesis at low Pi conditions, which is abolished at high Pi conditions. MiRNAs, such as miR399, are involved in long-distance signaling and are therefore potential systemic signals involved in AM symbiosis. A deep-sequencing approach identified 243 novel miRNAs in the root tissue of M. truncatula. Read-count analysis, qRT-PCR measurements and in situ hybridizations clearly indicated a regulation of miR5229a/b, miR5204, miR160f*, miR160c, miR169 and miR169d*/l*/m*/e.2* during arbuscular mycorrhizal symbiosis. Moreover, miR5204* represses a GRAS TF, which is specifically transcribed in mycorrhizal roots. Since miR5204* is induced by high Pi it might represent a further Pi status-mediating signal beside miR399. This study provides additional evidence that MtNsp2, a key regulator of symbiosis-signaling, is regulated and presumably spatially restricted by miR171h cleavage. In summary, a repression of mycorrhizal root colonization at high phosphate status is most likely due to a repression of the phosphate starvation responses and the loss of beneficial responses in mycorrhizal shoots. These findings provide a new basis for investigating the regulatory network leading to cellular reprogramming during interaction between plants, arbuscular mycorrhizal fungi and different phosphate conditions. KW - Phosphat KW - miRNA KW - Symbiose KW - Medicago KW - phosphate KW - miRNA KW - symbiosis KW - Medicago Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55572 ER - TY - THES A1 - Wang, Yongbo T1 - Late glacial to Holocene climate and vegetation changes on the Tibetan Plateau inferred from fossil pollen records in lacustrine sediments T1 - Pollenanalytische Ableitung der spätglazialen und holozänen Klima- und Vegetationsveränderungen auf dem tibetischen Hochland anhand von Seesedimenten N2 - The past climate in central Asia, and especially on the Tibetan Plateau (TP), is of great importance for an understanding of global climate processes and for predicting the future climate. As a major influence on the climate in this region, the Asian Summer Monsoon (ASM) and its evolutionary history are of vital importance for accurate predictions. However, neither the evolutionary pattern of the summer monsoon nor the driving mechanisms behind it are yet clearly understood. For this research, I first synthesized previously published Late Glacial to Holocene climatic records from monsoonal central Asia in order to extract the general climate signals and the associated summer monsoon intensities. New climate and vegetation sequences were then established using improved quantitative methods, focusing on fossil pollen records recovered from Tibetan lakes and also incorporating new modern datasets. The pollen-vegetation and vegetation-climate relationships on the TP were also evaluated in order to achieve a better understanding of fossil pollen records. The synthesis of previously published moisture-related palaeoclimate records in monsoonal central Asia revealed generally different temporal patterns for the two monsoonal subsystems, i.e. the Indian Summer Monsoon (ISM) and East Asian Summer Monsoon (EASM). The ISM appears to have experienced maximum wet conditions during the early Holocene, while many records from the area affected by the EASM indicate relatively dry conditions at that time, particularly in north-central China where the maximum moisture levels occurred during the middle Holocene. A detailed consideration of possible driving factors affecting the summer monsoon, including summer solar insolation and sea surface temperatures, revealed that the ISM was primarily driven by variations in northern hemisphere solar insolation, and that the EASM may have been constrained by the ISM resulting in asynchronous patterns of evolution for these two subsystems. This hypothesis is further supported by modern monsoon indices estimated using the NCEP/NCAR Reanalysis data from the last 50 years, which indicate a significant negative correlation between the two summer monsoon subsystems. By analogy with the early Holocene, intensification of the ISM during coming decades could lead to increased aridification elsewhere as a result of the asynchronous nature of the monsoon subsystems, as can already be observed in the meteorological data from the last 15 years. A quantitative climate reconstruction using fossil pollen records was achieved through analysis of sediment core recovered from Lake Donggi Cona (in the north-eastern part of the TP) which has been dated back to the Last Glacial Maximum (LGM). A new data-set of modern pollen collected from large lakes in arid to semi-arid regions of central Asia is also presented herein. The concept of "pollen source area" was introduced to modern climate calibration based on pollen from large lakes, and was applied to the fossil pollen sequence from Lake Donggi Cona. Extremely dry conditions were found to have dominated the LGM, and a subsequent gradually increasing trend in moisture during the Late Glacial period was terminated by an abrupt reversion to a dry phase that lasted for about 1000 years and coincided with the first Heinrich Event of the northern Atlantic region. Subsequent periods corresponding to the warm Bølling-Allerød period and the Younger Dryas cold event were followed by moist conditions during the early Holocene, with annual precipitation of up to about 400 mm. A slightly drier trend after 9 cal ka BP was then followed by a second wet phase during the middle Holocene that lasted until 4.5 cal ka BP. Relatively steady conditions with only slight fluctuations then dominated the late Holocene, resulting in the present climatic conditions. In order to investigate the relationship between vegetation and climate, temporal variations in the possible driving factors for vegetation change on the northern TP were examined using a high resolution late Holocene pollen record from Lake Kusai. Moving-window Redundancy Analyses (RDAs) were used to evaluate the correlations between pollen assemblages and individual sedimentary proxies. These analyses have revealed frequent fluctuations in the relative abundances of alpine steppe and alpine desert components, and in particular a decrease in the total vegetation cover at around 1500 cal a BP. The climate was found to have had an important influence on vegetation changes when conditions were relatively wet and stable. However, after the 1500 cal a BP threshold in vegetation cover was crossed the vegetation appears to have been affected more by extreme events such as dust storms or fluvial erosion than by the general climatic trends. In addition, pollen spectra over the last 600 years have been revealed by Procrustes analysis to be significantly different from those recovered from older samples, which is attributed to an increased human impact that resulted in unprecedented changes to the composition of the vegetation. Theoretical models that have been developed and widely applied to the European area (i.e. the Extended R-Value (ERV) model and the Regional Estimates of Vegetation Abundance from Large Sites (REVEALS) model) have been applied to the high alpine TP ecosystems in order to investigate the pollen-vegetation relationships, as well as for quantitative reconstructions of vegetation abundance. The modern pollen–vegetation relationships for four common pollen species on the TP have been investigated using Poaceae as the reference taxa. The ERV Submodel 2 yielded relatively high PPEs for the steppe and desert taxa (Artemisia Chenopodiaceae), and low PPEs for the Cyperaceae that are characteristic of the alpine Kobresia meadows. The plant abundances on the central and north-eastern TP were quantified by applying these PPEs to four post-Late Glacial fossil pollen sequences. The reconstructed vegetation assemblages for the four pollen sequences always yielded smaller compositional species turnovers than suggested by the pollen spectra, indicating that the strength of the previously-reported vegetation changes may therefore have been overestimated. In summary, the key findings of this thesis are that (a) the two ASM subsystems show asynchronous patterns during both the Holocene and modern time periods, (b) fossil pollen records from large lakes reflect regional signals for which the pollen source areas need to be taken into account, (c) climate is not always the main driver for vegetation change, and (d) previously reported vegetation changes on the TP may have been overestimated because they ignored inter-species variations in pollen productivity. N2 - Das Paläoklima in Zentralasien, besonders in der Hochebene von Tibet (HT), ist von großer Bedeutung um globale Klimaprozesse zu verstehen und mögliche Voraussagung für die zukunft zu treffen. Als wichtigstes Klimaphänomen nehmen der asiatische Sommermonsun (ASM) und seine Entwicklungsgeschichte eine Schlüsselposition ein. Dennoch sind derzeit weder das Entwicklungsschema noch der antreibende Vorgang ausreichend verstanden. Dies gilt insbesondere für das Holozän, für welches große Kimaschwankungen und regionale Diskrepanzen weithin belegt sind. Deshalb habe ich zuerst holozäne Klimadaten zusammengefasst. Bereits veröffentlichte Publikationen aus den Monsungebieten Zentralasiens dienten als Grundlage, um die wichtigsten Klimasignale und die zugehörigen Intensitäten des Sommermonsuns heraus zu arbeiten. Anhand von Pollensequenzen aus tibetischen Seen erzeugte ich neue Klima- und Vegetationssequenzen, welche auf verbesserten quantitativen Methoden und rezenten Datensätzen beruhen. Außerdem wurden die Verhältnisse Pollen-Vegetation und Vegetation-Klima bewertet, um Schlussfolgerungen fossiler Pollensequenzen zu verbessern. Die Zusammenfassung der zuvor veröffentlichten, niederschlagsbezogenen Paläoklimadaten im Monsungebiet Zentralasiens ergab generell unterschiedliche Muster für die zwei Teilsysteme des ASMs, den Indischen Sommermonsun (ISM) und den Ostasiatischen Sommermonsun (OASM). Der ISM weist maximale feuchte Bedingungen während des frühen Holozöns auf, während viele Datensätze aus dem Gebiet des OASMs einen relativ trockenen Zustand anzeigen, besonders im nördlichen Zentralchina, wo maximale Niederschläge während des mittleren Holozäns registriert wurden. Genaue Betrachtungen der Antriebsfaktoren des Sommermonsuns ergaben, dass der ISM hauptsächlich durch Veränderungen der Sonneneinstrahlung auf der Nordhemisphäre angetrieben wird, während der OASM potentiell durch den ISM beherrscht wird - dies führt zu asynchronen Entwicklungen. Diese Hypothese wird durch rezente Monsunindizes gestützt. Sie weisen eine signifikant negative Korrelation zwischen den beiden Sommermonsun-Teilsystemen auf. Für die quantitative Klimarekonstruktion von Pollensequenzen wurde ein Sedimentkern aus dem See Donggi Cona im Nordosten der HT analysiert, der bis zum letzten glazialen Maximum (LGM) zurückdatiert wurde. Aufgrund der Tatsache, dass Donggi Cona ein relativ großer See ist, wird hiermit ein neuer Pollen-Klima-Kalibrierungsdatensatz auf Grundlage großer Seen in ariden und semiariden Regionen Zentralasiens vorgelegt. Das Konzept des Pollenherkunftsgebietes wurde in diese rezente, pollenbasierte Klimakalibrierung eingebracht und auf die Pollensequenz von Donggi Cona angewendet. Die Auswertung ergab, dass extrem trockene Bedingungen während des LGM (ca. 100 mm/yr) vorherrschten. Ein ansteigender Trend von Niederschlägen während des späten Glazials wurde durch einen abrupten Rückgang zu einer etwa 1000-jährigen Trockenphase beendet, welche mit Heinrich-Ereignis 1 in der Nordatlantik-Region übereinstimmt. Danach entsprechen die Klimaperioden dem warmen Bølling/Allerød und dem Kälteereignis der Jüngeren Dryas. Anschließend herrschten feuchte Bedingungen im frühen Holozän (bis zu 400 mm/yr). Ein etwas trockenerer Trend nach dem Holozänen Klimaoptimum wurde dann von einer zweiten Feuchtphase abgelöst, welche bis 4,5 cal. ka vor heute andauerte. Relativ gleichmäßige Bedingungen dominierten das späte Holozän bis heute. Die Klimadynamik seit dem LGM wurde vor allem durch Entgletscherung und Intensitätsschwankungen des ASM bestimmt. Bei der Betrachtung des Vegetation-Klima-Verhältnisses habe ich die zeitlichen Variationen der bestimmenden Faktoren hinsichtlich der Vegetationsdynamik auf der nördlichen HT untersucht. Dabei wurden hochauflösende holozäne Pollendaten des Kusai-Sees verwendet. Eine Redundanzanalyse (RDA) wurde angewendet um die Korrelation zwischen Pollenvergesellschaftungen und individuellen sedimentären Klimaanzeigern als auch die damit verbundene Signifikanz zu bewerten. Es stellte sich heraus, dass das Klima einen wichtigen Einfluss auf den Veränderungen in der Vegetation besaß, wenn die Bedingungen relativ warm und feucht waren. Trotzdem scheint es, dass, dass die Vegetation bei zu geringer Bedeckung stärker durch Extremereignisse wie Staubstürme oder fluviale Erosion beeinflusst wurde. Pollenspektren der vergangen 600 Jahre erwiesen sich als signifikant unterschiedlich verglichen mit den älterer Proben, was auf verstärkten anthropogenen Einfluss hindeutet. Dieser resultierte in einem beispiellosen Wandel in der Zusammensetzung der Vegetation. In Hinsicht auf das Pollen-Vegetation-Verhältnis und der quantitativen Rekonstruktion der Vegetationshäufigkeit habe ich theoretische Modelle, welche für europäische Regionen entwickelt und weithin angewendet wurden, respektive die Modelle "Extended R-Value" (ERV) sowie "Regional Estimates of Vegetation Abundance from Large Sites" (REVEALS), auf die hochalpinen Ökosysteme der HT überführt. Dafür wurden rezente Pollen-Vegetations-Verhältnisse von vier weit verbreiteten Pollen-Arten der HT überprüft. Poaceae wurden als Referenztaxa verwendet. Bei der Anwendung dieser Verhältnisse auf vier Pollensequenzen, welche die Paläoumweltbedingungen seit dem letzten Glazial widerspiegeln, wurden die Häufigkeiten von Pflanzen auf der zentralen und nordöstlichen HT quantifiziert. Anteile von Artimisia und Chenopodiaceae waren dabei im Vergleich zu ihren ursprünglichen Pollenprozenten deutlich verringert. Cyperaceae hingegen wies eine relative Zunahme in dieser Vegetationsrekonstruktion auf. Die rekonstruierten Vegetationsvergesellschaftungen an den Standorten der vier Pollensequenzen ergaben stets geringere Umwälzungen in der Artenzusammensetzung, als durch die Pollenspektren zu vermuten gewesen wäre. Dies kann ein Hinweis darauf sein, dass die Intensität der bislang angenommenen Vegetationsveränderungen überschätzt worden ist. Zusammengefasst sind die Hauptresultate dieser Dissertation, dass (a) die zwei ASM Teilsysteme asynchrone Muster während des Holozäns und heute aufweisen, dass (b) fossile Pollensequenzen großer Seen regionale Klimasignale widerspiegeln sofern die Herkunftsgebiete der Pollen berücksichtigt werden, dass (c) Klima nicht immer der Haupteinflussfaktor für Vegetationswandel ist und dass (d) das Ausmaß von Vegetationsveränderungen in zuvor veröffentlichten Studien auf der Hochebene von Tibet überschätzt worden sein kann, weil Diskrepanzen der Pollenproduktivität zwischen den Arten nicht einbezogen wurden. KW - Asiatischer Sommermonsun KW - ASM KW - Holozän KW - Seesedimente KW - Pollen KW - Hochland von Tibet KW - Asian Summer Monsoon KW - Holocene KW - Lake sediments KW - Pollen KW - Tibetan Plateau Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63155 ER - TY - THES A1 - Mutwil, Marek T1 - Integrative transcriptomic approaches to analyzing plant co-expression networks T1 - Integrative Ansätze zur Analyse von Koexpressionsnetzwerken in Pflanzen N2 - It is well documented that transcriptionally coordinated genes tend to be functionally related, and that such relationships may be conserved across different species, and even kingdoms. (Ihmels et al., 2004). Such relationships was initially utilized to reveal functional gene modules in yeast and mammals (Ihmels et al., 2004), and to explore orthologous gene functions between different species and kingdoms (Stuart et al., 2003; Bergmann et al., 2004). Model organisms, such as Arabidopsis, are readily used in basic research due to resource availability and relative speed of data acquisition. A major goal is to transfer the acquired knowledge from these model organisms to species that are of greater importance to our society. However, due to large gene families in plants, the identification of functional equivalents of well characterized Arabidopsis genes in other plants is a non-trivial task, which often returns erroneous or inconclusive results. In this thesis, concepts of utilizing co-expression networks to help infer (i) gene function, (ii) organization of biological processes and (iii) knowledge transfer between species are introduced. An often overlooked fact by bioinformaticians is that a bioinformatic method is as useful as its accessibility. Therefore, majority of the work presented in this thesis was directed on developing freely available, user-friendly web-tools accessible for any biologist. N2 - Es ist bereits ausgiebig gezeigt worden, dass Gene, deren Expression auf Transkriptionsebene koordiniert ist, häufig auch funktional in verwandten Stoffwechselwegen vorkommen, und dass sich dies wahrscheinlich auch Spezies- und sogar Reichübergreifend sagen lässt (Ihmels et al., 2004). Anfänglich wurden solche Beziehungen verwendet, um sogenannte Genfunktionsmodule in Hefe und Säugern aufzudecken (Ihmels et al., 2004), um dann orthologe Genfunktionen zwischen verschiedene Spezies und Reichen zu entdecken (Stuart et al., 2003; Bergmann et al., 2004). Modellorganismen wie Arabidopsis werden bevorzugt in der Forschung verwendet, weil man durch die schnelle Generationszeit in kurzer Zeit viele Daten erheben kann und aufgrund dessen die Ressourcen- und Informationsvielfalt um ein Vielfaches größer ist. Ein Hauptziel ist der Wissenstransfer von Modellorganismen auf Spezies, die gesellschaftlich von höherer Bedeutung sind wie z.B. Getreidearten oder andere Feldfrüchte. Pflanzen besitzen oft große Genfamilien und die eindeutige Identifizierung von gut charakterisierten Arabidopsisorthologen in besagten Nutzpflanzen ist kein triviales Vorhaben. In der vorliegenden Arbeit werden Konzepte zur Nutzung von Co-expressionsnetzwerken beschrieben, die helfen sollen (i) Genfunktionen zu identifizieren, (ii) die Organisation von biologischen Prozessen aufzuklären und (iii) das erworbene Wissen auf andere Spezies übertragbar zu machen. Ein häufig von Bioinformatikern übersehender Umstand ist, dass bioinformatische Methoden nur so sinnvoll sind wie ihre Zugänglichkeit. Deshalb basiert der Großteil dieser Arbeit auf freiverfügbaren und vor allem für Biologen nutzerfreundlichen Webtools. KW - Koexpression KW - vergleichend KW - Transkriptom KW - co-expression KW - comparative KW - transcriptomics Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50752 ER - TY - THES A1 - Husemann, Bernd T1 - The AGN-host galaxy connection : new insights from the extended ionised gas T1 - Die AGN-Galaxien Verbindung : neue Erkenntnisse durch das ausgedehnte ionisierte Gas N2 - Active Galactic Nuclei (AGN) are powered by gas accretion onto supermassive Black Holes (BH). The luminosity of AGN can exceed the integrated luminosity of their host galaxies by orders of magnitude, which are then classified as Quasi-Stellar Objects (QSOs). Some mechanisms are needed to trigger the nuclear activity in galaxies and to feed the nuclei with gas. Among several possibilities, such as gravitational interactions, bar instabilities, and smooth gas accretion from the environment, the dominant process has yet to be identified. Feedback from AGN may be important an important ingredient of the evolution of galaxies. However, the details of this coupling between AGN and their host galaxies remain unclear. In this work we aim to investigate the connection between the AGN and their host galaxies by studying the properties of the extendend ionised gas around AGN. Our study is based on observations of ~50 luminous, low-redshift (z<0.3) QSOs using the novel technique of integral field spectroscopy that combines imaging and spectroscopy. After spatially separating the emission of AGN-ionised gas from HII regions, ionised solely by recently formed massive stars, we demonstrate that the specific star formation rates in several disc-dominated AGN hosts are consistent with those of normal star forming galaxies, while others display no detectable star formation activity. Whether the star formation has been actively suppressed in those particular host galaxies by the AGN, or their gas content is intrinsically low, remains an open question. By studying the kinematics of the ionised gas, we find evidence for non-gravitational motions and outflows on kpc scales only in a few objects. The gas kinematics in the majority of objects however indicate a gravitational origin. It suggests that the importance of AGN feedback may have been overrated in theoretical works, at least at low redshifts. The [OIII] line is the strongest optical emission line for AGN-ionised gas, which can be extended over several kpc scales, usually called the Narrow-Line Region (NLR). We perform a systematic investigation of the NLR size and determine a NLR size-luminosity relation that is consistent with the scenario of a constant ionisation parameter throughout the NLR. We show that previous narrow-band imaging with the Hubble Space Telescope underestimated the NLR size by a factor of >2 and that the continuum AGN luminosity is better correlated with the NLR size than the [OIII] luminosity. These affects may account for the different NLR size-luminosity relations reported in previous studies. On the other hand, we do not detect extended NLRs around all QSOs, and demonstrate that the detection of extended NLRs goes along with radio emission. We employ emission line ratios as a diagnostic for the abundance of heavy elements in the gas, i.e. its metallicity, and find that the radial metallicity gradients are always flatter than in inactive disc-dominated galaxies. This can be interpreted as evidence for radial gas flows from the outskirts of these galaxies to the nucleus. Recent or ongoing galaxy interactions are likely responsible for this effect and may turn out to be a common prerequisite for QSO activity. The metallicity of bulge-dominated hosts are systematically lower than their disc-dominated counterparts, which we interpret as evidence for minor mergers, supported by our detailed study of the bulge-dominated host of the luminous QSO HE 1029-1401, or smooth gas accretion from the environment. In this line another new discovery is that HE 2158-0107 at z=0.218 is the most metal poor luminous QSO ever observed. Together with a large (30kpc) extended structure of low metallicity ionised gas, we propose smooth cold gas accretion as the most likely scenario. Theoretical studies suggested that this process is much more important at earlier epochs of the universe, so that HE 2158-0107 might be an ideal laboratory to study this mechanism of galaxy and BH growth at low redshift more detailed in the furture. N2 - Aktive Galaxienkerne (AGN) entstehen durch die Akkretion von Gas auf massive Schwarze Löcher, welche im Zentrum jeder Galaxie mit einer spherodialen Komponente vermutet werden. Die Leuchtkraft eines AGN kann die seiner gesamten Muttergalaxie um Größenordnungen übersteigen. In diesem Fall werden AGN oft als Quasi-Stellare Objekte (Quasare) bezeichnet. Spezielle Mechanismen müssen für das Auslösen dieser Kernaktivität in Galaxien verantwortlich sein. Verschiedene Prozesse wurden bereits identifiziert, aber der entscheidende Mechanismus wurde bisher noch nicht entdeckt. Die Wechselwirkung mit einem AGN könnte außerdem einen entscheidenden Einfluss auf die Entwicklung von Galaxien haben. Es ist noch unklar wie diese Wechselwirkung genau abläuft und ob es die Sternentstehung in Galaxien beeinflusst. In dieser Arbeit studieren wir die Eigenschaften des ausgedehnten ionisierten Gases in AGN-Muttergalaxien, um mögliche Wechselwirkungen zu untersuchen. Wir benutzen dazu eine Stichprobe von ~50 Quasaren bei geringer Rotverschiebung (z<0.3), die mit der neuartigen Technik der Integralfeld-Spektroskopie beobachtet wurden. Diese Technik kombiniert bildgebende und spektroskopische Verfahren. Wir können mit unserer Analyse zeigen, dass die spezifische Sternentstehungsrate in einigen Scheiben-dominierten AGN-Muttergalaxien vergleichbar mit denen von normalen Galaxien ohne Kernaktivität ist. Allerdings können wir in einigen AGN-Muttergalaxien keine Anzeichen von Sternentstehung feststellen. Ob Sternentstehung in diesen Galaxien momentan durch die Wechselwirkung mit dem AGN unterdrückt wird, ist daher nicht eindeutig. Hinweise auf Gasausflüsse liefert die Kinematik des ionisierten Gases für einige wenige Objekte, doch die Kinematik für die meisten AGN-Muttergalaxien kann allein durch das Wirken der Gravitation erklärt werden. Daraus schließen wir, dass der Einfluss von AGN auf ihre Muttergalaxien geringer sein könnte als theoretisch angenommen wird. Die [OIII] Emissionslinie ist die stärkste optische Linie für AGN-ionisiertes Gas und kann sich über eine Region von mehreren kpc vom Kern erstrecken, die als "Narrow-Line Region" (NLR) bezeichnet wird. Durch eine systematische Untersuchung der NLR-Ausdehnung können wir eine Beziehung zwischen NLR-Radius und AGN-Leuchtkraft bestimmen. Diese Relation ist konsistent mit einem konstanten Ionisationsparameter über die gesamte Ausdehnung der NLR. Frühere Studien mit dem Hubble Weltraumteleskop unterschätzten die Größe der NLR um mehr als einen Faktor 2. Andererseits können wir nicht für alle Quasare eine ausgedehnte NLR nachweisen, wobei eine NLR-Detektion bei einer höheren Radioleuchtkraft des Quasars wahrscheinlicher ist. Dies deutet auf eine Wechselwirkung eines Radio-Jets mit dem kernumgebenden Gas hin. Wir benutzen Emissionslinien des ionisierten Gases, um den Anteil von schweren Elementen im Gas, die so genannte Metallizität, zu bestimmen. Dabei finden wir, dass die radialen Metallizitätsgradienten in Scheiben-dominierten AGN-Muttergalaxien deutlich flacher sind als in vergleichbaren Galaxien ohne Kernaktivität, was wir als Anzeichen für radialen Gastransport vom Rand der Galaxien zum Kern interpretieren. Dies könnte durch kürzliche oder immer noch andauernde gravitative Wechselwirkungen zwischen Nachbargalaxien entstanden sein und stellt eventuell eine Voraussetzung für Kernaktivität dar. Sehr interessant ist unser Ergebnis, dass die ellptischen AGN-Muttergalaxien eine geringere Metallizität aufweisen als die Spiralgalaxien. Dies könnte z.B. durch das Verschmelzen mit kleinen Nachbargalaxien induziert werden, welche eine intrinsisch geringe Metallizität aufweisen. Am Beispiel der elliptischen Muttergalaxie des Quasars HE 1029-1401 können wir durch eine detaillierte Analyse des ionisierten Gases verschiedene Indizien für einen solchen Prozess nachweisen. Eine weiteres Resultat dieser Arbeit ist die Entdeckung eines leuchtkräftigen Quasars mit der geringsten Metallizität, die bisher für solche Objekte nachgewiesen werden konnte. Wir interpretieren die geringe Metallizität und die Ausdehnung des ionisierten Gases über 30kpc als deutliche Indizien für die Akkretion von intergalaktischem Gas. Dieser Prozess findet viel häufiger im frühen Universum statt. HE 2158-0107 könnte daher ein ideales Objekt sein, um diesen Prozess im nahen Universum detaillierter studieren zu können. KW - Quasare KW - Integralfeld-Spectroskopie KW - Galaxien KW - Interstellares Medium KW - Quasars KW - Integral field spectroscopy KW - Galaxies KW - Interstellar medium Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55556 ER - TY - THES A1 - Riedel, Katja T1 - Elucidation of the epithelial sodium channel as a salt taste receptor candidate and search for novel salt taste receptor candidates T1 - Validierung des epithelialen Natriumkanals als Salzgeschmacksrezeptor und Suche nach unbekannten menschlichen Salzgeschmacksrezeptoren N2 - Salty taste has evolved to maintain electrolyte homeostasis, serving as a detector for salt containing food. In rodents, salty taste involves at least two transduction mechanisms. One is sensitive to the drug amiloride and specific for Na+, involving epithelial sodium channel (ENaC). A second rodent transduction pathway, which is triggered by various cations, is amiloride insensitive and not almost understood to date. Studies in primates showed amiloride-sensitive as well as amiloride-insensitive gustatory responses to NaCl, implying a role of both salt taste transduction pathways in humans. However, sensory studies in humans point to largely amiloride-insensitive sodium taste perception. An involvement of ENaC in human sodium taste perception was not shown, so far. In this study, ENaC subunit protein and mRNA could be localized to human taste bud cells (TBC). Thus, basolateral αβγ-ENaC ion channels are likely in TBC of circumvallate papillae, possibly mediating basolateral sodium entry. Similarly, basolateral βγ-ENaC might play a role in fungiform TBC. Strikingly, δ-ENaC subunit was confined to taste bud pores of both papillae, likely mediating gustatory sodium entry in TBC, either apical or paracellular via tight junctions. However, regional separation of δ-ENaC and βγ-ENaC in fungiform and circumvallate TBC indicate the presence of unknown interaction partner necessary to assemble into functional ion channels. However, screening of a macaque taste tissue cDNA library did neither reveal polypeptides assembling into a functional cation channel by interaction with δ-ENaC or βγ-ENaC nor ENaC independent salt taste receptor candidates. Thus, ENaC subunits are likely involved in human taste transduction, while exact composition and identity of an amiloride (in)sensitive salt taste receptors remain unclear. Localization of δ-ENaC in human taste pores strongly suggests a role in human taste transduction. In contrast, δ-ENaC is classified as pseudogene Scnn1d in mouse. However, no experimental detected sequences are annotated, while evidences for parts of Scnn1d derived mRNAs exist. In order to elucidate if Scnn1d is possibly involved in rodent salt taste perception, Scnn1d was evaluated in this study to clarify if Scnn1d is a gene or a transcribed pseudogene in mice. Comparative mapping of human SCNN1D to mouse chromosome 4 revealed complete Scnn1d sequence as well as its pseudogenization by Mus specific endogenous retroviruses. Moreover, tissue specific transcription of unitary Scnn1d pseudogene was found in mouse vallate papillae, kidney and testis and led to identification of nine Scnn1d transcripts. In vitro translation experiments showed that Scnn1d transcripts are coding competent for short polypeptides, possibly present in vivo. However, no sodium channel like function or sodium channel modulating activity was evident for Scnn1d transcripts and/or derived polypeptides. Thus, an involvement of mouse δ-ENaC in sodium taste transduction is unlikely and points to species specific differences in salt taste transduction mechanisms. N2 - Der Salzgeschmack ermöglicht elektrolytreiche Nahrungsquellen zu erkennen und ist eine essentielle Komponente für den Erhalt des Elektrolythaushalts. In Nagern sind bisher zwei Mechanismen bekannt, welche an der Vermittlung des Salzgeschmacks beteiligt sind. Ein Natrium-spezifischer, Amilorid-sensitiver Signaltransduktionsweg wird über den epithelialen Natriumkanal (ENaC) vermittelt. Ein weiterer, bisher ungeklärter Transduktionsweg, ist Amilorid-unempfindlich und wird durch verschiedene Kationen vermittelt. Studien in Primaten konnten Amilorid-sensitive als auch -insensitive gustatorische Signaltransduktionswege nachweisen, wohingegen sensorische Studien auf eine Amilorid-Unempfindlichkeit des Natrium-spezifischen humanen Salzgeschmacks hinweisen. Eine Beteiligung des ENaC bei der Vermittlung des menschlichen Salzgeschmacks wurde bislang nicht gezeigt. In dieser Arbeit konnte die mRNA als auch Proteine von ENaC Untereineiten in menschlichen Geschmacksrezeptorzellen (GRZ) lokalisiert werden. Demzufolge, sind αβγ-ENaC Ionenkanäle möglicherweise an einem basolateralen Natriumeinstrom in circumvallaten GRZ beteiligt. Die basolaterale Lokalisation von βγ-ENaC in fungiformen GRZ weißt auf eine gleichartige Funktion hin. Die außergewöhnliche Lokalisation der δ-ENaC Untereineit ausschließlich in der Porenregion von Geschmacksknospen beider Geschmackspapillen, legt eine Beteiligung dieser ENaC Untereinheit bei der Vermittlung geschmacksrelevanter apikaler bzw. transzellulärer Natriumströme nahe. Gleichwohl weist die räumliche Trennung von apikalen δ-ENaC und basolateralen βγ-ENaC auf die Existenz unbekannter Interaktionspartner hin, da beide getrennt voneinander nicht in der Lage sind effektive Natriumkanäle zu assemblieren. Die Durchmusterung einer geschmacksrelevanten cDNA Bibliothek führte weder zur Identifikation von ENaC Interaktionspartnern, noch von ENaC unabhängigen Polypeptiden, welche in der Lage sind einen Kationenkanal zu bilden. Die genaue Zusammensetzung humaner Amilorid- (in)sensitiver Salzrezeptoren bleibt daher unklar und ein spannendes Feld. Der Nachweis von ENaC in humanen GRZ und insbesondere die Poren assoziierte Lokalisation der δ-ENaC Untereinheit impliziert eine wichtige Rolle bei der gustatorischen Signaltransduktion. Erstaunlicherweise ist die orthologe δ-ENaC Untereinheit der Maus als Scnn1d Pseudogen klassifiziert. Neben dieser automatischen Annotierung sind keine experimentell ermittelten Sequenzen in Datenbanken hinterlegt obwohl Scnn1d abgeleitete mRNA nachgewiesen werden konnte. Im Rahmen dieser Arbeit wurde untersucht ob Scnn1d ein Gen oder ein transkribiertes Pseudogen ist, um eine mögliche Rolle bei der Transduktion des murinen Salzgeschmacks zu klären. Durch Sequenzabgleich mit humanen SCNN1D konnte das vollständige Scnn1d Gen auf dem Chromosom 4 der Maus identifiziert werden, wobei sich dessen Pseudogenisierung durch Mus spezifische endogene Retroviren zeigte. Darüber hinaus wurden neun gewebsspezifische Scnn1d Transkripte nachgewiesen, welche für kurze Polypeptide kodieren. Eine mögliche Funktion derselben als Ionenkanal bzw. eine modulatorische Funktion konnte nicht gezeigt werden. Eine Beteiligung des pseudogenisierten δ-ENaC an der Vermittlung des Salzgeschmacks der Maus ist daher unwahrscheinlich und deutet auf Speziesunterschiede der Salzgeschmacksvermittlung hin. KW - ENaC KW - Salzgeschmack KW - ENaC KW - salt taste perception Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58764 ER - TY - THES A1 - Herold, Birgit T1 - Prosodische Verarbeitung und lexikalische Entwicklung sehr untergewichtiger Frühgeborener während des ersten Lebensjahres N2 - Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob die Frühgeburtlichkeit eine Auswirkung auf den Spracherwerb im ersten Lebensjahr hat. Insbesondere wurde der Frage nachgegangen, ob sich die Verarbeitung der rhythmisch-prosodischen Eigenschaften von Sprache im ersten Lebensjahr und deren weitere Ausnutzung für die Entwicklung des Lexikons bei sehr untergewichtigen Deutsch lernenden Frühgeborenen im Vergleich zu Reifgeborenen unterscheidet. Die besondere Spracherwerbssituation Frühgeborener liefert weitere Erkenntnisse bezüglich der Frage, inwieweit der frühe Spracherwerb durch prädeterminierte reifungsbedingte Mechanismen und Abläufe bestimmt wird und inwieweit dessen Verlauf und die relevanten Erwerbsmechanismen durch individuelle erfahrungsabhängige Faktoren beeinflusst werden. Damit liefern die Ergebnisse auch einen weiteren Beitrag zur Nature-Nurture-Diskussion. N2 - This research addresses the question if and how premature birth effects language acquisition during the first year of life. In particular the study focus on whether prosodic processing of language and the utilization of this knowledge for the acquisition of the lexicon during the fist year of life differs between German learning very low birth weight infants and term born infants. The specific exposure and postnatal situation of premature infants provide insights on the determination of early language acquisition and processes, and on the determination of language acquisition and its relevant mechanisms by individual experience. The results contribute to the nature-nurture discussion. T3 - Spektrum Patholinguistik - Schriften - 3 KW - Frühgeborene KW - sehr untergewichtige Frühgeborene KW - Spracherwerb KW - prosodische Verarbeitung KW - nature - nurture KW - Premature KW - very low birth weight (VLBW) KW - language acquisition KW - prosodic processing KW - nature – nurture Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48517 SN - 978-3-86956-107-3 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wist, Dominic T1 - Attacking complexity in logic synthesis of asynchronous circuits T1 - Komplexitätsbewältigung in der Logiksynthese asynchroner Schaltungen N2 - Most of the microelectronic circuits fabricated today are synchronous, i.e. they are driven by one or several clock signals. Synchronous circuit design faces several fundamental challenges such as high-speed clock distribution, integration of multiple cores operating at different clock rates, reduction of power consumption and dealing with voltage, temperature, manufacturing and runtime variations. Asynchronous or clockless design plays a key role in alleviating these challenges, however the design and test of asynchronous circuits is much more difficult in comparison to their synchronous counterparts. A driving force for a widespread use of asynchronous technology is the availability of mature EDA (Electronic Design Automation) tools which provide an entire automated design flow starting from an HDL (Hardware Description Language) specification yielding the final circuit layout. Even though there was much progress in developing such EDA tools for asynchronous circuit design during the last two decades, the maturity level as well as the acceptance of them is still not comparable with tools for synchronous circuit design. In particular, logic synthesis (which implies the application of Boolean minimisation techniques) for the entire system's control path can significantly improve the efficiency of the resulting asynchronous implementation, e.g. in terms of chip area and performance. However, logic synthesis, in particular for asynchronous circuits, suffers from complexity problems. Signal Transitions Graphs (STGs) are labelled Petri nets which are a widely used to specify the interface behaviour of speed independent (SI) circuits - a robust subclass of asynchronous circuits. STG decomposition is a promising approach to tackle complexity problems like state space explosion in logic synthesis of SI circuits. The (structural) decomposition of STGs is guided by a partition of the output signals and generates a usually much smaller component STG for each partition member, i.e. a component STG with a much smaller state space than the initial specification. However, decomposition can result in component STGs that in isolation have so-called irreducible CSC conflicts (i.e. these components are not SI synthesisable anymore) even if the specification has none of them. A new approach is presented to avoid such conflicts by introducing internal communication between the components. So far, STG decompositions are guided by the finest output partitions, i.e. one output per component. However, this might not yield optimal circuit implementations. Efficient heuristics are presented to determine coarser partitions leading to improved circuits in terms of chip area. For the new algorithms correctness proofs are given and their implementations are incorporated into the decomposition tool DESIJ. The presented techniques are successfully applied to some benchmarks - including 'real-life' specifications arising in the context of control resynthesis - which delivered promising results. N2 - Moderner Schaltungsentwurf fokussiert hauptsächlich synchrone Schaltungstechnik mit allen inhärenten Problemen. Asynchone (d.h. ungetaktete) Schaltungen zeichnen sich jedoch nicht nur durch das Fehlen der Taktversatzproblematik gegenüber ihren synchronen Pendents aus, sondern auch insbesondere durch geringeren Energieverbrauch, günstigere EMV-Eigenschaften, hohe Performance, Modularität und Robustheit gegenüber Schwankungen in der Spannungsversorgung, im Herstellungsprozess sowie Temperaturunterschieden. Diese Vorteile werden mit höherer Integration sowie höheren Taktraten signifikanter. Jedoch ist der Entwurf und auch der Test asynchroner Schaltungen erheblich schwieriger verglichen mit synchronen Schaltungen. Entwurfswerkzeuge zur Synthese asynchroner Schaltungen aus Hochsprachen-Spezifikationen sind zwar inzwischen verfügbar, sie sind jedoch noch nicht so ausgereift und bei weitem noch nicht so akzeptiert in der Industrie, wie ihre Äquivalente für den synchronen Schaltungsentwurf. Insbesondere fehlt es an Werkzeugunterstützung im Bereich der Logiksynthese komplexer Steuerungen („Controller“), welche kritisch für die Effizienz – z.B. in Bezug auf Chipfläche und Geschwindigkeit – der resultierenden Schaltungen oder Systeme ist. Zur Spezifikation von Steuerungen haben sich Signalflankengraphen („signal transition graphs“, STGs) bewährt, die auch als Entwurfseinstieg für eine Logiksynthese von SI-Schaltungen („speed independent“) verwendet werden. (SI-Schaltungen gelten als sehr robuste asynchrone Schaltungen.) Aus den STGs werden zwecks Logiksynthese Automaten abgeleitet werden, deren Zustandszahl aber oft prohibitiv groß werden kann. Durch sogenannte STG-Dekomposition wird die Logiksynthese einer komplexen Schaltung ermöglicht, was bislang aufgrund von Zustandsexplosion oft nicht möglich war. Dabei wird der Spezifikations-STG laut einer gegebenen Partition von Ausgangssignalen in viele kleinere Teilnetze dekomponiert, wobei zu jedem Partitionsblock ein Teilnetz – mit normalerweise signifikant kleinerem Zustandsraum im Vergleich zur Spezifikation – erzeugt wird. Zu jedem Teilnetz wird dann eine Teilschaltung (Komponente) mittels Logiksynthese generiert. Durch die Anwendung von STG-Dekomposition können jedoch Teilnetze erzeugt werden, die sogenannte irreduzible CSC-Konflikte aufweisen (d.h. zu diesen Teilnetzen kann keine SI-Schaltung erzeugt werden), obwohl die Spezifikation keine solchen Konflikte hatte. Diese Arbeit präsentiert einen neuen Ansatz, welcher die Entstehung solcher irreduziblen Konflikte vermeidet, und zwar durch die Einführung interner Kommunikation zwischen den (zu den Teilnetzen gehörenden) Schaltungskomponenten. Bisher werden STG-Dekompositionen total durchgeführt, d.h. pro resultierender Komponente wird ein Ausgangssignal erzeugt. Das führt gewöhnlich nicht zu optimalen Schaltungsimplementierungen. In dieser Arbeit werden Heuristiken zur Bestimmung gröberer Ausgabepartitionen (d.h. Partitionsblöcke mit mehreren Ausgangssignalen) vorgestellt, die zu kleineren Schaltungen führen. Die vorgestellten Algorithmen werden formal abgesichert und wurden in das bereits vorhandene Dekompositionswerkzeug DESIJ integriert. An praxisrelevanten Beispielen konnten die vorgestellten Verfahren erfolgreich erprobt werden. KW - Asynchrone Schaltung KW - Logiksynthese KW - Komplexitätsbewältigung KW - STG-Dekomposition KW - CSC KW - asynchronous circuit KW - logic synthesis KW - speed independence KW - STG decomposition KW - CSC Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59706 ER - TY - THES A1 - Stahl, Silvester T1 - Selbstorganisation von Migranten im deutschen Vereinssport : eine soziologische Annäherung T1 - Migrant self-organization in the German club sport system : a sociological approach N2 - Diese von der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität Potsdam angenommene Dissertation thematisiert die Selbstorganisation von Migranten in eigenen Sportvereinen und auf anderen Ebenen des Vereinssports. Sie beruht auf den Ergebnissen eines vom Bundesinstitut für Sportwissenschaft geförderten Forschungsprojekts der Universität Potsdam. Mit mehreren hundert Migrantensportvereinen in ganz Deutschland stellt der Sport einen der wichtigsten Gesellschaftsbereiche für die Selbstorganisation von Zuwanderern dar. Doch obwohl sich Migranten in der Bundesrepublik schon seit den 1960er Jahren in eigenen Sportvereinen zusammenschließen, ist das Thema zuvor noch nicht umfassend untersucht worden. Um diese Forschungslücke zu schließen, stellt die Arbeit Basisinformationen über verschiedene Organisationsformen, typische Entstehungszusammenhänge, spezifische Problemfelder sowie wiederkehrende Konfliktmuster bereit und präsentiert darauf aufbauende Annahmen über die Wirkungen der sportbezogenen Selbstorganisation auf das Verhältnis von Einheimischen und Zuwanderern im Sport, auf die allgemeinen interethnischen Beziehungen und auf den gesamtgesellschaftlichen Integrationsprozess. Daran anknüpfend werden mögliche Konsequenzen aufgezeigt, die die verschiedenen Akteure des Sportsystems aus den dargestellten Forschungsbefunden ziehen können. Die Arbeit basiert auf den Befunden einer in den Jahren 2006 bis 2009 durchgeführten empirischen Untersuchung, in der verschiedene qualitative Methoden eingesetzt wurden, um das Forschungsfeld explorativ, ergebnisoffen und in einer möglichst weiten Perspektive zu beleuchten. In erster Linie bestand diese Feldstudie in einer Interviewreihe, für die 25 Vertreter von Migrantensportvereinen sowie 15 Feldexperten aus verschiedenen Berufsgruppen und Organisationen in Leitfaden-Interviews befragt wurden. Ergänzt wurde die Interviewstudie durch eine Zeitungsanalyse, für die sieben Tages- und Wochenzeitungen nach Artikeln zum Thema durchsucht wurden, sowie gezielte Feldbeobachtungen, etwa beim Besuch von Fußballspielen, bei Versammlungen und Festen sowie in Vereinsheimen. Darüber hinaus wurde eine umfangreiche Internetrecherche durchgeführt, bei der vor allem die Webseiten von über 65 Migrantensportvereinen in Augenschein genommen wurden. In allen Untersuchungsteilen war das Vorgehen des Verfassers stark an der Grounded-Theory-Methode orientiert. Die so gewonnenen Forschungsergebnisse deuten darauf hin, dass eigenständige Migrantensportvereine, die als vorherrschende Form der sportbezogenen Selbstorganisation von Zuwanderern im Mittelpunkt der Arbeit stehen, aus komplexen gesellschaftlichen Inklusions-, Schließungs- sowie Segmentationsprozessen resultieren und interindividuell unterschiedliche Beteiligungsmotive ihrer Mitglieder aufnehmen. Sie stellen typischerweise multifunktionale Hybridorganisationen dar und erbringen für die beteiligten Migranten und deren lokale Gemeinschaften spezifische Integrations-, Repräsentations- und Solidarleistungen, durch die sie sich signifikant von deutschen Sportvereinen und Migrantenorganisationen in anderen Sektoren abheben. Zugleich unterscheiden sich die Migrantensportvereine untereinander hinsichtlich Vereinstätigkeit, Selbstverständnis und Konfliktbeteiligung sehr stark. Ihre Rückwirkung auf den Vereinssport als organisationales Feld, auf die interethnischen Beziehungen in anderen Gesellschaftsbereichen und auf den gesamtgesellschaftlichen Integrationsprozess ist den präsentierten Forschungsergebnissen zufolge gleichfalls sehr ambivalent. Einerseits erbringen Migrantenvereine nicht nur die gleichen gemeinnützigen Leistungen im Bereich der sozialen Integration wie andere Sportvereine auch, sondern entfalten darüber hinaus, indem sie die Integrationsfähigkeit ihrer Mitglieder erhöhen und Personen in den organisierten Sport einbeziehen, die sonst gar keinem Sportverein beitreten würden, spezifische Integrationswirkungen, die andere Sportvereine nicht aufweisen. Andererseits erhöht die Selbstorganisation von Migranten in eigenen Sportvereinen soziale Distanzen und Spannungen zwischen Einheimischen und Zuwanderern, zumal Migrantensportvereine vor allem an den manchmal gewaltvollen Konflikten im Amateurfußball überproportional häufig beteiligt sind. Darüber hinaus stellt ein relativ kleiner Teil der Migrantensportvereine wegen Organisationsdefiziten eine ernste Belastung für die Tätigkeit der Sportverbände dar. Pauschalisierende Negativbewertungen der Vereine werden vom Verfasser jedoch als ungerechtfertigt und nicht sachangemessen zurückgewiesen. N2 - This Ph.D. dissertation submitted to the Department of Economics and Social Sciences at the Universität Potsdam focuses on the self-organization of migrants in sport clubs and on other various levels of the club sport system. It is based on the findings of a research project by the Universität Potsdam, which was funded by the German Federal Institute for Sport Science (Bundesinstitut für Sportwissenschaft). Sport represents a major societal area for the self-organization of migrants, with several hundred migrant sport clubs established throughout Germany. However, the topic has not yet been scientifically investigated, although migrants in the Federal Republic have been members of autonomous sport clubs since the 1960s. In order to fill this research gap, this dissertation provides basic information about different forms of organization, typical founding circumstances, specific problems and frequent conflict patterns, and presents assumptions on the effects sport related self-organization has on interethnic relations in sport and society and the general integration process. An outline of the potential consequences which different actors within the sport system could draw from these findings then follows. The text is based on the results of an empirical study conducted from 2006 to 2009, in which a variety of qualitative methods has been employed in order to explore the field of investigation as openly and widely as possible. This field study consisted primarily of a set of interviews, in which 25 executives of migrant sport clubs and 15 experts from different professions and organizations were surveyed in questionnaire guided interviews. In addition, a newspaper analysis was implemented; seven daily and weekly papers were searched for articles pertaining to the topic, and systematic field observations were conducted at soccer matches, meetings and parties, as well as in club houses. In addition, extensive internet research was undertaken by examining the home pages of more than 65 migrant sport clubs. The investigation was strongly oriented on the grounded theory method. The findings of these investigations indicate that autonomous migrant sport clubs, which are the main focus of the book as the dominant form of sport related migrant self-organization, result from complex social processes of inclusion, exclusion and segmentation and take on diverse individual motives for participation. They typically serve as multifunctional hybrid organizations, which fulfill different functions of integration, representation and solidarity for the migrants involved and their local communities, thereby significantly differing from German sport clubs and other migrant organizations respectively. At the same time, migrant sport clubs vary strongly in terms of club activity, self-concept and conflict involvement. Their influence on the club sport system as their organizational field, on interethnic relations in other sectors of society, and on the general integration process is also very ambivalent according to the presented findings. Migrant sport clubs not only accomplish the same merits of social integration as other sport clubs but also promote integration in specific ways by improving their members’ ability for integration and involving persons in organized sport that otherwise would not join a sport club. However, the self-organization of migrants in sport clubs also increases social distances and tensions between migrants and natives, especially since migrant sports clubs are often involved in the sometimes violent conflicts of amateur soccer. In addition, a relatively small number of migrant sport clubs severely affects the activities of sport associations because of deficits in organization. Generalized criticism towards these clubs is nevertheless rejected by the author as unjust and inadequate. KW - Sportsoziologie KW - Sport KW - Sportverein KW - Migration KW - Ethnizität KW - sport sociology KW - sport KW - sport club KW - migration KW - ethnicity Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53788 SN - 978-3-86956-151-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Gause, Clemens T1 - Das System der Strategie : ein Vergleich zwischen Strategien biologischer Systeme und militärischen Strategien ; eine Modellentwicklung T1 - The system of strategy : a comparison between strategies of biological systems and military strategies ; a model development N2 - Das vorliegende Buch vergleicht Strategien biologischer Systeme mit militärischen Strategien. Die zentrale Fragestellung ist dabei darauf gerichtet, ob es neben systemischen Gemeinsamkeiten auch gemeinsame oder ähnliche Strukturmuster und ähnliche Prozessabläufe beispielsweise sowohl im biologischen Abwehrmechanismus des Immunsystems und bei Insektenstaaten als auch bei Prozessen im Militär gibt. Vor diesem Hintergrund klaffen in der Theorie der Strategie, speziell in den Militärwissenschaften Lücken, denn der Systemansatz wird nicht konsequent beachtet, wie in diesem Buch mehrfach nachgewiesen ist. Von einem allgemeinen Verständnis der Strategie als bewusstem planerischem Vorgehen ist Abstand zu nehmen. Ausgehend von der Methode der Analogie und des Vergleichs wird im theoretischen Teil dieses Buches die Allgemeine Systemtheorie erläutert. Dabei werden der Begriff der Strategie ebenso wie die Begriffe Struktur und Prozess und Ansätze aus der Kriegsphilosophie von Clausewitz untersucht. Den Ausgangspunkt und schließlich auch wieder den Endpunkt der Überlegungen bilden neben dem notwendigen weiten Verständnis von Strategie, vor allem der Begriff der Organisation, ihrer Umwelt und der in diesem Zusammenhang bestehenden Wechselwirkung. Sowohl die Wechselwirkung von Umwelt und System als auch ihre Abhängigkeit durch strukturelle Kopplung werden beschrieben. Das Zusammenspiel und die daraus entstehende Komplexität der fünf Komponenten der Wahrnehmung, der Information und der Führung im Zusammenhang der Komponenten von Raum und Zeit in einem sozialen System lassen die klassische Ziel-Mittel-Zweck-Beziehung Clausewitz´scher Strategiedefinition verkürzt erscheinen. Anhand eines kurzen Rekurses der Methoden der Sozialen Netzwerkanalyse (SNA) wird der breite und tiefgehende Analyserahmen der Messung und Transparenzerreichung in Organisationen vorgestellt. Die SNA wird als Ausprägung der Netzwerk- und Graphentheorie, in die Allgemeine Systemtheorie integriert. Sie bildet eine zukunftsweisende Methode der Untersuchung von Netzwerken wie etwa dem Internet (Facebook, Xing etc.). Der aufgezeigte Theorierahmen bildet dabei zugleich eine Methode für den Systemvergleich und kann als Vorgehensmodell künftiger Strategieentwicklung genutzt werden. Der anschließende Systemvergleich wird mit mehreren Beispielen durchgeführt. Ausgehend von der Zelle als Grundeinheit werden Strukturen und Prozesse des Immunsystems mit solchen in militärischen Strukturen, weil sie im Lauf der Evolution enorme Leistungen in Reaktion, Anpassung und Optimierung vollbracht haben. Der Vergleich geht der Frage nach, ob in diesen Bereichen der Strategie und Organisation systemische Grundregeln existieren. Das Beispiel der Wechselwirkung zwischen Parasit und Wirt zeigt, dass jeder Fortschritt und Sieg angesichts der Systemeinbettung von Strategie nur relativ wirken kann. Die Analogie zwischen Viren und Bakterien sowie die Entwicklung des Begriffs der sozialen Mimikry führen zu einem erweiterten Verständnis der Strategie von Terroristen in sozialen Systemen. Verdeutlicht wird das Grundschema des Täuschens und Eindringens in Systeme sowie die Beeinflussung und Umsteuerung von Prozessen und Strukturen in einem System durch Kommunikation und Implementation von Codes. Am Beispiel des Immunsystems und der Bildung verschiedener Kommunikations- und Steuerungsmechanismen von Zellsystemen sowie Beispielen von Schwarmbildung und der Organisation sozialer Insekten werden eine Vielzahl heuristischer Hinweise für neue Ansätze für die Organisation von Streitkräften und ihrer Steuerung gefunden. Neben der Erarbeitung eines grundlegenden Strategiebegriffs anhand von Wahrnehmung und Selektion als Grundprozess der Erzeugung von Strategie wird eine differenzierte Betrachtung von Begriffen wie Redundanz und Robustheit sowie eine relativierende Sichtweise von Risiko, Gefahr und Schaden gewonnen. Der Vergleich mit dem Immunsystems zeigt einfache Beispiele der Informationsspeicherung und -übertragung, die zudem Bypassfähigkeiten sowie dezentrale Eskalations- und Deeskalationsprinzipien veranschaulichen. Dies eröffnet in Analogie dieser Prinzipien einen weiten Raum Sicherheitsarchitekturen zu überdenken und neu zu strukturieren. Zudem kann die räumliche Ausbreitung von Information und Kräften als ein gemeinsames Grundproblem der Entwicklung und Wirksamkeit von Strategien sowohl in der Natur, als auch im Militär identifiziert werden. Die Betrachtung zeigt zudem wie Zellen mit fehlgeleiteten Prozessen und Strukturen umgehen. Die Analogie deutet auf das Erfordernis einer Veränderung im Umgang mit Fehlern und ihrer Rückführ- und Umkehrbarkeit im weitesten Sinne. Das Buch eröffnet überdies ein neues Verständnis von Staat, Gewaltenteilung und Institutionen in einem sozialen System. Die Ergebnisse sind auch auf andere Forschungsbereiche, Organisationen und unterschiedlichste soziale Systeme übertragbar. Es eröffnet sich ein breites Anwendungsspektrum für künftige strategische Untersuchungen. N2 - This book compares strategies of biological systems to military strategies. The central question is directed to whether there are systemic similarities, common or similar structures and similar patterns Processes, for example, both the biological defense mechanism Immune system and in insect societies as well as processes are in the military. KW - Strategie KW - System KW - Militär KW - Netzwerk KW - Biologie KW - strategy KW - system KW - military KW - network KW - biology Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50068 ER - TY - THES A1 - Pfeifer, Sebastian T1 - Neue Ansätze zur Monomersequenzkontrolle in synthetischen Polymeren T1 - New approaches for monomer sequence control in synthetic polymers N2 - Von der Natur geschaffene Polymere faszinieren Polymerforscher durch ihre spezielle auf eine bestimmte Aufgabe ausgerichtete Funktionalität. Diese ergibt sich aus ihrer Bausteinabfolge uber die Ausbildung von Uberstrukturen. Dazu zählen zum Beispiel Proteine (Eiweiße), aus deren Gestalt sich wichtige Eigenschaften ergeben. Diese Struktureigenschaftsbeziehung gilt ebenso für funktionelle synthetische Makromoleküle. Demzufolge kann die Kontrolle der Monomersequenz in Polymeren bedeutend für die resultierende Form des Polymermoleküls sein. Obwohl die Synthese von synthetischen Polymeren mit der Komplexität und der Größe von Proteinen in absehbarer Zeit wahrscheinlich nicht gelingen wird, können wir von der Natur lernen, um neuartige Polymermaterialien mit definierten Strukturen (Sequenzen) zu synthetisieren. Deshalb ist die Entwicklung neuer und besserer Techniken zur Strukturkontrolle von großem Interesse für die Synthese von Makromolekülen, die perfekt auf ihre Funktion zugeschnitten sind. Im Gegensatz zu der Anzahl fortgeschrittener Synthesestrategien zum Design aus- gefallener Polymerarchitekturen – wie zum Beispiel Sterne oder baumartige Polymere (Dendrimere) – gibt es vergleichsweise wenig Ansätze zur echten Sequenzkontrolle in synthetischen Polymeren. Diese Arbeit stellt zwei unterschiedliche Techniken vor, mit denen die Monomersequenz innerhalb eines Polymers kontrolliert werden kann. Gerade bei den großtechnisch bedeutsamen radikalischen Polymerisationen ist die Sequenzkontrolle schwierig, weil die chemischen Bausteine (Monomere) sehr reaktiv sind. Im ersten Teil dieser Arbeit werden die Eigenschaften zweier Monomere (Styrol und N-substituiertes Maleinimid) geschickt ausgenutzt, um in eine Styrolkette definierte und lokal scharf abgegrenzte Funktionssequenzen einzubauen. Uber eine kontrollierte radikalische Polymerisationsmethode (ATRP) wurden in einer Ein-Topf-Synthese über das N-substituierte Maleinimid chemische Funktionen an einer beliebigen Stelle der Polystyrolkette eingebaut. Es gelang ebenfalls, vier unterschiedliche Funktionen in einer vorgegebenen Sequenz in die Polymerkette einzubauen. Diese Technik wurde an zwanzig verschiedenen N-substituierten Maleinimiden getestet, die meisten konnten erfolgreich in die Polymerkette integriert werden. In dem zweiten in dieser Arbeit vorgestellten Ansatz zur Sequenzkontrolle, wurde der schrittweise Aufbau eines Oligomers aus hydrophoben und hydrophilen Segmenten (ω-Alkin-Carbonsäure bzw. α-Amin-ω-Azid-Oligoethylenglycol) an einem löslichen Polymerträger durchgeführt. Das Oligomer konnte durch die geschickte Auswahl der Verknüpfungsreaktionen ohne Schutzgruppenstrategie synthetisiert werden. Der lösliche Polymerträger aus Polystyrol wurde mittels ATRP selbst synthetisiert. Dazu wurde ein Startreagenz (Initiator) entwickelt, das in der Mitte einen säurelabilen Linker, auf der einen Seite die initiierende Einheit und auf der anderen die Ankergruppe für die Anbindung des ersten Segments trägt. Der lösliche Polymerträger ermöglichte einerseits die schrittweise Synthese in Lösung. Andererseits konnten überschüssige Reagenzien und Nebenprodukte zwischen den Reaktionsschritten durch Fällung in einem Nicht-Lösungsmittel einfach abgetrennt werden. Der Linker ermöglichte die Abtrennung des Oligomers aus jeweils drei hydrophoben und hydrophilen Einheiten nach der Synthese. N2 - Polymer scientists are impressed by polymers created by nature. This is caused by their structure which is aimed to fulfill very special functions. The structure is primary built by sequential covalent linking of building units. Secondly, supramolecular aggregation leads to three-dimensional alignment. The sequence of the building blocks has a high influence on the higher molecular arrangement. Proteins are only one example for supramolecular structures which have special functions because of their supramolecular arrangement. This structure-property relationship is also possible for synthetic polymers. For this reason the control of monomer sequences in synthtic polymers is just as important for the resulting structure of a synthetic polymer molecule. Even though the synthesis of polymers with complex strucures and sizes as in nature is impossible in near future. But the development of new and better techniques for sequence control in synthetic polymers is of high importance to create well defined macromolecular structures which are tailor-made for their function. In contrast to a lot of advanced synthethis strategies for the design of complex polymer architechtures (e.g. brushes, stars, or dendrimers) their are less approaches for a monomer sequence control in synthetic polymers. This work presents two different techniques for controlling the monomer sequence inside a polymer. Especially in technologically significant radical polymerization it is difficult to control the monomer sequence because radical species are very reactive and the addition of a monomer to the radical function is not selective. The first approach makes use of the properties of two monomers (styrene and N-substituted maleimides) to add chemical funtions locally inside a polystyrene chain. By addition of N-functionalized maleimides during the polymerization of styrene chemical functions could be added at any desired position inside the polystyrene chain. This technique was tested on 20 different N-substituted maleimides. Most of them were incorporated successfully into the polymer chain. The second monomer sequence control approach is a stepwise synthesis of an oligomer made of short alternating hydrophobic and hydrophilic segments on a soluble polymer support. Two building blocks were used: ω-alkyne carboxylic acid (A-B) and α-amine-ω-azide oligoethylene glycol (C-D). The linking of the segments was done by applying two very efficient chemical reactions, namely 1,3-dipolar cycloaddition of terminal alkynes (A) and azides (D) and amidification of carboxylic acids (B) with primary amines (C). These two reactions proceed chemoselectively in an ABCD multifunctional mixture without a protection chemistry strategy. The polystyrene support was synthesized by atom transfer radical polymerization (ATRP) in the presence of an azido-functionalized ATRP initiator containing a labile p-alkoxybenzyl ester linker. Depending on the choise of solvent, the soluble polymer support was used in solution during the coupling reactions or was precipitated for an easy removal of excessive reagents and by-products. The acid-labile linker could be cleaved by trifluoroacetic acid treatment to obtain a hydrophilic/hydrophobic block copolymer. KW - ATRP KW - Copolymerisation KW - Flüssigphasensynthese KW - WANG-Linker KW - Klick-Chemie KW - ATRP KW - copolymerization KW - liquid phase synthesis KW - WANG-linker KW - click chemistry Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51385 ER - TY - THES A1 - Lorenz, Haik T1 - Texturierung und Visualisierung virtueller 3D-Stadtmodelle T1 - Texturing and Visualization of Virtual 3D City Models N2 - Im Mittelpunkt dieser Arbeit stehen virtuelle 3D-Stadtmodelle, die Objekte, Phänomene und Prozesse in urbanen Räumen in digitaler Form repräsentieren. Sie haben sich zu einem Kernthema von Geoinformationssystemen entwickelt und bilden einen zentralen Bestandteil geovirtueller 3D-Welten. Virtuelle 3D-Stadtmodelle finden nicht nur Verwendung als Mittel für Experten in Bereichen wie Stadtplanung, Funknetzplanung, oder Lärmanalyse, sondern auch für allgemeine Nutzer, die realitätsnah dargestellte virtuelle Städte in Bereichen wie Bürgerbeteiligung, Tourismus oder Unterhaltung nutzen und z. B. in Anwendungen wie GoogleEarth eine räumliche Umgebung intuitiv erkunden und durch eigene 3D-Modelle oder zusätzliche Informationen erweitern. Die Erzeugung und Darstellung virtueller 3D-Stadtmodelle besteht aus einer Vielzahl von Prozessschritten, von denen in der vorliegenden Arbeit zwei näher betrachtet werden: Texturierung und Visualisierung. Im Bereich der Texturierung werden Konzepte und Verfahren zur automatischen Ableitung von Fototexturen aus georeferenzierten Schrägluftbildern sowie zur Speicherung oberflächengebundener Daten in virtuellen 3D-Stadtmodellen entwickelt. Im Bereich der Visualisierung werden Konzepte und Verfahren für die multiperspektivische Darstellung sowie für die hochqualitative Darstellung nichtlinearer Projektionen virtueller 3D-Stadtmodelle in interaktiven Systemen vorgestellt. Die automatische Ableitung von Fototexturen aus georeferenzierten Schrägluftbildern ermöglicht die Veredelung vorliegender virtueller 3D-Stadtmodelle. Schrägluftbilder bieten sich zur Texturierung an, da sie einen Großteil der Oberflächen einer Stadt, insbesondere Gebäudefassaden, mit hoher Redundanz erfassen. Das Verfahren extrahiert aus dem verfügbaren Bildmaterial alle Ansichten einer Oberfläche und fügt diese pixelpräzise zu einer Textur zusammen. Durch Anwendung auf alle Oberflächen wird das virtuelle 3D-Stadtmodell flächendeckend texturiert. Der beschriebene Ansatz wurde am Beispiel des offiziellen Berliner 3D-Stadtmodells sowie der in GoogleEarth integrierten Innenstadt von München erprobt. Die Speicherung oberflächengebundener Daten, zu denen auch Texturen zählen, wurde im Kontext von CityGML, einem international standardisierten Datenmodell und Austauschformat für virtuelle 3D-Stadtmodelle, untersucht. Es wird ein Datenmodell auf Basis computergrafischer Konzepte entworfen und in den CityGML-Standard integriert. Dieses Datenmodell richtet sich dabei an praktischen Anwendungsfällen aus und lässt sich domänenübergreifend verwenden. Die interaktive multiperspektivische Darstellung virtueller 3D-Stadtmodelle ergänzt die gewohnte perspektivische Darstellung nahtlos um eine zweite Perspektive mit dem Ziel, den Informationsgehalt der Darstellung zu erhöhen. Diese Art der Darstellung ist durch die Panoramakarten von H. C. Berann inspiriert; Hauptproblem ist die Übertragung des multiperspektivischen Prinzips auf ein interaktives System. Die Arbeit stellt eine technische Umsetzung dieser Darstellung für 3D-Grafikhardware vor und demonstriert die Erweiterung von Vogel- und Fußgängerperspektive. Die hochqualitative Darstellung nichtlinearer Projektionen beschreibt deren Umsetzung auf 3D-Grafikhardware, wobei neben der Bildwiederholrate die Bildqualität das wesentliche Entwicklungskriterium ist. Insbesondere erlauben die beiden vorgestellten Verfahren, dynamische Geometrieverfeinerung und stückweise perspektivische Projektionen, die uneingeschränkte Nutzung aller hardwareseitig verfügbaren, qualitätssteigernden Funktionen wie z.~B. Bildraumgradienten oder anisotroper Texturfilterung. Beide Verfahren sind generisch und unterstützen verschiedene Projektionstypen. Sie ermöglichen die anpassungsfreie Verwendung gängiger computergrafischer Effekte wie Stilisierungsverfahren oder prozeduraler Texturen für nichtlineare Projektionen bei optimaler Bildqualität. Die vorliegende Arbeit beschreibt wesentliche Technologien für die Verarbeitung virtueller 3D-Stadtmodelle: Zum einen lassen sich mit den Ergebnissen der Arbeit Texturen für virtuelle 3D-Stadtmodelle automatisiert herstellen und als eigenständige Attribute in das virtuelle 3D-Stadtmodell einfügen. Somit trägt diese Arbeit dazu bei, die Herstellung und Fortführung texturierter virtueller 3D-Stadtmodelle zu verbessern. Zum anderen zeigt die Arbeit Varianten und technische Lösungen für neuartige Projektionstypen für virtueller 3D-Stadtmodelle in interaktiven Visualisierungen. Solche nichtlinearen Projektionen stellen Schlüsselbausteine dar, um neuartige Benutzungsschnittstellen für und Interaktionsformen mit virtuellen 3D-Stadtmodellen zu ermöglichen, insbesondere für mobile Geräte und immersive Umgebungen. N2 - This thesis concentrates on virtual 3D city models that digitally encode objects, phenomena, and processes in urban environments. Such models have become core elements of geographic information systems and constitute a major component of geovirtual 3D worlds. Expert users make use of virtual 3D city models in various application domains, such as urban planning, radio-network planning, and noise immision simulation. Regular users utilize virtual 3D city models in domains, such as tourism, and entertainment. They intuitively explore photorealistic virtual 3D city models through mainstream applications such as GoogleEarth, which additionally enable users to extend virtual 3D city models by custom 3D models and supplemental information. Creation and rendering of virtual 3D city models comprise a large number of processes, from which texturing and visualization are in the focus of this thesis. In the area of texturing, this thesis presents concepts and techniques for automatic derivation of photo textures from georeferenced oblique aerial imagery and a concept for the integration of surface-bound data into virtual 3D city model datasets. In the area of visualization, this thesis presents concepts and techniques for multiperspective views and for high-quality rendering of nonlinearly projected virtual 3D city models in interactive systems. The automatic derivation of photo textures from georeferenced oblique aerial imagery is a refinement process for a given virtual 3D city model. Our approach uses oblique aerial imagery, since it provides a citywide highly redundant coverage of surfaces, particularly building facades. From this imagery, our approach extracts all views of a given surface and creates a photo texture by selecting the best view on a pixel level. By processing all surfaces, the virtual 3D city model becomes completely textured. This approach has been tested for the official 3D city model of Berlin and the model of the inner city of Munich accessible in GoogleEarth. The integration of surface-bound data, which include textures, into virtual 3D city model datasets has been performed in the context of CityGML, an international standard for the exchange and storage of virtual 3D city models. We derive a data model from a set of use cases and integrate it into the CityGML standard. The data model uses well-known concepts from computer graphics for data representation. Interactive multiperspective views of virtual 3D city models seamlessly supplement a regular perspective view with a second perspective. Such a construction is inspired by panorama maps by H. C. Berann and aims at increasing the amount of information in the image. Key aspect is the construction's use in an interactive system. This thesis presents an approach to create multiperspective views on 3D graphics hardware and exemplifies the extension of bird's eye and pedestrian views. High-quality rendering of nonlinearly projected virtual 3D city models focuses on the implementation of nonlinear projections on 3D graphics hardware. The developed concepts and techniques focus on high image quality. This thesis presents two such concepts, namely dynamic mesh refinement and piecewise perspective projections, which both enable the use of all graphics hardware features, such as screen space gradients and anisotropic texture filtering under nonlinear projections. Both concepts are generic and customizable towards specific projections. They enable the use of common computer graphics effects, such as stylization effects or procedural textures, for nonlinear projections at optimal image quality and interactive frame rates. This thesis comprises essential techniques for virtual 3D city model processing. First, the results of this thesis enable automated creation of textures for and their integration as individual attributes into virtual 3D city models. Hence, this thesis contributes to an improved creation and continuation of textured virtual 3D city models. Furthermore, the results provide novel approaches to and technical solutions for projecting virtual 3D city models in interactive visualizations. Such nonlinear projections are key components of novel user interfaces and interaction techniques for virtual 3D city models, particularly on mobile devices and in immersive environments. KW - Computergrafik KW - virtuelle 3D-Stadtmodelle KW - CityGML KW - nichtlineare Projektionen KW - Texturen KW - computer graphics KW - virtual 3D city models KW - CityGML KW - nonlinear projections KW - textures Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53879 ER - TY - THES A1 - Krüger, Anne T1 - Molekulare Charakterisierung von NE81 und CP75, zwei kernhüllen- und centrosomassoziierten Proteinen in Dictyostelium discoideum T1 - Molecular characterization of NE81 and CP75, two nuclear envelope and centrosome associated proteins in Dictyostelium discoideum N2 - Lamine bilden zusammen mit laminassoziierten Proteinen die nukleäre Lamina. Diese ist notwendig für die mechanische Stabilität von Zellen, die Organisation des Chromatins, der Genexpression, dem Fortgang des Zellzyklus und der Zellmigration. Die vielfältigen Funktionen der Lamine werden durch die Pathogenese von Laminopathien belegt. Zu diesen Erkrankungen, welche ihre Ursache in Mutationen innerhalb der laminkodierenden Gene, oder der Gene laminassoziierter bzw. laminprozessierender Proteine haben, zählen unter anderem das „Hutchinson-Gilford Progerie Syndrom“, die „Emery-Dreifuss“ Muskeldystrophie und die dilatierte Kardiomyopathie. Trotz der fundamentalen Bedeutung der Lamine, wurden diese bisher nur in Metazoen und nicht in einzelligen Organismen detektiert. Der amöbide Organismus Dictyostelium discoideum ist ein haploider Eukaryot, der häufig als Modellorganismus in den verschiedensten Bereichen der Zellbiologie eingesetzt wird. Mit der Entdeckung von NE81, einem Protein das mit der inneren Kernhülle von Dictyostelium discoideum assoziiert ist, wurde erstmals ein Protein identifiziert, dass man aufgrund seiner Eigenschaften als laminähnliches Protein in einem niederen Eukaryoten bezeichnen kann. Diese Merkmale umfassen die Existenz lamintypischer Sequenzen, wie die CDK1-Phosphorylierungsstelle, direkt gefolgt von einer zentralen „Rod“-Domäne, sowie eine typische NLS und die hoch konservierte CaaX-Box. Für die Etablierung des NE81 als „primitives“ Lamin, wurden im Rahmen dieser Arbeit verschiedene Experimente durchgeführt, die strukturelle und funktionelle Gemeinsamkeiten zu den Laminen in anderen Organismen aufzeigen konnten. Die Herstellung eines polyklonalen Antikörpers ermöglichte die Verifizierung der subzellulären Lokalisation des NE81 durch Elektronenmikroskopie und gab Einblicke in das Verhalten des endogenen Proteins innerhalb des Zellzyklus. Mit der Generierung von NE81-Nullmutanten konnte demonstriert werden, dass NE81 eine wichtige Rolle bei der nukleären Integrität und der Chromatinorganisation von Zellen spielt. Des Weiteren führte die Expression von zwei CaaX-Box deletierten NE81 - Varianten dazu, den Einfluss des Proteins auf die mechanische Stabilität der Zellen nachweisen zu können. Auch die Bedeutung der hochkonservierten CaaX-Box für die Lokalisation des Proteins wurde durch die erhaltenen Ergebnisse deutlich. Mit der Durchführung von FRAP-Experimente konnte außerdem die strukturgebende Funktion von NE81 innerhalb des Zellkerns bekräftigt werden. Zusätzlich wurde im Rahmen dieser Arbeit damit begonnen, den Einfluss der Isoprenylcysteincarboxylmethyltransferase auf die Lokalisation des Proteins aufzuklären. Die Entdeckung eines laminähnlichen Proteins in einem einzelligen Organismus, der an der Schwelle zu den Metazoen steht, ist für die evolutionäre Betrachtung der Entwicklung der sozialen Amöbe und für die Erforschung der molekularen Basis von Laminopathien in einem einfachen Modellorganismus sehr interessant. Die Arbeit mit Dictyostelium discoideum könnte daher Wege aufzeigen, dass Studium der Laminopathien am Tiermodell drastisch zu reduzieren. In den letzten Jahren hat die Erforschung unbekannter Bestandteile des Centrosoms in Dictyostelium discoideum große Fortschritte gemacht. Eine zu diesem Zwecke von unserer Arbeitsgruppe durchgeführte Proteomstudie, führte zur Identifizierung weiterer, potentiell centrosomaler Kandidatenproteine. Der zweite Teil dieser Arbeit beschäftigt sich mit der Charakterisierung eines solchen Kandidatenproteins, dem CP75. Es konnte gezeigt werden, dass CP75 einen echten, centrosomalen Bestandteil darstellt, der mikrotubuli-unabhängig mit der Core Struktur des Zellorganells assoziiert ist. Weiterhin wurde deutlich, dass die Lokalisation am Centrosom in Abhängigkeit vom Zellzyklus erfolgt und CP75 vermutlich mit CP39, einem weiteren centrosomalen Core Protein, interagiert. N2 - Lamins build the nuclear lamina together with lamin-associated proteins. The latter is required for mechanical stabilization of cells, chromatin organization, gene expression, cell cycle progression and cell migration. This became evident by the pathogenesis of laminopathies. Laminopathies are diseases which arise from mutations in genes encoding lamins, lamin-associated-or lamin-processing proteins. Prominent examples are the „Hutchinson-Gilford progeria syndrome“, the „Emery-Dreifuss“muscular dystrophy and dilated cardiomyopathy. Despite their universal importance, lamins have only been found in metazoans, but not in unicellular organisms so far. The amoeboid organism Dictyostelium discoideum is a haploid eukaryote widely used in different fields of cell biology. With the discovery of NE81, a protein associated with the inner nuclear membrane of Dictyostelium discoideum, for the first time a protein was identified, whose properties jutify denomination as a lamin-like protein in a lower eukaryote. This is based on the presence of lamin-typical sequences such as a CDK1 phosphorylation consensus sequence, followed by a central rod domain, a typical nuclear localization sequence and the highly conserved CaaX box. For the verification of NE81 as a primitive lamin, various different experiments were conducted in the frame of this work, which revealed structural and functional similarities to lamins of other organisms. Analysis of the behavior of the endogenous protein in cell cycle and the verification of the subcellular localization with electron microscopy was done with the generation of a polyclonal antibody. With a NE81 null mutant, it could be shown, that NE81 plays an important role in nuclear integrity and chromatin organization. The expression of two CaaX-box deleted protein variants confirmed the influence of NE81 on the mechanical stability of cells. These results furthermore underlined the importance of the presence of the highly conserved CaaX-box. FRAP-experiments further emphasized the structural function of NE81 in the nucleus. Furthermore, first steps were undertaken to determine the influence of the Isoprenylcysteinecarboxylmethyltransferase on the localization of NE81. In the light of evolution the discovery of a lamin-like protein in a unicellular organism is very interesting and could provide a simple experimental system for studies of the molecular basis of laminopathies. Hence, the study on laminopathies in animal models could be reduced dramatically. The identification of unknown centrosomal components in Dictyostelium discoideum has made significant proceedings in the last years. A proteomic approach which was accomplished for this purpose, yielded several potential centrosomal candidate proteins. The second part of this work focuses on the characterization of one of these proteins, CP75. It could be shown that CP75 is a genuine, centrosomal component, which is associated with the centrosomal core structure independently of microtubules. Furthermore, it could be demonstrated, that the localization of CP75 is cell cycle-dependent and that it presumably interacts with the core protein CP39. KW - Kernhülle KW - Lamin KW - Dictyostelium KW - Centrosom KW - nuclear envelope KW - lamin KW - Dictyostelium KW - centrosome Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53915 ER - TY - THES A1 - Gräff, Thomas T1 - Soil moisture dynamics and soil moisture controlled runoff processes at different spatial scales : from observation to modelling T1 - Bodenfeuchtedynamik und deren Einfluss auf Abflussprozesse in unterschiedlichen Skalen : von der Beobachtung zur Modellierung N2 - Soil moisture is a key state variable that controls runoff formation, infiltration and partitioning of radiation into latent and sensible heat. However, the experimental characterisation of near surface soil moisture patterns and their controls on runoff formation remains a challenge. This subject was one aspect of the BMBF-funded OPAQUE project (operational discharge and flooding predictions in head catchments). As part of that project the focus of this dissertation is on: (1) testing the methodology and feasibility of the Spatial TDR technology in producing soil moisture profiles along TDR probes, including an inversion technique of the recorded signal in heterogeneous field soils, (2) the analysis of spatial variability and temporal dynamics of soil moisture at the field scale including field experiments and hydrological modelling, (3) the application of models of different complexity for understanding soil moisture dynamics and its importance for runoff generation as well as for improving the prediction of runoff volumes. To fulfil objective 1, several laboratory experiments were conducted to understand the influence of probe rod geometry and heterogeneities in the sampling volume under different wetness conditions. This includes a detailed analysis on how these error sources affect retrieval of soil moisture profiles in soils. Concerning objective 2 a sampling strategy of two TDR clusters installed in the head water of the Wilde Weißeritz catchment (Eastern Ore Mountains, Germany) was used to investigate how well “the catchment state” can be characterised by means of distributed soil moisture data observed at the field scale. A grassland site and a forested site both located on gentle slopes were instrumented with two Spatial TDR clusters that consist of up to 39 TDR probes. Process understanding was gained by modelling the interaction of evapotranspiration and soil moisture with the hydrological process model CATFLOW. A field scale irrigation experiment was carried out to investigate near subsurface processes at the hillslope scale. The interactions of soil moisture and runoff formation were analysed using discharge data from three nested catchments: the Becherbach with a size of 2 km², the Rehefeld catchment (17 km²) and the superordinate Ammelsdorf catchment (49 km²). Statistical analyses including observations of pre-event runoff, soil moisture and different rainfall characteristics were employed to predict stream flow volume. On the different scales a strong correlation between the average soil moisture and the runoff coefficients of rainfall-runoff events could be found, which almost explains equivalent variability as the pre-event runoff. Furthermore, there was a strong correlation between surface soil moisture and subsurface wetness with a hysteretic behaviour between runoff soil moisture. To fulfil objective 3 these findings were used in a generalised linear model (GLM) analysis which combines state variables describing the catchments antecedent wetness and variables describing the meteorological forcing in order to predict event runoff coefficients. GLM results were compared to simulations with the catchment model WaSiM ETH. Hereby were the model results of the GLMs always better than the simulations with WaSiM ETH. The GLM analysis indicated that the proposed sampling strategy of clustering TDR probes in typical functional units is a promising technique to explore soil moisture controls on runoff generation and can be an important link between the scales. Long term monitoring of such sites could yield valuable information for flood warning and forecasting by identifying critical soil moisture conditions for the former and providing a better representation of the initial moisture conditions for the latter. N2 - Abflussentwicklung, Infiltration und die Umverteilung von Strahlung in latenten und sensiblen Wärmestrom werden maßgeblich durch die Bodenfeuchte der vadosen Zone gesteuert. Trotz allem, gibt s wenig Arbeiten die sich mit der experimentellen Charakterisierung der Bodenfeuchteverteilung und ihre Auswirkung auf die Abflussbildung beschäftigen. Der Fokus dieser Dissertation wurde darauf ausgerichtet: (1) die Methode des Spatial TDR und deren Anwendbarkeit einschließlich der Inversion des TDR Signals in heterogenen Böden zu prüfen, (2) die Analyse der räumlichen und zeitlichen Dynamik der Bodenfeuchte auf der Feldskala einschließlich Feldexperimenten und hydrologischer Modellierung, (3) der Aufbau verschiedener Modellanwendungen unterschiedlicher Komplexität um die Bodenfeuchtedynamiken und die Abflussentwicklung zu verstehen und die Vorhersage des Abflussvolumens zu verbessern. Um die Zielsetzung 1 zu erreichen, wurden verschiedene Laborversuche durchgeführt. Hierbei wurde der Einfluss der Sondenstabgeometrie und verschiedener Heterogenitäten im Messvolumen bei verschiedenen Feuchtegehalten untersucht. Dies beinhaltete eine detaillierte Analyse wie diese Fehlerquellen die Inversion des Bodenfeuchteprofils beeinflussen. Betreffend der Zielsetzung 2, wurden 2 TDR-Cluster in den Quellgebieten der Wilden Weißeritz installiert (Osterzgebirge) und untersucht, wie gut der Gebietszustand mit räumlich hochaufgelösten Bodenfeuchtedaten der Feldskala charakterisiert werden kann. Um die Interaktion zwischen Evapotranspiration und Bodenfeuchte zu untersuchen wurde das hydrologische Prozessmodell CATFLOW angewendet. Ein Beregnungsversuch wurde durchgeführt um die Zwischenabflussprozesse auf der Hangskala zu verstehen. Die Interaktion zwischen Bodenfeuchte und Abflussentwicklung wurde anhand von drei einander zugeordneten Einzugsgebieten analysiert. Statistische Analysen unter Berücksichtigung von Basisabfluss, Bodenvorfeuchte und verschiedenen Niederschlagscharakteristika wurden verwendet, um auf das Abflussvolumen zu schließen. Auf den verschiedenen Skalen konnte eine hohe Korrelation zwischen der mittleren Bodenfeuchte und dem Abflussbeiwert der Einzelereignisse festgestellt werden. Hierbei konnte die Bodenfeuchte genauso viel Variabilität erklären wie der Basisabfluss. Im Hinblick auf Zielsetzung 3 wurden “Generalised liner models” (GLM) genutzt. Dabei wurden Prädiktorvariablen die den Gebietszustand beschreiben und solche die die Meteorologische Randbedingungen beschreiben genutzt um den Abflussbeiwert zu schätzen. Die Ergebnisse der GLMs wurden mit Simulationsergebnissen des hydrologischen Gebietsmodells WaSiM ETH verglichen. Hierbei haben die GLMs eindeutig bessere Ergebnisse geliefert gegenüber den WaSiM Simulationen. Die GLM Analysen haben aufgezeigt, dass die verwendete Messstrategie mehrerer TDR-Cluster in typischen funktionalen Einheiten eine viel versprechende Methode ist, um den Einfluss der Bodenfeuchte auf die Abflussentwicklung zu verstehen und ein Bindeglied zwischen den Skalen darstellen zu können. Langzeitbeobachtungen solcher Standorte sind in der Lage wichtige Zusatzinformationen bei der Hochwasserwarnung und -vorhersage zu liefern durch die Identifizierung kritischer Gebietszustände für erstere und eine bessere Repräsentation der Vorfeuchte für letztere. KW - Bodenfeuchte KW - TDR KW - Heterogenität KW - Einzugsgebiet KW - Gebietszustand KW - Soil moisture KW - TDR KW - heterogeneity KW - catchment KW - runoff KW - catchment state Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54470 ER - TY - THES A1 - Heine, Moreen T1 - Transfer von E-Government-Lösungen : Wirkungen und Strategien T1 - Transfer of e-Government solutions : effects and strategies N2 - Der E-Government-Fortschritt wird nach wie vor durch redundante Entwicklungsaktivitäten und isolierte, wenig interoperable Lösungen gehemmt. Die Herausforderung liegt weniger in der Entwicklung und Einführung leistungsstarker Informationssysteme, sondern in der Verbreitung bestehender Lösungen. Die Arbeit identifiziert mögliche Strategien für den Transfer von E-Government-Lösungen zwischen Verwaltungen gleicher wie auch verschiedener föderaler Ebene. Es werden Konzepte zur Diffusion von Innovationen, zum Technologie- wie auch Politiktransfer herangezogen. Weiter werden drei umfangreiche Fallstudien vorgestellt. Sie führen zu transferhemmenden wie auch fördernden Faktoren und somit zu Gestaltungsoptionen für erfolgreiche Transferprozesse unter den vielfältigen Rahmenbedingungen im öffentlichen Sektor. N2 - The research work on transfer strategies explores ways to spread e-government solutions among public administrations. Studies about diffusion of innovations, technology transfer and policy transfer are used. The work is based on outcomes of three case studies, which lead to obstacles and promoters of transfer processes and hence to design options for successful transfers at diverse conditions within public sector in Germany. KW - Transfer KW - E-Government KW - Mobile Bürgerdienste KW - CIO KW - Einheitlicher Ansprechpartner KW - Transfer KW - E-Government KW - Mobile Services KW - CIO KW - Point of Single Contact Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54155 ER - TY - THES A1 - Boeche, Corrado T1 - Chemical gradients in the Milky Way from unsupervised chemical abundances measurements of the RAVE spectroscopic data set T1 - Chemische Gradienten in der Milchstraße aus unüberwachten chemischen Häufigkeitsmessungen aus dem RAVE spektroskopischen Datenset N2 - The present thesis was born and evolved within the RAdial Velocity Experiment (RAVE) with the goal of measuring chemical abundances from the RAVE spectra and exploit them to investigate the chemical gradients along the plane of the Galaxy to provide constraints on possible Galactic formation scenarios. RAVE is a large spectroscopic survey which aims to observe spectroscopically ~10^6 stars by the end of 2012 and measures their radial velocities, atmospheric parameters and chemical abundances. The project makes use of the UK Schmidt telescope at Australian Astronomical Observatory (AAO) in Siding Spring, Australia, equipped with the multiobject spectrograph 6dF. To date, RAVE collected and measured more than 450,000 spectra. The precision of the chemical abundance estimations depends on the reliability of the atomic and atmosphere parameters adopted (in particular the oscillator strengths of the absorption lines and the effective temperature, gravity, and metallicity of the stars measured). Therefore we first identified 604 absorption lines in the RAVE wavelength range and refined their oscillator strengths with an inverse spectral analysis. Then, we improved the RAVE stellar parameters by modifying the RAVE pipeline and the spectral library the pipeline rely on. The modifications removed some systematic errors in stellar parameters discovered during this work. To obtain chemical abundances, we developed two different processing pipelines. Both of them perform chemical abundances measurements by assuming stellar atmospheres in Local Thermodynamic Equilibrium (LTE). The first one determines elements abundances from equivalent widths of absorption lines. Since this pipeline showed poor sensibility on abundances relative to iron, it has been superseded. The second one exploits the chi^2 minimization technique between observed and model spectra. Thanks to its precision, it has been adopted for the creation of the RAVE chemical catalogue. This pipeline provides abundances with uncertains of about ~0.2dex for spectra with signal-to-noise ratio S/N>40 and ~0.3dex for spectra with 20>S/N>40. For this work, the pipeline measured chemical abundances up to 7 elements for 217,358 RAVE stars. With these data we investigated the chemical gradients along the Galactic radius of the Milky Way. We found that stars with low vertical velocities |W| (which stay close to the Galactic plane) show an iron abundance gradient in agreement with previous works (~-0.07$ dex kpc^-1) whereas stars with larger |W| which are able to reach larger heights above the Galactic plane, show progressively flatter gradients. The gradients of the other elements follow the same trend. This suggests that an efficient radial mixing acts in the Galaxy or that the thick disk formed from homogeneous interstellar matter. In particular, we found hundreds of stars which can be kinetically classified as thick disk stars exhibiting a chemical composition typical of the thin disk. A few stars of this kind have already been detected by other authors, and their origin is still not clear. One possibility is that they are thin disk stars kinematically heated, and then underwent an efficient radial mixing process which blurred (and so flattened) the gradient. Alternatively they may be a transition population" which represents an evolutionary bridge between thin and thick disk. Our analysis shows that the two explanations are not mutually exclusive. Future follow-up high resolution spectroscopic observations will clarify their role in the Galactic disk evolution. N2 - Die vorliegende Doktorarbeit wurde im Rahmen des RAdial Velocity Experiment (RAVE) angefertigt. Ihr Ziel ist es, chemische Elementhäufigkeiten an RAVE-Spektren zu messen und zur Untersuchung chemischer Gradienten in der Milchstrassenebene zu benutzen, um verschieden Szenarien der Galaxienentstehung einzugrenzen. RAVE ist eine große spektrokopische Durchmusterung, deren Ziel es ist, bis zum Ende des Jahres 2012 insgesamt 10^6 Sterne zu spektroskopieren, um deren Radialgeschwindigkeiten, sternatmosphärische Parameter und chemische Häufigkeiten zu messen. Das Projekt benutzt das UK Schmidt Teleskop am Australian Astronomical Observatory (AAO) in Siding Spring, Australien, welches mit dem Multiobjekt-Spektrographen 6dF bestückt ist. Bis heute hat RAVE die Spektren von mehr als 450,000 Sternen gesammelt und untersucht. Die Genauigkeit, mit der die Elementhäufigkeiten abgeschätzt werden können, hängt von der Zuverlässigkeit der verwendeten Parameter, (insbesondere der Oszillatorstärken der Absorptionslinien sowie von der effektiven Temperatur, Schwerebeschleunigung und der Metallizität des gemessenen Sterns) ab. Daher identifizierten wir zunächst 604 Absorptionslinien im Wellenlängenbereich von RAVE und verbesserten deren Oszillatorstärken durch eine inverse Spektralanalyse. Dann wurden die stellaren Parameter von RAVE verbessert, indem die RAVE Pipeline und die stellaren Parameter, auf denen sie beruht, modifiziert wurden. Die Änderungen eliminierten einen Teil der systematischen Fehler von stellaren Parametern, die im Laufe dieser Arbeit gefunden wurden. Um Elementhäufigkeiten zu bestimmen, haben wir zwei verschiedene Prozessierungs-Pipelines entwickelt. Beide berechnen die Elementhäufigkeiten unter der Annahme von Sternatmosphären im lokalen thermischen Gleichgewicht (local thermal equilibrium, LTE). Die erste Pipeline berechnete Elemenhäufigkeiten anhand der Äquivalentbreiten von Absorptionslinien. Da diese Methode eine geringe Empfindlichkeit für die Elementhäufigeiten relativ zu Eisen erreichte, wurde sie ersetzt. Die neue Pipeline benutzt chi^2-Fits von Modellspektren an die beobachteten Spektren. Dank Ihrer Präzision wurde diese für die Erstellung des RAVE-Katalogs von Elementhäufigkeiten verwendet. Diese Pipeline liefert Elementhäufigkeiten mit einer Genauigkeit von ~0.2dex, während für Spektren mit 20>S/N>40 immerhin noch ~0.3dex Genauigkeit erreicht werden. Für die vorliegende Arbeit wurden für 217.358 Sterne die Häufigkeiten von sieben chemischen Elementen bestimmt. Mit diesen Daten wurde der radiale chemische Gradient unserer Milchstraße untersucht. Wir finden, dass Sterne mit kleinen vertikalen Geschwindigkeiten |W|, die also nahe der galaktischen Ebene bleiben, einen radialen Gradienten der Eisenhäufigkeit zeigen, der mit früheren Studien übereinstimmt (~-0.07 dex Kpc^-1), während Sterne mit großen |W|, also solche, die größere galaktische Höhen erreichen, einen progressiv flachere Gradienten zeigen. Die Gradienten der anderen Element folgen dem gleichen Trend. Das lässt darauf schließen, dass entweder die Durchmischung der galaktischen dicken Scheibe effizient arbeitet oder aber dass die dicke Scheibe aus interstellarer Materie gebildet wurde, die chemisch recht homogen war. Speziell fanden wir hunderte von Sternen, die zwar kinematisch als zur dicken Scheibe zugehörig klassifiziert werden können, die aber die typische chemische Zusammensetzung der dünnen Scheibe aufweisen. Einige wenige dieser Sterne wurden bereits von anderen Autoren entdeckt, aber ihre Herkunft bleibt immer noch unklar. Eine Möglichkeit ist, dass die Sterne der dünnen Scheibe kinematische geheizt werden, sodass sie effizienter radial gemischt werden, was die chemischen Gradienten verwischt und auch flacher macht. Alternativ dazu könnten diese Sterne einer "Übergangspopulation" angehören, welche hinsichtlich der Scheibenevolution die Verbindung zwischen der dünnen und der dicken Scheibe darstellt. Unsere Untersuchung zeigt, dass sich diese beiden Erklärungen gegenseitig nicht ausschließen. Künftige Nachspektroskopierung mit hoher Auflösung wird die Rolle dieser Sterne in der Entwicklungsgeschichte der galaktischen Scheibe aufklären. KW - Galaxie KW - Milchstraße KW - Spektroskopie KW - chemische Häufigkeiten KW - Galaxy KW - Milky Way KW - Spectroscopy KW - Chemical Abundances Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52478 ER - TY - THES A1 - Valverde Serrano, Clara T1 - Self-assembly behavior in hydrophilic block copolymers T1 - Selbstorganisation von hydrophilen Blockcopolymeren N2 - Block copolymers are receiving increasing attention in the literature. Reports on amphiphilic block copolymers have now established the basis of their self-assembly behavior: aggregate sizes, morphologies and stability can be explained from the absolute and relative block lengths, the nature of the blocks, the architecture and also solvent selectiveness. In water, self-assembly of amphiphilic block copolymers is assumed to be driven by the hydrophobic. The motivation of this thesis is to study the influence on the self-assembly in water of A b B type block copolymers (with A hydrophilic) of the variation of the hydrophilicity of B from non-soluble (hydrophobic) to totally soluble (hydrophilic). Glucose-modified polybutadiene-block-poly(N-isopropylacrylamide) copolymers were prepared and their self-assembly behavior in water studied. The copolymers formed vesicles with an asymmetric membrane with a glycosylated exterior and poly(N-isopropylacrylamide) on the inside. Above the low critical solution temperature (LCST) of poly(N-isopropylacrylamide), the structure collapsed into micelles with a hydrophobic PNIPAM core and glycosylated exterior. This collapse was found to be reversible. As a result, the structures showed a temperature-dependent interaction with L-lectin proteins and were shown to be able to encapsulate organic molecules. Several families of double hydrophilic block copolymers (DHBC) were prepared. The blocks of these copolymers were biopolymers or polymer chimeras used in aqueous two-phase partition systems. Copolymers based on dextran and poly(ethylene glycol) blocks were able to form aggregates in water. Dex6500-b-PEG5500 copolymer spontaneously formed vesicles with PEG as the “less hydrophilic” barrier and dextran as the solubilizing block. The aggregates were found to be insensitive to the polymer's architecture and concentration (in the dilute range) and only mildly sensitive to temperature. Variation of the block length, yielded different morphologies. A longer PEG chain seemed to promote more curved aggregates following the inverse trend usually observed in amphiphilic block copolymers. A shorter dextran promoted vesicular structures as usually observed for the amphiphilic counterparts. The linking function was shown to have an influence of the morphology but not on the self-assembly capability in itself. The vesicles formed by dex6500-b-PEG5500 showed slow kinetics of clustering in the presence of Con A lectin. In addition both dex6500-b-PEG5500 and its crosslinked derivative were able to encapsulate fluorescent dyes. Two additional dextran-based copolymers were synthesized, dextran-b-poly(vinyl alcohol) and dextran-b-poly(vinyl pyrrolidone). The study of their self-assembly allowed to conclude that aqueous two-phase systems (ATPS) is a valid source of inspiration to conceive DHBCs capable of self-assembling. In the second part the principle was extended to polypeptide systems with the synthesis of a poly(N-hydroxyethylglutamine)-block-poly(ethylene glycol) copolymer. The copolymer that had been previously reported to have emulsifying properties was able to form vesicles by direct dissolution of the solid in water. Last, a series of thermoresponsive copolymers were prepared, dextran-b-PNIPAMm. These polymers formed aggregates below the LCST. Their structure could not be unambiguously elucidated but seemed to correspond to vesicles. Above the LCST, the collapse of the PNIPAM chains induced the formation of stable objects of several hundreds of nanometers in radius that evolved with increasing temperature. The cooling of these solution below LCST restored the initial aggregates. This self-assembly of DHBC outside any stimuli of pH, ionic strength, or temperature has only rarely been described in the literature. This work constituted the first formal attempt to frame the phenomenon. Two reasons were accounted for the self-assembly of such systems: incompatibility of the polymer pairs forming the two blocks (enthalpic) and a considerable solubility difference (enthalpic and entropic). The entropic contribution to the positive Gibbs free energy of mixing is believed to arise from the same loss of conformational entropy that is responsible for “the hydrophobic effect” but driven by a competition for water of the two blocks. In that sense this phenomenon should be described as the “hydrophilic effect”. N2 - Blockcopolymere erfahren ein stetig wachsendes Interesse, was an der steigenden Anzahl an Publikationen zu diesem Thema erkennbar ist. Zahlreiche Studien zu amphiphilen Blockcopolymeren haben dabei einige grundlegende Erkenntnisse über deren chemisches und physikalisches Verhalten, vor allem über die Selbstorganisation, hervorgebracht. So können die Größe, die verschiedenen Morphologien und auch die Stabilität der gebildeten Aggregate anhand der relativen und absoluten Blocklängen, die chemischen Struktur der Blöcke, der molekularen Architektur und der Eigenschaften des verwendeten Lösungsmittel erklärt werden. Im speziellen Fall des Wassers als Lösungsmittel bist die Selbstorganisation amphiphiler Blockcopolymere durch den hydrophoben Effekt bedingt. Dieser Arbeit liegt das Interesse an der Selbstorganisation in wässrigem Medium von Blockcopolymeren des Typs A-b-B mit A als hydrophilem Block und B als Block mit variierender Hydrophilie bzw. Hydrophpobie von unlöslich bis vollständig löslich zugrunde. Durch Variation dieser Eigenschaften von Block B soll dessen Einfluss auf das Selbstorganisationsverhalten untersucht werden. Dazu wurden mit Glucose modifizierte Polybutadien-block-Poly(N-Isopropylacrylamid)-Copolymere hergestellt und deren Selbstorganisation in Wasser untersucht. Die Copolymere bilden Vesikel mit einer asymmetrischen Membran, wobei im äußeren Bereich glycolysierte Gruppen und im inneren Bereich Poly(N-Isopropylacrylamid) (PNIPAM) vorliegen. Beim Überschreiten der low critical solution temperature (LCST) kollabiert die vesikuläre Struktur unter Bildung von Mizellen mit einem hydrophoben PNIPAM-Mizellinneren und nach außen gerichteten glycolysierten Blöcken. Diese strukturelle Umwandlung ist reversibel. Die Strukturen zeigten außerdem eine temperaturabhängige Wechselwirkung mit L-Lectin-Proteinen und die Möglichkeit zur Einkapselung organischer Moleküle konnte belegt werden. Des weiteren wurden verschiedene Gruppen von Blockcopolymeren mit zwei hydrophilen Blöcken synthetisiert (double hydrophilic block copolymers – DHBC). Die Blöcke dieser Systeme waren entweder Biopolymere oder Polymerchimäre, die in wässrigen Zwei-Phasen-Trennverfahren eingesetzt werden. Polymere, die auf Dextran- und Poly(ethylenglycol)-Blöcken basieren, zeigen Aggregatbildung in wässriger Phase. Dex6500-b-PEG5500 bildet spontan Vesikel mit PEG als „weniger hydrophilem“ Bestandteil und Dextran als löslichem Block. Die Bildung dieser Vesikel zeigte keine Emfpindlichkeit gegenüber einer Veränderung der Polymerarchitektur und der Konzentration, und nur eine geringe Sensitivität gegenüber Temperaturänderungen. Veränderungen der Blocklängen dagegen beeinflussten die Selbstorganisation und führten zu unterschiedlichen Morphologien. Längere PEG-Blöcke bevorzugten dabei die Bildung eher gekrümmter Aggregate, entgegen dem Trend, der gewöhnlicherweise für amphiphile Blockcopolymere beobachtet wird. Die Verkürzung des Dextran-Blocks fördert die Ausbildung vesikulärer Strukturen, was dem Verhalten der amphiphilen Gegenspieler der DHBC-Systeme entspricht. Die funktionelle Gruppe zur Verbindung der beiden Blöcke hat zwar einen Einfluss auf die Morphologie der gebildeten Aggregate, nicht jedoch auf die eigentliche Fähigkeit der Systeme zur Selbstorganisation. Die Dex6500-b-PEG5500-Vesikel wiesen zudem eine langsame Bildungskinetik in Gegenwart von Con-A-Lectin auf. Des Weiteren waren sowohl Dex6500-b-PEG5500 als auch das quervernetzte Derivate dieses Copolymers in der Lage, Fluoreszenzfarbstoffe einzulagern. Um zu zeigen, dass wässrige Zwei-Phasen-Systeme (aqueous two phase systems – ATPS) eine belastbare Grundlage für die Untersuchung und Entwicklung selbstorganisierender DHBC-Systeme sind, wurden weitere Dextran-basierte Copolymere synthetsisiert: Dextran-b-Poly(vinylalokohol) und Detran-b-Poly(vinylpyrrolidon). In einem zweiten Teil dieser Arbeit wurde das zuvor erarbeitete Prinzip auf auf Polypeptidsysteme ausgeweitet. Dazu wurde ein Poly(N-Hydroxyethylglutamin)-block-Poly(ethylenglycol)-Copolymer hergestellt. Dieses Copolymer, dessen emulgierenden Eigenschaften bereits bekannt waren, wies unmittelbar nach Lösung des Feststoffes in Wasser Vesikelbildung auf. In einem dritten Teil der Studie wurden thermoresponsive Copolymere hergestellt und untersucht: Dextran-b-PNIPAMm. Unterhalb der LCST konnte die Bildung von Aggregaten nachgewiesen werden, deren Struktur nicht zweifelsfrei entschlüsselt werden konnte, wobei jedoch zahlreiche Hinweise auf eine vesikuläre Struktur hindeuten. Oberhalb der LCST wurde durch die Kollabierung der PNIPAM-Ketten die Bildung stabiler Strukturen mit Radien von mehreren hundert Nanometern induziert, deren weitere Entwicklung durch eine weitere Temperaturerhöhung gefördert werden konnte. Durch Rückkühlung in den Temperaturebereich unterhalb der LCST konnten die zuvor beobachteten Aggregate reversibel zurückgebildet werden. Das Selbstorganisationsverhalten von DHBC, unabhängig vom Einfluss des pH-Werts, der Ionenstärke oder der Temperatur are bisher nur in sehr geringem Umfang Gegenstand wissenschaftlicher Veröffentlichungen. Diese Arbeit stellt damit den ersten umfassenden Beitrag zur systematischen Erarbeitung dieses Phänomens dar. Es konnten dabei zwei Ursachen für die beobachteten Selbstorganisationseffekte bestimmt werden: die Inkompatibilität der beiden Polymerblöcke (enthalpischer Effekt) und der Unterschied in deren Löslichkeit (enthalpische und entropische Effekte). Der entropische Beitrag zur positiven Gibbs’schen Freien Mischungsenergie wird dem selben Verlust konformativer Entropie zugeordnet, der auch für den hydrophoben Effekt verantwortlich ist, allerdings angetrieben durch einen Wettbewerb der beiden Polymerblöcke um das Wasser. In diesem Sinne kann man das beobachtete Phänomen als „hydrophilen Effekt“ bezeichnen. KW - Selbstorganisation KW - Blockcopolymere KW - hydrophil KW - self-assembly KW - copolymers KW - hydrophilic Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54163 ER - TY - THES A1 - Jiang, Yuan T1 - Precursor phases in non-classical crystallization N2 - The main objective of this thesis is to understand molecular crystallization as a multistep process with or without polymeric additives, including transient liquid-liquid phase separation, nanocrystal nucleation within the dense phase, and subsequent nanocrystal self-assembly or self-organization in sequence. The thesis starts with a quaternary model system, containing DL-Glutamic acid (Glu), polyethyleneimine (PEI), water, and EtOH, for the understanding of multistep precipitation of Glu with PEI as an additive. The experiments were performed by mixing Glu-PEI aqueous solution with a non-solvent EtOH. First, the phase diagram of the quaternary system is determined, obtaining precipitate, coacervates, or homogeneous mixtures by varying Glu/PEI w/w and water/EtOH v/v. Coacervation is observed to occur over a wide range of Glu/PEI with various volumes. The composition of coacervates is conveniently characterized by nuclear magnetic resonance spectroscopy. The observed coacervates are thermodynamically stable phases rich in solute, which is different from metastable polymer-induced liquid precursors. The combination of atomic force microscopy, small angle scattering, and ξ-potential measurements confirms the coexistence of monomers and Glu/PEI complexes and the aggregation of complexes in Glu-PEI-water systems. This suggests that there might be a direct structural transformation between the Glu-PEI complexes in aqueous solution and the metastable liquid precursors in a water-EtOH mixture. The multistep mechanism of Glu precipitation with PEI as an additive is investigated thereafter. The combination of stopped flow and small angle scattering demonstrates that the initially formed liquid precursors pass through an alteration of growth and coalescence. Combined with results from optical microscopy and scanning electron microscopy, the nucleation of nanoplatelets happens within each liquid precursor droplet, and nanoplatelets reorient themselves and self-organize into a radial orientation in the crystalline microspheres. The recipe was then extended to the precipitation of organics in other oppositely charged amino acid-polyelectrolyte systems. After the success in preparing hierarchical microspheres in solution, the similar recipe can be extended to the preparation of patterned thin films on substrate. By dipping a quaternary DL-Lys·HCl (Lys)–polyacrylic acid (PAA)–water–EtOH dispersion on a hydrophilic slide, the fast evaporation process of the volatile solvent EtOH is responsible for the homogeneous nucleation of NPs. Then, the following complete evaporation causes the mesocrystallization of a continuous spherulitic thin film along the receding line of the liquid, which again transforms into a mesocrystalline thin film. Furthermore, annealing is used to optimize the property of mesocrystalline thin films. As evaporation is a non-equilibrium process, it can be used to tune the kinetics of crystallization. Therefore, hierarchical or periodical thin films are obtainable by starting the evaporation from microspheres recrystallization, obtaining mesocrystalline thin films with 4 hierarchy levels. The results reveal that evaporation provides an easy but effective way for the formation of patterned structures via the positioning of NPs after their fast nucleation, resulting in different kinds of patterns by controlling the concentration of NPs, solvent evaporation rate, and other physical forces. Non-classical crystallization is not limited to crystallizations with polymeric additives. We also observed the nucleation and growth of a new molecular layer on the growing DL-Glu·H2O crystals from a supersaturated mother liquor by using an in-situ atomic force microscopy (AFM), where the nucleation and growth of a molecular layer proceed via amorphous nanoparticle (NP) attachment and relaxation process before the observation of the growth of a newly formed molecular layer. NP attachment to the crystal surface is too fast to observe by using in-situ AFM. The height shrinkage of NPs, combined to the structural transformation from 3D amorphous NPs to 2D crystalline layer, is observed during the relaxation process. The nucleation and growth of a newly formed molecular layer from NP relaxation is contradictory to the classical nucleation theory, which hypothesizes that nuclei show the same crystallographic properties as a bulk crystal. The formation of a molecular layer by NP attachment and relaxation rather than attachment of single molecules provides a different picture from the currently held classical nucleation and growth theory regarding the growth of single crystals from solution. N2 - Das Hauptziel dieser Arbeit ist das Verständnis der molekularen Kristallisation, sowohl mit als auch ohne polymere Additive, als einen mehrstufigen Prozess. Dieser beinhaltet eine transiente flüssig-flüssig Phasentrennung, die Nukleation von Nanokristallen in der dichten flüssigen Precursor-Phase so wie eine anschließende nanokristalline Selbstorganisation. Die Arbeit beginnt mit Untersuchungen an einem quaternären Modelsystem bestehend aus DL-Glutamat (Glu), Polyethylenimin (PEI), Wasser und Ethanol. Das Phasendiagramm dieses quaternären Systems wird durch Variation der Glu/PEI w/w und Wasser/EtOH v/v Verhältnisse bestimmt, wobei Präzpitat aus polymerinduzierten flüssigen Precursor, Koazervate oder homogene Mischungen erhalten werden Das thermodynamisch stabile Koazervat kann als Referenz für das Verständnis von flüssigen Precursorn angesehen werden, welche in der Natur metastabil und transient sind. Der mehrstufige Mechanismus der Glu-Präzipitation mit PEI als Additiv wird dann mittels Neutronen Kleinwinkelstreuung untersucht. Dies zeigt, dass die ursprünglich gebildeten flüssigen Precursor noch vor der Nukleation von Nanokristallen einen Wechsel von Wachstum und Koaleszenz durchlaufen. Die Ergebnisse aus optischer- und Eletronenmikroskopie zeigen, dass sowohl die flüssigen Precursor Superstrukturen ausbilden als auch, dass die Nukleation von Nanoplättchen in jedem einzelnen Precursor Tropfen von statten geht. Dies geschieht noch bevor sich die Nanoplättchen selbst in einer radialen Orientierung ausrichten. Diese Studie liefert die Kinetik der Präzipitation von organischen Stoffen in Gegenwart von polymeren Additiven. Eine ähnliche Vorgehensweise wie für die Herstellung von Mikrokügelchen kann für die Darstellung von gemusterten Filmen angewandt werden. Die homogene Nukleation von Nanopartikeln (NPs) findet während der Verdampfung einer quarternären DL-Lys·HCl-Polyacrylsäure-Wasser-Ethanol Dispersion auf einer hydrophilen Oberfläche statt. Die darauffolgende vollständige Verdampfung löst die Mesokristallisation eines kontinuierlichen sphärolithischen dünnen Films aus, welcher sich wiederum in einen mesokristallinen dünnen Film umwandelt. Mesokristalline Filme mit 4 Hierarchiestufen bzw. auch periodische Filme werden durch die Verdampfung der Mikrokügelchen-Dispersion erhalten. Die Ergebnisse zeigen, dass die Verdampfung eine einfache aber effektive Methode zur Herstellung von verschieden gemusterten hierarchischen Filmen darstellt. Nicht-klassische Kristallisation wird auch in der Abwesenheit von polymeren Additiven beobachtet. Wir verfolgen mittels Rasterkraftmikroskop (AFM) die Nukleation und das Wachstum einer neuen molekularen Schicht auf wachsenden DL-Glu·H2O Kristallen aus übersättigter Mutterlauge. Die Bildung einer neuen molekularen Schicht verläuft durch die Anlagerung von amorphen Nanopartikeln. Das Schrumpfen der NPs zusammen mit der strukturellen Änderung von dreidimensionalen NPs zu 2D Schichten wird während dieses Relaxationsprozesses beobachtet. Schließlich kommt es zu der Ausbildung einer neuen molekularen Schicht. Die Bildung einer molekularen Schicht durch die Anlagerung von Nanopartikeln aus der Lösung und die darauffolgende Relaxation liefert ein abweichendes Bild zu der bisher gängigen klassischen Theorie des Kristallwachstums. T2 - Vorstufenphasen in nichtklassischer Kristallisation KW - Mesokristall KW - Vorstufe KW - Kristallisation KW - mesocrystal KW - precursor KW - crystallization Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52460 ER - TY - THES A1 - Kraupner, Alexander T1 - Neuartige Synthese magnetischer Nanostrukturen: Metallcarbide und Metallnitride der Übergangsmetalle Fe/Co/Ni T1 - Novel synthesis of magnetic nanostructures: metal carbides and metal nitrides of transition metals Fe/Co/Ni N2 - Magnetische Nanopartikel bieten ein großes Potential, da sie einerseits die Eigenschaften ihrer Bulk-Materialien besitzen und anderseits, auf Grund ihrer Größe, über komplett unterschiedliche magnetische Eigenschaften verfügen können; Superparamagnetismus ist eine dieser Eigenschaften. Die meisten etablierten Anwendungen magnetischer Nanopartikel basieren heutzutage auf Eisenoxiden. Diese bieten gute magnetische Eigenschaften, sind chemisch relativ stabil, ungiftig und lassen sich auf vielen Synthesewegen relativ einfach herstellen. Die magnetischen Eigenschaften der Eisenoxide sind materialabhängig aber begrenzt, weshalb nach anderen Verbindungen mit besseren Eigenschaften gesucht werden muss. Eisencarbid (Fe3C) kann eine dieser Verbindungen sein. Dieses besitzt vergleichbare positive Eigenschaften wie Eisenoxid, jedoch viel bessere magnetische Eigenschaften, speziell eine höhere Sättigungsmagnetisierung. Bis jetzt wurde Fe3C hauptsächlich in Gasphasenabscheidungsprozessen synthetisiert oder als Nebenprodukt bei der Synthese von Kohlenstoffstrukturen gefunden. Eine Methode, mit der gezielt Fe3C-Nanopartikel und andere Metallcarbide synthetisiert werden können, ist die „Harnstoff-Glas-Route“. Neben den Metallcarbiden können mit dieser Methode auch die entsprechenden Metallnitride synthetisiert werden, was die breite Anwendbarkeit der Methode unterstreicht. Die „Harnstoff-Glas-Route“ ist eine Kombination eines Sol-Gel-Prozesses mit einer anschließenden carbothermalen Reduktion/Nitridierung bei höheren Temperaturen. Sie bietet den Vorteil einer einfachen und schnellen Synthese verschiedener Metallcarbide/nitride. Der Schwerpunkt in dieser Arbeit lag auf der Synthese von Eisencarbiden/nitriden, aber auch Nickel und Kobalt wurden betrachtet. Durch die Variation der Syntheseparameter konnten verschiedene Eisencarbid/nitrid Nanostrukturen synthetisiert werden. Fe3C-Nanopartikel im Größenbereich von d = 5 – 10 nm konnten, durch die Verwendung von Eisenchlorid, hergestellt werden. Die Nanopartikel weisen durch ihre geringe Größe superparamagnetische Eigenschaften auf und besitzen, im Vergleich zu Eisenoxid Nanopartikeln im gleichen Größenbereich, eine höhere Sättigungsmagnetisierung. Diese konnten in fortführenden Experimenten erfolgreich in ionischen Flüssigkeiten und durch ein Polymer-Coating, im wässrigen Medium, dispergiert werden. Desweiteren wurde durch ein Templatieren mit kolloidalem Silika eine mesoporöse Fe3C-Nanostruktur hergestellt. Diese konnte erfolgreich in der katalytischen Spaltung von Ammoniak getestet werden. Mit der Verwendung von Eisenacetylacetonat konnten neben Fe3C-Nanopartikeln, nur durch Variation der Reaktionsparameter, auch Fe7C3- und Fe3N-Nanopartikel synthetisiert werden. Speziell für die Fe3C-Nanopartikel konnte die Sättigungsmagnetisierung, im Vergleich zu den mit Eisenchlorid synthetisierten Nanopartikeln, nochmals erhöht werden. Versuche mit Nickelacetat führten zu Nickelnitrid (Ni3N) Nanokristallen. Eine zusätzliche metallische Nickelphase führte zu einer Selbstorganisation der Partikel in Scheiben-ähnliche Überstrukturen. Mittels Kobaltacetat konnten, in Sphären aggregierte, metallische Kobalt Nanopartikel synthetisiert werden. Kobaltcarbid/nitrid war mit den gegebenen Syntheseparametern nicht zugänglich. N2 - Magnetic nanoparticles offer a great potential, because they exhibit on the one hand the properties of their bulk materials and on the other hand, because of their size, completely different magnetic properties. The most established applications of magnetic nanoparticles are based on iron oxide. These oxides have good magnetic properties, they are chemical relatively stable, non toxic and easy to prepare. But the magnetic properties are limited. Therefore, we need new materials with improved magnetic properties. Iron carbide (Fe3C) could be one of these materials. Up to now, Fe3C was mainly synthesized in chemical vapor deposition processes (CVD) or was found as side product in the synthesis of carbon structures. A method for the systematical synthesis of metal carbides is the “Urea-Glass-Route”. In addition to the synthesis of metal carbides, this method allows to synthesize metal nitrides, which shows the broad practicability. The “Urea-Glass-Route” is a combination of a sol-gel process with following carbothermal reduction/nitridation at higher temperatures. The method is fast and simple and it is possible to synthesis different metal carbides/nitrides. The main topic of this work is the synthesis of iron carbide/nitride, but also cobalt and nickel is examined. By varying the synthesis parameters, different iron carbide/nitride nanostructures could be synthesized. With the use of iron chloride, Fe3C nanoparticles, in the size range of d = 5 – 10 nm, could be produced. Because of their small size, the particles show superparamagnetism and compared to iron oxide particles (in the same size range) a higher saturation magnetization. In following experiments, the particles could be successfully dispersed in an ionic liquid and with a polymer coating in aqueous medium. Furthermore, via templating with colloidal silica a mesoporous Fe3C structure could be synthesized. The material could be successfully tested in the catalytic ammonia decomposition. By changing the iron source to iron acetylacetonate, Fe7C3 and Fe3N nanoparticles, in addition to Fe3C, could be also synthesized. With nickel acetate it was possible to synthesize nickel nitride (Ni3N) nano crystals. An additional metallic nickel phase in the sample leads to a self organization to disk-like superlattice. Via cobalt acetate, in spheres aggregated, metallic cobalt nanoparticles could be synthesized. Cobalt carbide or nitride was not accessible under these synthesis parameters. KW - Carbide KW - Nitride KW - Eisen KW - Magnetismus KW - Nanopartikel KW - carbides KW - nitrides KW - iron KW - magnetism KW - nanoparticles Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52314 ER - TY - THES A1 - Kopetzki, Daniel T1 - Exploring hydrothermal reactions : from prebiotic synthesis to green chemistry T1 - Hydrothermalreaktionen : von präbiotischer Synthese zu nachhaltiger Chemie N2 - In this thesis chemical reactions under hydrothermal conditions were explored, whereby emphasis was put on green chemistry. Water at high temperature and pressure acts as a benign solvent. Motivation to work under hydrothermal conditions was well-founded in the tunability of physicochemical properties with temperature, e.g. of dielectric constant, density or ion product, which often resulted in surprising reactivity. Another cornerstone was the implementation of the principles of green chemistry. Besides the use of water as solvent, this included the employment of a sustainable feedstock and the sensible use of resources by minimizing waste and harmful intermediates and additives. To evaluate the feasibility of hydrothermal conditions for chemical synthesis, exemplary reactions were performed. These were carried out in a continuous flow reactor, allowing for precise control of reaction conditions and kinetics measurements. In most experiments a temperature of 200 °C in combination with a pressure of 100 bar was chosen. In some cases the temperature was even raised to 300 °C. Water in this subcritical range can also be found in nature at hydrothermal vents on the ocean floor. On the primitive earth, environments with such conditions were however present in larger numbers. Therefore we tested whether biologically important carbohydrates could be formed at high temperature from the simple, probably prebiotic precursor formaldehyde. Indeed, this formose reaction could be carried out successfully, although the yield was lower compared to the counterpart reaction under ambient conditions. However, striking differences regarding selectivity and necessary catalysts were observed. At moderate temperatures bases and catalytically active cations like Ca2+ are necessary and the main products are hexoses and pentoses, which accumulate due to their higher stability. In contrast, in high-temperature water no catalyst was necessary but a slightly alkaline solution was sufficient. Hexoses were only formed in negligible amounts, whereas pentoses and the shorter carbohydrates accounted for the major fraction. Amongst the pentoses there was some preference for the formation of ribose. Even deoxy sugars could be detected in traces. The observation that catalysts can be avoided was successfully transferred to another reaction. In a green chemistry approach platform chemicals must be produced from sustainable resources. Carbohydrates can for instance be employed as a basis. They can be transformed to levulinic acid and formic acid, which can both react via a transfer hydrogenation to the green solvent and biofuel gamma-valerolactone. This second reaction usually requires catalysis by Ru or Pd, which are neither sustainable nor low-priced. Under hydrothermal conditions these heavy metals could be avoided and replaced by cheap salts, taking advantage of the temperature dependence of the acid dissociation constant. Simple sulfate was recognized as a temperature switchable base. With this additive high yield could be achieved by simultaneous prevention of waste. In contrast to conventional bases, which create salt upon neutralization, a temperature switchable base becomes neutral again when cooled down and thus can be reused. This adds another sustainable feature to the high atom economy of the presented hydrothermal synthesis. In a last study complex decomposition pathways of biomass were investigated. Gas chromatography in conjunction with mass spectroscopy has proven to be a powerful tool for the identification of unknowns. It was observed that several acids were formed when carbohydrates were treated with bases at high temperature. This procedure was also applied to digest wood. Afterwards it was possible to fermentate the solution and a good yield of methane was obtained. This has to be regarded in the light of the fact that wood practically cannot be used as a feedstock in a biogas factory. Thus the hydrothermal pretreatment is an efficient means to employ such materials as well. Also the reaction network of the hydrothermal decomposition of glycine was investigated using isotope-labeled compounds as comparison for the unambiguous identification of unknowns. This refined analysis allowed the identification of several new molecules and pathways, not yet described in literature. In summary several advantages could be taken from synthesis in high-temperature water. Many catalysts, absolutely necessary under ambient conditions, could either be completely avoided or replaced by cheap, sustainable alternatives. In this respect water is not only a green solvent, but helps to prevent waste and preserves resources. N2 - In dieser Arbeit wurden chemische Reaktionen unter Hydrothermalbedingungen untersucht. Darunter versteht man Wasser als Reaktionsmedium, welches eine Temperatur über 100 °C aufweist. Der flüssige Zustand wird dabei durch erhöhten Druck aufrecht erhalten. Typischerweise wurden die Reaktionen bei 200 °C und einem Druck von 100 bar durchgeführt, also dem 100-fachen des Normaldrucks. Dieses System kann man auch mit einem Dampfdrucktopf vergleichen, wobei durch die erhöhten Temperaturen chemische Reaktionen sehr schnell ablaufen und überraschende Reaktivität auftritt. Die Motivation, Wasser als Lösemittel zu benutzen, ist auch in seiner Umweltfreundlichkeit gegenüber klassischen organischen Lösemitteln begründet. Da solche Hydrothermalbedingungen auf der frühen Erde häufiger anzutreffen waren, wurde untersucht, ob wichtige Biomoleküle bei solch hoher Temperatur gebildet werden können. In der Tat konnten Zucker aus der sehr einfachen Verbindung Formaldehyd synthetisiert werden. Hierzu war lediglich eine leicht basische Lösung nötig und keine der bei moderaten Temperaturen essentiellen Katalysatoren. Zucker stellen zudem den größten Teil der pflanzlichen Biomasse dar und können daher als Grundlage für eine nachhaltige Chemie dienen. Sie können relativ einfach zu Lävulin- und Ameisensäure umgesetzt werden. Aus diesen wiederum kann die wichtige Basischemikalie gamma-Valerolacton hergestellt werden. Der Schlüsselschritt, die Reduktion von Lävulinsäure, erforderte bisher die Zuhilfenahme seltener Edelmetalle wie Ruthenium. Es konnte nun gezeigt werden, dass unter Hydrothermalbedingungen diese Rolle von einfachen Salzen, z. B. Natriumsulfat, übernommen werden kann. Hierbei macht man sich zunutze, dass sie nur bei hoher Temperatur basisch wirken, nicht aber wenn die Lösung wieder abgekühlt ist. Neben Kohlenhydraten besteht Biomasse auch aus Aminosäuren, von denen Glycin die einfachste darstellt. Unter Abspaltung von CO2 können aus ihnen synthetisch wichtige Amine hergestellt werden. Diese Reaktion findet unter Hydrothermalbedingungen statt, daneben treten jedoch noch andere Produkte auf. Unbekannte Verbindungen wurden mittels Massenspektroskopie identifiziert, wobei die Masse des Moleküls und bestimmter Molekülfragmente bestimmt wurde. Dies erlaubte es, bisher noch unbekannte Reaktionswege aufzuklären. Zusammenfassend lässt sich sagen, dass Wasser unter Hydrothermalbedingungen eine interessante Alternative zu organischen Lösemitteln darstellt. Desweiteren können bestimmte Katalysatoren, die bei moderaten Temperaturen nötig sind, entweder vollständig eingespart oder ersetzt werden. In dieser Hinsicht ist Wasser nicht nur ein umweltfreundliches Lösemittel, sondern trägt dazu bei, Abfall zu vermeiden und Ressourcen zu schonen. KW - hydrothermal KW - Formose KW - Valerolacton KW - Lävulinsäure KW - hydrothermal KW - formose KW - valerolactone KW - levulinic acid Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52581 ER - TY - THES A1 - Kubo, Shiori T1 - Nanostructured carbohydrate-derived carbonaceous materials T1 - Nanostrukturierte kohlenstoffbasierte Materialien aus Kohlenhydraten N2 - Nanoporous carbon materials are widely used in industry as adsorbents or catalyst supports, whilst becoming increasingly critical to the developing fields of energy storage / generation or separation technologies. In this thesis, the combined use of carbohydrate hydrothermal carbonisation (HTC) and templating strategies is demonstrated as an efficient route to nanostructured carbonaceous materials. HTC is an aqueous-phase, low-temperature (e.g. 130 – 200 °C) carbonisation, which proceeds via dehydration / poly-condensation of carbon precursors (e.g. carbohydrates and their derivatives), allowing facile access to highly functional carbonaceous materials. Whilst possessing utile, modifiable surface functional groups (e.g. -OH and -C=O-containing moieties), materials synthesised via HTC typically present limited accessible surface area or pore volume. Therefore, this thesis focuses on the development of fabrication routes to HTC materials which present enhanced textural properties and well-defined porosity. In the first discussed synthesis, a combined hard templating / HTC route was investigated using a range of sacrificial inorganic templates (e.g. mesoporous silica beads and macroporous alumina membranes (AAO)). Via pore impregnation of mesoporous silica beads with a biomass-derived carbon source (e.g. 2-furaldehyde) and subsequent HTC at 180 oC, an inorganic / carbonaceous hybrid material was produced. Removal of the template component by acid etching revealed the replication of the silica into mesoporous carbonaceous spheres (particle size ~ 5 μm), representing the inverse morphological structure of the original inorganic body. Surface analysis (e.g. FTIR) indicated a material decorated with hydrophilic (oxygenated) functional groups. Further thermal treatment at increasingly elevated temperatures (e.g. at 350, 550, 750 oC) under inert atmosphere allowed manipulation of functionalities from polar hydrophilic to increasingly non-polar / hydrophobic structural motifs (e.g. extension of the aromatic / pseudo-graphitic nature), thus demonstrating a process capable of simultaneous control of nanostructure and surface / bulk chemistry. As an extension of this approach, carbonaceous tubular nanostructures with controlled surface functionality were synthesised by the nanocasting of uniform, linear macropores of an AAO template (~ 200 nm). In this example, material porosity could be controlled, showing increasingly microporous tube wall features as post carbonisation temperature increased. Additionally, by taking advantage of modifiable surface groups, the introduction of useful polymeric moieties (i.e. grafting of thermoresponsive poly(N-isopropylacrylamide)) was also demonstrated, potentially enabling application of these interesting tubular structures in the fields of biotechnology (e.g. enzyme immobilization) and medicine (e.g. as drug micro-containers). Complimentary to these hard templating routes, a combined HTC / soft templating route for the direct synthesis of ordered porous carbonaceous materials was also developed. After selection of structural directing agents and optimisation of synthesis composition, the F127 triblock copolymer (i.e. ethylene oxide (EO)106 propylene oxide (PO)70 ethylene oxide (EO)106) / D-Fructose system was extensively studied. D-Fructose was found to be a useful carbon precursor as the HTC process could be performed at 130 oC, thus allowing access to stable micellular phase. Thermolytic template removal from the synthesised ordered copolymer / carbon composite yielded functional cuboctahedron single crystalline-like particles (~ 5 μm) with well ordered pore structure of a near perfect cubic Im3m symmetry. N2 sorption analysis revealed a predominantly microporous carbonaceous material (i.e. Type I isotherm, SBET = 257 m2g-1, 79 % microporosity) possessing a pore size of ca. 0.9 nm. The addition of a simple pore swelling additive (e.g. trimethylbenzene (TMB)) to this system was found to direct pore size into the mesopore size domain (i.e. Type IV isotherm, SBET = 116 m2g-1, 60 % mesoporosity) generating pore size of ca. 4 nm. It is proposed that in both cases as HTC proceeds to generate a polyfuran-like network, the organised block copolymer micellular phase is essentially “templated”, either via hydrogen bonding between hydrophilic poly(EO) moiety and the carbohydrate or via hydrophobic interaction between hydrophobic poly(PO) moiety and forming polyfuran-like network, whilst the additive TMB presumably interact with poly(PO) moieties, thus swelling the hydrophobic region expanding the micelle template size further into the mesopore range. N2 - Nanoporöse kohlenstoffbasierte Materialien sind in der Industrie als Adsorbentien und Katalysatorträger weit verbreitet und gewinnen im aufstrebenden Bereich der Energiespeicherung/erzeugung und für Trennverfahren an wachsender Bedeutung. In der vorliegenden Arbeit wird gezeigt, dass die Kombination aus hydrothermaler Karbonisierung von Zuckern (HTC) mit Templatierungsstrategien einen effizienten Weg zu nanostrukturierten kohlenstoffbasierten Materialien darstellt. HTC ist ein in Wasser und bei niedrigen Temperaturen (130 - 200 °C) durchgeführter Karbonisierungsprozess, bei dem Zucker und deren Derivate einen einfachen Zugang zu hochfunktionalisierten Materialien erlauben. Obwohl diese sauerstoffhaltige Funktionalitäten auf der Oberfläche besitzen, an welche andere chemische Gruppen gebunden werden könnten, was die Verwendung für Trennverfahren und in der verzögerten Wirkstofffreisetzung ermöglichen sollte, ist die mittels HTC hergestellte Kohle für solche Anwendungen nicht porös genug. Das Ziel dieser Arbeit ist es daher, Methoden zu entwickeln, um wohldefinierte Poren in solchen Materialien zu erzeugen. Hierbei führte unter anderem der Einsatz von anorganischen formgebenden mesoporösen Silikapartikeln und makroporösen Aluminiumoxid-Membranen zum Erfolg. Durch Zugabe einer Kohlenstoffquelle (z. B. 2-Furfural), HTC und anschließender Entfernung des Templats konnten poröse kohlenstoffbasierte Partikel und röhrenförmige Nanostrukturen hergestellt werden. Gleichzeitig konnte durch eine zusätzliche Nachbehandlung bei hoher Temperatur (350-750 °C) auch noch die Oberflächenfunktionalität hin zu aromatischen Systemen verschoben werden. Analog zur Formgebung durch anorganische Template konnte mit sog. Soft-Templaten, z. B. PEO-PPO-PEO Blockcopolymeren, eine funktionelle poröse Struktur induziert werden. Hierbei machte man sich die Ausbildung geordneter Mizellen mit der Kohlenstoffquelle D-Fructose zu Nutze. Das erhaltene Material wies hochgeordnete Mikroporen mit einem Durchmesser von ca. 0,9 nm auf. Dieser konnte desweiteren durch Zugabe von Quell-Additiven (z. B. Trimethylbenzol) auf 4 nm in den mesoporösen Bereich vergrößert werden. Zusammenfassend lässt sich sagen, dass beide untersuchten Synthesewege nanostrukturierte kohlenstoffbasierte Materialien mit vielfältiger Oberflächenchemie liefern, und das mittels einer bei relativ niedriger Temperatur in Wasser ablaufenden Reaktion und einer billigen, nachhaltigen Kohlenstoffquelle. Die so hergestellten Produkte eröffnen vielseitige Anwendungsmöglichkeiten, z. B. zur Molekültrennung in der Flüssigchromatographie, in der Energiespeicherung als Anodenmaterial in Li-Ionen Akkus oder Superkondensatoren, oder als Trägermaterial für die gezielte Pharmakotherapie. KW - Nanostruktur KW - Kohlenstoff KW - Kohlenhydrate KW - Templating KW - hydrothermale Carbonisierung KW - Nanostructure KW - Carbon KW - Carbohydrate KW - Templating KW - Hydrothermal carbonisation Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53157 ER - TY - THES A1 - Tan, Irene T1 - Towards greener stationary phases : thermoresponsive and carbonaceous chromatographic supports T1 - Zu grüner Separation : thermoresponsive und kohlenstoffhaltige chromatographische Trägermaterialien N2 - Polymers which are sensitive towards external physical, chemical and electrical stimuli are termed as ‘intelligent materials’ and are widely used in medical and engineering applications. Presently, polymers which can undergo a physical change when heat is applied at a certain temperature (cloud point) in water are well-studied for this property in areas of separation chemistry, gene and drug delivery and as surface modifiers. One example of such a polymer is the poly (N-isopropylacrylamide) PNIPAAM, where it is dissolved well in water below 32 oC, while by increasing the temperature further leads to its precipitation. In this work, an alternative polymer poly (2-(2-methoxy ethoxy)ethyl methacrylate-co- oligo(ethylene glycol) methacrylate) (P(MEO2MA-co-OEGMA)) is studied due to its biocompatibility and the ability to vary its cloud points in water. When a layer of temperature responsive polymer was attached to a single continuous porous piece of silica-based material known as a monolith, the thermoresponsive characteristic was transferred to the column surfaces. The hybrid material was demonstrated to act as a simple temperature ‘switch’ in the separation of a mixture of five steroids under water. Different analytes were observed to be separated under varying column temperatures. Furthermore, more complex biochemical compounds such as proteins were also tested for separation. The importance of this work is attributed to separation processes utilizing environmentally friendly conditions, since harsh chemical environments conventionally used to resolve biocompounds could cause their biological activities to be rendered inactive. N2 - Polymere, welche empfindlich gegenüber externen physikalischen, chemischen und elektrischen Einflüssen sind, werden „intelligente Materialien“ genannt. Diese werden weitverbreitet in medizinischen und technischen Anwendungen eingesetzt. Auf diesem Gebiet ausführlich erforschte Materialien sind Polymere, welche durch Hitze bei einer bestimmten Temperatur (Trübungspunkt) eine physikalische Veränderung eingehen können, genannt thermoresponsive Polymere. Eingesetzt werden diese z.B. in chromatographischen Trennverfahren, in Gen- und Wirkstofftransport Vorgängen und zur Oberflächenmodifikation. Ein Beispiel für so ein Polymer ist das poly(N-isopropylacrylamide) PNIPAAM, welches unter 32 °C in Wasser gelöst vorliegt und mit Erhöhung der Temperatur als Niederschlag ausfällt. In dieser Arbeit wurde ein alternatives Polymer, das poly(2-(2-methoxyethoxy)ethylmethacrylate-co-oligo(ethyleneglycol) methacrylate) (P(MEO2MA-co-OEGMA)), untersucht, in Bezug auf Biokompatibilität und der Änderung des Trübungspunktes in Wasser. Wenn eine Schicht eines temperaturempfindlichen Polymers auf einen Monolithen (einteiliger, poröser und auf Silika-basierendes Material) aufgebracht wird, werden die thermoresponsiven Eigenschaften auf die Oberfläche dieses Monolithen übertragen. Der Monolith dient hier als Säule in einer HPLC-Anlage. Es wurde gezeigt, dass das Hybrid-Material als einfacher „Temperaturschalter“ in der Trennung von fünf verschiedenen Steroiden in Wasser agieren kann. Untersucht wurde die Separation verschiedener Analyten mit dem Variieren der Säulentemperatur. Zusätzlich wurden mehr komplexe biochemische Stoffe, wie Proteine, getestet. Die Bedeutung dieser Arbeit ist zurückzuführen auf Separationsprozesse, welche umweltfreundlichen Bedingungen nutzen, da die rauen chemischen Bedingungen in konventionellen Separationsprozessen die biologische Inaktivität der Verbindungen zur Folge haben können. Der zweite Teil der Arbeit beschäftigte sich mit der Entwicklung eines alternativen Trägermaterials als Ersatz zu den Silika-basierende Trennungssäulen. Kohlenstoffmaterialien sind aufgrund ihrer ausgezeichneten mechanischen Härte und chemischen Stabilität eine vielversprechend Alternative. Die Synthese von Kohlenstoffkugeln als Trägermaterial kann als „grüner“ Prozess in meiner Arbeit angesehen werden, da milde Synthesebedingungen in purem Wasser verwendet wurden. Die Leistungsfähigkeit des Materials wurde mit einer Serie von Separationsreaktionen gezeigt. KW - thermoresponsive KW - poly(N-isopropylacrylamide) KW - oligo(ethyleneglycol) KW - Monolith KW - Chromatographie KW - thermoresponsive KW - poly(N-isopropyl acrylamide) KW - oligo(ethylene glycol) KW - monolith KW - chromatography Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53130 ER - TY - THES A1 - Popovic, Jelena T1 - Novel lithium iron phosphate materials for lithium-ion batteries T1 - Neuartige Lithium-Eisen-Phosphat-Materialien für Lithium-Ionen-Batterien N2 - Conventional energy sources are diminishing and non-renewable, take million years to form and cause environmental degradation. In the 21st century, we have to aim at achieving sustainable, environmentally friendly and cheap energy supply by employing renewable energy technologies associated with portable energy storage devices. Lithium-ion batteries can repeatedly generate clean energy from stored materials and convert reversely electric into chemical energy. The performance of lithium-ion batteries depends intimately on the properties of their materials. Presently used battery electrodes are expensive to be produced; they offer limited energy storage possibility and are unsafe to be used in larger dimensions restraining the diversity of application, especially in hybrid electric vehicles (HEVs) and electric vehicles (EVs). This thesis presents a major progress in the development of LiFePO4 as a cathode material for lithium-ion batteries. Using simple procedure, a completely novel morphology has been synthesized (mesocrystals of LiFePO4) and excellent electrochemical behavior was recorded (nanostructured LiFePO4). The newly developed reactions for synthesis of LiFePO4 are single-step processes and are taking place in an autoclave at significantly lower temperature (200 deg. C) compared to the conventional solid-state method (multi-step and up to 800 deg. C). The use of inexpensive environmentally benign precursors offers a green manufacturing approach for a large scale production. These newly developed experimental procedures can also be extended to other phospho-olivine materials, such as LiCoPO4 and LiMnPO4. The material with the best electrochemical behavior (nanostructured LiFePO4 with carbon coating) was able to delive a stable 94% of the theoretically known capacity. N2 - Konventionelle Energiequellen sind weder nachwachsend und daher nachhaltig nutzbar, noch weiterhin langfristig verfügbar. Sie benötigen Millionen von Jahren um gebildet zu werden und verursachen in ihrer Nutzung negative Umwelteinflüsse wie starke Treibhausgasemissionen. Im 21sten Jahrhundert ist es unser Ziel nachhaltige und umweltfreundliche, sowie möglichst preisgünstige Energiequellen zu erschließen und nutzen. Neuartige Technologien assoziiert mit transportablen Energiespeichersystemen spielen dabei in unserer mobilen Welt eine große Rolle. Li-Ionen Batterien sind in der Lage wiederholt Energie aus entsprechenden Prozessen nutzbar zu machen, indem sie reversibel chemische in elektrische Energie umwandeln. Die Leistung von Li-Ionen Batterien hängen sehr stark von den verwendeten Funktionsmaterialien ab. Aktuell verwendete Elektrodenmaterialien haben hohe Produktionskosten, verfügen über limitierte Energiespeichekapazitäten und sind teilweise gefährlich in der Nutzung für größere Bauteile. Dies beschränkt die Anwendungsmöglichkeiten der Technologie insbesondere im Gebiet der hybriden Fahrzeugantriebe. Die vorliegende Dissertation beschreibt bedeutende Fortschritte in der Entwicklung von LiFePO4 als Kathodenmaterial für Li-Ionen Batterien. Mithilfe einfacher Syntheseprozeduren konnten eine vollkommen neue Morphologie (mesokristallines LiFePo4) sowie ein nanostrukturiertes Material mit exzellenten elektrochemischen Eigenschaften hergestellt werden. Die neu entwickelten Verfahren zur Synthese von LiFePo4 sind einschrittig und bei signifikant niedrigeren Temperaturen im Vergleich zu konventionellen Methoden. Die Verwendung von preisgünstigen und umweltfreundlichen Ausgangsstoffen stellt einen grünen Herstellungsweg für die large scale Synthese dar. Mittels des neuen Synthesekonzepts konnte meso- und nanostrukturiertes LiFe PO4 generiert werden. Die Methode ist allerdings auch auf andere phospho-olivin Materialien (LiCoPO4, LiMnPO4) anwendbar. Batterietests der besten Materialien (nanostrukturiertes LiFePO4 mit Kohlenstoffnanobeschichtung) ergeben eine mögliche Energiespeicherung von 94%. KW - Li-Ionen-Akkus KW - Kathode KW - LiFePO4 KW - Mesokristalle KW - Nanopartikel KW - Li-ion batteries KW - cathode KW - LiFePO4 KW - mesocrystals KW - nanoparticles Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54591 ER - TY - THES A1 - ten Brummelhuis, Niels T1 - Self-assembly of cross-linked polymer micelles into complex higher-order aggregates T1 - Selbstorganisation von vernetzten Polymermizellen zu Komplexen Aggregaten mit höherer Ordnung N2 - The creation of complex polymer structures has been one of the major research topics over the last couple of decades. This work deals with the synthesis of (block co-)polymers, the creation of complex and stimuli-responsive aggregates by self-assembly, and the cross-linking of these structures. Also the higher-order self-assembly of the aggregates is investigated. The formation of poly-2-oxazoline based micelles in aqueous solution and their simultaneous functionalization and cross-linking using thiol-yne chemistry is e.g. presented. By introducing pH responsive thiols in the core of the micelles the influence of charged groups in the core of micelles on the entire structure can be studied. The charging of these groups leads to a swelling of the core and a decrease in the local concentration of the corona forming block (poly(2-ethyl-2-oxazoline)). This decrease in concentration yields a shift in the cloud point temperature to higher temperatures for this Type I thermoresponsive polymer. When the swelling of the core is prohibited, e.g. by the introduction of sufficient amounts of salt, this behavior disappears. Similar structures can be prepared using complex coacervate core micelles (C3Ms) built through the interaction of weakly acidic and basic polymer blocks. The advantage of these structures is that two different stabilizing blocks can be incorporated, which allows for more diverse and complex structures and behavior of the micelles. Using block copolymers with either a polyanionic or a polycationic block C3Ms could be created with a corona which contains two different soluble nonionic polymers, which either have a mixed corona or a Janus type corona, depending on the polymers that were chosen. Using NHS and EDC the micelles could easily be cross-linked by the formation of amide bonds in the core of the micelles. The higher-order self-assembly behavior of these core cross-linked complex coacervate core micelles (C5Ms) was studied. Due to the cross-linking the micelles are stabilized towards changes in pH and ionic strength, but polymer chains are also no longer able to rearrange. For C5Ms with a mixed corona likely network structures were formed upon the collapse of the thermoresponsive poly(N-isopropylacrylamide) (PNIPAAm), whereas for Janus type C5Ms well defined spherical aggregates of micelles could be obtained, depending on the pH of the solution. Furthermore it could be shown that Janus micelles can adsorb onto inorganic nanoparticles such as colloidal silica (through a selective interaction between PEO and the silica surface) or gold nanoparticles (by the binding of thiol end-groups). Asymmetric aggregates were also formed using the streptavidin-biotin binding motive. This is achieved by using three out of the four binding sites of streptavidin for the binding of one three-arm star polymer, end-functionalized with biotin groups. A homopolymer with one biotin end-group can be used to occupy the last position. This binding of two different polymers makes it possible to create asymmetric complexes. This phase separation is theoretically independent of the kind of polymer since the structure of the protein is the driving force, not the intrinsic phase separation between polymers. Besides Janus structures also specific cross-linking can be achieved by using other mixing ratios. N2 - In den letzten Jahrzehnten war die Herstellung von komplizierten Polymerstrukturen ein wichtiges Forschungsthema für Polymerchemiker. Diese Arbeit behandelt die Synthese von (Blockco-)Polymere, die Herstellung von komplexen und stimulus-responsiven Aggregaten (Mizellen) durch Selbstorganisation, sowie die Vernetzung dieser Strukturen. Auch die Anordnung dieser Mizellen zu Aggregaten mit höherer Ordnung wurde untersucht. Zum Beispiel wird die Bildung von Poly(2-oxazolin) basierter Mizellen in wässriger Lösung und die gleichzeitige Funktionalisierung und Vernetzung dieser Mizellen mittels Thiol-In-Chemie beschrieben. Durch die Einführung von pH-responsiven Gruppen in den Kern der Mizellen konnte der Einfluss von geladenen Gruppen im Kern auf das gesamte Aggregat untersucht werden. Das Einführen von Ladung führt zum Quellen des Mizellkerns und damit zu einer niedrigeren lokalen Konzentration von wasserlöslichem Poly(2-ethyl-2-oxazolin) (PEtOx). Diese niedrigere Konzentration ergibt eine Verschiebung des Trübungspunkt dieses Typ I thermoresponsiven Polymers zu höheren Temperaturen. Wenn die Ausdehnung des Kerns nicht erfolgt, z.B. in Anwesenheit einer hohen Salzkonzentration, findet dieser Effekt nicht statt. Ähnliche Strukturen können mithilfe von Mizellen mit komplexen Koazervatkern (English: Complex Coacervate Core Micelles, C3Ms) durch die Interaktion zwischen Polymeren mit negativ und positiv geladenen Blöcken hergestellt werden. Der Vorteil dieser Strukturen ist, dass zwei verschiedene stabilisierende Polymerblöcke in einem Aggregat vereint werden können, was zur Bildung einer Vielzahl noch komplizierterer Strukturen und zu mehr Responsivität führen kann. Mithilfe von Blockcopolymeren, bestehend aus jeweils einen polyionischen Block und einem neutralen Block (z.B. PEtOx, PEO oder poly(N-isopropylacrylamid) (PNIPAAm)), konnten C3Ms hergestellt werden, in denen zwei neutrale Polymere vereint wurden. Es konnte gezeigt werden, dass diese Polymere sowohl gemischt als auch phasensepariert vorliegen können (letzteres ergibt Janus Mizellen), abhängig welche Polymere gewählt werden. Durch Vernetzung im Kern konnten die Mizellen stabilisiert und fixiert werden (C5Ms). Die Selbstanordnung dieser vernetzten Mizellen zu größeren Aggregaten wurde untersucht. Wenn eine Lösung mit vernetzten Mizellen über den Trübungspunkt von PNIPAAm erhitzt wurde, bildeten sich Netzwerke aus Mizellen mit einer gemischten Korona, während Janus Mizellen sich zu wohldefinierten Aggregaten höherer Ordnung anordneten. Weiterhin konnte gezeigt werden, dass Janus Mizellen sich auf der Oberfläche von anorganischen Nanopartikeln anlagern können; z.B. durch die selektive Wechselwirkung zwischen PEO und Silica oder durch die Adsorption von Thiolgruppen auf Gold-Nanopartikeln. Asymmetrische Aggregate konnten auch mithilfe des Streptavidin-Biotin Komplexes erhalten werden. Durch das Binden der Biotin-Endgruppen eines dreiarmigen Sternpolymeren an eine Streptavidin-Einheit und anschließende Belegung der verbliebenen Bindungsstelle mit der Biotin-gruppe eines Homopolymers, können sehr spezifisch zwei verschiedene Polymere in einem Janus Aggregat vereint werden. Auch die Vernetzung des Streptavidins kann erzielt werden, indem andere Mischverhältnisse gewählt werden. KW - Polymerchemie KW - Selbstorganisation KW - Mizellen KW - Janus KW - Vernetzung KW - Polymer chemistry KW - self-assembly KW - micelles KW - Janus KW - cross-linking Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52320 ER - TY - THES A1 - Fellinger, Tim-Patrick T1 - Hydrothermal and ionothermal carbon structures T1 - Hydrothermale und ionothermale Kohlenstoffstrukturen BT - from carbon negative materials to energy applications N2 - The needs for sustainable energy generation, but also a sustainable chemistry display the basic motivation of the current thesis. By different single investigated cases, which are all related to the element carbon, the work can be devided into two major topics. At first, the sustainable synthesis of “useful” carbon materials employing the process of hydrothermal carbonisation (HC) is described. In the second part, the synthesis of heteroatom - containing carbon materials for electrochemical and fuel cell applications employing ionic liquid precursors is presented. On base of a thorough review of the literature on hydrothermolysis and hydrothermal carbonisation of sugars in addition to the chemistry of hydroxymethylfurfural, mechanistic considerations of the formation of hydrothermal carbon are proposed. On the base of these reaction schemes, the mineral borax, is introduced as an additive for the hydrothermal carbonisation of glucose. It was found to be a highly active catalyst, resulting in decreased reaction times and increased carbon yields. The chemical impact of borax, in the following is exploited for the modification of the micro- and nanostructure of hydrothermal carbon. From the borax - mediated aggregation of those primary species, widely applicable, low density, pure hydrothermal carbon aerogels with high porosities and specific surface areas are produced. To conclude the first section of the thesis, a short series of experiments is carried out, for the purpose of demonstrating the applicability of the HC model to “real” biowaste i.e. watermelon waste as feedstock for the production of useful materials. In part two cyano - containing ionic liquids are employed as precursors for the synthesis of high - performance, heteroatom - containing carbon materials. By varying the ionic liquid precursor and the carbonisation conditions, it was possible to design highly active non - metal electrocatalyst for the reduction of oxygen. In the direct reduction of oxygen to water (like used in polymer electrolyte fuel cells), compared to commercial platinum catalysts, astonishing activities are observed. In another example the selective and very cost efficient electrochemical synthesis of hydrogen peroxide is presented. In a last example the synthesis of graphitic boron carbon nitrides from the ionic liquid 1 - Ethyl - 3 - methylimidazolium - tetracyanoborate is investigated in detail. Due to the employment of unreactive salts as a new tool to generate high surface area these materials were first time shown to be another class of non - precious metal oxygen reduction electrocatalyst. N2 - Die Notwendigkeit einer nachhaltigen Energiewirtschaft, sowie der nachhaltigen Chemie stellen die Motivation der vorgelegten Arbeit. Auf Grundlage separater Untersuchungen, die jeweils in engem Bezug zum Element Kohlenstoff stehen, kann die Arbeit in zwei Themenfelder geordnet werden. Der erste Teil behandelt die nachhaltige Herstellung nützlicher Kohlenmaterialien mit Hilfe des Verfahrens der hydrothermalen Carbonisierung. Im zweiten Teil wird die Synthese von Bor und Stickstoff angereicherten Kohlen aus ionischen Flüssigkeiten für elektrochemische Anwendungen abgehandelt. Insbesondere geht es um die Anwendung in Wasserstoff-Brennstoffzellen. Als Ergebnis einer sorgfältigen Literatur¬zusammenfassung der Bereiche Hydrothermolyse, hydrothermale Carbonisierung und Chemie des Hydroxymethylfurfurals wird ein chemisch-mechanistisches Modell zur Entstehung der Hydrothemalkohle vorgestellt. Auf der Basis dieses Modells wird ein neues Additiv zur hydrothermalen Carbonisierung von Zuckern vorgestellt. Die Verwendung des einfachen Additivs, genauer Borax, erlaubt eine wesentlich verkürzte und zu niedrigeren Temperaturen hin verschobene Prozessführung mit höheren Ausbeuten. Anhand des mechanistischen Modells wird ein Einfluss auf die Reaktion von Zuckern mit der reaktiven Kohlenvorstufe (Hydroxymethylfurfural) identifiziert. Die chemische Wirkung des Minerals Borax in der hydrothermalen Carbonisierung wird im Folgenden zur Herstellung vielfältig anwendbarer, hochporöser Kohlen mit einstellbarer Partikelgröße genutzt. Zum Abschluss des ersten Teils ist in einer Serie einfacher Experimente die Anwendbarkeit des mechanischen Modells auf die Verwendung „echter“ Biomasse in Form von Wassermelonenabfall gezeigt. Im zweiten Teil werden verschiedene cyano-haltige ionische Flüssigkeiten zur ionothermalen Synthese von Hochleistungskohlen verwendet. Durch Variation der ionischen Flüssigkeiten und Verwendung unterschiedlicher Synthesebedingungen wird die Herstellung hochaktiver, metallfreier Katalysatoren für die elektrochemische Reduktion von Sauerstoff erreicht. In der direkten Reduktion von Sauerstoff zu Wasser (wie sie in Brennstoffzellen Anwendung findet) werden, verglichen zu konventionellen Platin-basierten elektrochemischen Katalysatoren, erstaunliche Aktivitäten erreicht. In einem anderen Beispiel wird die selektive Herstellung von Wasserstoffperoxid zu sehr geringen Kosten vorgestellt. Abschließend wird anhand der Verwendung der ionischen Flüssigkeit 1-Ethyl-3-methylimidazolium-tetracyanoborat eine detaillierte Betrachtung zur Herstellung von graphitischem Borcarbonitrid vorgestellt. Unter Verwendung unreaktiver Salze, als einfaches Werkzeug zur Einführung großer inneren Oberflächen wird erstmals die elektrokatalytische Aktivität eines solchen Materials in der elektrochemischen Sauerstoffreduktion gezeigt. KW - Hydrothermalkohle KW - ionische Flüssigkeiten KW - poröse Materialien KW - Elektrokatalyse KW - hydrothermal carbon KW - ionic liquids KW - porous materials KW - electrocatalysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57825 ER - TY - THES A1 - Schütte, Moritz T1 - Evolutionary fingerprints in genome-scale networks T1 - Evolutionäre Spuren in genomskaligen Netzwerken N2 - Mathematical modeling of biological phenomena has experienced increasing interest since new high-throughput technologies give access to growing amounts of molecular data. These modeling approaches are especially able to test hypotheses which are not yet experimentally accessible or guide an experimental setup. One particular attempt investigates the evolutionary dynamics responsible for today's composition of organisms. Computer simulations either propose an evolutionary mechanism and thus reproduce a recent finding or rebuild an evolutionary process in order to learn about its mechanism. The quest for evolutionary fingerprints in metabolic and gene-coexpression networks is the central topic of this cumulative thesis based on four published articles. An understanding of the actual origin of life will probably remain an insoluble problem. However, one can argue that after a first simple metabolism has evolved, the further evolution of metabolism occurred in parallel with the evolution of the sequences of the catalyzing enzymes. Indications of such a coevolution can be found when correlating the change in sequence between two enzymes with their distance on the metabolic network which is obtained from the KEGG database. We observe that there exists a small but significant correlation primarily on nearest neighbors. This indicates that enzymes catalyzing subsequent reactions tend to be descended from the same precursor. Since this correlation is relatively small one can at least assume that, if new enzymes are no "genetic children" of the previous enzymes, they certainly be descended from any of the already existing ones. Following this hypothesis, we introduce a model of enzyme-pathway coevolution. By iteratively adding enzymes, this model explores the metabolic network in a manner similar to diffusion. With implementation of an Gillespie-like algorithm we are able to introduce a tunable parameter that controls the weight of sequence similarity when choosing a new enzyme. Furthermore, this method also defines a time difference between successive evolutionary innovations in terms of a new enzyme. Overall, these simulations generate putative time-courses of the evolutionary walk on the metabolic network. By a time-series analysis, we find that the acquisition of new enzymes appears in bursts which are pronounced when the influence of the sequence similarity is higher. This behavior strongly resembles punctuated equilibrium which denotes the observation that new species tend to appear in bursts as well rather than in a gradual manner. Thus, our model helps to establish a better understanding of punctuated equilibrium giving a potential description at molecular level. From the time-courses we also extract a tentative order of new enzymes, metabolites, and even organisms. The consistence of this order with previous findings provides evidence for the validity of our approach. While the sequence of a gene is actually subject to mutations, its expression profile might also indirectly change through the evolutionary events in the cellular interplay. Gene coexpression data is simply accessible by microarray experiments and commonly illustrated using coexpression networks where genes are nodes and get linked once they show a significant coexpression. Since the large number of genes makes an illustration of the entire coexpression network difficult, clustering helps to show the network on a metalevel. Various clustering techniques already exist. However, we introduce a novel one which maintains control of the cluster sizes and thus assures proper visual inspection. An application of the method on Arabidopsis thaliana reveals that genes causing a severe phenotype often show a functional uniqueness in their network vicinity. This leads to 20 genes of so far unknown phenotype which are however suggested to be essential for plant growth. Of these, six indeed provoke such a severe phenotype, shown by mutant analysis. By an inspection of the degree distribution of the A.thaliana coexpression network, we identified two characteristics. The distribution deviates from the frequently observed power-law by a sharp truncation which follows after an over-representation of highly connected nodes. For a better understanding, we developed an evolutionary model which mimics the growth of a coexpression network by gene duplication which underlies a strong selection criterion, and slight mutational changes in the expression profile. Despite the simplicity of our assumption, we can reproduce the observed properties in A.thaliana as well as in E.coli and S.cerevisiae. The over-representation of high-degree nodes could be identified with mutually well connected genes of similar functional families: zinc fingers (PF00096), flagella, and ribosomes respectively. In conclusion, these four manuscripts demonstrate the usefulness of mathematical models and statistical tools as a source of new biological insight. While the clustering approach of gene coexpression data leads to the phenotypic characterization of so far unknown genes and thus supports genome annotation, our model approaches offer explanations for observed properties of the coexpression network and furthermore substantiate punctuated equilibrium as an evolutionary process by a deeper understanding of an underlying molecular mechanism. N2 - Die biologische Zelle ist ein sehr kompliziertes Gebilde. Bei ihrer Betrachtung gilt es, das Zusammenspiel von Tausenden bis Millionen von Genen, Regulatoren, Proteinen oder Molekülen zu beschreiben und zu verstehen. Durch enorme Verbesserungen experimenteller Messgeräte gelingt es mittlerweile allerdings in geringer Zeit enorme Datenmengen zu messen, seien dies z.B. die Entschlüsselung eines Genoms oder die Konzentrationen der Moleküle in einer Zelle. Die Systembiologie nimmt sich dem Problem an, aus diesem Datenmeer ein quantitatives Verständnis für die Gesamtheit der Wechselwirkungen in der Zelle zu entwickeln. Dabei stellt die mathematische Modellierung und computergestützte Analyse ein eminent wichtiges Werkzeug dar, lassen sich doch am Computer in kurzer Zeit eine Vielzahl von Fällen testen und daraus Hypothesen generieren, die experimentell verifiziert werden können. Diese Doktorarbeit beschäftigt sich damit, wie durch mathematische Modellierung Rückschlüsse auf die Evolution und deren Mechanismen geschlossen werden können. Dabei besteht die Arbeit aus zwei Teilen. Zum Einen wurde ein Modell entwickelt, dass die Evolution des Stoffwechsels nachbaut. Der zweite Teil beschäftigt sich mit der Analyse von Genexpressionsdaten, d.h. der Stärke mit der ein bestimmtes Gen in ein Protein umgewandelt, "exprimiert", wird. Der Stoffwechsel bezeichnet die Gesamtheit der chemischen Vorgänge in einem Organismus; zum Einen werden Nahrungsstoffe für den Organismus verwertbar zerlegt, zum Anderen aber auch neue Stoffe aufgebaut. Da für nahezu jede chemische Reaktion ein katalysierendes Enzym benötigt wird, ist davon auszugehen, dass sich der Stoffwechsel parallel zu den Enzymen entwickelt hat. Auf dieser Annahme basiert das entwickelte Modell zur Enzyme-Stoffwechsel-Koevolution. Von einer Anfangsmenge von Enzymen und Molekülen ausgehend, die etwa in einer primitiven Atmosphäre vorgekommen sind, werden sukzessive Enzyme und die nun katalysierbaren Reaktionen hinzugefügt, wodurch die Stoffwechselkapazität anwächst. Die Auswahl eines neuen Enzyms geschieht dabei in Abhängigkeit von der Ähnlichkeit mit bereits vorhandenen und ist so an den evolutionären Vorgang der Mutation angelehnt: je ähnlicher ein neues Enzym zu den vorhandenen ist, desto schneller kann es hinzugefügt werden. Dieser Vorgang wird wiederholt, bis der Stoffwechsel die heutige Form angenommen hat. Interessant ist vor allem der zeitliche Verlauf dieser Evolution, der mittels einer Zeitreihenanalyse untersucht wird. Dabei zeigt sich, dass neue Enzyme gebündelt in Gruppen kurzer Zeitfolge auftreten, gefolgt von Intervallen relativer Stille. Dasselbe Phänomen kennt man von der Evolution neuer Arten, die ebenfalls gebündelt auftreten, und wird Punktualismus genannt. Diese Arbeit liefert somit ein besseres Verständnis dieses Phänomens durch eine Beschreibung auf molekularer Ebene. Im zweiten Projekt werden Genexpressionsdaten von Pflanzen analysiert. Einerseits geschieht dies mit einem eigens entwickelten Cluster-Algorithmus. Hier läßt sich beobachten, dass Gene mit einer ähnlichen Funktion oft auch ein ähnliches Expressionsmuster aufweisen. Das Clustering liefert einige Genkandidaten, deren Funktion bisher unbekannt war, von denen aber nun vermutet werden konnte, dass sie enorm wichtig für das Wachstum der Pflanze sind. Durch Experimente von Pflanzen mit und ohne diese Gene zeigte sich, dass sechs neuen Genen dieses essentielle Erscheinungsbild zugeordnet werden kann. Weiterhin wurden Netzwerke der Genexpressionsdaten einer Pflanze, eines Pilzes und eines Bakteriums untersucht. In diesen Netzwerken werden zwei Gene verbunden, falls sie ein sehr ähnliches Expressionsprofil aufweisen. Nun zeigten diese Netzwerke sehr ähnliche und charakteristische Eigenschaften auf. Im Rahmen dieser Arbeit wurde daher ein weiteres evolutionäres Modell entwickelt, das die Expressionsprofile anhand von Duplikation, Mutation und Selektion beschreibt. Obwohl das Modell auf sehr simplen Eigenschaften beruht, spiegelt es die beobachteten Eigenschaften sehr gut wider, und es läßt sich der Schluss ziehen, dass diese als Resultat der Evolution betrachtet werden können. Die Ergebnisse dieser Arbeiten sind als Doktorarbeit in kumulativer Form bestehend aus vier veröffentlichten Artikeln vereinigt. KW - Systembiologie KW - Modellierung KW - Evolution KW - Stoffwechsel KW - Gen-Koexpression KW - Systems Biology KW - Modeling KW - Evolution KW - Metabolism KW - Gene co-expression Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57483 ER - TY - THES A1 - Schiefele, Jürgen T1 - Casimir-Polder interaction in second quantization T1 - Casimir-Polder Wechselwirkung in zweiter Quantisierung N2 - The Casimir-Polder interaction between a single neutral atom and a nearby surface, arising from the (quantum and thermal) fluctuations of the electromagnetic field, is a cornerstone of cavity quantum electrodynamics (cQED), and theoretically well established. Recently, Bose-Einstein condensates (BECs) of ultracold atoms have been used to test the predictions of cQED. The purpose of the present thesis is to upgrade single-atom cQED with the many-body theory needed to describe trapped atomic BECs. Tools and methods are developed in a second-quantized picture that treats atom and photon fields on the same footing. We formulate a diagrammatic expansion using correlation functions for both the electromagnetic field and the atomic system. The formalism is applied to investigate, for BECs trapped near surfaces, dispersion interactions of the van der Waals-Casimir-Polder type, and the Bosonic stimulation in spontaneous decay of excited atomic states. We also discuss a phononic Casimir effect, which arises from the quantum fluctuations in an interacting BEC. N2 - Die durch (quantenmechanische und thermische) Fluktuationen des elektromagnetischen Feldes hervorgerufene Casimir-Polder-Wechselwirkung zwischen einem elektrisch neutralen Atom und einer benachbarten Oberfläche stellt einen theoretisch gut untersuchten Aspekt der Resonator-Quantenelektrodynamik (cavity quantum electrodynamics, cQED) dar. Seit kurzem werden atomare Bose-Einstein-Kondensate (BECs) verwendet, um die theoretischen Vorhersagen der cQED zu überprüfen. Das Ziel der vorliegenden Arbeit ist es, die bestehende cQED Theorie für einzelne Atome mit den Techniken der Vielteilchenphysik zur Beschreibung von BECs zu verbinden. Es werden Werkzeuge und Methoden entwickelt, um sowohl Photon- als auch Atom-Felder gleichwertig in zweiter Quantisierung zu beschreiben. Wir formulieren eine diagrammatische Störungstheorie, die Korrelationsfunktionen des elektromagnetischen Feldes und des Atomsystems benutzt. Der Formalismus wird anschließend verwendet, um für in Fallen nahe einer Oberfläche gehaltene BECs Atom-Oberflächen-Wechselwirkungen vom Casimir-Polder-Typ und die bosonische Stimulation des spontanen Zerfalls angeregter Atome zu untersuchen. Außerdem untersuchen wir einen phononischen Casimir-Effekt, der durch die quantenmechanischen Fluktuationen in einem wechselwirkenden BEC entsteht. KW - Hohlraum-Quantenelektrodynamik KW - Bose-Einstein-Kondensation KW - Casimir-Polder-Interaktion KW - Vakuumschwankungen KW - van der Waals-Kräfte KW - cavity quantum electrodynamics KW - Bose-Einstein condensation KW - Casimir-Polder interaction KW - vacuum fluctuations KW - van der Waals forces Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54171 ER - TY - THES A1 - Mohamed, Rasha T1 - Das Programm "Gesunde Dörfer" in Syrien : eine empirische Analyse T1 - The "healthy villages" program in Syria : empirical analysis N2 - Der Begriff Gesundheit wurde von der WHO definiert als „nicht nur die Abwesenheit von Krankheit, sondern, positiv als Naturrecht formuliert, vollständiges körperliches, seelisches und soziales Wohlbefinden“. Deswegen hat die WHO mit dem Gesundheitsministerium in Syrien das Programm „Gesunde Dörfer“ seit 1996 gestaltet. Es zielt darauf, den wirtschaftlichen, sozialen und gesundheitlichen Zustand der Landbevölkerung zu verbessern, insbesondere soll es den großen Unterschied zwischen Stadt und Land vermindern. Das Projekt stellt sich die Aufgabe, den Einfluss des Programms auf Wirtschafts- und Gesundheitsparameter im Vergleich mit anderen Kontrolledörfern zu analysieren. Hierzu werden Umfragedaten in Syrien ausgewertet. Die Auswertung der Befragung in der vorliegenden Arbeit zeigte, dass das Programm seine Ziele bezüglich der Verbesserung der Gesundheits- und Lebensqualität erreicht Erfolgreich war das Programm „Gesunde Dörfer“ auch, mit Ausnahme der nördlichen und östlichen Region, in der Verringerung der Anzahl arbeitender Kinder, in der Förderung der Frauen eine Beschäftigung aufzunehmen bzw. ein Studium zu absolvieren sowie in der Reduzierung der Analphabetenrate. N2 - “Health is a state of complete physical, mental and social well-being and not merely the absence of disease or infirmity" (WHO definition). Therefore WHO and the Ministry of Health in Syria implemented the "Healthy Villages" program in 1996. It aims at improving the population's economic, social and health condition in the country. It should decrease the big difference in health care between urban and rural populations. The project objective is to statistically analyze the influence of the program on economic and health parameters in comparison with other villages not related to the program. For this purpose, survey data is collected and appraised in Syria. The evaluation of the survey in the present work showed that the program achieved successfully its objectives regarding the improvement of the health and quality of life in the "Healthy villages" program. In addition to the reduction of the number of working children, encouraging women to work and continue studying, as well as to reduce the illiteracy rate. However these results are not applied to northern and Eastern region. KW - Syrien KW - WHO KW - Programm "Gesunde Dörfer" KW - Provinzen KW - Umfrage KW - Syria KW - WHO KW - "Healthy village" program KW - Gouvernment KW - survey Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55545 ER - TY - THES A1 - Robinson, Alexander T1 - Modeling the Greenland Ice Sheet response to climate change in the past and future T1 - Modellierung der Reaktion des Grönländischen Inlandeises auf den vergangenen und zukünftigen Klimawandel N2 - The Greenland Ice Sheet (GIS) contains enough water volume to raise global sea level by over 7 meters. It is a relic of past glacial climates that could be strongly affected by a warming world. Several studies have been performed to investigate the sensitivity of the ice sheet to changes in climate, but large uncertainties in its long-term response still exist. In this thesis, a new approach has been developed and applied to modeling the GIS response to climate change. The advantages compared to previous approaches are (i) that it can be applied over a wide range of climatic scenarios (both in the deep past and the future), (ii) that it includes the relevant feedback processes between the climate and the ice sheet and (iii) that it is highly computationally efficient, allowing simulations over very long timescales. The new regional energy-moisture balance model (REMBO) has been developed to model the climate and surface mass balance over Greenland and it represents an improvement compared to conventional approaches in modeling present-day conditions. Furthermore, the evolution of the GIS has been simulated over the last glacial cycle using an ensemble of model versions. The model performance has been validated against field observations of the present-day climate and surface mass balance, as well as paleo information from ice cores. The GIS contribution to sea level rise during the last interglacial is estimated to be between 0.5-4.1 m, consistent with previous estimates. The ensemble of model versions has been constrained to those that are consistent with the data, and a range of valid parameter values has been defined, allowing quantification of the uncertainty and sensitivity of the modeling approach. Using the constrained model ensemble, the sensitivity of the GIS to long-term climate change was investigated. It was found that the GIS exhibits hysteresis behavior (i.e., it is multi-stable under certain conditions), and that a temperature threshold exists above which the ice sheet transitions to an essentially ice-free state. The threshold in the global temperature is estimated to be in the range of 1.3-2.3°C above preindustrial conditions, significantly lower than previously believed. The timescale of total melt scales non-linearly with the overshoot above the temperature threshold, such that a 2°C anomaly causes the ice sheet to melt in ca. 50,000 years, but an anomaly of 6°C will melt the ice sheet in less than 4,000 years. The meltback of the ice sheet was found to become irreversible after a fraction of the ice sheet is already lost – but this level of irreversibility also depends on the temperature anomaly. N2 - Das grönländische Inlandeis (GIS) besteht aus einem Wasservolumen das ausreicht, um den globalen Meeresspiegel um 7 Meter ansteigen zu lassen. Es ist ein Relikt der vergangenen Eiszeit, das in einer zunehmend wärmer werdenden Welt stark in Mitleidenschaft gezogen werden könnte. In der vorliegenden Dissertation ist ein neues Verfahren zur Modellierung des Antwortverhaltens des Inlandeises auf Klimaänderungen entwickelt und angewendet worden. Die Vorteile des neuen Verfahrens im Vergleich zu den bisherigen Verfahren sind, (i) dass es über einen groen Bereich von Klimaszenarien (sowohl für die ferne Vergangenheit als auch für die Zukunft) anwendbar ist, (ii) dass es die wesentlichen Rückkopplungsprozesse zwischen Klima und Inlandeis enthält und (iii) dass es wegen seiner guten Rechenzeiteffizienz Simulationen über sehr lange Zeitskalen erlaubt. Das neue Modell (REMBO) ist für die Modellierung des Klimas und der Massenbilanz an der grönländischen Oberfläche entwickelt worden und stellt ein verbessertes Verfahren im Vergleich zu den bisherigen dar. Die Entwicklung von GIS über den letzten glazialen Zyklus ist mittels eines Ensembles von verschiedenen Modellversionen simuliert worden. Anschließend ist die Tauglichkeit der Modellversionen durch Vergleich mit Beobachtungsdaten des gegenwärtigen Klimas und der Oberflächenmassenbilanz, sowie mit paleoklimatischen Rekonstruktionen von Eisbohrkernen verifiziert worden. Der Anteil von GIS am Meeresspiegelanstieg während des letzten Interglazials ist im Bereich von 0.5 bis 4.1 m berechnet worden, was konsistent mit bisherigen Schätzungen ist. Von den Ensemblesimulationen sind diejenigen ausgewählt worden, deren Ergebnisse gut mit den Daten übereinstimmen. Durch die Auswahl von geeigneten Modellversionen sind gleichzeitig die Unsicherheiten der Parameterwerte begrenzt worden, so dass sich nun mit dem neuen Verfahren die Sensitivität von GIS auf Klimaänderungen bestimmen lässt. Mit den ausgewählten Modellversionen ist die Sensitivität von GIS auf langfristige Klimaänderungen untersucht worden. Es zeigt sich, dass das GIS ein Hystereseverhalten besitzt (d.h., eine Multistabilität für gewisse Klimazustände) und dass ein Temperaturschwellwert existiert. Bei Überschreiten des Schwellwertes bleibt das GIS nicht erhalten und wird langsam eisfrei werden. Der Temperaturschwellwert der globalen Mitteltemperatur relativ zur vorindustriellen Mitteltemperatur ist im Bereich 1.3-2.3°C ermittelt worden und liegt damit deutlich niedriger als bisher angenommen. Die Zeitdauer bis zum völligen Abschmelzen zeigt ein nichtlineares Verhalten hinsichtlich einer Erwärmung über den ermittelten Schwellwert. Eine Erwärmung von 2°C relativ zur vorindustriellen Zeit führt zu einem Abschmelzen nach 50.000 Jahren, aber eine Erwärmung um 6°C lässt das Inlandeis bereits nach 4.000 Jahren abschmelzen. Ein weiteres Ergebnis ist, dass der Abschmelzvorgang irreversibel werden kann, nachdem ein gewisser Anteil des Inlandeises abgeschmolzen ist – jedoch ist die Irreversibilität eines Abschmelzvorganges auch von der Temperaturanomalie abhängig. KW - Grönland KW - Inlandeis KW - Klimawandel KW - Stabilität KW - Hysterese KW - Greenland KW - ice sheet KW - climate change KW - stability KW - hysteresis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50430 ER - TY - THES A1 - Andorf, Sandra T1 - A systems biological approach towards the molecular basis of heterosis in Arabidopsis thaliana T1 - Ein systembiologischer Ansatz für das Verständnis der molekularen Grundlagen von Heterosis in Arabidopsis thaliana N2 - Heterosis is defined as the superiority in performance of heterozygous genotypes compared to their corresponding genetically different homozygous parents. This phenomenon is already known since the beginning of the last century and it has been widely used in plant breeding, but the underlying genetic and molecular mechanisms are not well understood. In this work, a systems biological approach based on molecular network structures is proposed to contribute to the understanding of heterosis. Hybrids are likely to contain additional regulatory possibilities compared to their homozygous parents and, therefore, they may be able to correctly respond to a higher number of environmental challenges, which leads to a higher adaptability and, thus, the heterosis phenomenon. In the network hypothesis for heterosis, presented in this work, more regulatory interactions are expected in the molecular networks of the hybrids compared to the homozygous parents. Partial correlations were used to assess this difference in the global interaction structure of regulatory networks between the hybrids and the homozygous genotypes. This network hypothesis for heterosis was tested on metabolite profiles as well as gene expression data of the two parental Arabidopsis thaliana accessions C24 and Col-0 and their reciprocal crosses. These plants are known to show a heterosis effect in their biomass phenotype. The hypothesis was confirmed for mid-parent and best-parent heterosis for either hybrid of our experimental metabolite as well as gene expression data. It was shown that this result is influenced by the used cutoffs during the analyses. Too strict filtering resulted in sets of metabolites and genes for which the network hypothesis for heterosis does not hold true for either hybrid regarding mid-parent as well as best-parent heterosis. In an over-representation analysis, the genes that show the largest heterosis effects according to our network hypothesis were compared to genes of heterotic quantitative trait loci (QTL) regions. Separately for either hybrid regarding mid-parent as well as best-parent heterosis, a significantly larger overlap between the resulting gene lists of the two different approaches towards biomass heterosis was detected than expected by chance. This suggests that each heterotic QTL region contains many genes influencing biomass heterosis in the early development of Arabidopsis thaliana. Furthermore, this integrative analysis led to a confinement and an increased confidence in the group of candidate genes for biomass heterosis in Arabidopsis thaliana identified by both approaches. N2 - Als Heterosis-Effekt wird die Überlegenheit in einem oder mehreren Leistungsmerkmalen (z.B. Blattgröße von Pflanzen) von heterozygoten (mischerbigen) Nachkommen über deren unterschiedlich homozygoten (reinerbigen) Eltern bezeichnet. Dieses Phänomen ist schon seit Beginn des letzten Jahrhunderts bekannt und wird weit verbreitet in der Pflanzenzucht genutzt. Trotzdem sind die genetischen und molekularen Grundlagen von Heterosis noch weitestgehend unbekannt. Es wird angenommen, dass heterozygote Individuen mehr regulatorische Möglichkeiten aufweisen als ihre homozygoten Eltern und sie somit auf eine größere Anzahl an wechselnden Umweltbedingungen richtig reagieren können. Diese erhöhte Anpassungsfähigkeit führt zum Heterosis-Effekt. In dieser Arbeit wird ein systembiologischer Ansatz, basierend auf molekularen Netzwerkstrukturen verfolgt, um zu einem besseren Verständnis von Heterosis beizutragen. Dazu wird eine Netzwerkhypothese für Heterosis vorgestellt, die vorhersagt, dass die heterozygoten Individuen, die Heterosis zeigen, mehr regulatorische Interaktionen in ihren molekularen Netzwerken aufweisen als die homozygoten Eltern. Partielle Korrelationen wurden verwendet, um diesen Unterschied in den globalen Interaktionsstrukturen zwischen den Heterozygoten und ihren homozygoten Eltern zu untersuchen. Die Netzwerkhypothese wurde anhand von Metabolit- und Genexpressionsdaten der beiden homozygoten Arabidopsis thaliana Pflanzenlinien C24 und Col-0 und deren wechselseitigen Kreuzungen getestet. Arabidopsis thaliana Pflanzen sind bekannt dafür, dass sie einen Heterosis-Effekt im Bezug auf ihre Biomasse zeigen. Die heterozygoten Pflanzen weisen bei gleichem Alter eine höhere Biomasse auf als die homozygoten Pflanzen. Die Netzwerkhypothese für Heterosis konnte sowohl im Bezug auf mid-parent Heterosis (Unterschied in der Leistung des Heterozygoten im Vergleich zum Mittelwert der Eltern) als auch auf best-parent Heterosis (Unterschied in der Leistung des Heterozygoten im Vergleich zum Besseren der Eltern) für beide Kreuzungen für die Metabolit- und Genexpressionsdaten bestätigt werden. In einer Überrepräsentations-Analyse wurden die Gene, für die die größte Veränderung in der Anzahl der regulatorischen Interaktionen, an denen sie vermutlich beteiligt sind, festgestellt wurde, mit den Genen aus einer quantitativ genetischen (QTL) Analyse von Biomasse-Heterosis in Arabidopsis thaliana verglichen. Die ermittelten Gene aus beiden Studien zeigen eine größere Überschneidung als durch Zufall erwartet. Das deutet darauf hin, dass jede identifizierte QTL-Region viele Gene, die den Biomasse-Heterosis-Effekt in Arabidopsis thaliana beeinflussen, enthält. Die Gene, die in den Ergebnislisten beider Analyseverfahren überlappen, können mit größerer Zuversicht als Kandidatengene für Biomasse-Heterosis in Arabidopsis thaliana betrachtet werden als die Ergebnisse von nur einer Studie. KW - Systembiologie KW - Heterosis KW - Molekulare Profildaten KW - Integrative Analyse KW - Systems biology KW - Heterosis KW - Molecular profile data KW - Integrative analysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51173 ER - TY - THES A1 - Reusser, Dominik Edwin T1 - Combining smart model diagnostics and effective data collection for snow catchments T1 - Zeitlich aufgelöste Modelldiagnose und kosteneffektive Messungen für Schneeeinzugsgebiete N2 - Complete protection against flood risks by structural measures is impossible. Therefore flood prediction is important for flood risk management. Good explanatory power of flood models requires a meaningful representation of bio-physical processes. Therefore great interest exists to improve the process representation. Progress in hydrological process understanding is achieved through a learning cycle including critical assessment of an existing model for a given catchment as a first step. The assessment will highlight deficiencies of the model, from which useful additional data requirements are derived, giving a guideline for new measurements. These new measurements may in turn lead to improved process concepts. The improved process concepts are finally summarized in an updated hydrological model. In this thesis I demonstrate such a learning cycle, focusing on the advancement of model evaluation methods and more cost effective measurements. For a successful model evaluation, I propose that three questions should be answered: 1) when is a model reproducing observations in a satisfactory way? 2) If model results deviate, of what nature is the difference? And 3) what are most likely the relevant model components affecting these differences? To answer the first two questions, I developed a new method to assess the temporal dynamics of model performance (or TIGER - TIme series of Grouped Errors). This method is powerful in highlighting recurrent patterns of insufficient model behaviour for long simulation periods. I answered the third question with the analysis of the temporal dynamics of parameter sensitivity (TEDPAS). For calculating TEDPAS, an efficient method for sensitivity analysis is necessary. I used such an efficient method called Fourier Amplitude Sensitivity Test, which has a smart sampling scheme. Combining the two methods TIGER and TEDPAS provided a powerful tool for model assessment. With WaSiM-ETH applied to the Weisseritz catchment as a case study, I found insufficient process descriptions for the snow dynamics and for the recession during dry periods in late summer and fall. Focusing on snow dynamics, reasons for poor model performance can either be a poor representation of snow processes in the model, or poor data on snow cover, or both. To obtain an improved data set on snow cover, time series of snow height and temperatures were collected with a cost efficient method based on temperature measurements on multiple levels at each location. An algorithm was developed to simultaneously estimate snow height and cold content from these measurements. Both, snow height and cold content are relevant quantities for spring flood forecasting. Spatial variability was observed at the local and the catchment scale with an adjusted sampling design. At the local scale, samples were collected on two perpendicular transects of 60 m length and analysed with geostatistical methods. The range determined from fitted theoretical variograms was within the range of the sampling design for 80% of the plots. No patterns were found, that would explain the random variability and spatial correlation at the local scale. At the watershed scale, locations of the extensive field campaign were selected according to a stratified sample design to capture the combined effects of elevation, aspect and land use. The snow height is mainly affected by the plot elevation. The expected influence of aspect and land use was not observed. To better understand the deficiencies of the snow module in WaSiM-ETH, the same approach, a simple degree day model was checked for its capability to reproduce the data. The degree day model was capable to explain the temporal variability for plots with a continuous snow pack over the entire snow season, if parameters were estimated for single plots. However, processes described in the simple model are not sufficient to represent multiple accumulation-melt-cycles, as observed for the lower catchment. Thus, the combined spatio-temporal variability at the watershed scale is not captured by the model. Further tests on improved concepts for the representation of snow dynamics at the Weißeritz are required. From the data I suggest to include at least rain on snow and redistribution by wind as additional processes to better describe spatio-temporal variability. Alternatively an energy balance snow model could be tested. Overall, the proposed learning cycle is a useful framework for targeted model improvement. The advanced model diagnostics is valuable to identify model deficiencies and to guide field measurements. The additional data collected throughout this work helps to get a deepened understanding of the processes in the Weisseritz catchment. N2 - Modelle zur Hochwasservorhersage und –warnung basieren auf einer bio-physikalisch Repräsentation der relevanten hydrologischen Prozesse. Eine Verbesserungen der Beschreibung dieser Prozesse kann zuverlässigere Vorhersagen ermöglichen. Dazu wird die Benutzung eines Lernzykluses bestehend aus einer kritische Beurteilung eines existierenden Modells, der Erhebung zusätzlicher Daten, der Bildung eines vertieften Verständnis und einer Überarbeitung des Modells vorgeschlagen. In dieser Arbeit wird ein solcher Lernzyklus aufgegriffen, wobei der Schwerpunkt auf einer verbesserten Modellanalyse und kosteneffizientere Messungen liegt. Für eine erfolgreiche Modellbeurteilung sind drei Fragen zu beantworten: 1) Wann reproduziert ein Modell die beobachteten Werte in einer zufriedenstellenden Weise (nicht)? 2) Wie lassen sich die Abweichungen charakterisieren? und 3) welches sind die Modellkomponenten, die diese Abweichungen bedingen? Um die ersten beiden Fragen zu beantworten, wird eine neue Methode zur Beurteilung des zeitlichen Verlaufs der Modellgüte vorgestellt. Eine wichtige Stärke ist, dass wiederholende Muster ungenügender Modellgüte auch für lange Simulationsläufe einfach identifiziert werden können. Die dritte Frage wird durch die Analyse des zeitlichen Verlaufs der Parametersensitivität beantwortet. Eine Kombination der beiden Methoden zur Beantwortung aller drei Fragen stellt ein umfangreiches Werkzeug für die Analyse hydrologischer Modelle zur Verfügung. Als Fallstudie wurde WaSiM-ETH verwendet, um das Einzugsgebiet der wilden Weißeritz zu modellieren. Die Modellanalyse von WaSiM-ETH hat ergeben, dass die Schneedynamik und die Rezession während trockener Perioden im Spätsommer und Herbst, für eine Beschreibung der Prozesse an der Weißeritz nicht geeignet sind. Die Erhebung zusätzlicher Daten zum besseren Verständnis der Schneedynamik bildet den nächste Schritt im Lernzyklus. Daten über Schneetemperaturen und Schneehöhen wurden mit Hilfe eines neuen, preisgünstigen Verfahrens erhoben. Dazu wurde die Temperatur an jedem Standort mit unterschiedlichen Abständen zum Boden gemessen und mit einem neuen Algorithmus in Schneehöhe und Kältegehalt umgerechnet. Die Schneehöhe und Kältegehalt sind wichtige Größen für die Vorhersage von Frühjahrshochwassern. Die räumliche Variabilität der Schneedecke auf der Einzugsgebietsskala wurde entsprechend der Landnutzung, der Höhenzone und der Ausrichtung stratifiziert untersucht, wobei lediglich der Einfluss der Höhe nachgewiesen werden konnte, während Ausrichtung und Landnutzung keinen statistisch signifikanten Einfluss hatten. Um die Defizite des WaSiM-ETH Schneemodules für die Beschreibung der Prozesse im Weißeritzeinzugsgebiets besser zu verstehen, wurde der gleiche konzeptionelle Ansatz als eigenständiges, kleines Modell benutzt, um die Dynamik in den Schneedaten zu reproduzieren. Während dieses Grad-Tag-Modell in der Lage war, den zeitlichen Verlauf für Flächen mit einer kontinuierlichen Schneedecke zu reproduzieren, konnte die Dynamik für Flächen mit mehreren Akkumulations- und Schmelzzyklen im unteren Einzugsgebiet vom Modell nicht abgebildet werden. Vorschläge zur Verbesserung des Modells werden in der Arbeit gemacht. Zusammenfassend hat sich das Lernzyklus-Konzept als nützlich erwiesen, um gezielt an einer Modellverbesserung zu arbeiten. Die differenzierte Modelldiagnose ist wertvoll, um Defizite im Modellkonzept zu identifizieren. Die während dieser Studie erhobenen Daten sind geeignet, um ein verbessertes Verständnis der Schnee-Prozesse an der Weißeritz zu erlangen. KW - Hydrologie KW - Modellierung KW - Modell Diagnose KW - Schnee KW - Sensitivitätsanalyse KW - hydrology KW - modelling KW - model diagnostics KW - snow KW - sensitivity analysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52574 ER - TY - THES A1 - Naaf, Tobias T1 - Floristic homogenization and impoverishment : herb layer changes over two decades in deciduous forest patches of the Weser-Elbe region (NW Germany) T1 - Floristische Homogenisierung und Verarmung : Krautschichtveränderungen über 20 Jahre in Laubwaldfragmenten des Elbe-Weser-Dreiecks (NW-Dtl.) N2 - Human-induced alterations of the environment are causing biotic changes worldwide, including the extinction of species and a mixing of once disparate floras and faunas. One type of biological communities that is expected to be particularly affected by environmental alterations are herb layer plant communities of fragmented forests such as those in the west European lowlands. However, our knowledge about current changes in species diversity and composition in these communities is limited due to a lack of adequate long-term studies. In this thesis, I resurveyed the herb layer communities of ancient forest patches in the Weser-Elbe region (NW Germany) after two decades using 175 semi-permanent plots. The general objectives were (i) to quantify changes in plant species diversity considering also between-community (β) and functional diversity, (ii) to determine shifts in species composition in terms of species’ niche breadth and functional traits and (iii) to find indications on the most likely environmental drivers for the observed changes. These objectives were pursued with four independent research papers (Chapters 1-4) whose results were brought together in a General Discussion. Alpha diversity (species richness) increased by almost four species on average, whereas β diversity tended to decrease (Chapter 1). The latter is interpreted as a beginning floristic homogenization. The observed changes were primarily the result of a spread of native habitat generalists that are able to tolerate broad pH and moisture ranges. The changes in α and β diversity were only significant when species abundances were neglected (Chapters 1 and 2), demonstrating that the diversity changes resulted mainly from gains and losses of low-abundance species. This study is one of the first studies in temperate Europe that demonstrates floristic homogenization of forest plant communities at a larger than local scale. The diversity changes found at the taxonomic level did not result in similar changes at the functional level (Chapter 2). The likely reason is that these communities are functionally “buffered”. Single communities involve most of the functional diversity of the regional pool, i.e., they are already functionally rich, while they are functionally redundant among each other, i.e., they are already homogeneous. Independent of taxonomic homogenization, the abundance of 30 species decreased significantly (Chapter 4). These species included 12 ancient forest species (i.e., species closely tied to forest patches with a habitat continuity > 200 years) and seven species listed on the Red List of endangered plant species in NW Germany. If these decreases continue over the next decades, local extinctions may result. This biotic impoverishment would seriously conflict with regional conservation goals. Community assembly mechanisms changed at the local level particularly at sites that experienced disturbance by forest management activities between the sampling periods (Chapter 3). Disturbance altered community assembly mechanisms in two ways: (i) it relaxed environmental filters and allowed the coexistence of different reproduction strategies, as reflected by a higher diversity of reproductive traits at the time of the resurvey, and (ii) it enhanced light availability and tightened competitive filters. These limited the functional diversity with respect to canopy height and selected for taller species. Thirty-one winner and 30 loser species, which had significantly increased or decreased in abundance, respectively, were characterized by various functional traits and ecological performances to find indications on the most likely environmental drivers for the observed floristic changes (Chapter 4). Winner species had higher seed longevity, flowered later in the season and had more often an oceanic distribution compared to loser species. Loser species tended to have a higher specific leaf area, to be more susceptible to deer browsing and to have a performance optimum at higher soil pH values compared to winner species. Multiple logistic regression analyses indicated that disturbances due to forest management interventions were the primary cause of the species shifts. As one of the first European resurvey studies, this study provides indications that an enhanced browsing pressure due to increased deer densities and increasingly warmer winters are important drivers. The study failed to demonstrate that eutrophication and acidification due to atmospheric deposition substantially drive herb layer changes. The restriction of the sample to the most base-rich sites in the region is discussed as a likely reason. Furthermore, the decline of several ancient forest species is discussed as an indication that the forest patches are still paying off their “extinction debt”, i.e., exhibit a delayed response to forest fragmentation. N2 - Umweltveränderungen beeinträchtigen weltweit die Artenvielfalt. Die Lebensgemeinschaften fragmentierter Lebensräume gelten als besonders anfällig für Veränderungen. In dieser Arbeit wurden Untersuchungen an Krautschichtgemeinschaften historisch alter Waldfragmente im Elbe-Weser-Dreieck nach zwei Jahrzehnten wiederholt. Ziel war es anhand von 175 semi-permanenten Aufnahmeflächen (i) die Veränderungen der Pflanzenartendiversität zu quantifizieren, (ii) Artenverschiebungen in Bezug auf Nischenbreite und funktionale Merkmale festzustellen und (iii) Hinweise auf die verantwortlichen Umweltveränderungen zu finden. Die α-Diversität (Artenzahl) stieg durchschnittlich um vier Arten an. Die β-Diversität (Artenturnover zwischen den Flächen) nahm tendenziell ab. Letzteres wird als Beginn einer floristischen Homogenisierung interpretiert. Diese Studie ist eine der ersten im gemäßigten Europa, die eine floristische Homogenisierung von Waldpflanzengemeinschaften auf einer größeren als der lokalen Ebene aufzeigt. Die Diversitätsveränderungen auf taxonomischer Ebene führten nicht zu ähnlichen Veränderungen auf funktionaler Ebene. Bereits einzelne Gemeinschaften wiesen den Großteil der funktionalen Vielfalt des regionalen Artenpools, also ein Maximum an funktionaler Diversität auf. Gleichzeitig waren sie untereinander funktional redundant, also bereits homogen. Die mit der beginnenden taxonomischen Homogenisierung verbundene floristische Verarmung wird als gering eingestuft, da die Homogenisierung primär das Ergebnis der Zuwanderung häufig vorkommender Standortgeneralisten war. Unabhängig von der Homogenisierung gingen 30 Arten signifikant in ihrer Abundanz zurück, darunter 12 an historisch alte Wälder gebundene Arten sowie sieben Rote-Liste-Arten. Ein weiterer Rückgang oder ein lokales Aussterben dieser Arten stünde im Widerspruch zu regionalen Naturschutzzielen. Nullmodelltests und der Vergleich funktionaler und taxonomischer Diversitätskomponenten lassen auf regionaler Ebene auf eine zeitliche Konstanz der grundlegenden Mechanismen der Artenvergesellschaftung schließen. Auf der lokalen Ebene veränderten sich die Vergesellschaftungsmechanismen erheblich, insbesondere auf forstwirtschaftlich gestörten Standorten. Einerseits ermöglichte dort eine Abschwächung der Umweltfilter die Koexistenz von Arten mit unterschiedlichen Reproduktionsstrategien. Andererseits führte die erhöhte Lichtverfügbarkeit zu einer Verstärkung der Konkurrenzfilter und einer Selektion hochwüchsiger Arten. Gewinner- und Verliererarten wurden anhand funktionaler Merkmale und ihres ökologischen Verhaltens charakterisiert, um Hinweise auf die verantwortlichen Umweltveränderungen zu finden. Gewinnerarten wiesen eine höhere Langlebigkeit der Samen auf, blühten später in der Vegetationsperiode und hatten öfter eine ozeanische Verbreitung. Verliererarten hatten eine höhere spezifische Blattfläche, einen höheren Attraktivitätswert als Wildäsung und ein ökologisches Optimum bei höheren pH-Werten. Logistische Regressionsanalysen zeigen, dass Störung durch forstwirtschaftliche Eingriffe hauptverantwortlich für die Artenverschiebungen war. Zusätzlich liefert diese Wiederholungsstudie als eine der ersten in Europa Hinweise darauf, dass ein erhöhter Äsungsdruck sowie zunehmend mildere Winter entscheidende Einflussfaktoren darstellen. Der Rückgang mehrerer an historisch alte Wälder gebundener Arten wird als Anzeichen für eine verspätete Reaktion auf die Waldfragmentierung diskutiert. KW - Beta-Diversität KW - Funktionelle Diversität KW - Globaler Wandel KW - Langzeitveränderung KW - Wiederholungsstudie KW - beta diversity KW - functional diversity KW - global change KW - long-term change KW - resurvey Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52446 ER - TY - THES A1 - Castro Prieto, Aines del Carmen T1 - Immunogenetics of free-ranging felids on Namibian farmlands T1 - Immungenetik freilebender Raubkatzen in landwirtschaftlich genutzten Regionen Namibias N2 - Genetic variation is crucial for the long-term survival of the species as it provides the potential for adaptive responses to environmental changes such as emerging diseases. The Major Histocompatibility Complex (MHC) is a gene family that plays a central role in the vertebrate’s immune system by triggering the adaptive immune response after exposure to pathogens. MHC genes have become highly suitable molecular markers of adaptive significance. They synthesize two primary cell surface molecules namely MHC class I and class II that recognize short fragments of proteins derived respectively from intracellular (e.g. viruses) and extracellular (e.g. bacteria, protozoa, arthropods) origins and present them to immune cells. High levels of MHC polymorphism frequently observed in natural populations are interpreted as an adaptation to detect and present a wide array of rapidly evolving pathogens. This variation appears to be largely maintained by positive selection driven mainly by pathogenic selective pressures. For my doctoral research I focused on MHC I and II variation in free-ranging cheetahs (Acinonyx jubatus) and leopards (Panthera pardus) on Namibian farmlands. Both felid species are sympatric thus subject to similar pathogenic pressures but differ in their evolutionary and demographic histories. The main aims were to investigate 1) the extent and patterns of MHC variation at the population level in both felids, 2) the association between levels of MHC variation and disease resistance in free-ranging cheetahs, and 3) the role of selection at different time scales in shaping MHC variation in both felids. Cheetahs and leopards represent the largest free-ranging carnivores in Namibia. They concentrate in unprotected areas on privately owned farmlands where domestic and other wild animals also occur and the risk of pathogen transmission is increased. Thus, knowledge on adaptive genetic variation involved in disease resistance may be pertinent to both felid species’ conservation. The cheetah has been used as a classic example in conservation genetics textbooks due to overall low levels of genetic variation. Reduced variation at MHC genes has been associated with high susceptibility to infectious diseases in cheetahs. However, increased disease susceptibility has only been observed in captive cheetahs whereas recent studies in free-ranging Namibian cheetahs revealed a good health status. This raised the question whether the diversity at MHC I and II genes in free-ranging cheetahs is higher than previously reported. In this study, a total of 10 MHC I alleles and four MHC II alleles were observed in 149 individuals throughout Namibia. All alleles but one likely belong to functional MHC genes as their expression was confirmed. The observed alleles belong to four MHC I and three MHC II genes in the species as revealed by phylogenetic analyses. Signatures of historical positive selection acting on specific sites that interact directly with pathogen-derived proteins were detected in both MHC classes. Furthermore, a high genetic differentiation at MHC I was observed between Namibian cheetahs from east-central and north-central regions known to differ substantially in exposure to feline-specific viral pathogens. This suggests that the patterns of MHC I variation in the current population mirrors different pathogenic selective pressure imposed by viruses. Cheetahs showed low levels of MHC diversity compared with other mammalian species including felids, but this does not seem to influence the current immunocompetence of free-ranging cheetahs in Namibia and contradicts the previous conclusion that the cheetah is a paradigm species of disease susceptibility. However, it cannot be ruled out that the low MHC variation might limit a prosperous immunocompetence in the case of an emerging disease scenario because none of the remaining alleles might be able to recognize a novel pathogen. In contrast to cheetahs, leopards occur in most parts of Africa being perhaps the most abundant big cat in the continent. Leopards seem to have escaped from large-scale declines due to epizootics in the past in contrast to some free-ranging large carnivore populations in Africa that have been afflicted by epizootics. Currently, no information about the MHC sequence variation and constitution in African leopards exists. In this study, I characterized genetic variation at MHC I and MHC II genes in free-ranging leopards from Namibia. A total of six MHC I and six MHC II sequences were detected in 25 individuals from the east-central region. The maximum number of sequences observed per individual suggests that they likely correspond to at least three MHC I and three MHC II genes. Hallmarks of MHC evolution were confirmed such as historical positive selection, recombination and trans-species polymorphism. The low MHC variation detected in Namibian leopards is not conclusive and further research is required to assess the extent of MHC variation in different areas of its geographic range. Results from this thesis will contribute to better understanding the evolutionary significance of MHC and conservation implications in free-ranging felids. Translocation of wildlife is an increasingly used management tool for conservation purposes that should be conducted carefully as it may affect the ability of the translocated animals to cope with different pathogenic selective pressures. N2 - Genetische Variabilität ist entscheidend für das langfristige Überleben von Arten, denn es ermöglicht dem Organismus sich Umweltveränderungen, wie z.B. neu aufkommende Krankheiten, schneller anzupassen. Der Haupthistocompatibilitätskomplex (MHC) ist eine Familie von Genen, der eine zentrale Rolle im Immunsystem von Wirbeltieren zukommt, da sie nach Pathogenkontakt das adaptive Immunsystem aktivieren. Zudem sind MHC Gene geeignete molekulare Marker um Anpassungsfähigkeiten aufzuzeigen. MHC Gene kodieren primär für Zelloberflächenmoleküle, die kurze Peptidfragmente erkennen und den Immunzellen präsentieren, die im Falle der Klasse I Gene intrazellulären (z.B. von Viren) oder im Falle der Klasse II Gene extrazellulären (z.B. von Bakterien, Protozoen, Arthropoden) Ursprungs sein können. In der Regel wird in natürlich vorkommenden Populationen ein hoher Grad an Polymorphismus im MHC beobachtet, was als Anpassung an das Erkennen und Präsentieren einer großen Anzahl sich schnell entwickelnder Pathogene interpretiert wird. Das Bestehen vieler MHC Varianten über große Zeiträume hinweg wird hauptsächlich durch positive Selektion bewirkt, der ein pathogengetriebener Selektionsdruck zugrunde liegt. In meiner Doktorarbeit habe ich mich mit der Variation von MHC I and MHC II in freilebenden Geparden (Acinonyx jubatus) und Leoparden (Panthera pardus) in Farmgebieten innerhalb Namibias beschäftigt. Beide Felidenarten leben sympatrisch und sind so demselben Pathogendruck ausgesetzt, sie unterscheiden sich allerdings in ihrem evolutionären und demographischen Hintergrund. Mein Hauptziel war es 1) das Ausmaß und Muster der MHC Variation auf Populationsebene beider Feliden zu untersuchen; 2) einen möglichen Zusammenhang zwischen dem Grad der MHC Variation und der Krankheitsresistenz in frei lebenden Geparden aufzudecken und 3) zu untersuchen, welche Rolle der Selektion auf die MHC Variabilität beider Arten in der Vergangenheit wie auch gegenwärtig zukommt. Geparden und Leoparden repräsentieren die größten frei lebenden Carnivoren Namibias. Beide Arten kommen hauptsächlich in Farmgebieten vor, die sich in Privatbesitz befinden, und können dort mit anderen Wild- aber auch Haustieren zusammentreffen und potentiell Krankheitserreger austauschen. Die Kenntnis über die adaptive genetische Variation, die für Krankheitsresistenzen mitverantwortlich ist, kann für den Schutz beider Felidenarten von Bedeutung sein. Geparden werden häufig in Lehrbüchern als klassische Beispiele für eine Tierart mit einer generell geringen genetischen Diversität verwendet. Neben neutralen Markern ist bei Geparden auch eine geringe Variabilität der MHC Gene beschrieben worden, die als Ursache einer hohen Anfälligkeit für infektiöse Krankheiten gesehen wird. Bisher wurde allerdings eine erhöhte Krankheitsanfälligkeit nur bei Geparden aus Gefangenschaft beschrieben, wohingegen neuste Studien an frei lebenden Geparden diesen einen guten Gesundheitsstatus attestierten. Dadurch stellt sich die Frage, ob die MHC I und II Diversität in frei lebenden Geparden nicht höher sein könnte als bisher angenommen. In dieser Arbeit konnten insgesamt 10 MHC I und vier MHC II Allele in 149 frei lebenden Geparden aus ganz Namibia nachgewiesen werden. Die Zugehörigkeit zu funktionellen MHC Genen wurde durch Expressionsanalysen bei allen Allelen, außer einem, bestätigt. Durch phylogenetische Analysen konnten die Allele vier MHC I und drei MHC II Genen zu geordnet werden. Das Wirken von positiver Selektion in der Vergangenheit konnte an spezifischen Aminosäuren des Proteins, die in direktem Kontakt zu den pathogenen Antigenen stehen, festgestellt werden. Dies traf für beide MHC Klassen zu. Des Weiteren konnte eine starke genetische Differenzierung des MHC I zwischen Geparden aus einer nord-zentralen und einer ost-zentralen Region festgestellt werden, von denen auch bekannt ist, dass sie unterschiedlichen, felidenspezifischen, viralen Pathogenen ausgesetzt sind. Das lässt vermuten, dass die unterschiedlichen Muster der MHC I Variation in der gegenwärtigen Population den unterschiedlichen pathogengetriebenen Selektionsdruck durch Viren in den beiden Regionen widerspiegelt. Verglichen mit anderen Säugetierarten, insbesondere andere Feliden, zeigen Geparden einen geringen Grad an MHC Diversität, doch das scheint die derzeitige Immunkompetenz frei lebender Geparden in Namibia nicht einzuschränken und widerspricht der bisherigen Meinung dass Geparden ein typisches Beispiel für eine krankheitsanfällige Tierart sind. Es kann allerdings nicht ausgeschlossen werden, dass bei neu auftauchenden Krankheiten die geringe MHC Variation eine erfolgreiche Immunkompetenz verhindert, da möglicherweise keines der gegenwärtigen Allele die Fähigkeit besitzt neue Pathogene zu erkennen. Im Gegensatz zu Geparden kommen Leoparden in allen Teilen Afrikas vor und sind wahrscheinlich die am weitverbreiteste Großkatze des afrikanischen Kontinents. Es scheint, dass Leoparden, im Gegensatz zu anderen afrikanischen Großkatzen, einer ausgedehnten Dezimierung durch Tierseuchen in der Vergangenheit, der einige Populationen afrikanischer Großkatzen ausgesetzt waren, entkommen sind. Bisher fehlten Information über die MHC Variabilität in afrikanischen Leoparden. In dieser Studie konnte ich die genetische Variation der MHC I und MHC II Gene frei lebender namibischer Leoparden charakterisieren. In 25 Tieren aus einer Population der ost-zentralen Region konnten sechs MHC I sowie sechs MHC II Sequenzen nachgewiesen werden. Aus der maximalen Anzahl Allele pro Tier kann auf drei MHC I und auf drei MHC II Gene geschlossen werden. Außerdem konnten die typischen Kennzeichen einer variationserhaltenden MHC Evolution betätigt werden, wie positive Selektion in der Vergangenheit, Rekombination und über Artgrenzen hinaus bestehender Polymorphismus. Der geringe Grad an MHC Variation in namibischen Leoparden ist jedoch noch nicht endgültig und weitere Untersuchungen in unterschiedlichen Regionen aus der gesamten geographischen Verbreitung des Leoparden sind notwendig um die MHC Variation der Leoparden in Gänze einschätzen zu können. Die Ergebnisse dieser Arbeit werden zu einem besseren Verständnis des evolutionären Stellenwerts des MHC und in Folge zu einem besseren Schutz von frei lebenden Feliden beitragen. Die Umsiedelung von Wildtieren ist ein zunehmend angewendetes Hilfsmittel im Natur- und Artenschutz, welches jedoch mit Sorgfalt eingesetzt werden sollte, da die umgesiedelten Tiere möglicherweise einem anderen pathogenen Selektionsdruck ausgesetzt sind, dem sie nichts entgegenzusetzen haben. KW - MHC KW - genetische Vielfalt KW - Evolution KW - Acinonyx jubatus KW - Panthera Pardus KW - MHC KW - genetic diversity KW - evolution KW - Acinonyx jubatus KW - Panthera pardus Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55505 ER - TY - THES A1 - Junginger, Annett T1 - East African climate variability on different time scales : the Suguta Valley in the African-Asian Monsoon Domain T1 - Ostafrikanische Klimavariabilität auf unterschiedlichen Zeitskalen : das Suguta Valley in der Afrikanisch-Asiatischen Monsun Region N2 - Motivation | Societal and economic needs of East Africa rely entirely on the availability of water, which is governed by the regular onset and retreat of the rainy seasons. Fluctuations in the amounts of rainfall has tremendous impact causing widespread famine, disease outbreaks and human migrations. Efforts towards high resolution forecasting of seasonal precipitation and hydrological systems are therefore needed, which requires high frequency short to long-term analyses of available climate data that I am going to present in this doctoral thesis by three different studies. 15,000 years - Suguta Valley | The main study of this thesis concentrated on the understanding of humidity changes within the last African Humid Period (AHP, 14.8-5.5 ka BP). The nature and causes of intensity variations of the West-African (WAM) and Indian Summer monsoons (ISM) during the AHP, especially their exact influence on regional climate relative to each other, is currently intensely debated. Here, I present a high-resolution multiproxy lake-level record spanning the AHP from the remote Suguta Valley in the northern Kenya Rift, located between the WAM and ISM domains. The presently desiccated valley was during the AHP filled by a 300 m deep and 2200 km2 large palaeo-lake due to an increase in precipitation of only 26%. The record explains the synchronous onset of large lakes in the East African Rift System (EARS) with the longitudinal shift of the Congo Air Boundary (CAB) over the East African and Ethiopian Plateaus, as the direct consequence of an enhanced atmospheric pressure gradient between East-Africa and India due to a precessional-forced northern hemisphere insolation maximum. Pronounced, and abrupt lake level fluctuations during the generally wet AHP are explained by small-scale solar irradiation changes weakening this pressure gradient atmospheric moisture availability preventing the CAB from reaching the study area. Instead, the termination of the AHP occurred, in a non-linear manner due to a change towards an equatorial insolation maximum ca. 6.5 ka ago extending the AHP over Ethiopia and West-Africa. 200 years - Lake Naivasha | The second part of the thesis focused on the analysis of a 200 year-old sediment core from Lake Naivasha in the Central Kenya Rift, one of the very few present freshwater lakes in East Africa. The results revealed and confirmed, that the appliance of proxy records for palaeo-climate reconstruction for the last 100 years within a time of increasing industrialisation and therefore human impact to the proxy-record containing sites are broadly limited. Since the middle of the 20th century, intense anthropogenic activity around Lake Naivasha has led to cultural eutrophication, which has overprinted the influence of natural climate variation to the lake usually inferred from proxy records such as diatoms, transfer-functions, geochemical and sedimentological analysis as used in this study. The results clarify the need for proxy records from remote unsettled areas to contribute with pristine data sets to current debates about anthropologic induced global warming since the past 100 years. 14 years - East African Rift | In order to avoid human influenced data sets and validate spatial and temporal heterogeneities of proxy-records from East Africa, the third part of the thesis therefore concentrated on the most recent past 14 years (1996-2010) detecting climate variability by using remotely sensed rainfall data. The advancement in the spatial coverage and temporal resolutions of rainfall data allow a better understanding of influencing climate mechanisms and help to better interpret proxy-records from the EARS in order to reconstruct past climate conditions. The study focuses on the dynamics of intraseasonal rainfall distribution within catchments of eleven lake basins in the EARS that are often used for palaeo-climate studies. We discovered that rainfall in adjacent basins exhibits high complexities in the magnitudes of intraseasonal variability, biennial to triennial precipitation patterns and even are not necessarily correlated often showing opposite trends. The variability among the watersheds is driven by the complex interaction of topography, in particular the shape, length and elevation of the catchment and its relative location to the East African Rift System and predominant influence of the ITCZ or CAB, whose locations and intensities are dependent on the strength of low pressure cells over India, SST variations in the Atlantic, Pacific or Indian Ocean, QBO phases and the 11-year solar cycle. Among all seasons we observed, January-September is the season of highest and most complex rainfall variability, especially for the East African Plateau basins, most likely due to the irregular penetration and sensitivity of the CAB. N2 - Motivation | Die sozialen und ökonomischen Bedürfnisse Ostafrikas sind in erster Linie von der Wasserverfügbarkeit abhängig, welche durch das regelmäßige Einsetzen der Regenzeiten bestimmt wird. Jegliche Veränderungen der Wasserverfügbarkeit innerhalb der Regenzeiten verursachen Hungersnöte, Ausbruch von Krankheiten oder auch Bevölkerungswanderungen. Klärung der Ursachen von Niederschlagsvariabilitäten erfordert die Auswertung von hochauflösenden Kurz- als auch Langzeitanalysen, welche ich in dieser Arbeit durch drei Studien präsentieren werde. 15,000 Jahre - Suguta Valley | Die Hauptstudie dieser Doktorarbeit befasste sich mit dem Verständnis von Feuchtigkeitsschwankungen innerhalb der Afrikanischen Feuchtperiode (AHP, 5.5 - 14.8 ka BP). In dieser Studie präsentiere ich einen hoch-auflösenden Seespiegel Datensatz aus dem abgeschiedenen, unbewohnten Suguta Tal im nördlichen Grabenbruch in Kenia. Das momentan extrem trockene Tal war während der AHP mit einem 300 m tiefen und 2200 km2 großen Paläo-See bedeckt, was aus nur 26% zusätzlichem Niederschlag resultierte. Diese Erhöhung wurde vermutlich aus der Kombination aus erhöhter atmosphärer Feuchteverfügbarkeit infolge erhöhter früh-Holozäner präzessionsgesteuerten Einstrahlung auf der nördlichen Hemisphere sowie der Verschiebung der feuchten Kongo Luftmassengrenze (CAB) ostwärts über das Ostafrikanische und Äthiopische Plateau erreicht als direkte Folge eines erhöhten atmosphärischen Druckgradienten. Abrupte, starkte Seespiegelschwankungen innerhalb der generellen Feuchtphase sind auf geringe Veränderungen in der solaren Ausstrahlung zurückzufühen, welche zu einer Schwächung des Druckgradienten führten und damit den Einfluss der CAB im Untersuchungsgebiet verhinderten zusammen mit einer allgemeinene Reduktion der atmosphärischen Feuchteverfügbarkeit. Das Ende der AHP erfolgte im Gegensatz dazu eher nicht-linear aufgrund des Wechsels zu einem äquatorialen Einstrahlungsmaximum vor 6.5 ka, welches die AHP in Äthiopien und West-Afrika verlängerte. 200 Jahre - Lake Naivasha | Der zweite Teil dieser Arbeit konzentrierte sich auf die Analyse eines Sedimentkern des Naivasha See aus dem zentralen Kenia Rift über die letzten 200 Jahre, einem der wenigen Frischwasserseen in Ostafrika. Die natürliche Klimavariabilität sollte mittels Proxy-Datensätzen von Diatomeen, Transferfunktionen, geochemischen und sedimentologischen Analysen in dieser Studie aufgedeckt werden. Die Ergebnisse zeigten, dass seit Mitte des 20. Jahrhundert der zunehmende Einfluss des Menschen um den Naivasha See zu kultureller Eutrophierung geführt, welche den Einfluss der natürlichen Klimavariabilität auf den See überprägte. Die Gründe liegen in der Zeit, welche von steigender Industrialisierung und deshalb erhöhtem menschlichen Einfluss auf die Proxy-Daten enthaltenden Seen geprägt ist. Die Ergebnisse verdeutlichen die Notwendigkeit von Proxy-Daten aus unbesiedelten Gebieten, wenn man ,reine‘ Daten zur momentanen Debatte über den anthropogen gesteuerten Klimawandel der letzten 100 Jahre beitragen will. 14 Jahre - Ostafrikanisches Rift | Um räumliche Unregelmäßigkeiten in Proxy-Daten von Ostafrika richtig zu verstehen, konzentrierte sich der dritte Teil dieser Arbeit auf die Auswertung von ausschließlich fernerkundlich erworbenen heutigen, täglichen Niederschlagsreihen (1996-2010). Dies erlaubt ein besseres Verständnis über die möglichen klimatischen Einflussmechanismen und die Abschätzung ihres Einflusses auf die Paläo-Variabilität. Die Studie beschäftigt sich mit der Dynamik saisonaler Niederschlagsverteilung innerhalb der Einzugsgebiete von elf Seebecken im Ostafrikanischen Riftsystem, welche oft für Paläo-Klimastudien benutzt werden. Die Studie ergab, dass Niederschläge in angrenzenden Becken tatsächlich höchst unterschiedlich in ihrer Intensität sein können und dabei zwei- bis dreijährigen Niederschlagsmuster folgen oder sogar gegensätzliche Trends zeigen. Die Variabilität der einzelnen Seebecken wird durch die komplexe Wechselwirkung der Topographie, Form, Länge und Höhe des Einzugsgebietes, der relativen Lage im EARS, sowie dem Einfluss und Intensität der ITCZ und CAB bestimmt, welche z.B. abhängig von der Entwicklung besonders starker Tiefdruckgebiet über Indien, Veränderungen der Meeres-oberflächentemperaturen, QBO und dem 11-Jahres Sonnenzyklus sind. Im direkten Vergleich aller untersuchten Monate stellte sich heraus, dass Juli-September die Jahreszeit mit komplexester Niederschlagsvariabilität ist, besonders für die Becken des Ostafrikanischen Plateau, was durch den unregelmäßigen Einfluss der CAB verursacht wird. KW - Ostafrikanisches Grabensystem KW - Suguta Tal KW - Kongo Luftmassengrenze KW - Solare Austrahlung KW - Naivasha See KW - East African Rift System KW - Suguta Valley KW - Congo Air Boundary KW - Solar irradiation KW - Lake Naivasha Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-56834 ER - TY - THES A1 - Ruge, Marcus T1 - Stimmungen und Erwartungen im System der Märkte : eine Analyse mit DPLS-Modellen T1 - Sentiments and expectations in the system of markets : an analysis with DPLS models N2 - Diese Forschungsarbeit widmet sich der Analyse von Stimmungen und Erwartungen im System der Märkte mit Dynamic Partial Least Squares (DPLS) Modellen. Die Analyse komplexer Systeme mit umfangreichen Datensätzen und die Erkennung relevanter Muster erfordern die Verwendung moderner statistischer Verfahren. DPLS-Modelle, eine Variante der Strukturgleichungs-modelle mit Latenten Variablen, werden methodisch erweitert, um mehrere zeitliche Verzögerungsstufen gleichzeitig modellieren zu können. Die ökonometrischen Modelle versuchen, zahlreiche latente Einflussfaktoren und ihre verdeckten Beziehungen zu identifizieren. Als Daten werden rund 80 Indikatoren verwendet von Januar 1991 bis Juni 2010, um Stimmungen, Erwartungen und wirtschaftlich relevanten Größen zu operationalisieren und die Zusammenhänge detailliert zu untersuchen. Die Modellergebnisse zeigen, dass Stimmungen, also die Einschätzung der aktuellen wirtschaftlichen Lage, deutlich mit wirtschaftlichen Größen zusammenhängen, unter anderem mit Investitionen, Auftragseingängen oder Aktienmarktentwicklungen. Die Erwartungen, also die Einschätzung der zukünftigen Entwicklung, bieten eine mittlere bis schwache Prognosekraft für sechs bis maximal achtzehn Monate in die Zukunft. Für kürzere Zeiträume von sechs Monaten sind Stimmungen und Erwartungen die besten verfügbaren Prognosevariablen. Die Analyse der Modellabweichungen erlaubt Rückschlüsse auf wirtschaftstheoretische Konzepte, wie Rationalität der Erwartungen. Auffällig sind scheinbare Phasen der systematischen Über- und Unterbewertungen der aktuellen Situation oder zukünftigen Entwicklung, insbesondere vor und nach Krisensituationen. Die Ergebnisse dieser Arbeit geben somit einen erweiterten Einblick in die empirischen Zusammenhänge subjektiver Einschätzungen mit realen wirtschaftlichen Größen. N2 - This research thesis is devoted to the analysis of sentiments and expectations in the system of economic markets with Dynamic Partial Least Squares (DPLS) models with time-series. The analysis of complex systems with large data sets and discovering relevant patterns require the use of modern statistical methods. The DPLS models, a variant of structural equation models with latent variables, are methodically extended to include multiple lags simultaneously. The econometric models try to identify a large number of latent factors and their unobservable relations. The data consists of about 80 indicators from January 1991 to June 2010 to quantify sentiments, expectations and economically relevant variables and examine the relations in detail. The results show, that the sentiments, the assessment of the current economic situation, are clearly linked with economic variables like investments, incoming orders and stock market developments. The expectations, the assessment of future development, provide a weak to moderate predictive power for up to 18 months in the future. For shorter periods of six months sentiments and expectations are the best available forecast variables. The analysis of model deviations allows to draw conclusions about theoretical concepts such as rationality of expectations. There seem to be phases of systematic over- and undervaluation of the current situation and future development, especially before and after economic crisis. The results should provide a deeper insight into the empirical relationships between subjective assessments and real economic variables. T3 - Potsdamer Schriften zu Statistik und Wirtschaft - 1 KW - Stimmungen KW - Erwartungen KW - Wirtschaft KW - PLS KW - DPLS KW - sentiments KW - expectations KW - economy KW - PLS KW - DPLS Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52900 SN - 978-3-86956-142-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Kristen, Juliane Ute T1 - Amphiphilic BAB-triblock copolymers bearing fluorocarbon groups : synthesis and self-organization in aqueous media T1 - Amphiphile BAB-Triblockcopolymere mit Fluorcarbon-Gruppen : Synthese und Selbstorganisation in wässrigen Medien N2 - In this work new fluorinated and non-fluorinated mono- and bifunctional trithiocarbonates of the structure Z-C(=S)-S-R and Z-C(=S)-S-R-S-C(=S)-Z were synthesized for the use as chain transfer agents (CTAs) in the RAFT-process. All newly synthesized CTAs were tested for their efficiency to moderate the free radical polymerization process by polymerizing styrene (M3). Besides characterization of the homopolymers by GPC measurements, end- group analysis of the synthesized block copolymers via 1H-, 19F-NMR, and in some cases also UV-vis spectroscopy, were performed attaching suitable fluorinated moieties to the Z- and/or R-groups of the CTAs. Symmetric triblock copolymers of type BAB and non-symmetric fluorine end- capped polymers were accessible using the RAFT process in just two or one polymerization step. In particular, the RAFT-process enabled the controlled polymerization of hydrophilic monomers such as N-isopropylacrylamide (NIPAM) (M1) as well as N-acryloylpyrrolidine (NAP) (M2) for the A-blocks and of the hydrophobic monomers styrene (M3), 2-fluorostyrene (M4), 3-fluorostyrene (M5), 4-fluorostyrene (M6) and 2,3,4,5,6-pentafluorostyrene (M7) for the B-blocks. The properties of the BAB-triblock copolymers were investigated in dilute, concentrated and highly concentrated aqueous solutions using DLS, turbidimetry, 1H- and 19F-NMR, rheology, determination of the CMC, foam height- and surface tension measurements and microscopy. Furthermore, their ability to stabilize emulsions and microemulsions and the wetting behaviour of their aqueous solutions on different substrates was investigated. The behaviour of the fluorine end-functionalized polymers to form micelles was studied applying DLS measurements in diluted organic solution. All investigated BAB-triblock copolymers were able to form micelles and show surface activity at room temperature in dilute aqueous solution. The aqueous solutions displayed moderate foam formation. With different types and concentrations of oils, the formation of emulsions could be detected using a light microscope. A boosting effect in microemulsions could not be found adding BAB-triblock copolymers. At elevated polymer concentrations, the formation of hydrogels was proved applying rheology measurements. N2 - Im Rahmen dieser Arbeit wurden neue fluorierte und unfluorierte mono- und bifunktionelle Trithiocarbonate der Typen Z-C(=S)-S-R und Z-C(=S)-S-R-S-C(=S)-Z zur Anwendung als CTAs (chain- transfer agents) im RAFT-Polymerisationsverfahren hergestellt. Alle CTAs wurden erfolgreich auf ihre Effizienz zur Steuerung des radikalischen Polymerisationsverfahrens hin durch Polymerisation von Styrol (M3) getestet. Neben GPC-Messungen wurden Endgruppenanalysen der synthetisierten Blockcopolymere mittels 1H-, 19F-NMR und in manchen Fällen auch UV-Vis Spektroskopie durchgeführt. Dazu wurden die Z- und/oder R-Gruppen der CTAs mit geeigneten fluorierten Gruppen versehen. Durch Anwendung des RAFT Verfahrens konnten symmetrische Triblockcopolymere vom Typ BAB bzw. mit einer Fluoralkylgruppe endgecappte unsymmetrische Polymere in nur zwei bzw. einem Polymerisationsschritt hergestellt werden. Das RAFT- Polymerisationsverfahren ermöglicht sowohl die Polymerisation hydrophiler Monomere wie N-Isopropylacrylamid (NIPAM) (M1) oder N-Acryloylpyrrolidin (NAP) (M2) für die A-Blöcke als auch der hydropoben Monomere Styrol (M3), 2-Fluorostyrol (M4), 3-Fluorostyrol (M5), 4- Fluorostyrol (M6) und 2,3,4,5,6- Pentafluorostyrol (M7) für die B-Blöcke. Die Eigenschaften der Blockcopolymere in verdünnten, konzentrierten und hochkonzentrierten wässrigen Lösungen wurden mittels DLS, Trübungsphotometrie, 1H- und 19F-NMR, Rheologie, CMC- sowie Schaumhöhen- und Oberflächenspannungsmessungen und Lichtmikroskopie untersucht. Weiterhin wurden ihre Eigenschaften als Emulgatoren und in Mikroemulsion untersucht. Das Micellbildungsverhalten der hydrophob endfunktionalisierten Polymere wurde mittels DLS Messungen in verdünnter organischer Lösung untersucht. Alle untersuchten BAB-Triblöcke bildeten Micellen und zeigten Oberflächenaktivität bei Raumtemperatur in verdünnter, wässriger Lösung. Weiterhin zeigen die wässrigen Lösungen der Polymere mäßige Schaumbildung. Mit verschiedenen Öltypen und Ölkonzentrationen wurden Emulsionen bzw. Mikroemulsionen gebildet. In Mikroemulsion wurde durch Zugabe von BAB-Triblockopolymeren kein Boosting-Effekt erzielt werden. Bei Untersuchung höherer Polymerkonzentrationen wurde die Bildung von Hydrogelen mittels rheologischer Messungen nachgewiesen. Verschiedene Substrate konnten benetzt werden. Die hydrophob endgecappten Polymere bilden in verdünnter organischer Lösung Micellen, die mittels DLS untersucht wurden, und zeigen somit Tensidverhalten in nichtwässriger Lösung. KW - Fluorierte Blockcopolymere KW - RAFT KW - Rheologie KW - Tenside KW - Gele KW - wässrige Systeme KW - thermisch schaltbare Polymere KW - fluorinated Blockcopolymers KW - RAFT-Polymerisation KW - rheology KW - surfactants KW - gels KW - aqueous systems KW - thermosensitive polymers Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61782 ER - TY - THES A1 - Höhne, Janet T1 - Aktivitäts- und Herzfrequenz-Monitoring zur Erfassung der Bewegungszeit und der Bewegungsintensität im schulischen und außerschulischen Kontext von Grundschülern im Land Brandenburg T1 - Activity and heart rate monitoring to detect the movement of time and intensity of movement in and outside the school context of elementary school students in the state of Brandenburg N2 - "Kinderwelt ist Bewegungswelt" (Schmidt, 1997, S. 156, zitiert nach Schmidt, Hartmann-Tews & Brettschneider, 2003, S. 31). Das kindliche Bewegungsverhalten hat sich bereits im Grundschulalter verändert, so dass sich Bewegungsaktivitäten von Kindern erheblich unterscheiden und keineswegs mehr verallgemeinert werden können. Richtet man den Fokus auf die Frage „Wie bewegt sind unsere Kinder?“ so scheint diese von den Medien bereits beantwortet zu sein, da dort von ansteigendem Bewegungsmangel der heutigen Kinder gegenüber früheren Generationen berichtet wird. Wenn es in den Diskussionen um den Gesundheitszustand unserer Kinder geht, nimmt die körperlich-sportliche Aktivität eine entscheidende Rolle ein. Bewegungsmangel ist hierbei ein zentraler Begriff der in der Öffentlichkeit diskutiert wird. Bei der Betrachtung der einzelnen Studien fällt auf, dass deutliche Defizite in der Messung der körperlich-sportlichen Aktivität bestehen. Zentraler Kritikpunkt in den meisten Studien ist die subjektive Erfassung der körperlich-sportlichen Aktivität. Ein Großteil bisheriger Untersuchungen zum Bewegungsverhalten basiert auf Beobachtungen, Befragungen oder Bewegungstagebüchern. Diese liefern ausschließlich zum Teil subjektive Einschätzungen der Kinder oder Eltern über die tatsächliche Bewegungszeit und -intensität. Das objektive Erfassen der Aktivität bzw. Inaktivität ist zwar seit einigen Jahren zentraler Gegenstand vieler Studien, dennoch gilt es, dieses noch sachkundiger zu lösen, um subjektive und objektive Daten zu vergleichen. Um dem Bewegungsmangel der heutigen Kinder entgegenzuwirken, sind empirisch abgesicherte Erkenntnisse über die Bedingungsfaktoren und die Folgen des veränderten Bewegungsverhaltens dringend nötig. Die Quer- und Längsschnittuntersuchung umfasst die Bereiche Anthropometrie, die Erfassung der körperlich-sportlichen Aktivität und die Herzfrequenzmessung über 24h. Für die Studie konnten 106 Jungen und Mädchen im Zeitraum von Januar 2007 bis April 2009 rekrutiert und überprüft werden. Die physiologischen Parameter wurden mit Hilfe des ACTIHEART-Messsytems aufgezeichnet und berechnet. Die Ergebnisse zur körperlich-sportlichen Aktivität wurden in die Untersuchungsabschnitte Schulzeit gesamt, Pause, Sportunterricht, Nachmittag und 24h unterteilt. Durch das Messsystem werden die Bewegungsaktivität und die Herzfrequenz synchron aufgezeichnet. Das System nimmt die Beschleunigungswerte des Körpers auf und speichert sie im frei wählbaren Zeitintervall, Short oder Long Term, in Form von „activity counts“ ab. Das Messsytem berechnet weiterhin die Intensität körperlicher Aktivität. N2 - "Children's World is the world movement" (Schmidt, 1997, p. 156, quoted by Schmidt, Hartmann-Tews & Brettschneider, 2003, p. 31). The child's physical activity has changed already in elementary school, so that physical activity of children vary considerably and can not be more generalized. If we turn our focus to the question "What moves are our children?" So this seems to have been answered by the media, because there is increasing lack of physical activity reported by today's children from previous generations. When it comes to discussions about the health of our children, taking the physical and sporting activity plays a decisive role. Lack of exercise is a key term here is in the public's debate. When examining the individual studies is striking that significant deficiencies exist in the measurement of physical and sporting activity. The central point of criticism in most studies is the subjective detection of physical and sporting activity. A majority of previous studies on physical activity based on observations, interviews, or movement diaries. These provide only partly subjective assessments of the children or parents about the actual movement of time and intensity. The objective recording of activity or inactivity, although in recent years, the central subject of many studies, yet it is true, this knowledgeable yet to be resolved in order to compare subjective and objective data. To counteract the lack of movement of today's children, empirically based insights into the determinants and consequences of changes in physical activity are urgently needed. The cross-sectional and longitudinal study covers the areas of anthropometry, the collection of physical and sporting activity and heart rate measured over 24 hours. For the study, 106 boys and girls in the period January 2007 to April 2009 are being recruited and examined. The physiological parameters were recorded using the ACTIHEART-measuring systems and calculated. The results for physical and sporting activity were divided into the total school study sections, breaks, physical education, and 24 afternoon. By the measurement system's physical activity and heart rate recorded synchronously. The system records the acceleration of the body and stores it in the selected time interval, from Short or Long Term, in the form of "activity counts". The measurement system calculates the intensity of physical activity continue. KW - körperliche Aktivität KW - körperlich-sportliche Aktivität KW - Grundschulkinder KW - Actiheart KW - physical activity KW - heart rate KW - movement of time Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57937 ER - TY - THES A1 - Vosloh, Daniel T1 - Subcellular compartmentation of primary carbon metabolism in mesophyll cells of Arabidopsis thaliana T1 - Subzelluläre Kompartimentierung des primären Kohlenstoffmetabolismus in Mesophyllzellen von Arabidopsis thaliana N2 - Metabolismus in Pflanzenzellen ist stark kompartimentiert. Viele Stoffwechselwege haben Reaktionen in mehr als einem Kompartiment. Zum Beispiel wird während der Photosynthese in pflanzlichen Mesophyllzellen Kohlenstoff in Form von Stärke in den Chloroplasten synthetisiert, während es im Zytosol in Form von Sacharose gebildet und in der Vakuole gespeichert wird. Diese Reaktionen sind strikt reguliert um ein Gleichgewicht der Kohlenstoffpools der verschiedenen Kompartimente aufrecht zu erhalten und die Energieversorgung aller Teile der Zelle für anabolische Reaktionen sicher zu stellen. Ich wende eine Methode an, bei der die Zellen unter nicht-wässrigen Bedingungen fraktioniert werden und daher der metabolische Status der während der Ernte herrschte über den ganzen Zeitraum der Auftrennung beibehalten wird. Durch die Kombination von nichtwässriger Fraktionierung und verschiedener Massenspektrometrietechniken (Flüssigchromotagraphie- und Gaschromotagraphie basierende Massenspekrometrie) ist es möglich die intrazelluläre Verteilung der meisten Intermediate des photosynthetischen Kohlenstoffstoffwechsels und der Produkte der nachgelagerten metabolischen Reaktionen zu bestimmen. Das Wissen über die in vivo Konzentrationen dieser Metabolite wurde genutzt um die Änderung der freien Gibbs Energie in vivo zu bestimmen. Mit Hilfe dessen kann bestimmt werden, welche Reaktion sich in einem Gleichgewichtszustand befinden und welche davon entfernt sind. Die Konzentration der Enzyme und der Km Werte wurden mit den Konzentrationen der Metabolite in vivo verglichen, um festzustellen, welche Enzyme substratlimitiert sind und somit sensitiv gegenüber Änderungen der Substratkonzentration sind. Verschiedene Intermediate des Calvin-Benson Zyklus sind gleichzeitig Substrate für andere Stoffwechselwege, als da wären Dihyroxyaceton-phosphat (DHAP, Saccharosesynthese), Fructose 6-phosphat (Fru6P, Stärkesynthese), Erythrose 4-phosphat (E4P, Shikimat Stoffwechselweg) und Ribose 5-phosphat (R5P, Nukleotidbiosynthese). Die Enzyme, die diese Intermediate verstoffwechseln, liegen an den Abzweigungspunkten zu diesen Stoffwechselwegen. Diese sind Trisose phosphat isomerase (DHAP), Transketolase (E4P), Sedoheptulose-1,7 biphosphat aldolase (E4P) und Ribose-5-phosphat isomerase (R5P), welche nicht mit ihren Substraten gesättigt sind, da die jeweilige Substratkonzentration geringer als der zugehörige Km Wert ist. Für metabolische Kontrolle bedeutet dies, dass diese Schritte am sensitivsten gegenüber Änderungen der Substratkonzentrationen sind. Im Gegensatz dazu sind die regulierten irreversiblen Schritte von Fructose-1,6.biphosphatase und Sedoheptulose-1,7-biphosphatase relativ insensitiv gegenüber Änderungen der Substratkonzentration. Für den Stoffwechselweg der Saccharosesynthese konnte gezeigt werden, dass die zytosolische Aldolase eine geringer Bindeseitenkonzentration als Substratkonzentration (DHAP) aufweist, und dass die Konzentration von Saccharose-6-phosphat geringer als der Km Wert des synthetisierenden Enzyms Saccharose-phosphatase ist. Sowohl die Saccharose-phosphat-synthase, also auch die Saccharose-phosphatase sind in vivo weit von einem Gleichgewichtszustand entfernt. In Wildtyp Arabidopsis thaliana Columbia-0 Blättern wurde der gesamte Pool von ADPGlc im Chloroplasten gefunden. Das Enzyme ADPGlc pyrophosphorylase ist im Chloroplasten lokalisiert und synthetisiert ADPGlc aus ATP und Glc1P. Dieses Verteilungsmuster spricht eindeutig gegen die Hypothese von Pozueta-Romero und Kollegen, dass ADPGlc im Zytosol durch ADP vermittelte Spaltung von Saccharose durch die Saccharose Synthase erzeugt wird. Basierend auf dieser Beobachtung und anderen veröffentlichten Ergebnissen wurde geschlußfolgert, dass der generell akzeptierte Stoffwechselweg der Stärkesynthese durch ADPGlc Produktion via ADPGlc pyrophosphorylase in den Chloroplasten korrekt ist, und die Hypothese des alternativen Stoffwechselweges unhaltbar ist. Innerhalb des Stoffwechselweges der Saccharosesynthsese wurde festgestellt, dass die Konzentration von ADPGlc geringer als der Km Wert des Stärkesynthase ist, was darauf hindeutet, dass das Enzym substratlimitiert ist. Eine generelle Beobachtung ist, dass viele Enzmye des Calvin-Benson Zyklus ähnliche Bindeseitenkonzentrationen wie Metabolitkonzentrationen aufweisen, wohingegen in den Synthesewegen von Saccharose und Stärke die Bindeseitenkonzentrationen der Enzyme viel geringer als die Metabolitkonzentrationen sind. N2 - Metabolism in plant cells is highly compartmented, with many pathways involving reactions in more than one compartment. For example, during photosynthesis in leaf mesophyll cells, primary carbon fixation and starch synthesis take place in the chloroplast, whereas sucrose is synthesized in the cytosol and stored in the vacuole. These reactions are tightly regulated to keep a fine balance between the carbon pools of the different compartments and to fulfil the energy needs of the organelles. I applied a technique which fractionates the cells under non-aqueous conditions, whereby the metabolic state is frozen at the time of harvest and held in stasis throughout the fractionation procedure. With the combination of non-aqueous fractionation and mass spectrometry based metabolite measurements (LC-MS/MS, GC-MS) it was possible to investigate the intracellular distributions of the intermediates of photosynthetic carbon metabolism and its products in subsequent metabolic reactions. With the knowledge about the in vivo concentrations of these metabolites under steady state photosynthesis conditions it was possible to calculate the mass action ratio and change in Gibbs free energy in vivo for each reaction in the pathway, to determine which reactions are near equilibrium and which are far removed from equilibrium. The Km value and concentration of each enzyme were compared with the concentrations of its substrates in vivo to assess which reactions are substrate limited and so sensitive to changes in substrate concentration. Several intermediates of the Calvin-Benson cycle are substrates for other pathways, including dihydroxyacetone-phosphate (DHAP,sucrose synthesis), fructose 6-phosphate (Fru6P, starch synthesis), erythrose 4-phosphate (E4P,shikimate pathway) and ribose 5-phosphate (R5P, nucleotide synthesis). Several of the enzymes that metabolise these intermediates, and so lie at branch points in the pathway, are triose-phosphate isomerase (DHAP), transketolase (E4P, Fru6P), sedoheptulose-1,7-bisphosphate aldolase (E4P) and ribose-5-phosphate isomerase (R5P) are not saturated with their respective substrate as the metabolite concentration is lower than the respective Km value. In terms of metabolic control these are the steps that are most sensitive to changes in substrate availability, while the regulated irreversible reactions of fructose-1,6-bisphosphatase and sedoheptulose-1,7-bisphosphatase are relatively insensitive to changes in the concentrations of their substrates. In the pathway of sucrose synthesis it was shown that the concentration of the catalytic binding site of the cytosolic aldolase is lower than the substrate concentration of DHAP, and that the concentration of Suc6P is lower than the Km of sucrose-phosphatase for this substrate. Both the sucrose-phosphate synthase and sucrose-phosphatase reactions are far removed from equilibrium in vivo. In wild type A. thaliana Columbia-0 leaves, all of the ADPGlc was found to be localised in the chloroplasts. ADPglucose pyrophosphorylase is localised to the chloroplast and synthesises ADPGlc from ATP and Glc1P. This distribution argues strongly against the hypothesis proposed by Pozueta-Romero and colleagues that ADPGlc for starch synthesis is produced in the cytosol via ADP-mediated cleavage of sucrose by sucrose synthase. Based on this observation and other published data it was concluded that the generally accepted pathway of starch synthesis from ADPGlc produced by ADPglucose pyrophosphorylase in the chloroplasts is correct, and that the alternative pathway is untenable. Within the pathway of starch synthesis the concentration of ADPGlc was found to be well below the Km value of starch synthase for ADPGlc, indicating that the enzyme is substrate limited. A general finding in the comparison of the Calvin-Benson cycle with the synthesis pathways of sucrose and starch is that many enzymes in the Calvin Benson cycle have active binding site concentrations that are close to the metabolite concentrations, while for nearly all enzymes in the synthesis pathways the active binding site concentrations are much lower than the metabolite concentrations. KW - Pflanze KW - Kohlenstoffmetabolismus KW - Mesophyll KW - Zelle KW - plant KW - carbon metabolism KW - mesophyll KW - cell Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55534 ER - TY - THES A1 - Zurell, Damaris T1 - Integrating dynamic and statistical modelling approaches in order to improve predictions for scenarios of environmental change T1 - Integration dynamischer und statistischer Modellansätze zur Verbesserung von Arealvorhersagen für Szenarien globalen Wandels N2 - Species respond to environmental change by dynamically adjusting their geographical ranges. Robust predictions of these changes are prerequisites to inform dynamic and sustainable conservation strategies. Correlative species distribution models (SDMs) relate species’ occurrence records to prevailing environmental factors to describe the environmental niche. They have been widely applied in global change context as they have comparably low data requirements and allow for rapid assessments of potential future species’ distributions. However, due to their static nature, transient responses to environmental change are essentially ignored in SDMs. Furthermore, neither dispersal nor demographic processes and biotic interactions are explicitly incorporated. Therefore, it has often been suggested to link statistical and mechanistic modelling approaches in order to make more realistic predictions of species’ distributions for scenarios of environmental change. In this thesis, I present two different ways of such linkage. (i) Mechanistic modelling can act as virtual playground for testing statistical models and allows extensive exploration of specific questions. I promote this ‘virtual ecologist’ approach as a powerful evaluation framework for testing sampling protocols, analyses and modelling tools. Also, I employ such an approach to systematically assess the effects of transient dynamics and ecological properties and processes on the prediction accuracy of SDMs for climate change projections. That way, relevant mechanisms are identified that shape the species’ response to altered environmental conditions and which should hence be considered when trying to project species’ distribution through time. (ii) I supplement SDM projections of potential future habitat for black grouse in Switzerland with an individual-based population model. By explicitly considering complex interactions between habitat availability and demographic processes, this allows for a more direct assessment of expected population response to environmental change and associated extinction risks. However, predictions were highly variable across simulations emphasising the need for principal evaluation tools like sensitivity analysis to assess uncertainty and robustness in dynamic range predictions. Furthermore, I identify data coverage of the environmental niche as a likely cause for contrasted range predictions between SDM algorithms. SDMs may fail to make reliable predictions for truncated and edge niches, meaning that portions of the niche are not represented in the data or niche edges coincide with data limits. Overall, my thesis contributes to an improved understanding of uncertainty factors in predictions of range dynamics and presents ways how to deal with these. Finally I provide preliminary guidelines for predictive modelling of dynamic species’ response to environmental change, identify key challenges for future research and discuss emerging developments. N2 - Das Vorkommen von Arten wird zunehmend bedroht durch Klima- und Landnutzungswandel. Robuste Vorhersagen der damit verbundenen Arealveränderungen sind ausschlaggebend für die Erarbeitung dynamischer und nachhaltiger Naturschutzstrategien. Habitateignungsmodelle erstellen statistische Zusammenhänge zwischen dem Vorkommen einer Art und relevanten Umweltvariablen und erlauben zügige Einschätzungen potentieller Arealveränderungen. Dabei werden jedoch transiente Dynamiken weitgehend ignoriert sowie demographische Prozesse und biotische Interaktionen. Daher wurden Vorschläge laut, diese statistischen Modelle mit mechanistischeren Ansätzen zu koppeln. In der vorliegenden Arbeit zeige ich zwei verschiedene Möglichkeiten solcher Kopplung auf. (i) Ich beschreibe den sogenannten ‚Virtuellen Ökologen’-Ansatz als mächtiges Validierungswerkzeug, in dem mechanistische Modelle virtuelle Testflächen bieten zur Erforschung verschiedener Probenahmedesigns oder statistischer Methoden sowie spezifischer Fragestellungen. Auch verwende ich diesen Ansatz, um systematisch zu untersuchen wie sich transiente Dynamiken sowie Arteigenschaften und ökologische Prozesse auf die Vorhersagegüte von Habitateignungsmodellen auswirken. So kann ich entscheidende Prozesse identifizieren welche in zukünftigen Modellen Berücksichtigung finden sollten. (ii) Darauf aufbauend koppele ich Vorhersagen von Habitateignungsmodellen mit einem individuen-basierten Populationsmodell, um die Entwicklung des Schweizer Birkhuhnbestandes unter Klimawandel vorherzusagen. Durch die explizite Berücksichtigung der Wechselwirkungen zwischen Habitat und demographischer Prozesse lassen sich direktere Aussagen über Populationsentwicklung und damit verbundener Extinktionsrisiken treffen. Allerdings führen verschiedene Simulationen auch zu hoher Variabilität zwischen Vorhersagen, was die Bedeutung von Sensitivitätsanalysen unterstreicht, um Unsicherheiten und Robustheit von Vorhersagen einzuschätzen. Außerdem identifiziere ich Restriktionen in der Datenabdeckung des Umweltraumes als möglichen Grund für kontrastierende Vorhersagen verschiedener Habitateignungsmodelle. Wenn die Nische einer Art nicht vollständig durch Daten beschrieben ist, kann dies zu unrealistischen Vorhersagen der Art-Habitat-Beziehung führen. Insgesamt trägt meine Arbeit erheblich bei zu einem besseren Verständnis der Auswirkung verschiedenster Unsicherheitsfaktoren auf Vorhersagen von Arealveränderungen und zeigt Wege auf, mit diesen umzugehen. Abschließend erstelle ich einen vorläufigen Leitfaden für Vorhersagemodelle und identifiziere Kernpunkte für weitere Forschung auf diesem Gebiet. KW - species distribution models KW - dynamic population models KW - climate change KW - prediction KW - uncertainty KW - Habitatmodelle KW - dynamische Populationsmodelle KW - Klimawandel KW - Vorhersage KW - Unsicherheit Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-56845 ER - TY - THES A1 - Pourteau, Amaury T1 - Closure of the Neotethys Ocean in Anatolia : structural, petrologic and geochronologic insights from low-grade high-pressure metasediments, Afyon Zone T1 - Die Schließung des Neotethyschen-Ozeans in Anatolien : strukturelle, petrologische und geochronologische Erkenntnisse von niedriggradigen hochdruckmetamorphen Sedimenten, Afyon-Zone (Türkei) N2 - The complete consumption of the oceanic domain of a tectonic plate by subduction into the upper mantle results in continent subduction, although continental crust is typically of lower density than the upper mantle. Thus, the sites of former oceanic domains (named suture zones) are generally decorated with stratigraphic sequences deposited along continental passive margins that were metamorphosed under low-grade, high-pressure conditions, i.e., low temperature/depth ratios (< 15°C/km) with respect to geothermal gradients in tectonically stable regions. Throughout the Mesozoic and Cenozoic (i.e., since ca. 250 Ma), the Mediterranean realm was shaped by the closure of the Tethyan Ocean, which likely consisted in numerous oceanic domains and microcontinents. However, the exact number and position of Tethyan oceans and continents (i.e., the Tethyan palaeogeography) remains debated. This is particularly the case of Western and Central Anatolia, where a continental fragment was accreted to the southern composite margin of the Eurasia sometime between the Late Cretaceous and the early Cenozoic. The most frontal part of this microcontinent experienced subduction-related metamorphism around 85-80 Ma, and collision-related metamorphism affected more external parts around 35 Ma. This unsually-long period between subduction- and collision-related metamorphisms (ca. 50 Ma) in units ascribed to the same continental edge constitutes a crucial issue to address in order to unravel how Anatolia was assembled. The Afyon Zone is a tectono-sedimentary unit exposed south and structurally below the front high-pressure belt. It is composed of a Mesozoic sedimentary sequence deposited on top of a Precambrian to Palaeozoic continental substratum, which can be traced from Northwestern to southern Central Anatolia, along a possible Tethyan suture. Whereas the Afyon Zone was defined as a low-pressure metamorphic unit, high-pressure minerals (mainly Fe-Mg-carpholite in metasediments) were recently reported from its central part. These findings shattered previous conceptions on the tectono-metamorphic evolution of the Afyon Zone in particular, and of the entire region in general, and shed light on the necessity to revise the regional extent of subduction-related metamorphism by re-inspecting the petrology of poorly-studied metasediments. In this purpose, I re-evaluated the metamorphic evolution of the entire Afyon Zone starting from field observations. Low-grade, high-pressure mineral assemblages (Fe-Mg-carpholite and glaucophane) are reported throughout the unit. Well-preserved carpholite-chloritoid assemblages are useful to improve our understanding of mineral relations and transitions in the FeO-MgO-Al2O3-SiO2-H2O system during rocks’ travel down to depth (prograde metamorphism). Inspection of petrographic textures, minute variations in mineral composition and Mg-Fe distribution among carpholite-chloritoid assemblages documents multistage mineral growth, accompanied by a progressive enrichment in Mg, and strong element partitioning. Using an updated database of mineral thermodynamic properties, I modelled the pressure and temperature conditions that are consistent with textural and chemical observations. Carpholite-bearing assemblages in the Afyon Zone account for a temperature increase from 280 to 380°C between 0.9 and 1.1 GPa (equivalent to a depth of 30-35 km). In order to further constrain regional geodynamics, first radiometric ages were determined in close association with pressure-temperature estimates for the Afyon Zone, as well as two other tectono-sedimentary units from the same continental passive margin (the Ören and Kurudere-Nebiler Units from SW Anatolia). For age determination, I employed 40Ar-39Ar geochronology on white mica in carpholite-bearing rocks. For thermobarometry, a multi-equilibrium approach was used based on quartz-chlorite-mica and quartz-chlorite-chloritoid associations formed at the expense of carpholite-bearing assemblages, i.e., during the exhumation from the subduction zone. This combination allows deciphering the significance of the calculated radiometric ages in terms of metamorphic conditions. Results show that the Afyon Zone and the Ören Unit represent a latest Cretaceous high-pressure metamorphic belt, and the Kurudere-Nebiler Unit was affected by subduction-related metamorphism around 45 Ma and cooled down after collision-related metamorphism around 26 Ma. The results provided in the present thesis and from the literature allow better understanding continental amalgamation in Western Anatolia. It is shown that at least two distinct oceanic branches, whereas only one was previously considered, have closed during continuous north-dipping subduction between 92 and 45 Ma. Between 85-80 and 70-65 Ma, a narrow continental domain (including the Afyon Zone) was buried into a subduction zone within the northern oceanic strand. Parts of the subducted continent crust were exhumed while the upper oceanic plate was transported southwards. Subduction of underlying lithosphere persisted, leading to the closure of the southern oceanic branch and to subduct the front of a second continental domain (including the Kurudere-Nebiler Unit). This followed by a continental collisional stage characterized by the cease of subduction, crustal thicknening and the detachment of the subducting oceanic slab from the accreted continent lithosphere. The present study supports that in the late Mesozoic the East Mediterranean realm had a complex tectonic configuration similar to present Southeast Asia or the Caribbean, with multiple, coexisting oceanic basins, microcontinents and subduction zones. N2 - Kontinentale Subduktion resultiert aus dem Abtauchen des ozenanischen Gebiets einer tektonischen Platte in den Oberen Erdmantel. Dies geschieht obwohl die kontinentale Erdkruste normalerweise eine geringere Dichte besitzt als der Obere Erdmantel. Die Lage ehemaliger ozeanischer Gebiete (auch als Suturzonen bezeichnet) ist dementsprechend durch stratigraphische, sedimentäre Gesteinsabfolgen gekennzeichnet, die entlang des passiven Kontinentalrandes abgelagert wurden. Anschließend wurden diese Gesteine unter niedrigen Temperaturen und hohem Druck umgewandelt, auch niedrig-gradige Hochdruckmetamorphose genannt. Während der gesamten Zeitspanne des Mesozoikums und Känozoikums (seit etwa 250 Millionen Jahren bis heute) wurde der mediterrane Raum durch die kontinuierliche Schließung des Tethyschen Ozeans (dem heutigen Mittelmeer) geprägt, der vermutlich in zahlreichen kleineren Ozeanen und Mikrokontinenten aufgeteilt war. Dennoch bleiben die genaue Anzahl und Lage der tethyschen Ozeane und Kontinente (die Paläogeographie der Tethys) bis heute umstritten. Das ist insbesondere der Fall in West- und Zentral-Anatolien, wo im Zeitraum zwischen der Oberen Kreide (vor 98 bis 65 Mio. J.) und dem unteren Känozoikum (vor 65 bis 40 Mio. J.) ein kontinentales Fragment am südlichen Kontinentalrand der Eurasischen Platte angelagert wurde (auch als Akkretion bezeichnet). Der vorderste Bereich von diesem Fragment erfuhr vor etwa 85-80 Millionen Jahren eine metamorphe Umwandlung, die mit den Prozessen der fortschreitenden Subduktion assoziiert werden können. Hingegen wurden die hinteren Bereiche erst später vor ca. 40-30 Mio. J. durch die Kollison der zwei Platten metamorph überprägt. Die ungewöhnlich lange Zeitspanne von etwa 40-50 Mio. J. zwischen den metamorphen Prozessen der Subduktion und der Kollision, stellt eine entscheidende Frage zum Verständnis der Entstehung von Anatolien dar. Die Afyon Zone repräsentiert hierbei eine tektonisch-beanspruchte sedimentäre Gesteinseinheit, die in einer strukturell tieferen Position bezüglich des frontalen metamorphen Hochdruckgürtels liegt und südlich von ihm anzutreffen ist. Die Afyon Zone besteht aus mesozoischen sedimentären Einheiten (250 bis 65 Mio. J. alt), die auf präkambrischem (älter als 545 Mio. J.) bis paläozoischem Untergrund (bis vor 250 Mio J.) abgelagert wurden, und vom nordwestlichen bis zentralen Anatolien, entlang der vermutlichen Tethys-Suturzone, verfolgt werden können. Obwohl die Afyon-Zone als eine niedrig-temperierte metamorphe Gesteinseinheit bezeichnet wird, wurde in letzter Zeit von Vorkommen von Hochdruckmineralen (v.a. Eisen(Fe)-Magnesium(Mg)-Karpholith in metamorphen Sedimenten) im zentralen Bereich berichtet. Diese neuen Erkenntnisse stellen die bisherigen Interpretationen zur tektonisch-metamorphen Entstehung der gesamten Region in Frage, insbesondere der der Afyon-Zone. Deshalb war eine erneute gründliche Überarbeitung und Untersuchung der wenig studierten metamorph-überprägten Sedimentgesteine in diesem Gebiet notwendig. Deshalb, überarbeitete ich die metamorphe Entwicklung der gesamten Afyon Zone, beginnend mit intensiver Geländearbeit und -beobachtungen. Mineralvergesellschaftungen aus Karpholith und Glaukophan, die unter niedrigen Temperaturen und hohem Druck entstanden sind, wurden in der gesamten Gesteinseinheit gefunden. Guterhaltene Mineralvergesellschaftungen aus Karpholith und Chloritoid sind nützlich für das Verständnis unter welchen Temperatur- und Druck-Bedingungen die Gesteine in die Tiefe gelangen (prograde Metamorphose). Durch die Untersuchungen von Gesteinsgefügen und der Eisen-Magnesium-Verteilung zwischen den Mineralien Karpholith und Chloritoid lassen sich Aussagen zu der Bildungstemperatur und dem Druck dieser Minerale machen. Dafür benutzte ich eine verbesserte Datenbank mit Mineraleigenschaften, die mir die Modellierung von Temperatur und Druck erlaubte und im Einklang mit den chemischen und mikroskopischen Beobachtungen steht. Es ergab sich, dass die Karpholith-haltigen Gesteine in der Afyon-Zone einen Temperaturanstieg von 280 zu 380°C (bei einer Tiefe von 30-35 km) erfahren haben. Um noch bessere Aussagen über die Entstehung zu treffen, wurden auch radiometrische Datierungen an Proben aus der Afyon-Zone, sowie an zwei weiteren Sedimentgesteinseinheiten (Ören- und Kurudere-Nebiler-Einheit aus SW Anatolien) gemacht. Für die Altersbestimmung benutzte ich die weitverbreitete 40Ar-39Ar Datierungsmethode an Hellglimmer-Mineralien in den Karpholith-haltigen Gesteinen. Temperatur und Druck können auch bestimmt werden, wenn man den Übergang von einer Mineralvergesellschaftung zu einer anderen Vergesellschaftung beobachtet. Dies gilt zum Beispiel für den Übergang von einer Karpholith-haltigen Zusammensetzung zu einer Quartz-Chlorit-Glimmer und Quartz-Chlorit-Chloritoid Mineralvergesellschaftung wenn tief subduzierte Gesteine wieder nach oben gelangen (Exhumation). Damit lassen sich die radiometrischen Alter den metamorphen Prozessen zu bestimmten Temperaturen und Drücken zuordnen. Mit diesen Erkenntnissen lassen sich die Afyon-Zone und die Ören-Einheit einem Hochdruck-Gebirgsgürtel in der späten Kreidezeit zuordnen, während die Kurudere-Nebiler Einheit durch die mit der Subduktion in Verbindung stehende Metamorphose vor ca. 45 Mio. J. beeinflusst wurde. Später wurde diese Einheit durch die Metamorphose, resultierend aus der Kollision vor 26 Mio. J., abgekühlt. Die Ergebnisse dieser und anderer Arbeiten erlauben es die Anlagerung von Kontinenten in West-Anatolien besser zu verstehen. Es wird gezeigt, dass mindestens zwei (im Gegensatz zu vorher einem) voneinander unabhängige Ozeanarme während der Subduktion von 92 bis 45 Millionen Jahren geschlossen wurden. Zwischen 85-80 und 70-65 Millionen Jahren, wurde ein schmales kontinentales Gebiet (welches die Afyon-Zone beinhaltet) in die Subduktionszone hineingzogen. Teile der subduzierten kontientalen Kruste kamen wieder an die Oberfläche (Exhumation), während die obere ozeanische Platte südwärts transportiert wurde. Die anhaltende Subduktion im oberen Bereich des Erdmantels (Lithosphäre) führte zu der Schließung des südlichen Ozeanarms und zu der Subduktion des zweiten kontinentalen Gebietes (welches die Kurudere-Nebiler-Einheit beinhaltete). Darauf folgte die kontinentale Kollisionsphase unter dem Ausklingen der Prozesse der Subduktion, der Krustenverdickung und der Abtrennung der subduzierten ozeanischen Platte von der akkretionierten kontientalen Lithosphäre (auch als Delamination bezeichnet). Die hier präsentierte Arbeit unterstüzt die Annahme das während der Oberen Kreidezeit das Ost-Mediterrane Gebiet tektonsich komplex angeordnet war, vergleichbar mit dem heutigen Südost-Asien oder der Karibik, mit ihren vielen gleichzeitig existierenden ozeanischen Becken, Mikrokontinenten und Subduktionszonen. KW - Anatolien KW - hochdruckmetamorphe Sedimente KW - Karpholithe KW - 40Ar-39Ar Datierungsmethode KW - Anatolia KW - high-pressure metasediments KW - carpholite KW - Ar-Ar geochronology KW - multi-equilibrium thermobarometry Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57803 ER - TY - THES A1 - Jurish, Bryan T1 - Finite-state canonicalization techniques for historical German T1 - Endliche Techniken zur Kanonikalisierung historischen deutschen Textes N2 - This work addresses issues in the automatic preprocessing of historical German input text for use by conventional natural language processing techniques. Conventional techniques cannot adequately account for historical input text due to conventional tools' reliance on a fixed application-specific lexicon keyed by contemporary orthographic surface form on the one hand, and the lack of consistent orthographic conventions in historical input text on the other. Historical spelling variation is treated here as an error-correction problem or "canonicalization" task: an attempt to automatically assign each (historical) input word a unique extant canonical cognate, thus allowing direct application-specific processing (tagging, parsing, etc.) of the returned canonical forms without need for any additional application-specific modifications. In the course of the work, various methods for automatic canonicalization are investigated and empirically evaluated, including conflation by phonetic identity, conflation by lemma instantiation heuristics, canonicalization by weighted finite-state rewrite cascade, and token-wise disambiguation by a dynamic Hidden Markov Model. N2 - Diese Arbeit behandelt Themen der automatischen Vorverarbeitung historischen deutschen Textes für die Weiterverarbeitung durch konventionelle computerlinguistische Techniken. Konventionelle Techniken können historischen Text wegen des hohen Grads an graphematischer Variation in solchem Text ohne eine solche Vorverarbeitung nicht zufriedenstellend behandeln. Variation in der historischen Rechtschreibung wird hier als Fehlerkorrekturproblem oder "Kanonikalisierungsaufgabe" behandelt: ein Versuch, jedem (historischen) Eingabewort eine eindeutige extante Äquivalente zuzuordnen; so können konventionelle Techniken ohne weitere Modifikation direkt auf den gelieferten kanonischen Formen arbeiten. Verschiedene Methoden zur automatischen Kanonikalisierung werden im Rahmen dieser Arbeit untersucht, unter anderem Konflation durch phonetische Identität, Konflation durch Lemma-Instanziierungsheuristiken, Kanonikalisierung durch eine Kaskade gewichteter endlicher Transduktoren, und Disambiguiierung von Konflationskandidaten durch ein dynamisches Hidden Markov Modell. KW - Computerlinguistik KW - Orthographie KW - historischer Text KW - Rechtschreibkorrektur KW - computational linguistics KW - orthography KW - historical text KW - spelling correction Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55789 ER - TY - THES A1 - Barbosa Pfannes, Eva Katharina T1 - Probing the regulatory mechanisms of the actomyosin system in motile cells T1 - Erforschung von Regulationsmechanismen des Aktomyosinsystems in bewegliche Zellen N2 - Actin-based directional motility is important for embryonic development, wound healing, immune responses, and development of tissues. Actin and myosin are essential players in this process that can be subdivided into protrusion, adhesion, and traction. Protrusion is the forward movement of the membrane at the leading edge of the cell. Adhesion is required to enable movement along a substrate, and traction finally leads to the forward movement of the entire cell body, including its organelles. While actin polymerization is the main driving force in cell protrusions, myosin motors lead to the contraction of the cell body. The goal of this work was to study the regulatory mechanisms of the motile machinery by selecting a representative key player for each stage of the signaling process: the regulation of Arp2/3 activity by WASP (actin system), the role of cGMP in myosin II assembly (myosin system), and the influence of phosphoinositide signaling (upstream receptor pathway). The model organism chosen for this work was the social ameba Dictyostelium discoideum, due to the well-established knowledge of its cytoskeletal machinery, the easy handling, and the high motility of its vegetative and starvation developed cells. First, I focused on the dynamics of the actin cytoskeleton by modulating the activity of one of its key players, the Arp2/3 complex. This was achieved using the carbazole derivative Wiskostatin, an inhibitor of the Arp2/3 activator WASP. Cells treated with Wiskostatin adopted a round shape, with no of few pseudopodia. With the help of a microfluidic cell squeezer device, I could show that Wiskostatin treated cells display a reduced mechanical stability, comparable to cells treated with the actin disrupting agent Latrunculin A. Furthermore, the WASP inhibited cells adhere stronger to a surface and show a reduced motility and chemotactic performance. However, the overall F-actin content in the cells was not changed. Confocal microscopy and TIRF microscopy imaging showed that the cells maintained an intact actin cortex. Localized dynamic patches of increased actin polymerization were observed that, however, did not lead to membrane deformation. This indicated that the mechanisms of actin-driven force generation were impaired in Wiskostatin treated cells. It is concluded that in these cells, an altered architecture of the cortical network leads to a reduced overall stiffness of the cell, which is insufficient to support the force generation required for membrane deformation and pseudopod formation. Second, the role of cGMP in myosin II dynamics was investigated. Cyclic GMP is known to regulate the association of myosin II with the cytoskeleton. In Dictyostelium, intracellular cGMP levels increase when cells are exposed to chemoattractants, but also in response to osmotic stress. To study the influence of cyclic GMP on actin and myosin II dynamics, I used the laser-induced photoactivation of a DMACM-caged-Br-cGMP to locally release cGMP inside the cell. My results show that cGMP directly activates the myosin II machinery, but is also able to induce an actin response independently of cAMP receptor activation and signaling. The actin response was observed in both vegetative and developed cells. Possible explanations include cGMP-induced actin polymerization through VASP (vasodilator-stimulated phosphoprotein) or through binding of cGMP to cyclic nucleotide-dependent kinases. Finally, I investigated the role of phosphoinositide signaling using the Polyphosphoinositide-Binding Peptide (PBP10) that binds preferentially to PIP2. Phosphoinositides can recruit actin-binding proteins to defined subcellular sites and alter their activity. Neutrophils, as well as developed Dictyostelium cells produce PIP3 in the plasma membrane at their leading edge in response to an external chemotactic gradient. Although not essential for chemotaxis, phosphoinositides are proposed to act as an internal compass in the cell. When treated with the peptide PBP10, cells became round, with fewer or no pseudopods. PH-CRAC translocation to the membrane still occurs, even at low cAMP stimuli, but cell motility (random and directional) was reduced. My data revealed that the decrease in the pool of available PIP2 in the cell is sufficient to impair cell motility, but enough PIP2 remains so that PIP3 is formed in response to chemoattractant stimuli. My data thus highlights how sensitive cell motility and morphology are to changes in the phosphoinositide signaling. In summary, I have analyzed representative regulatory mechanisms that govern key parts of the motile machinery and characterized their impact on cellular properties including mechanical stability, adhesion and chemotaxis. N2 - Das Ziel der Arbeit war es, die regulatorischen Mechanismen der Zellmotilität zu untersuchen. Dazu habe ich für jedes Stadium dieses Prozesses einen repräsentativen regulatorischen Schritt ausgewählt und genauer untersucht: Die Regelung des Arp2/3 Komplexes durch WASP (Aktinsystem), die Rolle von cGMP in der Myosin II-Regulation (Myosinsystem) und der Einfluss von Phosphoinositiden im intrazellulären Signalprozess (Rezeptor-Signalweg). Die soziale Amöbe Dictyostelium discoideum wurde als Modellorganismus für diese Arbeiten gewählt. Gründe für diese Wahl waren die bereits vorliegenden detaillierten Kenntnisse über das Zytoskelett dieser Zellen, ihre einfache Handhabbarkeit im Labor, und die hohe Motilität der Zellen im vegetativen und entwickelten Zustand. Als Erstes analysierte ich die Dynamik des Aktin-Zytoskeletts durch Modulation der Aktivität des Arp2/3-Komplexes. Dafür benutzte ich das Carbazol-Derivat Wiskostatin, ein Inhibitor des Arp2/3-Aktivators WASP. Zellen, die mit Wiskostatin behandelt wurden, zeigten eine runde Form mit wenigen oder keinen Pseudopodien. Mit Hilfe des mikrofluidischen cell squeezer device konnte ich zeigen, dass Wiskostatin-behandelte Zellen eine geringere mechanische Stabilität aufweisen, vergleichbar mit Zellen unter dem Einfluss des Aktin-depolymerisierenden Wirkstoffes Latrunculin A. Darüber hinaus zeigen Wiskostatin behandelten Zellen eine erhöhte Substratadhäsion und eine verringerte Motilität und chemotaktische Effizienz. Der F-Aktingehalt der Zelle insgesamt blieb jedoch unverändert. Konfokal- und TIRF-mikroskopische Aufnahmen zeigten, dass die Zellen einen intakten Aktinkortex aufweisen. Es konnten lokalisierte dynamische Regionen erhöhter Aktinpolymerisation beobachtet werden, die jedoch nicht zur Ausbildung von Membrandeformationen führten. Daraus kann man rückschließen, dass die Mechanismen der Krafterzeugung im Aktin-Zytoskelett in WASP-inhibierten Zellen beeinträchtigt sind. Vermutlich liegt in diesen Zellen eine veränderte Mikroarchitektur des kortikalen Netzwerks vor, die zu einer verminderten Steifigkeit der Zelle führt, so dass die zur Bildung von Pseudopodien erforderlichen Kräfte nicht entfaltet werden können. Als Zweites wurde die Rolle von cGMP in der Myosin II-Dynamik untersucht. Es ist bekannt, dass cGMP die Assoziation von Myosin II mit dem Zytoskelett reguliert. In Dictyostelium steigt die intrazelluläre Konzentration von cGMP in Gegenwart von chemoattraktiven Lockstoffen sowie in Antwort auf osmotischen Stress. Um den Einfluss von cGMP auf die Aktin und Myosin II -Dynamik zu untersuchen, benutzte ich laserinduzierte Photoaktivierung von DMACM-caged-Br-cGMP, um cGMP lokal innerhalb der Zelle freizusetzen. Meine Ergebnisse zeigten, dass intrazelluläres cGMP direkt zur Aktivierung von Myosin II führt, jedoch auch Aktinantworten unabhängig vom cAMP-Rezeptorsignalweg induzieren kann. Die Aktinreaktion wurde sowohl in vegetativen als auch in entwickelten Zellen beobachtet. Eine mögliche Erklärung könnte die cGMP-induzierte Aktinpolymerisation über VASP (vasodilator-stimulated phosphoprotein) sein oder über die Bindung von cGMP an Nukleotid-abhängige Proteinkinasen. Als dritten Punkt meiner Arbeit untersuchte ich die Rolle der Phosphoinositide mit Hilfe des Phosphoinositide-bindenden Proteins PBP10, das bevorzugt an PIP2 bindet. Phosphoinositiden können Aktin-bindende Proteine zu definierten subzellulären Orten rekrutieren und ihre Aktivität verändern. Sowohl Neutrophile als auch entwickelte Dictyostelium Zellen produzieren PIP3 in der Plasmamembran an ihrer leading edge in Antwort auf externe Gradienten chemischer Lockstoffe. Obwohl Zellen auch ohne PIP3 chemotaktisches Verhalten zeigen, werden Phosphoinositide im Allgemeinen mit dem inneren chemotaktischen Kompass der Zelle in Verbindung gebracht. Mit dem Peptid PBP10 behandelte Zellen nahmen eine runde Form an, mit wenigen oder keinen Pseudopodien. PH-CRAC -Translokation zur Membran konnte in PBP10-behandelten Zellen selbst bei geringen cAMP-Stimuli weiterhin beobachtet werden. Ungerichtete wie auch gerichtete Zellmotiliät waren jedoch beeinträchtigt. Meine Daten zeigen, dass die Abnahme des PIP2-Pools in der Zelle durch PBP10 ausreicht, um die Zellmotilität zu beeinträchtigen, dass jedoch genug PIP2 erhalten bleibt um in Folge einer Rezeptorstimulation PIP3 zu produzieren. Die Ergebnisse demonstrieren daher, wie empfindlich Zellmotilität und -morphologie gegenüber Modifikationen im Phosphoinositid-Signalweg sind. Zusammenfassend habe ich mehrere repräsentative Beispiele für regulatorische Mechanismen der Zellmotilität untersucht und deren Auswirkung auf Eigenschaften der Zelle wie mechanische Stabilität, Zelladhäsion und Chemotaxis charakterisiert. KW - Dictyostelium KW - Aktomyosin KW - Wiskostatin KW - cGMP KW - PBP10 KW - Dictyostelium KW - actomyosin KW - Wiskostatin KW - cGMP KW - PBP10 Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57812 ER - TY - THES A1 - Wolff, Christian Michael T1 - East African monsoon variability since the last glacial T1 - Ostafrikanische Monsunvariabilität seit dem letztem Glazial N2 - The impact of global warming on human water resources is attracting increasing attention. No other region in this world is so strongly affected by changes in water supply than the tropics. Especially in Africa, the availability and access to water is more crucial to existence (basic livelihoods and economic growth) than anywhere else on Earth. In East Africa, rainfall is mainly influenced by the migration of the Inter-Tropical Convergence Zone (ITCZ) and by the El Niño Southern Oscillation (ENSO) with more rain and floods during El Niño and severe droughts during La Niña. The forecasting of East African rainfall in a warming world requires a better understanding of the response of ENSO-driven variability to mean climate. Unfortunately, existing meteorological data sets are too short or incomplete to establish a precise evaluation of future climate. From Lake Challa near Mount Kilimanjaro, we report records from a laminated lake sediment core spanning the last 25,000 years. Analyzing a monthly cleared sediment trap confirms the annual origin of the laminations and demonstrates that the varve-thicknesses are strongly linked to the duration and strength of the windy season. Given the modern control of seasonal ITCZ location on wind and rain in this region and the inverse relation between the two, thicker varves represent windier and thus drier years. El Niño (La Niña) events are associated with wetter (drier) conditions in east Africa and decreased (increased) surface wind speeds. Based on this fact, the thickness of the varves can be used as a tool to reconstruct a) annual rainfall b) wind season strength, and c) ENSO variability. Within this thesis, I found evidence for centennialscale changes in ENSO-related rainfall variability during the last three millennia, abrupt changes in variability during the Medieval Climate Anomaly and the Little Ice Age, and an overall reduction in East African rainfall and its variability during the Last Glacial period. Climate model simulations support forward extrapolation from these lake-sediment data, indicating that a future Indian Ocean warming will enhance East Africa’s hydrological cycle and its interannual variability in rainfall. Furthermore, I compared geochemical analyses from the sediment trap samples with a broad range of limnological, meteorological, and geological parameters to characterize the impact of sedimentation processes from the in-situ rocks to the deposited sediments. As a result an excellent calibration for existing μXRF data from Lake Challa over the entire 25,000 year long profile was provided. The climate development during the last 25,000 years as reconstructed from the Lake Challa sediments is in good agreement with other studies and highlights the complex interactions between long-term orbital forcing, atmosphere, ocean and land surface conditions. My findings help to understand how abrupt climate changes occur and how these changes correlate with climate changes elsewhere on Earth. N2 - Änderungen des Klimas in einer sich erwärmenden Erde haben große Auswirkungen auf den globalen und lokalen Wasserhaushalt und rücken anhand starker Extremereignisse immer häufiger in den Fokus der Öffentlichkeit. Besonders die Regionen der Tropen sind von derartigen Einschnitten stark gefährdet. Der jährliche Niederschlag in Ostafrika ist stark mit der saisonalen Wanderung der ITCZ (Innertropischen Konvergenzzone) sowie mit dem El Niño/Southern Oscillation (ENSO) Phänomen verbunden. Extreme Regenfälle und Überschwemmungen während El Niño Jahren stehen Trockenheit und Dürren in La Niña Jahren gegenüber. Prognosen über zukünftige Veränderungen der ostafrikanischen Niederschläge erfordern ein verbessertes Verständnis der ENSO antreibenden Faktoren. Unglücklicherweise sind die vorhandenen meteorologischen Datenreihen nicht lang genug oder besitzen nicht die benötigte Homogenität. Einen hilfreichen Beitrag können jährlich geschichtete Seesedimente des am Fuße des Kilimandscharo gelegenen Lake Challa leisten. Anhand einer monatlich aufgelösten Sedimentfalle konnte ich nachweisen, dass die rund 25.000 Jahre zurückreichenden Sedimente eine jährliche Struktur besitzen sowie die Dicke dieser jährlichen Schichtung (Warve) stark mit der Dauer und Intensität der saisonal windreichen/trockenen Jahreszeit verbunden ist. Dickere Warven repräsentieren windige/trockene Jahre, wohingegen dünnere Warven für windschwache und feuchte Jahre stehen. Stärkere Winde und kaum Niederschläge treten oft im Zusammenhang mit einem La Niña Ereignis in Ostafrika auf, wohingegen während eines El Niño Ereignisses häufig extreme Niederschläge mit wenig Wind zu beobachten sind. Anhand der Vermessung der Warven kann man verschiedene Klimaparameter rekonstruieren: a) den jährlichen Niederschlag b) jährliche Windgeschwindigkeiten und ihre Intensitäten sowie c) ENSO Variabilitäten. Die in meiner Arbeit gewonnenen klimatischen Informationen zeigen starke Änderungen der ENSO Variabilität innerhalb der letzten 3.000 Jahre mit starken Unterschieden während der Kleinen Eiszeit und während der Mittelalterlichen Warmzeit sowie deutlich trockene und windige Bedingungen mit sehr geringen ENSO Aktivitäten im glazialem Zeitraum (18.500 und 21.000 Jahren). Modellberechnungen unterstützen diese Ergebnisse einer Zunahme von Extremereignissen und feuchteren Bedingungen im Zuge einer Erwärmung des Indischen Ozeans. Mittels geochemischer Analysen der Sedimentfallenproben sowie die daraus resultierende Verknüpfung mit limnologischen und meteorologischen Parametern, konnte ich einen entscheidenden Beitrag zur erfolgreichen Interpretation der existierenden 25.000 Jahre langen μXRF Datensätze leisten. Der Anteil an allochthonem und autochthonem Eintrag kann so genau klassifiziert werden. Das dadurch gewonnene Bild der Klimaentwicklung der letzten 25.000 Jahre deckt sich hervorragend mit anderen Studien und ermöglicht Einblicke in das komplexe Zusammenspiel zwischen Ozean-Atmosphäre und Umwelt auf dem afrikanischen Kontinent. Besonders die für die Ostafrikaforschung extrem hohe Auflösung der Daten wird helfen, die abrupten Klimawechsel und Interaktionen besser verstehen zu können. KW - Lake Challa KW - Sedimentfalle KW - Warve KW - ENSO KW - Monsun KW - Lake Challa KW - sediment trap KW - varve KW - ENSO KW - monsoon Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58079 ER - TY - THES A1 - Massie, Thomas Michael T1 - Dynamic behavior of phytoplankton populations far from steady state : chemostat experiments and mathematical modeling N2 - Nature changes continuously and is only seemingly at equilibrium. Environmental parameters like temperature, humidity or insolation may strongly fluctuate on scales ranging from seconds to millions of years. Being part of an ecosystem, species have to cope with these environmental changes. For ecologists, it is of special interest how individual responses to environmental changes affect the dynamics of an entire population – and, if this behavior is predictable. In this context, the demographic structure of a population plays a decisive role since it originates from processes of growth and mortality. These processes are fundamentally influenced by the environment. But, how exactly does the environment influence the behavior of populations? And what does the transient behavior look like? As a result from environmental influences on demography, so called cohorts form. They are age or size classes that are disproportionally represented in the demographic distribution of a population. For instance, if most old and young individuals die due to a cold spell, the population finally consists of mainly middle-aged individuals. Hence, the population got synchronized. Such a population tends to show regular fluctuations in numbers (denoted as oscillations) since the alternating phases of individual growth and population growth (due to reproduction) are now performed synchronously by the majority of the population.That is, one time the population growths, and the other time it declines due to mortality. Synchronous behavior is one of the most pervasive phenomena in nature. Gravitational synchrony in the solar system; fireflies flashing in unison; coordinate firing of pacemaker cells in the heart; electrons in a superconductor marching in lockstep. Whatever scale one looks at, in animate as well as inanimate systems, one is likely to encounter synchrony. In experiments with phytoplankton populations, I could show that this principle of synchrony (as used by physicists) could well-explain the oscillations observed in the experiments, too. The size of the fluctuations depended on the strength by which environmental parameters changed as well as on the demographic state of a population prior to this change. That is, two population living in different habitats can be equally influenced by an environmental change, however, the resulting population dynamics may be significantly different when both populations differed in their demographic state before. Moreover, specific mechanisms relevant for the dynamic behavior of populations, appear only when the environmental conditions change. In my experiments, the population density declined by 50% after ressource supply was doubled. This counter-intuitive behavior can be explained by increasing ressource consumption. The phytoplankton cells grew larger and enhanced their individual constitution. But at the same time, reproduction was delayed and the population density declined due to the losses by mortality. Environmental influences can also synchronize two or more populations over large distances, which is denoted as Moran effect. Assume two populations living on two distant islands. Although there is no exchange of individuals between them, both populations show a high similarity when comparing their time series. This is because the globally acting climate synchronizes the regionally acting weather on both island. Since the weather fluctuations influence the population dynamics, the Moran effect states that the synchrony between the environment equals the one between the populations. My experiments support this theory and also explain deviations arising when accounting for differences in the populations and the habitats they are living in. Moreover, model simulations and experiments astonishingly show that the synchrony between the populations can be higher than between the environment, when accounting for differences in the environmental fluctuations (“noise color”). N2 - Die Natur unterliegt ständigen Veränderungen und befindet sich nur vermeintlich in einem Gleichgewicht. Umweltparameter wie Temperatur, Luftfeuchtigkeit oder Sonneneinstrahlung schwanken auf einer Zeitskala von Sekunden bis Jahrmillionen und beinhalten teils beträchtliche Unterschiede. Mit diesen Umweltveränderungen müssen sich Arten als Teil eines Ökosystems auseinandersetzen. Für Ökologen ist interessant, wie sich individuelle Reaktionen auf die Umweltveränderungen im dynamischen Verhalten einer ganzen Population bemerkbar machen und ob deren Verhalten vorhersagbar ist. Der Demografie einer Population kommt hierbei eine entscheidende Rolle zu, da sie das Resultat von Wachstums- und Sterbeprozessen darstellt. Eben jene Prozesse werden von der Umwelt maßgeblich beeinflusst. Doch wie genau beeinflussen Umweltveränderungen das Verhalten ganzer Populationen? Wie sieht das vorübergehende, transiente Verhalten aus? Als Resultat von Umwelteinflüssen bilden sich in Populationen sogenannte Kohorten, hinsichtlich der Zahl an Individuen überproportional stark vertretene Alters- oder Größenklassen. Sterben z.B. aufgrund eines außergewöhnlich harten Winters, die alten und jungen Individuen einer Population, so besteht diese anschließend hauptsächlich aus Individuen mittleren Alters. Sie wurde sozusagen synchronisiert. Eine solche Populationen neigt zu regelmäßigen Schwankungen (Oszillationen) in ihrer Dichte, da die sich abwechselnden Phasen der individuellen Entwicklung und der Reproduktion nun von einem Großteil der Individuen synchron durchschritten werden. D.h., mal wächst die Population und mal nimmt sie entsprechend der Sterblichkeit ab. In Experimenten mit Phytoplankton-Populationen konnte ich zeigen, dass dieses oszillierende Verhalten mit dem in der Physik gebräuchlichen Konzept der Synchronisation beschrieben werden kann. Synchrones Verhalten ist eines der verbreitetsten Phänomene in der Natur und kann z.B. in synchron schwingenden Brücken, als auch bei der Erzeugung von Lasern oder in Form von rhythmischem Applaus auf einem Konzert beobachtet werden. Wie stark die Schwankungen sind, hängt dabei sowohl von der Stärke der Umweltveränderung als auch vom demografischen Zustand der Population vor der Veränderung ab. Zwei Populationen, die sich in verschiedenen Habitaten aufhalten, können zwar gleich stark von einer Umweltveränderung beeinflusst werden. Die Reaktionen im anschließenden Verhalten können jedoch äußerst unterschiedlich ausfallen, wenn sich die Populationen zuvor in stark unterschiedlichen demografischen Zuständen befanden. Darüber hinaus treten bestimmte, für das Verhalten einer Population relevante Mechanismen überhaupt erst in Erscheinung, wenn sich die Umweltbedingungen ändern. So fiel in Experimenten beispielsweise die Populationsdichte um rund 50 Prozent ab nachdem sich die Ressourcenverfügbarkeit verdoppelte. Der Grund für dieses gegenintuitive Verhalten konnte mit der erhöhten Aufnahme von Ressourcen erklärt werden. Damit verbessert eine Algenzelle zwar die eigene Konstitution, jedoch verzögert sich dadurch die auch die Reproduktion und die Populationsdichte nimmt gemäß ihrer Verluste bzw. Sterblichkeit ab. Zwei oder mehr räumlich getrennte Populationen können darüber hinaus durch Umwelteinflüsse synchronisiert werden. Dies wird als Moran-Effekt bezeichnet. Angenommen auf zwei weit voneinander entfernten Inseln lebt jeweils eine Population. Zwischen beiden findet kein Austausch statt – und doch zeigt sich beim Vergleich ihrer Zeitreihen eine große Ähnlichkeit. Das überregionale Klima synchronisiert hierbei die lokalen Umwelteinflüsse. Diese wiederum bestimmen das Verhalten der jeweiligen Population. Der Moran-Effekt besagt nun, dass die Ähnlichkeit zwischen den Populationen jener zwischen den Umwelteinflüssen entspricht, oder geringer ist. Meine Ergebnisse bestätigen dies und zeigen darüber hinaus, dass sich die Populationen sogar ähnlicher sein können als die Umwelteinflüsse, wenn man von unterschiedlich stark schwankenden Einflüssen ausgeht. T2 - Dynamisches Verhalten von Phytoplanktonblüten fern vom Gleichgewicht : Chemostatexperimente und mathematische Modellierung KW - Chemostatexperimente KW - Chlorella vulgaris KW - Nichtgleichgewichts-Dynamiken KW - Phytoplanktonpopulationen KW - Synchronisation KW - chemostat experiments KW - Chlorella vulgaris KW - non-equilibrium dynamics KW - phytoplankton populations KW - synchronization Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58102 ER - TY - THES A1 - Lauterbach, Stefan T1 - Lateglacial to Holocene climatic and environmental changes in Europe : multi-proxy studies on lake sediments along a transect from northern Italy to northeastern Poland T1 - Spätglaziale und holozäne Klima- und Umweltveränderungen in Europa : Multiproxy-Untersuchungen an Seesedimenten entlang eines Transekts zwischen Norditalien und Nordostpolen N2 - Sediment records of three European lakes were investigated in order to reconstruct the regional climate development during the Lateglacial and Holocene, to investigate the response of local ecosystems to climatic fluctuations and human impact and to relate regional peculiarities of past climate development to climatic changes on a larger spatial scale. The Lake Hańcza (NE Poland) sediment record was studied with a focus on reconstructing the early Holocene climate development and identifying possible differences to Western Europe. Following the initial Holocene climatic improvement, a further climatic improvement occurred between 10 000 and 9000 cal. a BP. Apparently, relatively cold and dry climate conditions persisted in NE Poland during the first ca. 1500 years of the Holocene, most likely due to a specific regional atmospheric circulation pattern. Prevailing anticyclonic circulation linked to a high-pressure cell above the remaining Scandinavian Ice Sheet (SIS) might have blocked the eastward propagation of warm and moist Westerlies and thus attenuated the early Holocene climatic amelioration in this region until the final decay of the SIS, a pattern different from climate development in Western Europe. The Lateglacial sediment record of Lake Mondsee (Upper Austria) was investigated in order to study the regional climate development and the environmental response to rapid climatic fluctuations. While the temperature rise and environmental response at the onset of the Holocene took place quasi-synchronously, major leads and lags in proxy responses characterize the onset of the Lateglacial Interstadial. In particular, the spread of coniferous woodlands and the reduction of detrital flux lagged the initial Lateglacial warming by ca. 500–750 years. Major cooling at the onset of the Younger Dryas took place synchronously with a change in vegetation, while the increase of detrital matter flux was delayed by about 150–300 years. Complex proxy responses are also detected for short-term Lateglacial climatic fluctuations. In summary, periods of abrupt climatic changes are characterized by complex and temporally variable proxy responses, mainly controlled by ecosystem inertia and the environmental preconditions. A second study on the Lake Mondsee sediment record focused on two small-scale climate deteriorations around 8200 and 9100 cal. a BP, which have been triggered by freshwater discharges to the North Atlantic, causing a shutdown of the Atlantic meridional overturning circulation (MOC). Combining microscopic varve counting and AMS 14C dating yielded a precise duration estimate (ca. 150 years) and absolute dating of the 8.2 ka cold event, both being in good agreement with results from other palaeoclimate records. Moreover, a sudden temperature overshoot after the 8.2 ka cold event was identified, also seen in other proxy records around the North Atlantic. This was most likely caused by enhanced resumption of the MOC, which also initiated substantial shifts of oceanic and atmospheric front systems. Although there is also evidence from other proxy records for pronounced recovery of the MOC and atmospheric circulation changes after the 9.1 ka cold event, no temperature overshoot is seen in the Lake Mondsee record, indicating the complex behaviour of the global climate system. The Holocene sediment record of Lake Iseo (northern Italy) was studied to shed light on regional earthquake activity and the influence of climate variability and anthropogenic impact on catchment erosion and detrital flux into the lake. Frequent small-scale detrital layers within the sediments reflect allochthonous sediment supply by extreme surface runoff events. During the early to mid-Holocene, increased detrital flux coincides with periods of cold and wet climate conditions, thus apparently being mainly controlled by climate variability. In contrast, intervals of high detrital flux during the late Holocene partly also correlate with phases of increased human impact, reflecting the complex influences on catchment erosion processes. Five large-scale event layers within the sediments, which are composed of mass-wasting deposits and turbidites, are supposed to have been triggered by strong local earthquakes. While the uppermost of these event layers is assigned to a documented adjacent earthquake in AD 1222, the four other layers are supposed to be related to previously undocumented prehistorical earthquakes. N2 - Sedimente aus drei europäischen Seen wurden untersucht um die regionale Klimaentwicklung während des Spätglazials und Holozäns und die Reaktion der Ökosysteme auf Klimaschwankungen und menschlichen Einfluss zu rekonstruieren sowie die regionalen Besonderheiten der spätquartären Klimaveränderungen in einen überregionalen Kontext zu setzen. Die Sedimente des Jezioro Hańcza (Nordostpolen) wurden im Hinblick auf die frühholozäne Klimaentwicklung und die Identifikation möglicher Unterschiede gegenüber Westeuropa untersucht. Im Anschluss an die Erwärmung zu Beginn des Holozäns konnte eine weitere Verbesserung der Klimabedingungen zwischen 10 000 und 9000 Jahren vor heute nachgewiesen werden. Offensichtlich herrschten in Nordostpolen während der ersten 1500 Jahre des Holozäns noch relative kalte und trockene Klimabedingungen, höchstwahrscheinlich als Resultat besonderer regionaler atmosphärischer Zirkulationsverhältnisse. Eine antizyklonale Zirkulationszelle als Resultat eines Hochdruckgebiets über dem Rest des Skandinavischen Eisschilds verhinderte wahrscheinlich das Vordringen warmer und feuchter Luftmassen aus Westen und verursachte damit eine Abschwächung der frühholozänen Klimaverbesserung in dieser Region bis zum endgültigen Zerfall des Eisschilds, was grundsätzlich von der frühholozänen Klimaentwicklung in Westeuropa abweicht. Die spätglazialen Sedimente des Mondsees (Oberösterreich) wurden im Hinblick auf die regionale Klimaentwicklung und die Reaktion des Ökosystems auf abrupte Klimaschwankungen untersucht. Während die Erwärmung zu Beginn des Holozäns von einer zeitgleichen Reaktion des Ökosystems begleitet wurde, war die Reaktion des Ökosystems auf die Erwärmung zu Beginn des Spätglazials deutlich verzögert. Insbesondere die Ausbreitung von Nadelwäldern und die Reduktion des klastischen Eintrags folgten der spätglazialen Erwärmung erst mit einer Verzögerung von ca. 500–750 Jahren. Die Abkühlung zu Beginn der Jüngeren Dryas war durch eine deutliche Synchronizität zwischen Temperatur- und Vegetationsänderung gekennzeichnet, wohingegen der Anstieg des klastischen Eintrags erst 150–300 Jahre verzögert folgte. Eine komplexe Reaktion des Ökosystems zeigt sich auch während kurzfristiger spätglazialer Klimaschwankungen. Zusammenfassend lässt sich sagen, dass abrupte Klimaveränderungen durch komplexe und zeitlich variable Reaktionsmuster des Ökosystems gekennzeichnet sind, die hauptsächlich von dessen Klimasensitivität und den ökologischen Ausgangsbedingungen abhängen. Eine zweite Studie an den Sedimenten des Mondsees konzentrierte sich auf zwei Klimaschwankungen vor ca. 8200 und 9100 Jahren, für die Schmelzwassereintrag in den Nordatlantik und ein damit verbundenes Zusammenbrechen der thermohalinen Zirkulation als Ursache angesehen wird. Durch Warvenzählungen und 14C-Datierungen konnten sowohl die Dauer (ca. 150 Jahre) als auch das absolute Alter der Kältephase vor ca. 8200 Jahren zuverlässig bestimmt werden, welche in guter Übereinstimmung mit Resultaten aus anderen Paläoklimaarchiven stehen. Darüber hinaus wurde eine kurze Warmphase direkt im Anschluss an das Abkühlungsereignis identifiziert, die auch in anderen Klimaarchiven im nordatlantischen Raum nachweisbar ist. Diese wurde wahrscheinlich durch ein Wiedererstarken der thermohalinen Zirkulation verursacht, welches darüber hinaus eine Verschiebung ozeanischer und atmosphärischer Frontsysteme zur Folge hatte. Obwohl andere Klimaarchive auch nach dem Abkühlungsereignis vor ca. 9100 Jahren auf ein Wiedererstarken der thermohalinen Zirkulation hindeuten, finden sich in den Sedimenten des Mondsees keine Anzeichen für eine solche Wärmeperiode, was die Komplexität des globalen Klimasystems verdeutlicht. Die holozänen Sedimente des Lago d’Iseo (Norditalien) wurden im Hinblick auf die regionale Erdbebenaktivität und den Einfluss von Klima und Mensch auf Erosionsprozesse im Einzugsgebiet und den klastischen Eintrag in den See untersucht. Zahlreiche kleinere detritische Lagen in den Sedimenten spiegeln Eintrag durch extreme Oberflächenabflussereignisse wieder. Während des Früh- und Mittelholozäns zeigt sich eine deutliche Übereinstimmung zwischen erhöhtem klastischen Eintrag und kühleren und feuchteren Klimaverhältnissen, was auf einen dominanten Einfluss der natürlichen Klimavariabilität hindeutet. Im Gegensatz dazu zeigen Phasen erhöhten klastischen Eintrags während des Spätholozäns teilweise auch eine Korrelation mit erhöhter Siedlungsaktivität, was die Komplexität der Einflüsse auf Erosionsprozesse im Einzugsgebiet verdeutlicht. Darüber hinaus konnten auch fünf größere Ereignislagen nachgewiesen werden, welche durch Rutschmassen und Turbidite gekennzeichnet sind und für die lokale Erdbeben als Ursache vermutet werden. Die jüngste Ereignislage kann mit einem historisch dokumentierten proximalen Erdbeben im Jahr AD 1222 korreliert werden. Für die anderen vier Ereignislagen werden bisher undokumentierte prähistorische Erdbeben als Ursache angenommen. KW - Spätglazial KW - Holozän KW - Seesedimente KW - Paläoklima KW - Europa KW - Lateglacial KW - Holocene KW - lake sediments KW - palaeoclimate KW - Europe Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58157 ER - TY - THES A1 - Schaal, Janina T1 - Synthese und Photochemie von photoaktivierbaren Biomolekülen T1 - Synthesis and photochemistry of photoactivate biomolecules N2 - Mechanistische und kinetische Untersuchungen von komplexen zellulären Prozessen in situ sind in den vergangenen Jahren durch den Einsatz photoaktivierbarer Biomoleküle, sogenannter caged Verbindungen, möglich geworden. Bei den caged Verbindungen handelt es sich um photolabile inaktive Derivate von biologisch aktiven Molekülen, aus denen durch ultraviolettes Licht mit Hilfe einer photochemischen Reaktion die natürliche, biologisch aktive Substanz schnell freigesetzt werden kann. Im Rahmen der vorliegenden Arbeit wurden caged Verbindungen von den Neurotransmittern Octopamin und Dopamin, dem Octopamin-Antagonist Epinastin, den Proteinsyntheseinhibitoren Emetin und Anisomycin, dem Protonophor CCCP und dem Riechstoff Bourgeonal hergestellt. Zur Synthese dieser caged Verbindungen wurden sowohl bekannte als auch verschiedene im Rahmen dieser Arbeit neu entwickelte photolabile Schutzgruppen mit einem (Cumarin-4-yl)methyl- bzw. einem 2-Nitrobenzyl-Gerüst eingesetzt. Entsprechende Syntheseverfahren wurden erarbeitet. Anschließend erfolgte eine umfassende physikalisch-chemische sowie photochemische Charakterisierung der erhaltenen caged Verbindungen. Dabei wurde besonders auf gute Löslichkeit in Wasser bei physiologischer Ionenstärke, schnelle und effiziente Photoreaktivität, hohe Extinktion bei Wellenlängen von 350-430 nm und gute solvolytische Stabilität bei geringer Toxizität der freigesetzten Schutzgruppe geachtet. Ein Schwerpunkt bei der photochemischen Charakterisierung bildeten die Untersuchungen zur Quantifizierung der 2-Photonen-Anregung, uncaging action cross-sections, der Cumarinylmethyl-caged Verbindungen, aufgrund ihrer Bedeutung für die Photofreisetzung von Biomolekülen, da die gleichzeitige Absorption von 2 IR-Photonen eine höhere dreidimensionale Auflösung und eine wesentlich tiefere Gewebepenetration erlaubt. Mit Hilfe von Kooperationspartnern wurden zeitaufgelösten Fluoreszenz- und IR-Messungen an verschiedenen (Cumarin-4-yl)methoxycarbonyl-caged Modellverbindungen durchgeführt, mit denen die Geschwindigkeitskonstanten k1 und kdecarb des Photolysemechanismus ermittelt wurde. Am Ende folgten die Anwendungserprobungen ausgewählter caged Verbindungen in einem Translationsassay bzw. in Zelluntersuchungen. N2 - In the last years mechanistic and kinetic in situ studies of complex cellular processes become possible by employing photoactivate Biomolecules, also called caged compounds, as a tool for these studies. Caged compounds are photolabile inactive derivates of biologic active molecules which are fast laid off the nature biologic active molecule by a photochemical reaction which was triggered by UV-light. In the present dissertation caged compounds of the neurotransmitters octopamine and dopamine, of the octopamine antagonist epinastine, of the proteine synthesis inhibitors emetine and anisomycine, of the ionophore CCCP and of the odorus substance Bourgeonal are synthesized. As precursors for the synthesis of that caged compounds some reported and several in these work newly developed photolabile protecting groups with (coumarin-4-yl)methyl- or 2-nitrobenzyl-scaffold were used. Corresponding Synthesis were designed. Afterwards the received caged compounds were global physical-chemical and photochemical characterised. In favour it was specifically valued for highly water solubility at pH 7,2, fast and efficient photo reactivity, high extinctions at wavelength 350-430 nm, well solvolytic stability and less toxicity of the redundant protecting groups. One key aspect of photochemical characterisation were the studies of uncaging action cross-sections of the coumarinylmethyl-caged molecules, because of their relevance for the photorelease of biomolecules in tissues. The simultaneous absorption of 2 IR-photons allowed highly three-dimensional release and a essentially deeper penetration in tissues. With the aid of co-operation partners were time-released fluorescence- and IR- measurements with several (coumarin-4-yl)methoxycarbonyl-caged molecules realised and therefore the rate constant k1 und kdecarb of the photolyse mechanismus were determined. At the end of the dissertation the achieved caged compounds were testet in translation assays and several cell cultures. KW - organische Chemie KW - caged Verbindungen KW - Cumarin KW - Nitrobenzyl KW - Neurotransmitter KW - organic chemistry KW - caged compounds KW - coumarine KW - nitrobenzyl KW - neurotransmitter Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57929 ER - TY - THES A1 - Sietz, Diana T1 - Dryland vulnerability : typical patterns and dynamics in support of vulnerability reduction efforts T1 - Vulnerabilität in Trockengebieten: typische Muster und Dynamiken als Beitrag für Ansätze zur Verminderung von Vulnerabilität N2 - The pronounced constraints on ecosystem functioning and human livelihoods in drylands are frequently exacerbated by natural and socio-economic stresses, including weather extremes and inequitable trade conditions. Therefore, a better understanding of the relation between these stresses and the socio-ecological systems is important for advancing dryland development. The concept of vulnerability as applied in this dissertation describes this relation as encompassing the exposure to climate, market and other stresses as well as the sensitivity of the systems to these stresses and their capacity to adapt. With regard to the interest in improving environmental and living conditions in drylands, this dissertation aims at a meaningful generalisation of heterogeneous vulnerability situations. A pattern recognition approach based on clustering revealed typical vulnerability-creating mechanisms at global and local scales. One study presents the first analysis of dryland vulnerability with global coverage at a sub-national resolution. The cluster analysis resulted in seven typical patterns of vulnerability according to quantitative indication of poverty, water stress, soil degradation, natural agro-constraints and isolation. Independent case studies served to validate the identified patterns and to prove the transferability of vulnerability-reducing approaches. Due to their worldwide coverage, the global results allow the evaluation of a specific system’s vulnerability in its wider context, even in poorly-documented areas. Moreover, climate vulnerability of smallholders was investigated with regard to their food security in the Peruvian Altiplano. Four typical groups of households were identified in this local dryland context using indicators for harvest failure risk, agricultural resources, education and non-agricultural income. An elaborate validation relying on independently acquired information demonstrated the clear correlation between weather-related damages and the identified clusters. It also showed that household-specific causes of vulnerability were consistent with the mechanisms implied by the corresponding patterns. The synthesis of the local study provides valuable insights into the tailoring of interventions that reflect the heterogeneity within the social group of smallholders. The conditions necessary to identify typical vulnerability patterns were summarised in five methodological steps. They aim to motivate and to facilitate the application of the selected pattern recognition approach in future vulnerability analyses. The five steps outline the elicitation of relevant cause-effect hypotheses and the quantitative indication of mechanisms as well as an evaluation of robustness, a validation and a ranking of the identified patterns. The precise definition of the hypotheses is essential to appropriately quantify the basic processes as well as to consistently interpret, validate and rank the clusters. In particular, the five steps reflect scale-dependent opportunities, such as the outcome-oriented aspect of validation in the local study. Furthermore, the clusters identified in Northeast Brazil were assessed in the light of important endogenous processes in the smallholder systems which dominate this region. In order to capture these processes, a qualitative dynamic model was developed using generalised rules of labour allocation, yield extraction, budget constitution and the dynamics of natural and technological resources. The model resulted in a cyclic trajectory encompassing four states with differing degree of criticality. The joint assessment revealed aggravating conditions in major parts of the study region due to the overuse of natural resources and the potential for impoverishment. The changes in vulnerability-creating mechanisms identified in Northeast Brazil are well-suited to informing local adjustments to large-scale intervention programmes, such as “Avança Brasil”. Overall, the categorisation of a limited number of typical patterns and dynamics presents an efficient approach to improving our understanding of dryland vulnerability. Appropriate decision-making for sustainable dryland development through vulnerability reduction can be significantly enhanced by pattern-specific entry points combined with insights into changing hotspots of vulnerability and the transferability of successful adaptation strategies. N2 - Die Grenzen ökologischer Funktionen und menschlicher Lebensweisen in Trockengebieten werden häufig durch natürlichen und sozio-ökonomischen Stress, wie extreme Wetterereignisse und ungerechte Handelsbedingungen, weiter verengt. Zur Förderung der Entwicklung in Trockengebieten ist es daher wichtig, die Beziehung zwischen den Stressfaktoren und den sozio-ökologischen Systemen besser zu verstehen. Das Konzept der Vulnerabilität, welches in der vorliegenden Dissertation angewandt wird, beschreibt dieses Verhältnis durch die Exposition, Sensitivität und Anpassungsfähigkeit von Systemen im Hinblick auf Klima-, Markt- und anderen Stress. Bezüglich des Interesses, die Umwelt- und Lebensbedingungen in Trockengebieten zu verbessern, zielt diese Dissertation darauf ab, die vielschichtigen Ursachen und Veränderungen von Vulnerabilität sinnvoll zu verallgemeinern. Eine clusterbasierte Mustererkennung zeigte typische Mechanismen auf, welche Vulnerabilität auf globaler und lokaler Ebene verursachen. Dabei stellt die globale Studie die erste flächendeckende Untersuchung von Vulnerabilität in Trockengebieten mit sub-nationaler Auflösung dar. Die Clusteranalyse identifizierte sieben typische Muster basierend auf der quantitativen Beschreibung von Armut, Wasserknappheit, Bodendegradation, natürlichen Produktionshemmnissen und Isolation. Die Gültigkeit der ermittelten Cluster und die Übertragbarkeit von Anpassungsmaßnahmen innerhalb ähnlicher Gebiete wurden anhand unabhängiger Fallstudien belegt. Die flächendeckende Erfassung erlaubt es, die Vulnerabilität eines Systems in seinem größeren Kontext zu bewerten, auch in weniger gut durch Fallstudien dokumentierten Gebieten. Weiterhin wurde die Klimavulnerabilität von Kleinbauern bezüglich ihrer Nahrungsmittelsicherung im peruanischen Altiplano untersucht. In diesem lokalen Kontext wurden vier Cluster von Haushalten gemäß ihrer Produktionsrisiken, landwirtschaftlichen Ressourcen, der Bildung und ihres nicht-landwirtschaftlichen Einkommens unterschieden. Eine erweiterte Gültigkeitsprüfung unter Nutzung unabhängig erhobener Informationen stellte heraus, dass wetterbedingte Schäden mit den ermittelten Clustern korrelieren und dass haushaltsspezifische Schadensursachen mit den durch die Muster angezeigten Mechanismen übereinstimmen. Die lokale Studie liefert wertvolle Hinweise auf bedarfsgerechte Eingriffe unter Beachtung der Heterogenität innerhalb der sozialen Gruppe der Kleinbauern. Die notwendigen Bedingungen zur Erkennung typischer Muster ergaben fünf methodische Schritte. Ihre Darlegung soll die Anwendung der gewählten Methode in zukünftigen Vulnerabilitätsstudien anregen und erleichtern. Die fünf Schritte umfassen die Ableitung relevanter Ursache-Wirkungs-Hypothesen, die Quantifizierung der Mechanismen, die Bewertung von Robustheit und Gültigkeit sowie die Ordnung der ermittelten Muster nach dem Grad der Vulnerabilität. Dabei ist die genaue Beschreibung der Hypothesen eine wesentliche Voraussetzung für die Quantifizierung der grundlegenden Prozesse sowie eine einheitliche Interpretation, Gültigkeitsprüfung und Ordnung der ermittelten Muster. Besondere Beachtung finden skalenbedingte Aspekte, wie beispielsweise die ergebnisorientierte Gültigkeitsprüfung in der lokalen Studie. Weiterhin wurden die in Nordostbrasilien ermittelten Cluster im Hinblick auf wichtige endogene Prozesse in den dort vorherrschenden kleinbäuerlichen Nutzungssystemen untersucht. Diese Prozesse umfassen die Aufteilung der Arbeitskraft, die landwirtschaftliche Produktion sowie Einkommens- und Ressourcendynamiken. Sie wurden in einem qualitativen dynamischen Modell erfasst, welches eine zyklische Trajektorie mit vier unterschiedlich problematischen Entwicklungszuständen ergab. Als besonders problematischer Aspekt verschärfte sich die Vulnerabilität in weiten Teilen des Untersuchungsgebietes durch die Übernutzung natürlicher Ressourcen und die Möglichkeit weiterer Verarmung. Die in Nordostbrasilien gezeigten Veränderungen sind dazu geeignet, groß angelegte Entwicklungsprogramme, wie zum Beispiel “Avança Brasil”, angemessen an lokale Gegebenheiten anzupassen. Insgesamt ermöglicht es die Kategorisierung einer begrenzten Anzahl typischer Muster und Veränderungen, die Vulnerabilität in Trockengebieten besser zu verstehen. Eine nachhaltige Entwicklung von Trockengebieten basierend auf der Minderung von Vulnerabilität kann durch musterspezifische Ansätze zusammen mit Hinweisen zu Veränderungen im Schweregrad und zur Übertragbarkeit erfolgreicher Anpassungsstrategien wirkungsvoll unterstützt werden. KW - Kausalstruktur KW - Archetyp KW - mehrfache Stressfaktoren KW - ländliche Entwicklung KW - räumlich explizit KW - Causal structure KW - archetype KW - multiple stress factors KW - rural development KW - spatially explicit Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58097 ER - TY - THES A1 - Nada, Wael Mohamed Abdel-Rahman T1 - Wood compost process engineering, properties and its impact on extreme soil characteristics N2 - The landfilling of biodegradable waste is proven to contribute to environmental degradation. Much wood and lumber is discharged as waste from the cleared fields. These woody wastes are subsequently disposed of by burning. However, it would be preferable to dispose of them without combustion to avoid the release of carbon dioxide, one of the critical greenhouse gases. Instead of burning these woody wastes, we should recycle them as future resources. One solution to this problem is to make compost from the waste. Compost use in agriculture is increasing as both an alternative to landfilling for the management of biodegradable waste, as well as means of increasing or preserving soil organic matter. This research aimed to contribute to the identification of a system for managing the production and utilization of wood waste (Quercus rubra and Pinus sylvestris) compost for sustainable agriculture, with particular regards to carbon dioxide produced from both compost and combustion of wood. Compost of wood was implemented in two consecutive trials. The first was carried out in greenhouse experiment in 4 liter pot of Quercus rubra and Pinus sylvestris (QR and PS) moisted by compost and tap water and infected by tiger worm (Eisenia fetida, EF) and European night crawlers (Dendrobaena veneta, DV) at different mixed ratios with lake mud (LM). The second was conducted in greenhouse experiment in 40 liter pot of the successful wood and worm from the first compost trial (QR and EF respectively). The tested wood (QR) was mixed separately by lake mud and horse manure and irrigated by compost and tap water. The final product, successful wood compost (QR) produced from the first trial (4 liter pot) was utilized in different mixed ratios with coal mine tailings (tertiary sand) in greenhouse pot trial to study his effects on improving soil physical and chemical properties and some plant growth parameters of RSM 7.2.1 grass. The wood compost produced from the second compost experiment (40 liter pot) and other artificial component named Arkadolith® were used as soil amelioration in field experiments of different selected sites with extremely unsuitable characteristics (tertiary and quaternary sand in Lusatia lignite region, Germany). The soil in each site was sowed by RSM 7.2.1 and autochthonous grasses. Also, some vermicompost samples were selected to study its thermal stability which compared with a soil sample (Niedermoorgleys) by using thermogravimetric analysis technique. Further investigation was achieved to evaluate the effect of charcoal as a source of carbon on vermicompost stability. Moreover some selected vermicompost samples were used to examine its microstructure under scanning electron microscope which compared also with the same soil used in thermal analysis. The obtained results under all studied experiments can be arranged as follow: First compost trial, Cumulative amount of carbon dioxide produced during composting period was lower than that evolved by combustion of wood. The results showed composting of wood can reduce the emitted CO2 up to 50 % when compared with the amount of CO2 produced from combustion of wood. The effect of different studied factors on different studied parameters show that, QR wood compost have more responsive to decomposition processes and humification rate in comparison with PS wood compost. Under different infection worms, Eisenia fetida (EF) was better than Dendrobaena veneta (DV) in biodegradation rate. Compost water has had a better impact of tap water in all studied decomposition parameters. For example, The compost content of OM and total OC was decreased with the increase of the decomposition period in the treatments of compost water and EF worm, where this decrease was higher at mixed ratio of 1:3 (wood: mud, w/w). The total content of N in the final products takes reversible trend regarding to OM and C content. The high content of N was found in QR wood compost moisted by compost water and infected by EF worm. The content of both macro-and micro-nutrients was clearly positive affected by the studied factors. The content of these nutrients in QR wood compost was higher than that found in the compost of PS wood. Second compost trial, The observed data show that, the amount of CO2 produced by composting was lower than that evolved by combustion of wood. Composting of wood reduced CO2 emission up to 40 % of the combustion wood CO2. Cumulative amount of CO2 produced from wood compost treated by horse manure was higher than that fount in the other treated by LM. The compost of wood treated by horse manure has had a high decomposition rate in comparison with that treated by lake mud. The treatments left without worms during all composting period and moisted by compost water have a responsive effects but it was lower than that infected by worms. Total and available contents of N, P, K, Mg, Zn, and Cu in the compost treated by HM were higher than that found in compost treated by LM. The other nutrients (Ca, Fe, Cu, and Mn) take reversible trend, which it was higher in LM than HM treatments. Thermal and microstructure analysis, The selected vermicompost samples from both first and second compost experiments showed, up to 200° C temperature the mass loss was due to free water and bound water (It was in vermicompost samples higher than soil sample). Mass loss from 200 to 550° C is due to easily oxidizable organic forms and it was higher in vermicompost than soil. In this stage the soil OM seems to be more stable than vermicompost which can be explained by a more intensive bond between the organic and inorganic components. At higher temperatures (T> 550° C) no significant detectable was appeared of soil organic matter. In contrast, the vermicompost treatments showed a high proportion of stable groups, especially aromatic compounds. These statements seem to be importance particularly for the practical application of the wood compost in terms of their long-term effect in the soil. The application of charcoal, showed no additional stabilizing effect of vermicompost. Also, the data show that, vermicompost structure characterized with high homogeneity and ratio of surface area to volume compared to those in soil structure. First plant trials (greenhouse), Different compost mixed ratios had positive impact on different extreme soil physiochemical properties. At the end of experiment (42 days) compost increased soil water holding capacity, decreased soil bulk and particle density and increased total porosity. The used wood compost modified soil buffering capacity and soil acidity. The availability of soil macro and micro nutrients were increased after adding wood compost. The wood compost had a positive effect in some growth parameters like fresh and dry matter yield of the selected grass. High dry matter yield and nutrients uptake was achieved with higher rates of compost application (25.0% > 12.5% > 3.0% > 0.0 %, w/w). Second plant trials (field experiment), Regarding to the effect of wood compost (QR) and Arkadolith® component on tertiary and quaternary sand, at the end of grown season (6 month) most soil and plant characteristics of tertiary sand were improved and it was better than that in quaternary sand. This trend reveals to, physical and chemical properties of tertiary sand was better than that in quaternary sand, like organic matter content, CEC, WHC, TOC, available nutrients. In the both sites, the effects of different type of soil conditioners arranged as follow: the treatments treated with wood compost is the better followed by the other treated with both wood compost and Arkadolith. Wood compost increased soil pH, CEC, soil buffering capacity, OM content, and soil WHC in comparison with Arkadolith which make a small improvement of these properties in both sites. Finally, Different growth parameters (height, covering, fresh and dry matter yield) of the used grasses were clearly positive affected by wood compost, with the highest production inherent to the treatments treated by the high amount of wood compost. N2 - Entsprechend der Zielstellung wurden zunächst verschiedene Varianten der Kompostierung von Holzsubstanz getestet, um eine optimale Technologie, die auch für Entwicklungsländer realisierbar ist, herauszufinden. Hierzu sind in Pflanztöpfe Holzspäne (Woodchips) von zwei verschieden Holzarten (Laub- und Nadelholz) gefüllt und mit verschiedenen natürlichen Stickstoffquellen gemischt worden. Diese Ansätze wurden regelmäßig mit Kompostwasser appliziert. Nach vier Wochen sind zwei verschiedene Wurmarten (Dendrobaena veneta und Eisenia fetida) hinzugegeben worden. Die Feuchthaltung erfolgte ab diesem Zeitpunkt durch Frischwasser. Die qualitativ beste Versuchsvariante ist im nächsten Schritt mit weiteren natürlichen Stickstoffquellen, die in Entwicklungsländern zur Verfügung gestellt werden könnten, getestet worden. Von allen Kompostvarianten sind im Labor eine Vielzahl von bodenphysikalischen (z.B. Dichte, Wasserhaltekapazität) und bodenchemischen Zustandsgrößen (z.B. Elektrische Leitfähigkeit, Totalgehalte biophiler Elemente, Bodenreaktion, organische Substanzgehalte, Kationenaustauschkapazität) bestimmt worden. Die Wiederum qualitativ beste Mischung ist in einer weiteren Versuchsreihe in verschiedenen Mengenverhältnissen mit tertiärerem Abraumsand des Braunkohlebergbaus gemischt worden. In diese Versuchsmischungen wurde die Grasmischung RSM 7.2.1 eingesät und regelmäßig bewässert sowie die Wuchshöhe gemessen. Nach 42 Tagen wurden das Gras geerntet und die biometrischen Parameter, die Nährstoffgehalte (pflanzenverfügbare Fraktionen), die Bodenreaktion, die effektive bzw. potentielle Kationenaustauschkapazität sowie die Pufferkapazitäten der Mischsubstrate bestimmt. Die nächsten Versuchsvarianten sind als Feldversuche in der Niederlausitz durchgeführt worden. Für ihre Realisierung wurde als weiterer Zuschlagsstoff Arkadolith® zugemischt. Die Plotflächen sind sowohl auf Abraumsanden des Tertiärs als auch Quartärs angelegt worden. In jeweils eine Subvariante ist RSM 7.2.1, in die andere eine autochthone Grasmischung eingesät worden. Diese Experimente wurden nach 6 Monaten beendet, die Bestimmung aller Parameter erfolgte in gleicher Weise wie bei den Gewächshausversuchen. Auf Basis aller Versuchsreihen konnten die besten Kompostqualitäten und ihre optimalen Herstellungsvarianten ermittelt werden. Eine weitere Aufgabe war es zu untersuchen, wie im Vergleich zur Verbrennung von Holzmasse die CO2-Emission in die Atmosphäre durch Holzkompostierung verringert werden kann. Hierzu wurde während der verschiedenen Kompostierungsvarianten die CO2-Freisetzung gemessen. Im Vergleich dazu ist jeweils die gleiche Masse an Holzsubstanz verbrannt worden. Die Ergebnisse zeigten, dass im Vergleich zu der thermischen Verwertung von Holsubstanz die CO2-Emission bis zu 50 % verringert werden kann. Dem Boden kann darüber hinaus energiereiche organische Substanz zugeführt werden, die eine Entwicklung der Bodenorganismen ermöglicht. Ein weiteres Experiment zielte darauf ab, die Stabilität der Holzkomposte zu bestimmen. Darüber hinaus sollte untersucht werden, ob durch die Zufuhr von pyrogenem Kohlenstoff eine Vergrößerung der Stabilität zu erreichen ist. Diese Untersuchungen wurden mit Hilfe der Thermogravimetrie vorgenommen. Alle wichtigen Kompostierungsvarianten sind sowohl mit verschiedenen Zusatzmengen als auch ohne Zusatz von pyrogenem Kohlenstoff vermessen worden. Als Vergleichssubstanz diente der Oberboden eines Niedermoorgleys, der naturgemäß einen relativ hohen Anteil an organischer Substanz aufweist. Die Ergebnisse zeigten, dass im Bereich niedriger Temperaturen die Wasserbindung im Naturboden fester ist. In der Fraktion der oxidierbaren organischen Substanz, im mittleren Temperaturbereich gemessen, ist die natürliche Bodensubstanz ebenfalls stabiler, was auf eine intensivere Bindung zwischen den organischen und anorganischen Bestandteilen, also auf stabilere organisch-mineralische Komplexe, schlussfolgern lässt. Im Bereich höherer Temperaturen (T> 550° C) waren im Naturboden keine nennenswerten organischen Bestandteile mehr nachweisbar. Hingegen wiesen die Kompostvarianten einen hohen Anteil stabiler Fraktionen, vor allem aromatische Verbindungen, auf. Diese Aussagen erscheinen vor allem für die praktische Anwendung der Holzkomposte in Hinblick auf ihre Langzeitwirkung bedeutsam. Der Zusatz von pyrogenem Kohlenstoff zeigte keine zusätzliche Stabilisierungswirkung. T2 - Holzkompostverfahrenstechnik, Eigenschaften und ihre Auswirkungen auf die extremen Bodeneigenschaften KW - Holzkompost KW - Kohlendioxid KW - Eisenia fetida KW - Dendrobaena veneta KW - Kohlengrubenabraum KW - wood compost KW - carbon dioxide KW - Eisenia fetida KW - Dendrobaena veneta KW - coal mine waste Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51046 ER - TY - THES A1 - Andrade Linares, Diana Rocío T1 - Characterization of tomato root-endophytic fungi and analysis of their effects on plant development, on fruit yield and quality and on interaction with the pathogen Verticillium dahliae T1 - Charakterisierung wurzelendophytischer Pilze von Tomate und Analyse ihrer Effekte auf Pflanzenentwicklung, auf Ertrag und Fruchtqualität und auf die Wechselwirkung mit dem Pathogen Verticillium dahliae N2 - Non-mycorrhizal fungal endophytes are able to colonize internally roots without causing visible disease symptoms establishing neutral or mutualistic associations with plants. These fungi known as non-clavicipitaceous endophytes have a broad host range of monocot and eudicot plants and are highly diverse. Some of them promote plant growth and confer increased abiotic-stress tolerance and disease resistance. According to such possible effects on host plants, it was aimed to isolate and to characterize native fungal root endophytes from tomato (Lycopersicon esculentum Mill.) and to analyze their effects on plant development, plant resistance and fruit yield and quality together with the model endophyte Piriformospora indica. Fifty one new fungal strains were isolated from desinfected tomato roots of four different crop sites in Colombia. These isolates were roughly characterized and fourteen potential endophytes were further analyzed concerning their taxonomy, their root colonization capacity and their impact on plant growth. Sequencing of the ITS region from the ribosomal RNA gene cluster and in-depth morphological characterisation revealed that they correspond to different phylogenetic groups among the phylum Ascomycota. Nine different morphotypes were described including six dark septate endophytes (DSE) that did not correspond to the Phialocephala group. Detailed confocal microscopy analysis showed various colonization patterns of the endophytes inside the roots ranging from epidermal penetration to hyphal growth through the cortex. Tomato pot experiments under glass house conditions showed that they differentially affect plant growth depending on colonization time and inoculum concentration. Three new isolates (two unknown fungal endophyte DSE48, DSE49 and one identified as Leptodontidium orchidicola) with neutral or positiv effects were selected and tested in several experiments for their influence on vegetative growth, fruit yield and quality and their ability to diminish the impact of the pathogen Verticillium dahliae on tomato plants. Although plant growth promotion by all three fungi was observed in young plants, vegetative growth parameters were not affected after 22 weeks of cultivation except a reproducible increase of root diameter by the endophyte DSE49. Additionally, L. orchidicola increased biomass and glucose content of tomato fruits, but only at an early date of harvest and at a certain level of root colonization. Concerning bioprotective effects, the endophytes DSE49 and L. orchidicola decreased significantly disease symptoms caused by the pathogen V. dahliae, but only at a low dosis of the pathogen. In order to analyze, if the model root endophytic fungus Piriformospora indica could be suitable for application in production systems, its impact on tomato was evaluated. Similarly to the new fungal isolates, significant differences for vegetative growth parameters were only observable in young plants and, but protection against V. dahliae could be seen in one experiment also at high dosage of the pathogen. As the DSE L. orchidicola, P. indica increased the number and biomass of marketable tomatoes only at the beginning of fruit setting, but this did not lead to a significant higher total yield. If the effects on growth are due to a better nutrition of the plant with mineral element was analyzed in barley in comparison to the arbuscular mycorrhizal fungus Glomus mosseae. While the mycorrhizal fungus increased nitrogen and phosphate uptake of the plant, no such effect was observed for P. indica. In summary this work shows that many different fungal endophytes can be also isolated from roots of crops and, that these isolates can have positive effects on early plant development. This does, however, not lead to an increase in total yield or in improvement of fruit quality of tomatoes under greenhouse conditions. N2 - Endophyten, die nicht zu den Mykorrhizapilzen gehören, können das Innere von Wurzeln ohne sichtbare Krankheitssymptome besiedeln und bilden so mit der Pflanze neutrale oder mutualistische Wechselwirkungen. Diese Pilze, auch als nicht-clavicipetale Endophyten bekannt, haben ein breites Wirtsspektrum von mono- und dikotyledonen Pflanzen und weisen eine hohe Diversität auf. Einige von ihnen fördern Pflanzenwachstum und erhöhen Resistenz und Toleranz gegenüber biotischem und abiotischem Stress. Ausgehenden von diesen möglichen Effekten auf ihre Wirtspflanzen war das Ziel der vorliegenden Arbeit die Isolierung und Charakterisierung neuer pilzlicher Wurzelendophyten der Tomate (Lycopersicon esculentum Mill.) und die Analyse ihres Einflusses auf Pflanzenentwicklung und Pflanzenresistenz, sowie auf Ertrag und Fruchtqualität unter Einbeziehung des Modellendophyten Piriformospora indica. Aus vier verschiedenen Anbaugebieten in Kolumbien konnten 51 neue Pilzstämme von oberflächensterilisierten Tomatenwurzeln isoliert werden. Diese Isolate wurden vorcharakterisiert und 14 potentielle Endophyten bezüglich ihrer Taxonomie, ihrer Besiedlungsmuster und ihres Einfluss auf das Pflanzenwachstum näher untersucht. Sequenzierung der ITS Region des ribosomalen RNA Genclusters und genaue morphologische Charakterisierung zeigten, dass sie zu verschiedenen phylogenetischen Gruppen innerhalb der Ascomycota gehören. Neun Morphotypen ließen sich beschreiben, wobei sechs zu den ‚Dark Septate Endophytes’ (DSEs) gehören, aber nicht mit der bekannten Phialocephala Gruppe verwandt waren. Ausführliche konfokale mikroskopische Untersuchungen ergaben sehr verschiedene Besiedelungsmuster der Wurzelendophyten vom Endringen in die Epidermis bis zum Hyphenwachstum durch den Kortex. Topfexperimente unter Gewächshausbedingungen zeigten dass die Isolate in Abhängigkeit von der Inokulumkonzentration und der Zeit der Besiedlung das Wachstum der Tomaten sehr unterschiedlich beeinflussten. Drei neue Isolate (die beiden unbekannte pilzlichen Endophyten DSE48 und DSE49 und eines identifiziert als Leptodontidium orchidicola) mit neutralen oder positiven Effekten wurden für weitere Versuche ausgewählt. In mehreren Experimenten sollte ihr Einfluss auf das vegetative Wachstum, auf Ertrag und auf Fruchtqualität untersucht werden, sowie ihre Fähigkeit die Auswirkungen des Pathogens Verticillium dahliae auf Tomatenpflanzen zu vermindern. Obwohl wachstumsfördernde Effekte durch alle drei Pilze in jungen Pflanzen beobachtet wurden, waren vegetative Wachstumsparameter nach 22 Wochen der Besiedlung nicht mehr beeinflusst bis auf ein signifikante Erhöhung des Wurzeldurchmessers durch den Endophyten DSE49. L. orchidicola dagegen erhöhte die Biomasse und den Glukosegehalt der Früchte, aber nur zu frühen Ernteterminen und bei einer bestimmten Intensität der Wurzelbesiedelung. Hinsichtlich eines schützenden Effekts, konnten die Endophyten DSE49 und L. orchidicola die Krankheitssymptome, die durch V. dahliae verursacht wurden, vermindern, aber nur bei einem geringen Pathogendruck. Um zu überprüfen, ob der Modellendophyt P. indica in Produktionssytemen eingesetzt werden kann, wurde seine Auswirkungen auf Tomaten untersucht. Ähnlich wie die neuen pilzlichen Isolate, zeigte aber auch er seinen fördernden Einfluss nur auf das frühe vegetative Wachstum. Schützende Effekte gegen V. dahliae konnten ebenfalls nur bei niedrigem Pathogendruck konstant beobachtet werden. Wie L. orchidicola erhöhte P. indica die Biomasse an marktfähigen Tomaten am Anfang des Fruchtansatzes, was nicht zu einem insgesamt höheren Ertrag führte. Ob die beobachteten Effekte auf ein verbesserte Nährstoffversorgung der Pflanze zurückzuführen seien, wurde in Gerste im Vergleich mit dem arbuskulären Mykorrhizapilz Glomus mosseae untersucht. Während der Mykorrhizapilz sowohl Phosphat wie Stickstoffaufnehme der Pflanze erhöhte, konnte dies für P. indica nicht festgestellt werden. Zusammenfassend zeigt diese Arbeit, dass auch aus Wurzeln von Kulturpflanzen viele verschiedene pilzliche Endophyten isoliert werden können, und dass einige von diesen durchaus einen positiven Effekt auf die frühe Pflanzenentwicklung aufweisen. Zumindest für Tomate unter Gewächshausbedingungen führen diese Effekte aber nicht zu einer Erhöhung des Gesamtertrags oder einer nachhaltigen Verbesserung der Fruchtqualität. KW - Pilz-Endophyten KW - Ascomycota KW - Wurzelbesiedlung KW - Tomaten (Solanum lycopersicum) KW - Pflanze-Pilz-Interaktionen KW - Fungal endophyte KW - Ascomycota KW - root colonization KW - tomato (Solanum lycopersicum) KW - plant-fungal interactions Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51375 ER - TY - THES A1 - Flotyńska, Anna T1 - Besteuerung von Unternehmensgewinnen im Licht des Konzepts der konsumorientierten Einkommensteuer T1 - Taxation of business profits in the light of the concept of consumption-oriented income tax N2 - Die Dissertation widmet sich dem Problem der fiskalischen Konsequenzen der konsumorientierten Steuern, die die unternehmerischen Gewinne unabhängig von der Rechtsform belasten. Im empirischen Teil der Arbeit wird der Untersuchungsgegenstand auf die zinsbereinigte Gewinnsteuer (allowance for corporate equity) eingegrenzt. Die Untersuchung beruht auf theoretischen Überlegungen sowie einer eigenen Simulationsanalyse. Den Schwerpunkt bilden dabei zwei Kategorien, zwischen denen ein kausaler Zusammenhang vorliegt: die Gestaltung der Bemessungsgrundlage einerseits und die Erfüllung der Fiskalfunktion andererseits. Das Hauptziel der Arbeit ist es, die fiskalischen Konsequenzen einer nach dem Konzept der Konsumorientierung modifizierten Bemessungsgrundlage der Gewinnsteuern zu überprüfen. Die Abschätzung der fiskalischen Konsequenzen wird aufgrund der vier folgenden Bereiche vorgenommen: (1) theoretische Konzepte der konsumorientierten Einkommensteuer, (2) bisherige Umsetzungen der Konzepte der konsumorientierten Gewinnsteuer, (3) bisherige Untersuchungen der konsumorientierten Gewinnsteuer, (4) eine eigene Simulation der fiskalischen Konsequenzen der konsumorientierten Gewinnsteuer. Um das Hauptziel der Arbeit zu erreichen, werden acht in Form von Teilfragen ausformulierte Untersuchungsprobleme gelöst. Sie betreffen sowohl die theoretischen Ausführungen, als auch die empirische Untersuchung. Dabei entsprechen sie den einzelnen Untersuchungsschritten, die in den aufeinander folgenden Kapiteln der Arbeit durchgeführt werden. Anhand der Analyse der bisherigen wissenschaftlichen Erkenntnisse und der praktischen Umsetzungen des Konzepts der konsumorientierten Steuern wurde die folgende Haupthypothese aufgestellt: Der Ausfall des Steueraufkommens, der ein direkter Effekt der Gestaltung der Bemessungsgrundlage nach dem Konzept der Konsumorientierung ist, schließt die Fiskalfunktion der Gewinnsteuern nicht aus. Das Verfahren, das eine Verifizierung der Haupthypothese zum Ziel hat, erfolgt durch eine Untersuchung von drei Teilhypothesen: der Hypothese über die Nullsteuer, der Hypothese über den differenzierten Aufkommensausfall und der Hypothese über die Konzentration der Steuerschuld. In der Dissertation werden empirische Daten aus drei Quellen benutzt. Sie umfassen einen Teil der in Polen in den Jahren 2004-2008 tätigen Unternehmen und ermöglichen es, eine Simulationsanalyse des Aufkommensausfalls durchzuführen. Diese bedient sich der Methodik der Mikro- und Gruppensimulation, was in den bisherigen Untersuchungen zur Unternehmensbesteuerung ein eher selten anzutreffender Ansatz ist. Die gewonnenen Ergebnisse zeigen, dass die Steuereinnahmen aus der Einkommensteuer und der Körperschaftsteuer durch die Modifizierung der Bemessungsgrundlage deutlich reduziert werden. Die relativ große fiskalische Bedeutung der beiden Steuern bleibt jedoch erhalten und der Ausfall des Steueraufkommens, der direkt nach der Einführung einer konsumorientierten Steuerreform eintreten würde, wäre der „Preis“ für eine bessere, weniger verzerrende Bemessungsgrundlage. Die Dissertation liefert Ergebnisse, die für die Gestaltung der Steuerpolitik in Polen wie auch in anderen Ländern relevant sind. Dies scheint insbesondere im Kontext des häufig diskutierten Umbaus des Systems der Einkommen- und Gewinnbesteuerung bedeutsam. Darüber hinaus bildet die Arbeit einen Ausgangspunkt für weitere, vertiefte Untersuchungen zu den möglichen Gestaltungsformen der Einkommen- und Gewinnsteuern wie auch zu deren Folgen. Die Methode der Steuersimulation kann weiterentwickelt werden und in anderen Analysen der potenziellen Konsequenzen von Steuerreformen Anwendung finden. N2 - The dissertation looks into the problem of fiscal consequences of consumption-oriented business profit tax. The subject of this doctoral thesis is the consumption-oriented taxation of business profits regardless of the legal form of business activities. In its empirical part, the investigation was narrowed to the Allowance for Corporate Equity (ACE). The analysis, carried out on both theoretical and empirical ground, concentrates on two causally related areas: the structure of the tax base and its impact on the fiscal function of the tax on business profits. The main aim of the thesis is to investigate fiscal effects of changing the corporate tax base into one that reflects the concept of consumption-oriented income taxation. The effects are identified in the following four areas: (1) theoretical concepts of consumption-oriented income tax, (2) practical implementations to date of the concept of consumption-oriented business profit tax, (3) other research to date into consumption-oriented business profit tax, (4) author’s simulation of the fiscal effects of consumption-oriented business profit tax. To achieve the main goal, eight detailed research problems must first be solved. These problems are formulated as supporting research questions of both theoretical and empirical nature. The main research hypothesis was formulated based on the analysis of theoretical literature and practical implementations, and it is as follows: the tax revenue loss, which is a direct consequence of consumption-oriented tax base, does not rule out the fiscal function of business profit taxes. In order to verify the main hypothesis, three supporting hypotheses were verified, namely: zero-tax hypothesis; diverse revenue loss hypothesis; and tax liability concentration hypothesis. The investigation was based on empirical data from three sources, all concerned with businesses active in Poland during the period 2004-2008. The microsimulation and group simulation methods were applied, still a rather rare choice in the analysis of business taxation. The research has shown that modification of the tax base results in considerable revenue reduction. Still, profit taxes remain to be of great fiscal importance and the loss of revenue should be understood as the price to be paid for a more properly defined and non-distortionary tax base. The thesis offers conclusions of importance for development of tax policy in Poland and other countries, particularly in the context of the restructuring of the business income tax system. Moreover, the thesis constitutes a starting point for further research on possible methods for defining the income tax structure and on its effects. The simulation method applied in the empirical part of the analysis can be developed and implemented in other research into the effects of potential tax reforms. KW - Unternehmensbesteuerung KW - konsumorientierte Einkommensteuer KW - konsumorientierte Gewinnsteuer KW - Mikrosimulation KW - Gruppensimulation KW - Polen KW - business taxation KW - consumption-oriented income tax KW - consumption-oriented profit tax KW - microsimulation KW - group simulation KW - Poland Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52493 SN - 978-3-86956-138-7 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Schumacher, Soeren T1 - Saccharide recognition : boronic acids as receptors in polymeric networks T1 - Zuckererkennung in polymeren Netzwerken mittels Boronsäuren als Rezeptoren N2 - In this thesis entitled “Saccharide Recognition - Boronic acids as Receptors in Polymeric Networks” different aspects of boronic acid synthesis, their analysis and incorporation or attachment to different polymeric networks and characterisation thereof were investigated. The following key aspects were considered: • Provision of a variety of different characterised arylboronic acids and benzoboroxoles • Attachment of certain derivatives to nanoparticles and the characterisation of saccharide binding by means of isothermal titration calorimetry and displacement assay (ARS) to enhance the association constant to saccharides at pH 7.4 • Enhancement of selectivity in polymeric systems by means of molecular imprinting using fructose as template and a polymerisable benzoboroxole as functional monomer for the recognition at pH 7.4 (Joined by a diploma thesis of F. Grüneberger) • Development of biomimetic saccharide structures and the development of saccharide (especially glucose and fructose) binding MIPs by using these structures as template molecules. In the first part of the thesis different arylboronic acid derivatives were synthesised and their binding to glucose or fructose was investigated by means of isothermal titration calorimetry (ITC). It could be derived, which is in parallel to the literature, that derivatives bearing a methylhydroxyl-group in ortho-position to the boron (benzoboroxole) exhibit in most cases a two-fold higher association constant compared to the corresponding phenylboronic acid derivative. To gain a deeper understanding NMR spectroscopy and mass spectrometry with the benzoboroxole and glucose or fructose was performed. It could be shown that the exchange rate in terms of NMR time scale is quite slow since in titration experiments new peaks appeared. Via mass spectrometry of a mixture between benzoboroxole and glucose or fructose, different binding stoichiometries could be detected showing that the binding of saccharides is comparable with their binding to phenylboronic acid. In addition, the use of Alizarin Red S as an electrochemical reporter was described for the first time to monitor the saccharide binding to arylboronic acids not only with spectroscopy. Here, the redox behaviour and the displacement were recorded by cyclic voltammograms. In the second part different applications of boronic acids in polymeric networks were investigated. The attachment of benzoboroxoles to nanoparticles was investigated and monitored by means of isothermal titration calorimetry and a colourimetric assay with Alizarin Red S as the report dye. The investigations by isothermal titration calorimetry compared the fructose binding of arylboronic acids and benzoboroxoles coupled to these nanoparticles and “free” in solution. It could be shown that the attached derivatives showed a higher binding constant due to an increasing entropy term. This states for possible multivalent binding combined with a higher water release. Since ITC could not characterise the binding of glucose to these nanoparticles due to experimental restrictions the glucose binding at pH 7.4 was shown with ARS. Here, the displacement of ARS by fructose and also glucose could be followed and consequently these nanoparticles can be used for saccharide determination. Within this investigation also the temperature stability of these nanoparticles was examined and after normal sterilisation procedures (121°C, 20 min.) the binding behaviour was still unchanged. To target the selectivity of the used polymeric networks, molecular imprinting was used as a technique for creating artificial binding pockets on a molecular scale. As functional monomer 3-methacrylamidobenzoboroxole was introduced for the recognition of fructose. In comparison to polymers prepared with vinylphenylboronic acid the benzoboroxole containing polymer had a stronger binding at pH 7.4 which was shown for the first time. In addition, another imprinted polymer was synthesised especially for the recognition of glucose and fructose employing biomimetic saccharide analogues as template molecule. The advantage to use the saccharide analogues is the defined template-functional monomer complex during the polymerisation which is not the case, for example, for glucose-boronic acid interaction. The biomimetic character was proven through structural superimposition of crystal structures of the analogues with already described crystal structures of boronic acid esters of glucose and fructose. A molecularly imprinted polymer was synthesised with vinylphenylboronic acid as the functional monomer to show that both glucose and fructose are able to bind to the polymer which was predicted by the structural similarity of the analogues. The major scientific contributions of this thesis are • the determination of binding constants for some, not yet reported saccharide – boronic acid / benzoboroxole pairs, • the use of ARS as electrochemical reporter for saccharide detection, • the thermodynamic characterisation of a saccharide binding nanoparticle system containing benzoboroxole and functioning at pH 7.4, • the use of a polymerisable benzoboroxole as functional monomer for saccharide recognition in neutral, aqueous environments • and the synthesis and utilisation of biomimetic saccharide analogues as template molecules especially for the development of a glucose binding MIP. N2 - Die vorliegende Arbeit beschäftigte sich mit der Synthese verschiedener Boronsäurederivate und deren Charakterisierung und Anbindung oder Einbau in polymeren Netzwerken. Die synthetisierten Polymere werden charakterisiert bezüglich ihrer Morphologie und besonders hinsichtlich ihrer Saccharidbindung. Im Wesentlichen wurden die folgenden Aspekte bearbeitet: • Bereitstellung einer Reihe von verschiedenen Arylboronsäuren und Benzoboroxolderivaten • Modifizierung von Nanopartikeln mit verschiedenen Derivaten aus der Bibliothek mit dem Ziel die Bindingkonstanten zu Monosacchariden bei pH 7.4. zu erhöhen. Dabei werden isothermale Titrationskalorimetrie und ein spektroskopischer Verdrängungsassay (Alizarin Rot S) zum Bindungsnachweis verwendet. • Erhöhung der Selektivität von Polymeren mittels molekularen Prägens von Fruktose als Matrizenmolekül. Durch den Einsatz eines polymerisierbaren Benzoboroxolderivatives konnte die Anbindung bei pH 7.4 stattfinden (Dieser Teil der Arbeit wurde durch eine Diplomarbeit von F. Grüneberger unterstützt). • Entwicklung von biomimetischen saccharidanalogen Strukturen, die als Matrizenmoleküle während des molekularen Prägens eingesetzt werden, um ein Polymer für die Anbindung von Monosacchariden wie etwa Fruktose oder Glukose zu generieren. Im ersten Teil der Arbeit wurde die Synthese und Charakterisierung von verschiedenen Boronsäurederivaten beschrieben. Die Charakterisierung der Bindungskonstanten wurde mittels isothermaler Titrationskalorimetrie durchgeführt. Dabei konnte im Einklang mit der Literatur gezeigt werden, dass Derivative, die zusätzlich mit einer Methylhydroxygruppe in ortho-Position zum Bor (Benzoboroxol) derivatisiert sind, eine meist zweifach höhere Bindungskonstante als gleich substituierte Arylboronsäurederivate aufweisen. Durch 1H-NMR-Spektroskopie und Massenspektrometrie mit Benzoboroxol und Glukose oder Fruktose konnten die Bindung weiter charakterisiert werden. Dabei zeigten die Ergebnisse der 1H-NMR-Spektroskopie, dass die Bindung bezogen auf NMR-Zeitskalen recht langsam stattfindet, da es zu einer Verbreiterung der Peaks kommt. Die Ergebnisse der Massenspektrometrie zeigen, dass hinsichtlich der Stöchiometrie der Binding verschiedene Komplexe möglich sind, was in ähnlicher Weise für Phenylboronsäure schon gezeigt wurde. Zusätzlich wurde in diesem Teil der Arbeit wurde die Elektrochemie von Alizarin Rot S untersucht, um den Farbstoff, der spektroskopisch schon für den Bindungsnachweis zwischen einem Boronsäurederivat und verschiedenen Zuckern beschrieben ist, auch elektrochemisch zu nutzen. Im zweiten Teil der Arbeit wurden verschiedene Anwendungen von den charakterisierten Boronsäuren in polymeren Netzwerken beschrieben. Dabei wurde zunächst ein Polystyrollatex mit Benzoboroxol modifiziert und die Bindung von Glukose oder Fruktose mittels isothermaler Titrationskalorimetrie und einem spektroskopischen Farbassay untersucht. Die Untersuchungen mittels isothermaler Titrationskalorimetrie (ITC) wurden vergleichend zu frei in Lösung befindlichem Benzoboroxol durchgeführt. Es wurde eine höhere Bindungskonstante für die modifizierten Nanopartikel ermittelt, was auf die Erhöhung der Entropie im System zurückzuführen ist. Dies kann durch eine mutivalente Bindung und einer einhergehenden erhöhten Wasserfreisetzung erklärt werden. Da es nicht möglich war, die Glukosebindung mittels ITC zu verfolgen, wurde zusätzlich ein spektroskopischer Assay bei pH 7.4. durchgeführt. Bei diesem wird die Bindung von Fruktose oder Glukose durch Freisetzung von Alizarin Rot S verfolgt. In diesem Zusammenhang konnte auch gezeigt werden, dass die Nanopartikel nach Sterilisation bei 121°C für 20 Minuten eine vergleichbare Bindung des Farbstoffes zeigen, was die Temperaturstabilität der Partikel unterstreicht. Da in diesem System die Bindung von Zuckern abhängig von der Affinität der Zucker zu den Boronsäuren bestimmt wird, wurden molekular geprägte Polymere synthetisiert, die eine Selektivität für bestimmte Zucker zeigen. Als Funktionsmonomer wurde 3-Methacrylamidobenzboroxol verwendet. Im Vergleich zu Polymeren, die mit 3-Vinylphenylboronsäure als literaturbekanntes Funktionsmonomer synthetisiert worden sind, zeigt sich bei pH 7.4 eine höhere Bindung von Fruktose an Benzoboroxolpolymere. In einem anderen geprägten Polymer wurden biomimetische (zuckeranaloge) Substanzen als Matrizenmolekül verwendet. Der Vorteil dieser Substanz ist die Bildung eines definierten Boronsäureesters, der als Templat-Funktionsmonomerkomplexes einpolymerisiert wird. Im Gegensatz dazu weist beispielsweise ein Boronsäureester der Glukose keine definierte Struktur auf. Der biomimetische Charakter wurde durch strukturelle Überlagerung mit schon publizierten Kristallstrukturen von Boronsäureestern von Glukose und Fruktose gezeigt. Das zugehörige molekular geprägte Polymer wurde mit Vinylphenylboronsäure synthetisiert und zeigt eine Bindung von Glukose und Fruktose, was durch die Strukturüberlagerungen vorhergesagt wurde. Zusammenfassend sind die wesentlichen wissenschaftlichen Ergebnisse: • Bindungskostanten von neuen Zucker-Benzoboroxolpaaren, • Eignung von ARS als elektrochemische Nachweissubstanz der Saccharidbindung • Die thermodynamische Charakterisierung der Bindung von Fruktose oder Glukose an Nanopartikel, die Benzoboroxol - modifziert sind und so bei pH 7.4 Zucker binden können • Einsatz von Benzoboroxol als Funktionsmonomer • die Synthese und Nutzung von biomimetischen zuckeranalogen Matrizenmolekülen für die Entwicklung von molekular geprägten Polymeren für die Glukosebindung. KW - Zuckererkennung KW - Glucose KW - physiolgischer pH KW - Boronsäure KW - Benzoboroxol KW - Saccharide Recognition KW - Glucose KW - physiological pH KW - boronic acid KW - benzoboroxole Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52869 ER - TY - THES A1 - Hanisch, Florian T1 - Variational problems on supermanifolds T1 - Variationsprobleme auf Supermannigfaltigkeiten N2 - In this thesis, we discuss the formulation of variational problems on supermanifolds. Supermanifolds incorporate bosonic as well as fermionic degrees of freedom. Fermionic fields take values in the odd part of an appropriate Grassmann algebra and are thus showing an anticommutative behaviour. However, a systematic treatment of these Grassmann parameters requires a description of spaces as functors, e.g. from the category of Grassmann algberas into the category of sets (or topological spaces, manifolds). After an introduction to the general ideas of this approach, we use it to give a description of the resulting supermanifolds of fields/maps. We show that each map is uniquely characterized by a family of differential operators of appropriate order. Moreover, we demonstrate that each of this maps is uniquely characterized by its component fields, i.e. by the coefficients in a Taylor expansion w.r.t. the odd coordinates. In general, the component fields are only locally defined. We present a way how to circumvent this limitation. In fact, by enlarging the supermanifold in question, we show that it is possible to work with globally defined components. We eventually use this formalism to study variational problems. More precisely, we study a super version of the geodesic and a generalization of harmonic maps to supermanifolds. Equations of motion are derived from an energy functional and we show how to decompose them into components. Finally, in special cases, we can prove the existence of critical points by reducing the problem to equations from ordinary geometric analysis. After solving these component equations, it is possible to show that their solutions give rise to critical points in the functor spaces of fields. N2 - In dieser Dissertation wird die Formulierung von Variationsproblemen auf Supermannigfaltigkeiten diskutiert. Supermannigfaltigkeiten enthalten sowohl bosonische als auch fermionische Freiheitsgrade. Fermionische Felder nehmen Werte im ungeraden Teil einer Grassmannalgebra an, sie antikommutieren deshalb untereinander. Eine systematische Behandlung dieser Grassmann-Parameter erfordert jedoch die Beschreibung von Räumen durch Funktoren, z.B. von der Kategorie der Grassmannalgebren in diejenige der Mengen (der topologischen Räume, Mannigfaltigkeiten, ...). Nach einer Einführung in das allgemeine Konzept dieses Zugangs verwenden wir es um eine Beschreibung der resultierenden Supermannigfaltigkeit der Felder bzw. Abbildungen anzugeben. Wir zeigen, dass jede Abbildung eindeutig durch eine Familie von Differentialoperatoren geeigneter Ordnung charakterisiert wird. Darüber hinaus beweisen wir, dass jede solche Abbildung eineindeutig durch ihre Komponentenfelder, d.h. durch die Koeffizienten einer Taylorentwickelung bzgl. von ungeraden Koordinaten bestimmt ist. Im Allgemeinen sind Komponentenfelder nur lokal definiert. Wir stellen einen Weg vor, der diese Einschränkung umgeht: Durch das Vergrößern der betreffenden Supermannigfaltigkeit ist es immer möglich, mit globalen Koordinaten zu arbeiten. Schließlich wenden wir diesen Formalismus an, um Variationsprobleme zu untersuchen, genauer betrachten wir eine super-Version der Geodäte und eine Verallgemeinerung von harmonischen Abbildungen auf Supermannigfaltigkeiten. Bewegungsgleichungen werden von Energiefunktionalen abgeleitet und wir zeigen, wie sie sich in Komponenten zerlegen lassen. Schließlich kann in Spezialfällen die Existenz von kritischen Punkten gezeigt werden, indem das Problem auf Gleichungen der gewöhnlichen geometrischen Analysis reduziert wird. Es kann dann gezeigt werden, dass die Lösungen dieser Gleichungen sich zu kritischen Punkten im betreffenden Funktor-Raum der Felder zusammensetzt. KW - Supergeometrie KW - Variationsrechnung KW - Differentialoperatoren KW - Funktorgeometrie KW - supergeometry KW - variational calculus KW - differential operators KW - functor geometry Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59757 ER - TY - THES A1 - Winck, Flavia Vischi T1 - Nuclear proteomics and transcription factor profiling in Chlamydomonas reinhardtii T1 - Nukleare Proteomics und Transkriptionsfaktoren : Profiling in Chlamydomonas reinhardtii N2 - The transcriptional regulation of the cellular mechanisms involves many different components and different levels of control which together contribute to fine tune the response of cells to different environmental stimuli. In some responses, diverse signaling pathways can be controlled simultaneously. One of the most important cellular processes that seem to possess multiple levels of regulation is photosynthesis. A model organism for studying photosynthesis-related processes is the unicellular green algae Chlamydomonas reinhardtii, due to advantages related to culturing, genetic manipulation and availability of genome sequence. In the present study, we were interested in understanding the regulatory mechanisms underlying photosynthesis-related processes. To achieve this goal different molecular approaches were followed. In order to indentify protein transcriptional regulators we optimized a method for isolation of nuclei and performed nuclear proteome analysis using shotgun proteomics. This analysis permitted us to improve the genome annotation previously published and to discover conserved and enriched protein motifs among the nuclear proteins. In another approach, a quantitative RT-PCR platform was established for the analysis of gene expression of predicted transcription factor (TF) and other transcriptional regulator (TR) coding genes by transcript profiling. The gene expression profiles for more than one hundred genes were monitored in time series experiments under conditions of changes in light intensity (200 µE m-2 s-1 to 700 µE m-2 s-1), and changes in concentration of carbon dioxide (5% CO2 to 0.04% CO2). The results indicate that many TF and TR genes are regulated in both environmental conditions and groups of co-regulated genes were found. Our findings also suggest that some genes can be common intermediates of light and carbon responsive regulatory pathways. These approaches together gave us new insights about the regulation of photosynthesis and revealed new candidate regulatory genes, helping to decipher the gene regulatory networks in Chlamydomonas. Further experimental studies are necessary to clarify the function of the candidate regulatory genes and to elucidate how cells coordinately regulate the assimilation of carbon and light responses. N2 - Pflanzen nutzen das Sonnenlicht um Substanzen, sogenannte Kohlenhydrate, zu synthetisieren. Diese können anschließend als Energielieferant für das eigene Wachstum genutzt werden. Der aufbauende Prozess wird als Photosynthese bezeichnet. Ein wichtiges Anliegen ist deshalb zu verstehen, wie Pflanzen äußere Einflüsse wahrnehmen und die Photosynthese dementsprechend regulieren. Ihre Zellen tragen diese Informationen in den Genen. Die Pflanzen nutzen aber in der Regel nicht alle ihre Gene gleichzeitig, die sie zur Anpassung an Umwelteinflüsse besitzen. Zu meist wird nur eine Teilfraktion der gesamten Information benötigt. Wir wollten der Frage nachgehen, welche Gene die Zellen für welche Situation regulieren. Im Zellkern gibt es Proteine, sogenannte Transkriptionsfaktoren, die spezifische Gene finden können und deren Transkription modulieren. Wenn ein Gen gebraucht wird, wird seine Information in andere Moleküle übersetzt (transkribiert), sogenannte Transkripte. Die Information dieser Transkripte wird benutzt um Proteine, Makromoleküle aus Aminsäuren, zu synthetisieren. Aus der Transkription eines Gens kann eine große Zahl des Transkripts entstehen. Es ist wahrscheinlich, dass ein Gen, dass gerade gebraucht wird, mehr Transkriptmoleküle hat als andere Gene. Da die Transkriptionsfaktoren mit der Transkription der Gene interferieren können, entwickelten wir in der vorliegenden Arbeit Strategien zur Identifikation dieser im Zellkern zu findenden Proteine mittels eines „Proteomics“-Ansatzes. Wir entwickelten weiterhin eine Strategie zur Identififikation von Transkripten Transkriptionsfaktor-codierender Gene in der Zelle und in welche Menge sie vorkommen. Dieser Ansatz wird als „Transcript-Profiling“ bezeichnet. Wir fanden Zellkern-lokalisierte Proteine, die als Signalmoleküle funktionieren könnten und Transkripte, die bei unterschiedlichen Umweltbedingungen in der Zelle vorhanden waren. Wir benutzten, die oben genannten Ansätze um die einzellige Grünalge Chlamydomonas zu untersuchen. Die Informationen, die wir erhielten, halfen zu verstehen welche Transkriptionsfaktoren notwendig sind, damit Chlamydomonas bei unterschiedlichen Umweltbedingungen, wie z.B. unterschiedliche Lichtintensitäten und unterschiedlicher Konzentration von Kohlenstoffdioxid, überlebt. KW - Proteomics KW - Transkriptionsfaktoren KW - Pflanzen KW - Chlamydomonas KW - Transcriptomics KW - Proteomics KW - Transcription factors KW - Plants KW - Chlamydomonas KW - Transcriptomics Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53909 ER - TY - THES A1 - Schönheit, Jörg T1 - A phagocyte-specific Irf8 gene enhancer establishes early conventional dendritic cell commitment T1 - Ein Phagozyten spezifischer Enhancer des Irf8 Gens steuert die Entwicklung konventioneller dendritischer Zellen N2 - Haematopoietic development is a complex process that is strictly hierarchically organized. Here, the phagocyte lineages are a very heterogeneous cell compartment with specialized functions in innate immunity and induction of adaptive immune responses. Their generation from a common precursor must be tightly controlled. Interference within lineage formation programs for example by mutation or change in expression levels of transcription factors (TF) is causative to leukaemia. However, the molecular mechanisms driving specification into distinct phagocytes remain poorly understood. In the present study I identify the transcription factor Interferon Regulatory Factor 8 (IRF8) as the specification factor of dendritic cell (DC) commitment in early phagocyte precursors. Employing an IRF8 reporter mouse, I showed the distinct Irf8 expression in haematopoietic lineage diversification and isolated a novel bone marrow resident progenitor which selectively differentiates into CD8α+ conventional dendritic cells (cDCs) in vivo. This progenitor strictly depends on Irf8 expression to properly establish its transcriptional DC program while suppressing a lineage-inappropriate neutrophile program. Moreover, I demonstrated that Irf8 expression during this cDC commitment-step depends on a newly discovered myeloid-specific cis-enhancer which is controlled by the haematopoietic transcription factors PU.1 and RUNX1. Interference with their binding leads to abrogation of Irf8 expression, subsequently to disturbed cell fate decisions, demonstrating the importance of these factors for proper phagocyte cell development. Collectively, these data delineate a transcriptional program establishing cDC fate choice with IRF8 in its center. N2 - Die Differenzierung von hämatopoietischen Zellen ist ein komplexer Prozess, der strikt hierarchisch organisiert ist. Dabei stellen die Phagozyten eine sehr heterogene Zellpopulation dar, mit hochspezialisierten Funktionen im angeborenen Immunsystem sowie während der Initialisierung der adaptiven Immunreaktion. Ihre Entwicklung, ausgehend von einer gemeinsamen Vorläuferzelle, unterliegt einer strikten Kontrolle. Die Beeinträchtigung dieser Linienentscheidungsprogramme, z.B. durch Mutationen oder Änderungen der Expressionslevel von Transkriptionsfaktoren kann Leukämie auslösen. Die molekularen Mechanismen, welche die linienspezifische Entwicklung steuern, sind allerdings noch nicht im Detail bekannt. In dieser Arbeit zeige ich den maßgeblichen Einfluss des Transkriptionsfaktors Interferon Regulierender Faktor 8 (IRF8) auf die Entwicklung von dendritischen Zellen (DC) innerhalb der Phagozyten. Mittels einer IRF8-Reporter Maus stellte ich die sehr differenziellen Expressionsmuster von Irf8 in der hämatopoietischen Entwicklung dar. Dabei konnte ich eine neue, im Knochenmark lokalisierte, Vorläuferpopulation isolieren, die in vivo spezifisch Differenzierung in CD8α+ konventionelle dendritische Zellen (cDC) steuert. Dieser Vorläufer ist dabei absolut von der Expression von Irf8 abhängig und etabliert auf transkriptioneller Ebene die dendritische Zellentwicklung, während gleichzeitig die Entwicklung neutrophiler Zellen unterdrückt wird. Darüber hinaus zeigte ich, dass Irf8 Expression während der cDC Entwicklung von einem neu charakterisierten cis-regulatorischen Enhancer abhängt, der spezifisch in myeloiden Zellen agiert. Ich konnte zeigen, dass die hämatopoietischen Transkriptionfaktoren PU.1 und RUNX1 mittels dieses Enhancers die Irf8 Expression steuern. Können diese beiden Faktoren nicht mit dem Enhancer interagieren, führt das zu stark verminderter Irf8 Expression, damit zu Veränderungen in den Differnzierungsprogrammen der Zellen, was die Bedeutung dieses regulatorischen Mechanismus unterstreicht. Zusammengefasst beschreiben diese Daten die Etablierung der frühen cDC Entwicklung, in der IRF8 die zentrale Rolle spielt. KW - Hämatopoiese KW - dendritische Zelle KW - Immunologie KW - Transkiptionsfaktor KW - Genregulation KW - haematopoiesis KW - dendritic cell KW - immunology KW - transcription factor KW - gene regulation Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55482 ER - TY - THES A1 - Göbel, Ronald T1 - Hybridmaterialien aus mesoporösen Silica und ionischen Flüssigkeiten T1 - Hybrid materials of mesoporous silica and ionic liquids N2 - Die vorliegende Arbeit beschäftigt sich mit der Synthese und Charakterisierung mesoporöser monolithischer Silica und deren Hybridmaterialien mit Ionischen Flüssigkeiten (ILs, ionic liquids). Zur Synthese der Silicaproben wurde ein Sol-Gel-Verfahren, ausgehend von einer Präkursorverbindung wie Tetramethylorthosilicat angewendet. Der Katalysator mit der geringsten Basizität führte zum Material mit der kleinsten Porengröße und der größten spezifischen Oberfläche. Eine Kombination von porösen Silica mit ILs führt zur Materialklasse der Silica-Ionogele. Diese Hybridmaterialien verbinden die Eigenschaften eines porösen Festkörpers mit denen einer IL (Leitfähigkeit, weites elektrochemisches Fenster, gute thermische Stabilität) und bieten vielfältige Einsatzmöglichkeiten z.B. in der Katalyse- Solar- und Sensortechnik. Um diese Materialien für ihren Verwendungszweck zu optimieren, bedarf es deren umfassenden Charakterisierung. Daher wurde in der vorliegenden Arbeit das thermische Verhalten von Silica-Ionogelen unter Verwendung verschiedener 1-Ethyl-3-methylimidazolium [Emim]-basierter ILs untersucht. Interessanterweise zeigen die untersuchten ILs deutliche Änderungen in ihrem thermischen Verhalten, wenn diese in porösen Materialien eingeschlossen werden (Confinement). Während sich die untersuchten reinen ILs durch klar unterscheidbare Phasenübergänge auszeichnen, konnten für die entsprechenden Hybridmaterialien deutlich schwächer ausgeprägte Übergänge beobachtet werden. Einzelne Phasenübergänge wurden unterdrückt (Glas- und Kristallisationsübergänge), während z.B. Schmelzübergänge in verbreiterten Temperaturbereichen, zum Teil als einzeln getrennte Schmelzpeaks beobachtet wurden. Diese Untersuchungen belegen deutliche Eigenschaftsänderungen der ILs in eingeschränkten Geometrien. Über Festkörper-NMR-Spektroskopie konnte außerdem gezeigt werden, daß die ILs in den mesoporösen Silicamaterialien eine unerwartet hohe Mobilität aufweisen. Die ILs können als quasi-flüssig bezeichnet werden und zeigen die nach bestem Wissen höchste Mobilität, die bisher für vergleichbare Hybridmaterialien beobachtet wurde. Durch Verwendung von funktionalisierten Präkursoren, sowie der Wahl der Reaktionsbedingungen, kann die Oberfläche der Silicamaterialien chemisch funktionalisiert werden und damit die Materialeigenschaften in der gewünschten Weise beeinflußt werden. In der vorliegenden Arbeit wurde der Einfluß der Oberflächenfunktionalität auf das thermische Verhalten hin untersucht. Dazu wurden zwei verschiedene Möglichkeiten der Funktionalisierung angewendet und miteinander verglichen. Bei der in-situ-Funktionalisierung wird die chemische Funktionalität während der Sol-Gel-Synthese über ein entsprechend funktionalisiertes Silan mit in das Silicamaterial einkondensiert. Eine postsynthetische Funktionalisierung erfolgt durch Reaktion der Endgruppen eines Silicamaterials mit geeigneten Reaktionspartnern. Um den Einfluß der physikalischen Eigenschaften der Probe auf die Reaktion zu untersuchen, wurden pulverisierte und monolithische Silicamaterialien miteinander verglichen. Im letzten Teil der Arbeit wurde die Vielfältigkeit, mit der Silicamaterialien postsynthetisch funktionalisiert werden können demonstriert. Durch die Kenntnis von Struktur-Eigenschaftsbeziehungen können die Eigenschaften von Silica-Ionogelen durch die geeignete Kombination von fester und mobiler Phase in der gewünschten Weise verändert werden. Die vorliegende Arbeit soll einen Beitrag zur Untersuchung dieser Beziehungen leisten, um das Potential dieser interessanten Materialien für Anwendungen nutzen zu können. N2 - This work describes the synthesis and characterization of mesoporous monolithic silica and its hybrid materials with ionic liquids (ILs). For synthesis of the silica samples a sol-gel method was used. The catalyst with the weakest basicity leads to the material with the smallest pore size and the largest specific surface area. Combination of porous silica with ILs yields silica-ionogels. These hybrid materials combine the properties of porous solids with the properties of ILs (which is e.g. high conductivity, wide electrochemical stability window, and good thermal stability) and therefore offer a variety of possible applications like catalysis, solar and sensing. To optimize these materials for specific applications there is a need to understand their structure-composition-property relations. For this reason the thermal behavior of silica-ionogels was studied using different 1-ethyl-3-methylimidazolium [Emim]-based ILs. Interestingly the ILs show a clear change in their thermal behavior upon confinement in porous silica. Whereas the pure ILs show distinct phase transitions, the hybrid materials exhibit considerably weaker phase transitions. Phase transitions are suppressed (glass- and crystallization phase transitions); melting transitions show multiple melting peaks. Furthermore solid-state NMR also shows that ILs in mesoporous silica exhibit unusual high mobility. The confined ILs can therefore be classified as quasi-liquid and represents to our best knowledge the highest mobility observed so far in ionogels. By using functionalized silane precursors and different reaction conditions the silica surface was chemically functionalized which further changes the material properties. In a final approach a post-synthetic functionalization was performed by reaction of the selected groups of a silica material with suitable reactants. To study the effect of the physical appearance on the characteristics of the final material, powdered and monolithic samples were studied. In the last part of the work the versatility of post-synthetic silica functionalization was demonstrated. The current work contributes to a better understanding of structure-property correlations, to improve the potential of these interesting materials for possible applications. KW - Silica KW - ionische Flüssigkeiten KW - mesoporös KW - Hybridmaterialien KW - Sol-Gel KW - silica KW - ionic liquids KW - mesoporous KW - hybrid materials KW - sol-gel Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54022 ER -