TY - THES A1 - Giesewetter, Stefan T1 - Resolute readings of later Wittgenstein and the challenge of avoiding hierarchies in philosophy T1 - Strenge Lesarten der Spätphilosophie Wittgensteins und die Vermeidung von Hierarchien in der Philosophie N2 - This dissertation addresses the question: How did later Wittgenstein aim to achieve his goal of putting forward a way of dissolving philosophical problems which centered on asking ourselves what we mean by our words – yet which did not entail any claims about the essence of language and meaning? This question is discussed with reference to “resolute” readings of Wittgenstein. I discuss the readings of James Conant, Oskari Kuusela, and Martin Gustafsson. I follow Oskari Kuusela’s claim that in order to fully appreciate how later Wittgenstein meant to achieve his goal, we need to clearly see how he aimed to do away with hierarchies in philosophy: Not only is the dissolution of philosophical problems via the method of clarifying the grammar of expressions to be taken as independent from any theses about what meaning must be – but furthermore, it is to be taken as independent from the dissolution of any particular problem via this method. As Kuusela stresses, this also holds for the problems involving rule-following and meaning: the clarification of the grammar of “rule” and “meaning” has no foundational status – it is nothing on which the method of clarifying the grammar of expressions as such were meant to in any way rely on. The lead question of this dissertation then is: What does it mean to come to see that the method of dissolving philosophical problems by asking “How is this word actually used?” does not in any way rely on the results of our having investigated the grammar of the particular concepts “rule” and “meaning”? What is the relation of such results – results such as “To follow a rule, [...], to obey an order, [...] are customs (uses, institutions)” or “The meaning of a word is its use in the language” – to this method? From this vantage point, I concern myself with two aspects of the readings of Gustafsson and Kuusela. In Gustafsson, I concern myself with his idea that the dissolution of philosophical problems in general “relies on” the very agreement which – during the dissolution of the rule-following problem – comes out as a presupposition for our talk of “meaning” in terms of rules. In Kuusela, I concern myself with his idea that Wittgenstein, in adopting a way of philosophical clarification which investigates the actual use of expressions, is following the model of “meaning as use” – which model he had previously introduced in order to perspicuously present an aspect of the actual use of the word “meaning”. This dissertation aims to show how these two aspects of Gustafsson’s and Kuusela’s readings still fail to live up to the vision of Wittgenstein as a philosopher who aimed to do away with any hierarchies in philosophy. I base this conclusion on a detailed analysis of which of the occasions where Wittgenstein invokes the notions of “use” and “application” (as also “agreement”) have to do with the dissolution of a specific problem only, and which have to do with the dissolution of philosophical problems in general. I discuss Wittgenstein’s remarks on rule-following, showing how in the dissolution of the rule-following paradox, notions such as “use”, “application”, and “practice” figure on two distinct logical levels. I then discuss an example of what happens when this distinction is not duly heeded: Gordon Baker and Peter Hacker’s idea that the rule-following remarks have a special significance for his project of dissolving philosophical problems as such. I furnish an argument to the effect that their idea that the clarification of the rules of grammar of the particular expression “following a rule” could answer a question about rules of grammar in general rests on a conflation of the two logical levels on which “use” occurs in the rule-following remarks, and that it leads into a regress. I then show that Gustafsson’s view – despite its decisive advance over Baker and Hacker – contains a version of that same idea, and that it likewise leads into a regress. Finally, I show that Kuusela’s idea of a special significance of the model “meaning as use” for the whole of the method of stating rules for the use of words is open to a regress argument of a similar kind as that he himself advances against Baker and Hacker. I conclude that in order to avoid such a regress, we need to reject the idea that the grammatical remark “The meaning of a word is its use in the language” – because of the occurrence of “use” in it – stood in any special relation to the method of dissolving philosophical problems by describing the use of words. Rather, we need to take this method as independent from this outcome of the investigation of the use of the particular word “meaning”. N2 - Die Ausgangsfrage dieser Dissertation ist: Wie gedachte der späte Wittgenstein sein Ziel zu erreichen, eine Art und Weise der Auflösung philosophischer Probleme zu vorzulegen, die daran ansetzt, was wir mit unseren Worten meinen, jedoch keine Thesen über Sprache und Bedeutung mit sich zieht? Ich behandele diese Frage mit Bezug auf sogenannte „strenge“ Lesarten Wittgensteins. Ich befasse mich mit den Interpretationen von James Conant, Oskari Kuusela und Martin Gustafsson. Ich nehme Kuuselas Gedanken auf, daß zu einem vollen Verständnis davon, wie Wittgenstein sein philosophisches Ziel zu erreichen gedachte, gehört, die Abwesenheit von Hierarchien in seiner Spätphilosophie zu sehen: nicht nur sollte die Auflösung philosophischer Probleme mithilfe der Methode der Klärung der Grammatik von Ausdrücken von jeden Thesen darüber, wie sprachliche Bedeutung zustande kommt, unabhängig sein – sondern darüberhinaus auch unabhängig von der Auflösung bestimmter Einzelprobleme mittels dieser Methode. Dies, so Kuusela, gelte auch für die Probleme um Regelfolgen und um Bedeutung: „Regel“, „meinen“, und „Bedeutung“ seien keine Grundbegriffe, auf deren Klärung die Methode der Klärung der Grammatik von Ausdrücken in irgendeiner Weise aufbaue. Die Leitfrage dieser Dissertation ist: Was genau heißt es zu verstehen, daß die Auflösung philosophischer Probleme mittels der Frage „Wie wird dieses Wort tatsächlich gebraucht?“ nicht auf Ergebnissen der Untersuchung der Grammatik der Begriffe „Regel“ und „Bedeutung“ aufbaut? In welcher Beziehung stehen diese Ergebnisse – Ergebnisse wie „Einer Regel folgen, [...], einen Befehl geben, [...] sind Gepflogenheiten (Gebräuche, Institutionen)“ und „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache“ – dann zu dieser Methode? Unter diesem Blickwinkel befasse ich mich mit zwei Aspekten der Lesarten von Gustafsson und Kuusela. Bei Gustafsson befasse ich mit der Auffassung, die Auflösung philosophischer Probleme an sich „beruhe auf“ genau der Art von Übereinstimmung, die sich – im Zuge der Auflösung des Regelfolgen-Problems – als eine Voraussetzung für unsere Rede von „meinen“ und „bedeuten“ herausstellt. Bei Kuusela befasse ich mich mit der Idee, daß Wittgenstein, indem er zur Auflösung philosophischer Probleme die Frage nach dem tatsächlichen Gebrauch von Wörtern einführt, dem Modell „Bedeutung als Gebrauch“ folgt – welches er vorher eingeführt hatte, um einen Aspekt des tatsächlichen Gebrauchs des Wortes „Bedeutung“ übersichtlich darzustellen. Ich versuche zu zeigen, warum diese beiden Aspekte der Lesarten von Gustafsson und Kuusela noch zurückfallen hinter die Vision von Wittgenstein als einem Philosophen, dem es darum geht, Hierarchien zu vermeiden. Zur Begründung lege ich eine detaillierte Analyse der Art und Weise des Auftretens der Begriffe „Gebrauch“, „Verwendung“ und „Anwendung“ (sowie „Übereinstimmung“) in Wittgensteins Spätphilosophie vor. Wie ich zeige, läßt sich das Auftreten dieser Begriffe unterteilen in Fälle, wo es im Zusammenhang steht mit der Auflösung bestimmter Einzelprobleme, und Fälle, in denen es im Zusammenhang steht mit Auflösung philosophischer Probleme im Allgemeinen. Als Beispiel behandele ich Wittgensteins Bemerkungen über Regelfolgen. Ich zeige, wie in der Auflösung des Regelparadoxes Begriffe wie „Gebrauch“, „Verwendung“, „Anwendung“ auf zwei unterschiedlichen logischen Ebenen auftreten. Dann behandele ich Gordon Bakers und Peter Hackers Auffassung, Wittgensteins Bemerkungen zum Regelfolgen hätten eine besondere Bedeutung für sein Projekt der Auflösung philosophischer Probleme an sich. Ich lege ein Argument dafür vor, daß ihre Idee, die Klärung der Regeln der Grammatik des bestimmten einzelnen Ausdrucks „einer Regel folgen“ könne eine Frage über Regeln der Grammatik im Allgemeinen beantworten, auf einer Vermengung der beiden Ebenen basiert, auf denen der Begriff „Gebrauch“ in den Regelfolgen-Bemerkungen vorkommt, und daher in einen Regreß führt. Anschließend zeige ich, daß dies auch für Gustafssons Idee gilt. Schließlich zeige ich, daß Kuuselas Auffassung, das Modell „Bedeutung als Gebrauch“ – gewonnen im Rahmen der Untersuchung der tatsächlichen Verwendung des Wortes „Bedeutung“ – habe eine besondere Relevanz für die Methode der Untersuchung der tatsächlichen Verwendung von Wörtern an sich, ebenfalls in einen Regreß führt. Meine Schlußfolgerung ist, daß die grammatische Bemerkung „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache“ in keinem besonderen Bezug zu Wittgensteins Methode der Untersuchung des tatsächlichen Gebrauchs von Ausdrücken stehen kann. Stattdessen muß diese Methode als unabhängig von diesem Ergebnis der Untersuchung des Gebrauchs des bestimmten Wortes „Bedeutung“ betrachtet werden. KW - Wittgenstein KW - Methode KW - Regelfolgen KW - Conant KW - Kuusela KW - Wittgenstein KW - method KW - rule-following KW - Conant KW - Kuusela Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57021 ER - TY - THES A1 - Sperfeld, Erik T1 - Effects of temperature and co-limiting nutritional components on life history traits of Daphnia magna and its biochemical composition Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Schatz, Daniela T1 - LNA-clamp-PCR zum sensitiven Nachweis von Punktmutationen im Rahmen der Entwicklung eines Darmkrebsfrüherkennungstests T1 - LNA-clamp-PCR as a method for sensitive detection of point mutations as part of the development of an assay for the early diagnosis of colon cancer N2 - Darmkrebs ist die zweithäufigste malignombedingte Todesursache in den westlichen Industrieländern. Durch eine frühzeitige Diagnose besteht jedoch eine hohe Chance auf Heilung. Der Goldstandard zur Darmkrebsfrüherkennung ist gegenwärtig die Koloskopie. Eine Darmspiegelung ist jedoch invasiv und mit Unannehmlichkeiten für den Patienten verbunden. Die Akzeptanz in der Bevölkerung ist daher gering. Ziel des BMBF- Projektes „Entwicklung eines nichtinvasiven Nachweissystems zur Früherkennung von humanem Darmkrebs“, in dessen Rahmen diese Arbeit entstand, ist die Bereitstellung eines nichtinvasiven Nachweisverfahrens zur Darmkrebsfrüherkennung. Der Nachweis soll über die Detektion von aus neoplastischen Zellen stammender DNA in Stuhl erfolgen. Die Entartung dieser Zellen beruht auf Veränderungen im Erbgut, welches unter anderem Mutationen sind. Im ersten Teil des BMBF-Projektes wurde ein Set von Mutationen zusammengestellt, welches eine hohe Sensitivität für Vorstufen von Darmkrebs aufweist. Ziel dieser Arbeit war es, eine Nachweismethode für die zuvor identifizierten Punktmutationen zu entwickeln. Das Nachweisverfahren musste dabei unempfindlich gegen einen hohen Hintergrund nichtmutierter DNA sein, da im Stuhl geringe Mengen DNA aus neoplastischen Zellen bei einem hohen Hintergrund von DNA aus gesunden Zellen vorliegen. Hierzu wurden Plasmidmodellsysteme für die aus dem Marker-Set stammenden Genfragmente BRAF und dessen Mutante V600E, CTNNB1 und T41I, T41A, S45P und K-ras G12C hergestellt. Mit Hilfe dieser Plasmidmodellsysteme wurde dann das Nachweissystem entwickelt. Der entscheidende Schritt für die Detektion von Punktmutationen bei hohem Wildtypüberschuss ist eine vorhergehende Anreicherung. In der vorliegenden Arbeit wurde dazu die Methode der LNA-clamp-PCR (locked nucleic acid) etabliert. Die Bewertung der erzielten Anreicherung erfolgte über das relative Detektionslimit. Zur Bestimmung des Detektionslimits wurde die Schmelzkurvenanalyse von Hybridisierungssonden eingesetzt; diese wurde im Rahmen dieser Arbeit für die drei oben genannten Genfragmente und ihre Mutanten entwickelt. Die LNA-clamp-PCR wird in Anwesenheit eines LNA-Blockers durchgeführt. Das Nukleotidanalogon LNA weist im Vergleich zu DNA eine erhöhte Affinität zu komplementären DNA-Strängen auf. Gleichzeitig kommt es bei Anwesenheit einer Basenfehlpaarung zu einer größeren Destabilisierung der Bindung. Als Blocker werden kurze LNA-DNA-Hybridoligonukleotide eingesetzt, die den mutierten Sequenzbereich überspannen und selbst der Wildtypsequenz entsprechen. Durch Bindung an die Wildtypsequenz wird deren Amplifikation während der PCR verhindert (clamp = arretieren, festklemmen). Der Blocker selbst wird dabei nicht verlängert. Der Blocker bindet unter optimalen Bedingungen jedoch nicht an die mutierte Sequenz. Die Mutante wird daher ungehindert amplifiziert und somit gegenüber dem Wildtyp-Fragment angereichert. Die Position des Blockers kann im Bindungsbereich eines der Primer sein und hier dessen Hybridisierung an dem Wildtyp-Fragment verhindern oder zwischen den beiden Primern liegen und so die Synthese durch die Polymerase inhibieren. Die Anwendbarkeit beider Systeme wurde in dieser Arbeit gezeigt. Die LNA-clamp-PCR mit Primerblocker wurde für BRAF etabliert. Es wurde ein Detektionslimit von mindestens 1:100 erzielt. Die LNA-clamp-PCR mit Amplifikationsblocker wurde erfolgreich für BRAF, K-ras und CTNNB1: T41I, T41A mit einem Detektionslimit von 1:1000 bis 1:10 000 entwickelt. In Stuhlproben liegt DNA aus neoplastischen Zellen nach Literaturangaben zu einem Anteil von 1% bis 0,1% vor. Die LNA-clamp-PCR weist also mit Amplifikationsblockern ein ausreichend hohes Detektionslimit für die Analyse von Stuhlproben auf. Durch die erfolgreiche Etablierung der Methode auf drei verschiedenen Genfragmenten und vier unterschiedlichen Punktmutationen konnte deren universelle Einsetzbarkeit gezeigt werden. Für die Ausweitung der LNA-clamp-PCR auf die übrigen Mutationen des Marker-Sets wurden Richtlinien ausgearbeitet und die Blockereffizienz als Kennzahl eingeführt. Die LNA-clamp-PCR ist ein schnelles, kostengünstiges Verfahren, welches einen geringen Arbeitsaufwand erfordert und wenig fehleranfällig ist. Sie ist somit ein geeignetes Anreicherungsverfahren für Punktmutationen in einem diagnostischen System zur Darmkrebsfrüherkennung. Darüber hinaus kann die LNA-clamp-PCR auch in anderen Bereichen, in denen die Detektion von Punktmutationen in einem hohen Wildtyphintergrund erforderlich ist, eingesetzt werden. N2 - Colon cancer is the second leading cause of cancer related deaths in the western world. However if diagnosed early there is a great chance curing the disease. Coloscopy is the gold standard for early detection of colorectal cancer today. Its greatest disadvantage is the fact that it is an invasive technique and provides some discomfort for the patients. Therefore, the compliance to undergo such a procedure is extremely low. This work was generated in the context of the BMBF-project „Development of a non-invasive assay for the early detection of preneoplastic and neoplastic lesions in the human colon“. The aim of the work described here is the development of a non-invasive assay for the early detection of colon cancer. The assay should detect DNA from neoplastic cells in feces samples. The transformation of these cells is based on alterations in the genome predominantly mutations. In the first part of the BMBF-project a mutation panel with high sensitivity for preneoplastic lesions of colon cancer was determined. The aim of this work was to develop a detection method for the point mutations of the determined mutation panel. The rare mutant DNA needs to be detected in the presence of a great amount of wild-type DNA shed from healthy tissue. The assay system needs to be insensitive to this high background of healthy DNA. Therefore a model system of plasmid DNA containing gene fragments of BRAF and its mutation V600E, CTNNB1 and T41I, T41A, S45P and K-ras G12C obtained from the marker panel was established. Using these plasmid system the detection method was developed. The most critical parameter for the detection of rare point mutations is an enrichment of these rare DNA molecules. In this work LNA-clamp-PCR (locked nucleic acid) technology was used to enrich the mutant DNA.. For the estimation of the achieved enrichment the relative detection limit was used. The detection limit was determined by melting curve analysis of hybridization probes. These assays were established in the present work for the three above mentioned gene fragments. LNA-clamp-PCR is performed in the presence of an LNA blocker. LNA is a synthetic DNA analog. LNA nucleotide analog bind to complementary DNA strands with higher affinity. In addition a single mismatch in the LNA-DNA duplex causes a much greater destabilization compared to a DNA-DNA duplex. Short LNA-DNA-hybrids were used as clamp, which cover the mutated region and represent the wild-type sequence. Within an appropriate temperature range, LNA can specifically bind to wild type template and can inhibit its amplification. The clamp itself will not be elongated. Under optimal conditions the LNA clamp will not interfere with the amplification of the mismatched template. Therefore the mutated gene fragment will be enriched in comparison to the wild-type. The position of the LNA clamp can either be at the primer binding site inhibiting primer hybridization on the wild-type fragment or the LNA clamp is positioned between the two primer binding sites inhibiting chain elongation of the perfectly matched template. In the present work both systems were applied. For the gene fragment BRAF the LNA was used at the primer binding site. The achieved detection limit was at least 1:100. The LNA-clamp-PCR with LNA inhibiting the chain elongation were developed successfully for BRAF, K-ras and CTNNB1: T41I, T41A achieving a detection limit of 1:1000 to 1:10 000. According to the literature 1% to 0.1% of the DNA in feces derives from neoplastic cells. Therefore the detection limit achieved by LNA-clamp-PCR with LNA inhibiting chain elongation would be sufficient for analyzing feces samples. LNA-clamp-PCR protocols were established for three different gene fragments and four diverse point mutations indicating that the technology can generally be used for high sensitive detection of DNA mutations. For the development of LNA-clamp-PCR protocols for the other mutations of the marker panel development guidelines were established. Clamp efficiency was identified as a quantitative parameter for protocol optimization. The LNA-clamp-PCR is a robust, fast and cost-saving technique which needs low labor input. Therefore the method is adequate for enriching point mutated gene fragments in a diagnostic assay for the detection of early colon cancer stages. In addition LNA-clamp-PCR can be applied in other fields where rare sequence variations need to be detected in the presence of high wild-type DNA background. KW - LNA-clamp-PCR KW - Darmkrebsdiagnostik KW - Punktmutation KW - BRAF KW - K-ras KW - LNA- clamp-PCR KW - colon cancer diagnosis KW - point mutation KW - BRAF KW - K-ras Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52308 ER - TY - THES A1 - Grochowska, Marta T1 - Ökonomische, soziale und räumliche Folgen der saisonalen Arbeitsmigration im Herkunftsgebiet : am Beispiel der Region Konin (Polen) T1 - Economic, social and spatial consequences of seasonal migration in the place of origin – case study : Konin (Poland) N2 - Die vorliegende Arbeit basiert auf Forschungen in den Jahren 2007-2009. Sie betrachtet die saisonale Arbeitsmigration aus der polnischen Region Konin, wo die Arbeitsmigration aus ökonomischen Gründen, wie auch in ähnlich strukturierten Gebieten Polens, eine lange Tradition hat, die bis ins 19. Jahrhundert zurückgeht. Sie wird die saisonale Migration ins Ausland mit den ökonomischen, sozialen und räumlichen Auswirkungen aus der Perspektive des Einzelnen und seiner unmittelbaren Umgebung, aber auch der Gesellschaft und Herkunftsgebiet der Migranten betrachtet. N2 - Mobility for economic reasons is treated in science primarily from the perspective of permanent resettlement. However, other varieties of migration are more and more often studied. This paper deals with the seasonal migration for economic reasons, which is an important area of migration undertaken for economic reasons. Seasonal migration, which leads to crossing the country borders, in the literature is called the Transnational Migration. Unlike international migration, which is usually connected with a permanent settling in the target area, the concept of Transnational migration describes the situation, in which migrants return to their place of origin and do not give it up as their main residence, but every time they travel to another country to get employed. As a research area of this work, the Konin region was chosen, because - in comparison with other regions in Poland - the phenomenon of a very high level of seasonal migration was observed there. Seasonal labor migration is a long tradition that goes back to 19. century here and in other Polish regions with similar structure. From the results of conducted in 2007−2009 research, some general facts can be drawn. Due to the seasonal work abroad, a seasonal migrant can increase their and their family’s standard of living. If the cost of living in the place of seasonal work is higher than in the place of origin, the profit of such visits is obviously higher if the family of a seasonal worker remains in the place of origin. This leads to the geographic division bet389 ween the place of working and place of permanent residence. Higher wages can be determined at the level of benefits to both personal and societal level. On the other hand, both forprofit workers and society in dealing with this phenomenon, costs cannot be ignored. This paper considers the pros and cons of seasonal paid work, both from the perspective of individuals and their surroundings, and the consequences for society and region of origin of the employee. This paper is considering economic, social and spatial consequences, each time at the macro and micro levels. The study was based primarily on interviews with several respondents and experts in the subject of Polish and German migrations for profit. T3 - Potsdamer Geographische Forschungen - 29 KW - saisonale Arbeitsmigration KW - transnationale Migration KW - Transnationalismus KW - Polen KW - Region Konin KW - Sachsengängerei KW - seasonal labor migration KW - transnational migration KW - transnationalism KW - Poland KW - Konin region KW - Sachsengängerei Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49649 SN - 978-3-86956-137-0 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Schulze, Andreas T1 - Demographics of supermassive black holes T1 - Demgraphie supermassereicher Schwarzer Löcher N2 - Supermassive black holes are a fundamental component of the universe in general and of galaxies in particular. Almost every massive galaxy harbours a supermassive black hole (SMBH) in its center. Furthermore, there is a close connection between the growth of the SMBH and the evolution of its host galaxy, manifested in the relationship between the mass of the black hole and various properties of the galaxy's spheroid component, like its stellar velocity dispersion, luminosity or mass. Understanding this relationship and the growth of SMBHs is essential for our picture of galaxy formation and evolution. In this thesis, I make several contributions to improve our knowledge on the census of SMBHs and on the coevolution of black holes and galaxies. The first route I follow on this road is to obtain a complete census of the black hole population and its properties. Here, I focus particularly on active black holes, observable as Active Galactic Nuclei (AGN) or quasars. These are found in large surveys of the sky. In this thesis, I use one of these surveys, the Hamburg/ESO survey (HES), to study the AGN population in the local volume (z~0). The demographics of AGN are traditionally represented by the AGN luminosity function, the distribution function of AGN at a given luminosity. I determined the local (z<0.3) optical luminosity function of so-called type 1 AGN, based on the broad band B_J magnitudes and AGN broad Halpha emission line luminosities, free of contamination from the host galaxy. I combined this result with fainter data from the Sloan Digital Sky Survey (SDSS) and constructed the best current optical AGN luminosity function at z~0. The comparison of the luminosity function with higher redshifts supports the current notion of 'AGN downsizing', i.e. the space density of the most luminous AGN peaks at higher redshifts and the space density of less luminous AGN peaks at lower redshifts. However, the AGN luminosity function does not reveal the full picture of active black hole demographics. This requires knowledge of the physical quantities, foremost the black hole mass and the accretion rate of the black hole, and the respective distribution functions, the active black hole mass function and the Eddington ratio distribution function. I developed a method for an unbiased estimate of these two distribution functions, employing a maximum likelihood technique and fully account for the selection function. I used this method to determine the active black hole mass function and the Eddington ratio distribution function for the local universe from the HES. I found a wide intrinsic distribution of black hole accretion rates and black hole masses. The comparison of the local active black hole mass function with the local total black hole mass function reveals evidence for 'AGN downsizing', in the sense that in the local universe the most massive black holes are in a less active stage then lower mass black holes. The second route I follow is a study of redshift evolution in the black hole-galaxy relations. While theoretical models can in general explain the existence of these relations, their redshift evolution puts strong constraints on these models. Observational studies on the black hole-galaxy relations naturally suffer from selection effects. These can potentially bias the conclusions inferred from the observations, if they are not taken into account. I investigated the issue of selection effects on type 1 AGN samples in detail and discuss various sources of bias, e.g. an AGN luminosity bias, an active fraction bias and an AGN evolution bias. If the selection function of the observational sample and the underlying distribution functions are known, it is possible to correct for this bias. I present a fitting method to obtain an unbiased estimate of the intrinsic black hole-galaxy relations from samples that are affected by selection effects. Third, I try to improve our census of dormant black holes and the determination of their masses. One of the most important techniques to determine the black hole mass in quiescent galaxies is via stellar dynamical modeling. This method employs photometric and kinematic observations of the galaxy and infers the gravitational potential from the stellar orbits. This method can reveal the presence of the black hole and give its mass, if the sphere of the black hole's gravitational influence is spatially resolved. However, usually the presence of a dark matter halo is ignored in the dynamical modeling, potentially causing a bias on the determined black hole mass. I ran dynamical models for a sample of 12 galaxies, including a dark matter halo. For galaxies for which the black hole's sphere of influence is not well resolved, I found that the black hole mass is systematically underestimated when the dark matter halo is ignored, while there is almost no effect for galaxies with well resolved sphere of influence. N2 - Supermassereiche Schwarze Löcher sind ein fundamentaler Bestandteil unseres Universims im Allgemeinen, und von Galaxien im Besonderen. Fast jede massereiche Galaxie beherbergt ein supermassereiches Schwarzes Loch in seinem Zentrum. Außerdem existiert eine enge Beziehung zwischen dem Wachstum des Schwarzen Loches und der Entwicklung seiner umgebenden Galaxie. Diese zeigt sich besonders in der engen Beziehung zwischen der Masse eines Schwarzen Loches und den Eigenschaften der sphäroidalen Komponente der Galaxie, beispielsweise seiner stellaren Geschwindigkeitsdispersion, seiner Leuchtkraft und seiner Masse. Diese Beziehung erklären zu können, sowie das Wachstum von Schwarzen Löchern zu verstehen, liefert einen wichtigen Beitrag zu unserem Bild der Entstehung und Entwicklung von Galaxien. In dieser Arbeit steuere ich verschiedene Beiträge dazu bei unser Verständnis des Vorkommens Schwarzer Löcher und der Beziehung zu ihren Galaxien zu verbessern. Zunächst versuche ich ein vollständiges Bild der Anzahl und Eigenschaften Schwarzer Löcher zu erhalten. Dazu beschränke ich mich auf aktive Schwarze Löcher, wie man sie im Universum als Aktive Galaxienkerne (AGN) in großen Himmelsdurchmusterungen finden kann. Ich benutze eine solche Durchmusterung, das Hamburg/ESO Survey (HES), um die AGN Population im lokalen Universum zu studieren. Dazu habe ich die optische Leuchtkraftfunktion von AGN bestimmt. Diese habe ich mit anderen Ergebnissen leuchtschwächerer AGN kombiniert um die bisher beste AGN Leuchtkraftfunktion im lokalen Universum zu erhalten. Der Vergleich mit Ergebnissen bei höherer kosmischer Rotverschiebung bestätigt unser Bild des sogenannten "AGN downsizing". Dies sagt aus, dass leuchtkräftige AGN bei hoher Rotverschiebung am häufigsten vorkommen, während leuchtschwache AGN bei niedriger Rotverschiebung am häufigsten sind. Allerdings verrät uns die AGN Leuchtkraftfunktion allein noch nicht das ganze Bild der Demographie Schwarzer Löcher. Vielmehr sind wir an den zugrunde liegenden Eigenschaften, vor allem der Masse und der Akkretionsrate der Schwarzen Löcher, sowie deren statistischen Verteilungsfunktionen, interessiert. Ich habe eine Methode entwickelt um diese beiden Verteilungsfunktionen zu bestimmen, basierend auf der Maximum-Likelihood-Methode. Ich habe diese Methode benutzt um die aktive Massenfunktion Schwarzer Löcher, sowie die Verteilungsfunktion ihrer Akkretionsraten für das lokale Universum aus dem HES zu bestimmen. Sowohl die Akkretionsraten, als auch die Massen der Schwarzen Löcher zeigen intrinsisch eine breite Verteilung, im Gegensatz zur schmaleren beobachtbaren Verteilung. Der Vergleich der aktiven Massenfunktion mit der gesamten Massenfunktion Schwarzer Löcher zeigt ebenfalls Hinweise auf "AGN downsizing". Als nächstes habe ich mich mit Untersuchungen zur zeitlichen Entwicklung in den Beziehungen zwischen Schwarzem Loch und Galaxie beschäftigt. Diese kann helfen unser theoretisches Veständnis der physikalischen Vorgänge zu verbessern. Beobachtungen sind immer auch Auswahleffekten unterworfen. Diese können die Schlussfolgerungen aus den Beobachtungen zur Entwicklung in den Beziehungen beeinflussen, wenn sie nicht entsprechend berücksichtigt werden. Ich habe den Einfluss von Auswahleffekten auf AGN Stichproben im Detail untersucht, und verschiedende möchgliche Einflussquellen identifiziert, die die Beziehung verfälschen können. Wenn die Auswahlkriterien der Stichprobe, sowie die zugrunde liegenden Verteilungen bekannt sind, so ist es möglich für die Auswahleffekte zu korrigieren. Ich habe eine Methode entwickelt, mit der man die intrinsische Beziehung zwischem Schwarzem Loch und Galaxie aus den Beobachtungen rekonstruieren kann. Schließlich habe ich mich auch inaktiven Schwarzen Löchern und der Bestimmung ihrer Massen gewidmet. Eine der wichtigsten Methoden die Masse Schwarzer Löcher in normalen Galaxien zu bestimmen ist stellardynamische Modellierung. Diese Methode benutzt photometrische und kinematische Beobachtungen, und rekonstruiert daraus das Gravitationspotenzial aus der Analyse stellarer Orbits. Bisher wurde in diesen Modellen allerdings der Einfluss des Halos aus Dunkler Materie vernachlässigt. Dieser kann aber die Bestimmung der Masse des Schwarzen Loches beeinflussen. Ich habe 12 Galaxien mit Hilfe stellardynamischer Modellierung untersucht und dabei auch den Einfluss des Halos aus Dunkler Materie berücksichtigt. Für Galaxien bei denen der Einflussbereich des Schwarzen Loches nicht sehr gut räumlich aufgelöst war, wird die Masse des Schwarzen Loches systematisch unterschätzt, wenn der Dunkle Materie Halo nicht berücksichtigt wird. Auf der anderen Seite ist der Einfluss gering, wenn die Beobachtungen diesen Einflussbereich gut auflösen können. KW - Astrophysik KW - Quasare KW - Schwarze Löcher KW - AGN KW - Statistik KW - astrophysics KW - quasars KW - black holes KW - AGN KW - statistics Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54464 ER - TY - THES A1 - Avila, Gastón T1 - Asymptotic staticity and tensor decompositions with fast decay conditions T1 - Asymptotisch statische Anfangsdaten und Tensor-Zerlegungen mit starken Abfallbedingungen N2 - Corvino, Corvino and Schoen, Chruściel and Delay have shown the existence of a large class of asymptotically flat vacuum initial data for Einstein's field equations which are static or stationary in a neighborhood of space-like infinity, yet quite general in the interior. The proof relies on some abstract, non-constructive arguments which makes it difficult to calculate such data numerically by using similar arguments. A quasilinear elliptic system of equations is presented of which we expect that it can be used to construct vacuum initial data which are asymptotically flat, time-reflection symmetric, and asymptotic to static data up to a prescribed order at space-like infinity. A perturbation argument is used to show the existence of solutions. It is valid when the order at which the solutions approach staticity is restricted to a certain range. Difficulties appear when trying to improve this result to show the existence of solutions that are asymptotically static at higher order. The problems arise from the lack of surjectivity of a certain operator. Some tensor decompositions in asymptotically flat manifolds exhibit some of the difficulties encountered above. The Helmholtz decomposition, which plays a role in the preparation of initial data for the Maxwell equations, is discussed as a model problem. A method to circumvent the difficulties that arise when fast decay rates are required is discussed. This is done in a way that opens the possibility to perform numerical computations. The insights from the analysis of the Helmholtz decomposition are applied to the York decomposition, which is related to that part of the quasilinear system which gives rise to the difficulties. For this decomposition analogous results are obtained. It turns out, however, that in this case the presence of symmetries of the underlying metric leads to certain complications. The question, whether the results obtained so far can be used again to show by a perturbation argument the existence of vacuum initial data which approach static solutions at infinity at any given order, thus remains open. The answer requires further analysis and perhaps new methods. N2 - Corvino, Corvino und Schoen als auch Chruściel und Delay haben die Existenz einer grossen Klasse asymptotisch flacher Anfangsdaten für Einsteins Vakuumfeldgleichungen gezeigt, die in einer Umgebung des raumartig Unendlichen statisch oder stationär aber im Inneren der Anfangshyperfläche sehr allgemein sind. Der Beweis beruht zum Teil auf abstrakten, nicht konstruktiven Argumenten, die Schwierigkeiten bereiten, wenn derartige Daten numerisch berechnet werden sollen. In der Arbeit wird ein quasilineares elliptisches Gleichungssystem vorgestellt, von dem wir annehmen, dass es geeignet ist, asymptotisch flache Vakuumanfangsdaten zu berechnen, die zeitreflektionssymmetrisch sind und im raumartig Unendlichen in einer vorgeschriebenen Ordnung asymptotisch zu statischen Daten sind. Mit einem Störungsargument wird ein Existenzsatz bewiesen, der gilt, solange die Ordnung, in welcher die Lösungen asymptotisch statische Lösungen approximieren, in einem gewissen eingeschränkten Bereich liegt. Versucht man, den Gültigkeitsbereich des Satzes zu erweitern, treten Schwierigkeiten auf. Diese hängen damit zusammen, dass ein gewisser Operator nicht mehr surjektiv ist. In einigen Tensorzerlegungen auf asymptotisch flachen Räumen treten ähnliche Probleme auf, wie die oben erwähnten. Die Helmholtzzerlegung, die bei der Bereitstellung von Anfangsdaten für die Maxwellgleichungen eine Rolle spielt, wird als ein Modellfall diskutiert. Es wird eine Methode angegeben, die es erlaubt, die Schwierigkeiten zu umgehen, die auftreten, wenn ein schnelles Abfallverhalten des gesuchten Vektorfeldes im raumartig Unendlichen gefordert wird. Diese Methode gestattet es, solche Felder auch numerisch zu berechnen. Die Einsichten aus der Analyse der Helmholtzzerlegung werden dann auf die Yorkzerlegung angewandt, die in den Teil des quasilinearen Systems eingeht, der Anlass zu den genannten Schwierigkeiten gibt. Für diese Zerlegung ergeben sich analoge Resultate. Es treten allerdings Schwierigkeiten auf, wenn die zu Grunde liegende Metrik Symmetrien aufweist. Die Frage, ob die Ergebnisse, die soweit erhalten wurden, in einem Störungsargument verwendet werden können um die Existenz von Vakuumdaten zu zeigen, die im räumlich Unendlichen in jeder Ordnung statische Daten approximieren, bleibt daher offen. Die Antwort erfordert eine weitergehende Untersuchung und möglicherweise auch neue Methoden. KW - Einsteins Feldgleichungen KW - Zwangsgleichungen KW - Tensor-Zerlegungen KW - raumartige Unendliche KW - elliptisches Gleichungssystem KW - Einstein's field equations KW - constraint equations KW - tensor decompositions KW - space-like infinity KW - elliptic systems Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54046 ER - TY - THES A1 - Kluth, Stephan T1 - Quantitative modeling and analysis with FMC-QE T1 - Quantitative Modellierung und Analyse mit FMC-QE N2 - The modeling and evaluation calculus FMC-QE, the Fundamental Modeling Concepts for Quanti-tative Evaluation [1], extends the Fundamental Modeling Concepts (FMC) for performance modeling and prediction. In this new methodology, the hierarchical service requests are in the main focus, because they are the origin of every service provisioning process. Similar to physics, these service requests are a tuple of value and unit, which enables hierarchical service request transformations at the hierarchical borders and therefore the hierarchical modeling. Through reducing the model complexity of the models by decomposing the system in different hierarchical views, the distinction between operational and control states and the calculation of the performance values on the assumption of the steady state, FMC-QE has a scalable applica-bility on complex systems. According to FMC, the system is modeled in a 3-dimensional hierarchical representation space, where system performance parameters are described in three arbitrarily fine-grained hierarchi-cal bipartite diagrams. The hierarchical service request structures are modeled in Entity Relationship Diagrams. The static server structures, divided into logical and real servers, are de-scribed as Block Diagrams. The dynamic behavior and the control structures are specified as Petri Nets, more precisely Colored Time Augmented Petri Nets. From the structures and pa-rameters of the performance model, a hierarchical set of equations is derived. The calculation of the performance values is done on the assumption of stationary processes and is based on fundamental laws of the performance analysis: Little's Law and the Forced Traffic Flow Law. Little's Law is used within the different hierarchical levels (horizontal) and the Forced Traffic Flow Law is the key to the dependencies among the hierarchical levels (vertical). This calculation is suitable for complex models and allows a fast (re-)calculation of different performance scenarios in order to support development and configuration decisions. Within the Research Group Zorn at the Hasso Plattner Institute, the work is embedded in a broader research in the development of FMC-QE. While this work is concentrated on the theoretical background, description and definition of the methodology as well as the extension and validation of the applicability, other topics are in the development of an FMC-QE modeling and evaluation tool and the usage of FMC-QE in the design of an adaptive transport layer in order to fulfill Quality of Service and Service Level Agreements in volatile service based environments. This thesis contains a state-of-the-art, the description of FMC-QE as well as extensions of FMC-QE in representative general models and case studies. In the state-of-the-art part of the thesis in chapter 2, an overview on existing Queueing Theory and Time Augmented Petri Net models and other quantitative modeling and evaluation languages and methodologies is given. Also other hierarchical quantitative modeling frameworks will be considered. The description of FMC-QE in chapter 3 consists of a summary of the foundations of FMC-QE, basic definitions, the graphical notations, the FMC-QE Calculus and the modeling of open queueing networks as an introductory example. The extensions of FMC-QE in chapter 4 consist of the integration of the summation method in order to support the handling of closed networks and the modeling of multiclass and semaphore scenarios. Furthermore, FMC-QE is compared to other performance modeling and evaluation approaches. In the case study part in chapter 5, proof-of-concept examples, like the modeling of a service based search portal, a service based SAP NetWeaver application and the Axis2 Web service framework will be provided. Finally, conclusions are given by a summary of contributions and an outlook on future work in chapter 6. [1] Werner Zorn. FMC-QE - A New Approach in Quantitative Modeling. In Hamid R. Arabnia, editor, Procee-dings of the International Conference on Modeling, Simulation and Visualization Methods (MSV 2007) within WorldComp ’07, pages 280 – 287, Las Vegas, NV, USA, June 2007. CSREA Press. ISBN 1-60132-029-9. N2 - FMC-QE (Fundamental Modeling Concepts for Quantitative Evaluation [1]) ist eine auf FMC, den Fundamental Modeling Concepts, basierende Methodik zur Modellierung des Leistungsverhaltens von Systemen mit einem dazugehörenden Kalkül zur Erstellung von Leistungsvorhersagen wie Antwortzeiten und Durchsatz. In dieser neuen Methodik steht die Modellierung der hierarchischen Bedienanforderungen im Mittelpunkt, da sie der Ursprung aller dienstbasierenden Systeme sind. Wie in der Physik sind in FMC-QE die Bedienanforderungen Tupel aus Wert und Einheit, um Auftragstransformationen an Hierarchiegrenzen zu ermöglichen. Da die Komplexität durch eine Dekomposition in mehreren Sichten und in verschiedene hierarchische Schichten, die Unterscheidung von Operations- und Kontrollzuständen, sowie dazugehörige Berechungen unter Annahme der Stationarität reduziert wird, skaliert die Anwendbarkeit von FMC-QE auf komplexe Systeme. Gemäß FMC wird das zu modellierende System in einem 3-dimensionalen hierarchischen Beschreibungsraum dargestellt. Die quantitativen Kenngrößen der Systeme werden in drei beliebig frei-granularen hierarchischen bi-partiten Graphen beschrieben. Die hierarchische Struktur der Bedienanforderungen wird in Entity Relationship Diagrammen beschrieben. Die statischen Bedienerstrukturen, unterteilt in logische und reale Bediener, sind in Aufbaudiagrammen erläutert. Außerdem werden Petri Netze, genauer Farbige Zeit-behaftete Petri Netze, dazu verwendet, die dynamischen Abläufe, sowie die Kontrollflüsse im System zu beschreiben. Anschließend wird eine Menge von hierarchischen Gleichungen von der Struktur und den Parametern des Modells abgeleitet. Diese Gleichungen, die auf dem stationären Zustand des Systems beruhen, basieren auf den beiden Fundamental Gesetzen der Leistungsanalyse, dem Gesetz von Little und dem Verkehrsflussgesetz. Das Gesetz von Little definiert hierbei Beziehungen innerhalb einer hierarchischen Schicht (horizontal) und das Verkehrsflussgesetz wiederum Beziehungen zwischen hierarchischen Schichten (vertikal). Die Berechungen erlauben Leistungsvorhersagen für komplexe Systeme durch eine effiziente Berechnung von Leistungsgrößen für eine große Auswahl von System- und Lastkonfigurationen. Innerhalb der Forschungsgruppe von Prof. Dr.-Ing Werner Zorn am Hasso Plattner Institut an der Universität Potsdam ist die vorliegende Arbeit in einen größeren Forschungskontext im Bereich FMC-QE eingebettet. Während hier ein Fokus auf dem theoretischen Hintergrund, der Beschreibung und der Definition der Methodik als auch der Anwendbarkeit und Erweiterung gelegt wurde, sind andere Arbeiten auf dem Gebiet der Entwicklung einer Anwendung zur Modellierung und Evaluierung von Systemen mit FMC-QE bzw. der Verwendung von FMC-QE zur Entwicklung einer adaptiven Transportschicht zur Einhaltung von Dienstgüten (Quality of Service) und Dienstvereinbarungen (Service Level Agreements) in volatilen dienstbasierten Systemen beheimatet. Diese Arbeit umfasst einen Einblick in den Stand der Technik, die Beschreibung von FMC-QE sowie die Weiterentwicklung von FMC-QE in repräsentativen allgemeinen Modellen und Fallstudien. Das Kapitel 2: Stand der Technik gibt einen Überblick über die Warteschlangentheorie, Zeit-behaftete Petri Netze, weitere Leistungsbeschreibungs- und Leistungsvorhersagungstechniken sowie die Verwendung von Hierarchien in Leistungsbeschreibungstechniken. Die Beschreibung von FMC-QE in Kapitel 3 enthält die Erläuterung der Grundlagen von FMC-QE, die Beschreibung einiger Grundannahmen, der graphischen Notation, dem mathematischen Modell und einem erläuternden Beispiel. In Kapitel 4: Erweiterungen von FMC-QE wird die Behandlung weiterer allgemeiner Modelle, wie die Modellklasse von geschlossenen Netzen, Synchronisierung und Mehrklassen-Modelle beschrieben. Außerdem wird FMC-QE mit dem Stand der Technik verglichen. In Kapitel 5 werden Machbarkeitsstudien beschrieben. Schließlich werden in Kapitel 6 eine Zusammenfassung und ein Ausblick gegeben. [1] Werner Zorn. FMC-QE - A New Approach in Quantitative Modeling. In Hamid R. Arabnia, editor, Proceedings of the International Conference on Modeling, Simulation and Visualization Methods (MSV 2007) within WorldComp ’07, 280 – 287, Las Vegas, NV, USA, Juni 2007. CSREA Press. ISBN 1-60132-029-9. KW - FMC-QE KW - Quantitative Modellierung KW - Leistungsvorhersage KW - Warteschlangentheorie KW - Zeitbehaftete Petri Netze KW - FMC-QE KW - Quantitative Modeling KW - Performance Prediction KW - Queuing Theory KW - Time Augmented Petri Nets Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52987 ER - TY - THES A1 - Off, Thomas T1 - Durchgängige Verfolgbarkeit im Vorfeld der Softwareentwicklung von E-Government-Anwendungen : ein ontologiebasierter und modellgetriebener Ansatz am Beispiel von Bürgerdiensten T1 - Continuous pre-requirements specification traceability for e-government : ontology based and model driven approach using the example of citizen services N2 - Die öffentliche Verwaltung setzt seit mehreren Jahren E-Government-Anwendungssysteme ein, um ihre Verwaltungsprozesse intensiver mit moderner Informationstechnik zu unterstützen. Da die öffentliche Verwaltung in ihrem Handeln in besonderem Maße an Recht und Gesetz gebunden ist verstärkt und verbreitet sich der Zusammenhang zwischen den Gesetzen und Rechtsvorschriften einerseits und der zur Aufgabenunterstützung eingesetzten Informationstechnik andererseits. Aus Sicht der Softwaretechnik handelt es sich bei diesem Zusammenhang um eine spezielle Form der Verfolgbarkeit von Anforderungen (engl. Traceability), die so genannte Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (Pre-Requirements Specification Traceability, kurz Pre-RS Traceability), da sie Aspekte betrifft, die relevant sind, bevor die Anforderungen in eine Spezifikation eingeflossen sind (Ursprünge von Anforderungen). Der Ansatz dieser Arbeit leistet einen Beitrag zur Verfolgbarkeit im Vorfeld der Anforderungsspezifikation von E-Government-Anwendungssystemen. Er kombiniert dazu aktuelle Entwicklungen und Standards (insbesondere des World Wide Web Consortium und der Object Management Group) aus den Bereichen Verfolgbarkeit von Anforderungen, Semantic Web, Ontologiesprachen und modellgetriebener Softwareentwicklung. Der Lösungsansatz umfasst eine spezielle Ontologie des Verwaltungshandeln, die mit den Techniken, Methoden und Werkzeugen des Semantic Web eingesetzt wird, um in Texten von Rechtsvorschriften relevante Ursprünge von Anforderungen durch Annotationen mit einer definierten Semantik zu versehen. Darauf aufbauend wird das Ontology Definition Metamodel (ODM) verwendet, um die Annotationen als spezielle Individuen einer Ontologie auf Elemente der Unified Modeling Language (UML) abzubilden. Dadurch entsteht ein neuer Modelltyp Pre-Requirements Model (PRM), der das Vorfeld der Anforderungsspezifikation formalisiert. Modelle diesen Typs können auch verwendet werden, um Aspekte zu formalisieren die sich nicht oder nicht vollständig aus dem Text der Rechtsvorschrift ergeben. Weiterhin bietet das Modell die Möglichkeit zum Anschluss an die modellgetriebene Softwareentwicklung. In der Arbeit wird deshalb eine Erweiterung der Model Driven Architecture (MDA) vorgeschlagen. Zusätzlich zu den etablierten Modelltypen Computation Independent Model (CIM), Platform Independent Model (PIM) und Platform Specific Model (PSM) könnte der Einsatz des PRM Vorteile für die Verfolgbarkeit bringen. Wird die MDA mit dem PRM auf das Vorfeld der Anforderungsspezifikation ausgeweitet, kann eine Transformation des PRM in ein CIM als initiale Anforderungsspezifikation erfolgen, indem der MOF Query View Transformation Standard (QVT) eingesetzt wird. Als Teil des QVT-Standards ist die Aufzeichnung von Verfolgbarkeitsinformationen bei Modelltransformationen verbindlich. Um die semantische Lücke zwischen PRM und CIM zu überbrücken, erfolgt analog zum Einsatz des Plattformmodells (PM) in der PIM nach PSM Transformation der Einsatz spezieller Hilfsmodelle. Es kommen dafür die im Projekt "E-LoGo" an der Universität Potsdam entwickelten Referenzmodelle zum Einsatz. Durch die Aufzeichnung der Abbildung annotierter Textelemente auf Elemente im PRM und der Transformation der Elemente des PRM in Elemente des CIM kann durchgängige Verfolgbarkeit im Vorfeld der Anforderungsspezifikation erreicht werden. Der Ansatz basiert auf einer so genannten Verfolgbarkeitsdokumentation in Form verlinkter Hypertextdokumente, die mittels XSL-Stylesheet erzeugt wurden und eine Verbindung zur graphischen Darstellung des Diagramms (z. B. Anwendungsfall-, Klassendiagramm der UML) haben. Der Ansatz unterstützt die horizontale Verfolgbarkeit zwischen Elementen unterschiedlicher Modelle vorwärts- und rückwärtsgerichtet umfassend. Er bietet außerdem vertikale Verfolgbarkeit, die Elemente des gleichen Modells und verschiedener Modellversionen in Beziehung setzt. Über den offensichtlichen Nutzen einer durchgängigen Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (z. B. Analyse der Auswirkungen einer Gesetzesänderung, Berücksichtigung des vollständigen Kontextes einer Anforderung bei ihrer Priorisierung) hinausgehend, bietet diese Arbeit eine erste Ansatzmöglichkeit für eine Feedback-Schleife im Prozess der Gesetzgebung. Stehen beispielsweise mehrere gleichwertige Gestaltungsoptionen eines Gesetzes zur Auswahl, können die Auswirkungen jeder Option analysiert und der Aufwand ihrer Umsetzung in E-Government-Anwendungen als Auswahlkriterium berücksichtigt werden. Die am 16. März 2011 in Kraft getretene Änderung des NKRG schreibt eine solche Analyse des so genannten „Erfüllungsaufwands“ für Teilbereiche des Verwaltungshandelns bereits heute verbindlich vor. Für diese Analyse kann die vorliegende Arbeit einen Ansatz bieten, um zu fundierten Aussagen über den Änderungsaufwand eingesetzter E-Government-Anwendungssysteme zu kommen. N2 - Public administration is using electronic government (e-government) application systems for several years to support their processes more intensive with modern information and communication technology than ever before. This increases and broadens the relationship between law and legislation executed by the administration on the one hand and requirements to e-government application systems used to support administrative execution on the other hand. This relationship is subject matter of pre-requirements specification traceability (pre-RS traceability). This work introduces an approach to pre-RS traceabiliy for e-government application. It combines research efforts and standards (i.e. of World Wide Web Consortium and Object Management Group) from different fields: traceability, semantic web, ontology engineering and model driven software engineering. Using this approach it is possible to add a semantic to elements of law and legislation texts using annotations. Annotation semantics is based on an ontology of public administration execution developed especially for this approach. A mapping from annotated text elements as a special kind of ontology individuals to elements of Unified Modeling Language (UML) is created using the Ontology Definition Metamodel (ODM). This mapping results in a new model type referred to as Pre-Requirements Model (PRM). This model uses elements that exist before requirements are explicitly documented in a requirements specification. Therefore it can be primary used to formalize elements and their relationships in the pre-requirements scope. Through the mapping rules of ODM it keeps a traceable relationship from each model element to its corresponding annotated text elements. PRM can also be used to model and refine elements that are not or not completely derived directly from text of law and legislation. In this work is argued that Model Driven Architecture (MDA) might profit from extending the existing model types Computation Independent Model (CIM), Platform Independent Model (PIM) and Platform Specific Model (PSM) by using a PRM. This extension leads to an Architecture that starts with a pre-requirements viewpoint before any requirements are formalized and documented in models of type CIM. It offers also the opportunity to use model transformation to create an initial CIM from PRM by allying the MOF Query View Transformation standard (QVT). Using QVT ensures the traceability of model transformation because standard enforces recording of traceability information. A Transformation from PRM to CIM creates an initial requirements specification that can be refined using common techniques, methods and tools. To bridge the semantic gap between PRM and CIM the approach follows the pattern of PIM to PSM transformation which uses the Platform Model (PM). Analogues PRM to CIM transformation uses special reference models for e-government developed in the project "E-LoGo" at university of Potsdam. By recoding traces of mapping annotation to elements in PRM and transforming elements of PRM to elements in CIM using reference models continuous pre-RS traceability can be achieved. The approach uses simple Extensible Stylesheet Language Transformations (XSLT) to create a hypertext documentation that links all relevant elements. Navigating along these links makes it possible for example to start with an annotated element of a law text and follow to all resulting requirements in a CIM. Using the opposite direction it is possible to see for each requirement from which text element of a law it is derived or even if there is no relation to law. By integrating the graphical representation of a model element this navigation can even start directly in a UML diagram. This illustrates that the approach offers vertical and horizontal traceability in forward and backward direction. Besides the obvious use cases continuous pre-requirements specification traceability offers in general (i.e. impact analysis on changes of law and legislation, consider context of a requirements when prioritizing them) is also offers the chance to create a feedback on the consequences of a change in law to existing e-government systems. As long as alternatives and the necessary scope in legislative process are still left, a feedback can be used to choose an alternative with less effort or faster implementation. For federal law it is in Germany since 2011 obligatory to make a similar estimation referred to as achievement effort (“Erfüllungsaufwand”). This work contributes to the first step of making a solid estimation of this kind of effort using pre-RS traceability. KW - Modellgetriebene Architektur KW - Pre-RS Traceability KW - Ontologie KW - semantisches Netz KW - Model Driven Architecture KW - Pre-RS Traceability KW - Ontology KW - Semantic Web Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57478 ER - TY - THES A1 - Loßow, Kristina T1 - Erzeugung und Charakterisierung von Mausmodellen mit lichtsensitivem Geschmackssystem zur Aufklärung der neuronalen Geschmackskodierung T1 - Generation and characterization of transgenic lines of mice to elucidate neuralnetworks engaged in processing of gustatory information N2 - Die Wahrnehmung von Geschmacksempfindungen beruht auf dem Zusammenspiel verschiedener Sinneseindrücke wie Schmecken, Riechen und Tasten. Diese Komplexität der gustatorischen Wahrnehmung erschwert die Beantwortung der Frage wie Geschmacksinformationen vom Mund ins Gehirn weitergeleitet, prozessiert und kodiert werden. Die Analysen zur neuronalen Prozessierung von Geschmacksinformationen erfolgten zumeist mit Bitterstimuli am Mausmodell. Zwar ist bekannt, dass das Genom der Maus für 35 funktionelle Bitterrezeptoren kodiert, jedoch war nur für zwei unter ihnen ein Ligand ermittelt worden. Um eine bessere Grundlage für tierexperimentelle Arbeiten zu schaffen, wurden 16 der 35 Bitterrezeptoren der Maus heterolog in HEK293T-Zellen exprimiert und in Calcium-Imaging-Experimenten funktionell charakterisiert. Die Daten belegen, dass das Funktionsspektrum der Bitterrezeptoren der Maus im Vergleich zum Menschen enger ist und widerlegen damit die Aussage, dass humane und murine orthologe Rezeptoren durch das gleiche Ligandenspektrum angesprochen werden. Die Interpretation von tierexperimentellen Daten und die Übertragbarkeit auf den Menschen werden folglich nicht nur durch die Komplexität des Geschmacks, sondern auch durch Speziesunterschiede verkompliziert. Die Komplexität des Geschmacks beruht u. a. auf der Tatsache, dass Geschmacksstoffe selten isoliert auftreten und daher eine Vielzahl an Informationen kodiert werden muss. Um solche geschmacksstoffassoziierten Stimuli in der Analyse der gustatorischen Kommunikationsbahnen auszuschließen, sollten Opsine, die durch Licht spezifischer Wellenlänge angeregt werden können, für die selektive Ersetzung von Geschmacksrezeptoren genutzt werden. Um die Funktionalität dieser angestrebten Knockout-Knockin-Modelle zu evaluieren, die eine Kopplung von Opsinen mit dem geschmacksspezifischen G-Protein Gustducin voraussetzte, wurden Oozyten vom Krallenfrosch Xenopus laevis mit dem Zwei-Elektroden-Spannungsklemm-Verfahren hinsichtlich dieser Interaktion analysiert. Der positiven Bewertung dieser Kopplung folgte die Erzeugung von drei Mauslinien, die in der kodierenden Region eines spezifischen Geschmacksrezeptors (Tas1r1, Tas1r2, Tas2r114) Photorezeptoren exprimierten. Durch RT-PCR-, In-situ-Hybridisierungs- und immunhistochemische Experimente konnte der erfolgreiche Knockout der Rezeptorgene und der Knockin der Opsine belegt werden. Der Nachweis der Funktionalität der Opsine im gustatorischen System wird Gegenstand zukünftiger Analysen sein. Bei erfolgreichem Beleg der Lichtempfindlichkeit von Geschmacksrezeptorzellen dieser Mausmodelle wäre ein System geschaffen, dass es ermöglichen würde, gustatorische neuronale Netzwerke und Hirnareale zu identifizieren, die auf einen reinen geschmacks- und qualitätsspezifischen Stimulus zurückzuführen wären. N2 - Taste impression is based on the interaction of taste, smell and touch. To evaluate the nutritious content of food mammals possess five distinct taste qualities: sweet, bitter, umami (taste of amino acids), sour and salty. For bitter, sweet, and umami compounds taste signaling is initiated by binding of tastants to G protein-coupled receptors. The interactions of taste stimuli, usually watersoluble chemicals, with their cognate receptors lead to the activation of the G protein gustducin, which, in turn, initiates a signal resulting in the activation of gustatory afferents. However, details of gustatory signal transmission and processing as well as neural coding are only incompletely understood. This is partly due to the property of some tastants to elicit several sensations simultaneously, unspecific effects caused by the temperature, viscosity, osmolarity, and pH of the solvents, as well as by mechanical stimulation of the tongue during stimulus application. The analysis of gustatory processing of taste information are mainly based on mouse models after stimulation with bitter taste stimuli. Even though it is known that the mouse genome codes for 35 bitter taste receptor genes only few of them had been analysed so far. For better understanding and interpretation of animal experiments 16 mouse bitter receptors had been analysed by Calcium Imaging experiments with HEK293T cells. The data reveal that mouse bitter taste receptors are more narrow tuned than human bitter taste receptors, proving that the ligand spectra of murine and human orthologous receptors are not complient. In order to avoid the disturbing effects of solvents and stimulus application on the analysis of gustatory information transfer and processing, I employ an optogenetical approach to address this problem. For this purpose I generated three strains of gene-targeted mice in which the coding regions of the genes for the umami receptor subunit Tas1r1, the sweet receptor subunit Tas1r2 or the bitter taste receptor Tas2r114 have been replaced by the coding sequences of different opsins (photoreceptors of visual transduction) that are sensitive to light of various wavelengths. In these animals I should be able to activate sweet, bitter, or umami signalling by light avoiding any solvent effects. In initial experiments of this project I demonstrated that the various visual opsins indeed functionally couple to taste signal transduction pathway in oocyte expression system, generating basic knowledge and foundation for the generation of the gene-targeted animals. The knockout-knockin strategies have been successfully realized in the case of all three mouse models, revealed by RT-PCR, in situ hybridization and immunohistochemical analysis of taste papillae. All data confirm that the particular taste receptors have been replaced by the different opsins in taste cells. Further analysis concerning the functional consequences of opsin knockin and taste receptor knockout are part of prospective work. KW - Geschmack KW - G-Protein-gekoppelte Rezeptoren KW - Bitterrezeptoren KW - Optogenetik KW - taste KW - G protein-coupled receptors KW - bitter taste receptors KW - optogenetic Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58059 ER - TY - THES A1 - Spreyer, Kathrin T1 - Does it have to be trees? : Data-driven dependency parsing with incomplete and noisy training data T1 - Müssen es denn Bäume sein? Daten-gesteuertes Dependenzparsing mit unvollständigen und verrauschten Trainingsdaten N2 - We present a novel approach to training data-driven dependency parsers on incomplete annotations. Our parsers are simple modifications of two well-known dependency parsers, the transition-based Malt parser and the graph-based MST parser. While previous work on parsing with incomplete data has typically couched the task in frameworks of unsupervised or semi-supervised machine learning, we essentially treat it as a supervised problem. In particular, we propose what we call agnostic parsers which hide all fragmentation in the training data from their supervised components. We present experimental results with training data that was obtained by means of annotation projection. Annotation projection is a resource-lean technique which allows us to transfer annotations from one language to another within a parallel corpus. However, the output tends to be noisy and incomplete due to cross-lingual non-parallelism and error-prone word alignments. This makes the projected annotations a suitable test bed for our fragment parsers. Our results show that (i) dependency parsers trained on large amounts of projected annotations achieve higher accuracy than the direct projections, and that (ii) our agnostic fragment parsers perform roughly on a par with the original parsers which are trained only on strictly filtered, complete trees. Finally, (iii) when our fragment parsers are trained on artificially fragmented but otherwise gold standard dependencies, the performance loss is moderate even with up to 50% of all edges removed. N2 - Wir präsentieren eine neuartige Herangehensweise an das Trainieren von daten-gesteuerten Dependenzparsern auf unvollständigen Annotationen. Unsere Parser sind einfache Varianten von zwei bekannten Dependenzparsern, nämlich des transitions-basierten Malt-Parsers sowie des graph-basierten MST-Parsers. Während frühere Arbeiten zum Parsing mit unvollständigen Daten die Aufgabe meist in Frameworks für unüberwachtes oder schwach überwachtes maschinelles Lernen gebettet haben, behandeln wir sie im Wesentlichen mit überwachten Lernverfahren. Insbesondere schlagen wir "agnostische" Parser vor, die jegliche Fragmentierung der Trainingsdaten vor ihren daten-gesteuerten Lernkomponenten verbergen. Wir stellen Versuchsergebnisse mit Trainingsdaten vor, die mithilfe von Annotationsprojektion gewonnen wurden. Annotationsprojektion ist ein Verfahren, das es uns erlaubt, innerhalb eines Parallelkorpus Annotationen von einer Sprache auf eine andere zu übertragen. Bedingt durch begrenzten crosslingualen Parallelismus und fehleranfällige Wortalinierung ist die Ausgabe des Projektionsschrittes jedoch üblicherweise verrauscht und unvollständig. Gerade dies macht projizierte Annotationen zu einer angemessenen Testumgebung für unsere fragment-fähigen Parser. Unsere Ergebnisse belegen, dass (i) Dependenzparser, die auf großen Mengen von projizierten Annotationen trainiert wurden, größere Genauigkeit erzielen als die zugrundeliegenden direkten Projektionen, und dass (ii) die Genauigkeit unserer agnostischen, fragment-fähigen Parser der Genauigkeit der Originalparser (trainiert auf streng gefilterten, komplett projizierten Bäumen) annähernd gleichgestellt ist. Schließlich zeigen wir mit künstlich fragmentierten Gold-Standard-Daten, dass (iii) der Verlust an Genauigkeit selbst dann bescheiden bleibt, wenn bis zu 50% aller Kanten in den Trainingsdaten fehlen. KW - Dependenzparsing KW - partielle Annotationen KW - schwach überwachte Lernverfahren KW - Annotationsprojektion KW - Parallelkorpora KW - dependency parsing KW - partial annotations KW - weakly supervised learning techniques KW - annotation projection KW - parallel corpora Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57498 ER - TY - THES A1 - Wulf, Hendrik T1 - Seasonal precipitation, river discharge, and sediment flux in the western Himalaya T1 - Saisonaler Niederschlag, Wasserabfluss und Sedimentationsfluss im westlichen Himalaya N2 - Rainfall, snow-, and glacial melt throughout the Himalaya control river discharge, which is vital for maintaining agriculture, drinking water and hydropower generation. However, the spatiotemporal contribution of these discharge components to Himalayan rivers is not well understood, mainly because of the scarcity of ground-based observations. Consequently, there is also little known about the triggers and sources of peak sediment flux events, which account for extensive hydropower reservoir filling and turbine abrasion. We therefore lack basic information on the distribution of water resources and controls of erosion processes. In this thesis, I employ various methods to assess and quantify general characteristics of and links between precipitation, river discharge, and sediment flux in the Sutlej Valley. First, I analyze daily precipitation data (1998-2007) from 80 weather stations in the western Himalaya, to decipher the distribution of rain- and snowfall. Rainfall magnitude frequency analyses indicate that 40% of the summer rainfall budget is attributed to monsoonal rainstorms, which show higher variability in the orogenic interior than in frontal regions. Combined analysis of rainstorms and sediment flux data of a major Sutlej River tributary indicate that monsoonal rainfall has a first order control on erosion processes in the orogenic interior, despite the dominance of snowfall in this region. Second, I examine the contribution of rainfall, snow and glacial melt to river discharge in the Sutlej Valley (s55,000 km2), based on a distributed hydrological model, which covers the period 2000-2008. To achieve high spatial and daily resolution despite limited ground-based observations the hydrological model is forced by daily remote sensing data, which I adjusted and calibrated with ground station data. The calibration shows that the Tropical Rainfall Measuring Mission (TRMM) 3B42 rainfall product systematically overestimates rainfall in semi-arid and arid regions, increasing with aridity. The model results indicate that snowmelt-derived discharge (74%) is most important during the pre-monsoon season (April to June) whereas rainfall (56%) and glacial melt (17%) dominate the monsoon season (July-September). Therefore, climate change most likely causes a reduction in river discharge during the pre-monsoon season, which especially affects the orogenic interior. Third, I investigate the controls on suspended sediment flux in different parts of the Sutlej catchments, based on daily gauging data from the past decade. In conjunction with meteorological data, earthquake records, and rock strength measurements I find that rainstorms are the most frequent trigger of high-discharge events with peaks in suspended sediment concentrations (SSC) that account for the bulk of the suspended sediment flux. The suspended sediment flux increases downstream, mainly due to increases in runoff. Pronounced erosion along the Himalayan Front occurs throughout the monsoon season, whereas efficient erosion of the orogenic interior is confined to single extreme events. The results of this thesis highlight the importance of snow and glacially derived melt waters in the western Himalaya, where extensive regions receive only limited amounts of monsoonal rainfall. These regions are therefore particularly susceptible to global warming with major implications on the hydrological cycle. However, the sediment discharge data show that infrequent monsoonal rainstorms that pass the orographic barrier of the Higher Himalaya are still the primary trigger of the highest-impact erosion events, despite being subordinate to snow and glacially–derived discharge. These findings may help to predict peak sediment flux events and could underpin the strategic development of preventative measures for hydropower infrastructures. N2 - Regen, Schnee- und Gletscherschmelze speisen die Flüsse des Himalajas, die eine große Bedeutung für die Landwirtschaft, Trinkwasserversorgung und Wasserkraftnutzung in Südasien aufweisen. Welchen Anteil die einzelnen Abflusskomponenten am Gesamtabfluss in Raum und Zeit besitzen, ist jedoch kaum quantifiziert, da es in der entlegenen Region an Bodenmessstationen mangelt. Aus diesem Grund ist auch wenig über die Auslöser und Herkunftsgebiete von hohen Sedimentaustragsereignissen bekannt, die im erheblichen Maße dazu beitragen, dass die Kapazität vonWasserkraftreservoiren abnimmt undWasserkraftturbinen abradieren. Daher fehlen bisher grundlegende Informationen zur räumlichen Verteilung von Wasserressourcen und zu den Ursachen von Erosionsprozessen. In dieser Arbeit benutze ich verschiedene Methoden um die Eigenschaften von und die Beziehungen zwischen Niederschlag, Abflussmenge und Sedimentaustrag im Sutlej-Tal zu untersuchen. In einer ersten Studie analysiere ich Tagesniederschläge (1998-2007) von 80 Wetterstationen aus dem westlichen Himalaja, um die räumliche Verteilung von Regen- und Schneeniederschlägen zu charakterisieren. Die weitere Analyse der Magnituden-Häufigkeitsverteilung von Regenfällen zeigt, dass 40% der sommerlichen Niederschläge auf monsunale Starkregenereignisse zurückgehen, die eine höhere Variabilität im Gebirgsinneren aufweisen als an der Gebirgsfront. Die Kombination von Niederschlagsdaten mit Sedimentaustragsdaten für einen der größten Zuflüsse des Sutlejs zeigt, dass monsunaler Niederschlag der primäre Auslöser von Erosionsprozessen im Gebirgsinneren ist, ungeachtet größerer Abflussmengen durch Schnee- und Gletscherschmelze. In einer zweiten Studie untersuche ich den Beitrag von Regen, Schnee- und Gletscherschmelze zur Abflussmenge im Sutlej-Tal (s55.000 km2) mit Hilfe eines hydrologischen Modells für den Jahreszeitraum 2000-2008. Um trotz der begrenzten Bodenmessungen eine hohe räumliche und zeitliche Auflösung zu erzielen, basiert das Modell auf täglichen Fernerkundungsdaten, die ich mit allen verfügbaren Bodenstationsdaten kalibriert und an diese angepasst habe. Die Kalibrierung zeigt, dass das Regenniederschlagsprodukt 3B42 der „Tropical Rainfall Measuring Mission“ (TRMM) den Bodenniederschlag in den semi-ariden bis ariden Gebirgsregionen mit zunehmender Trockenheit systematisch überschätzt. Die Modellierungsergebnisse verdeutlichen, dass die Schneeschmelze den bedeutendsten Beitrag zur Abflussmenge (74 %) zwischen April und Juni aufbringt, während Regen (56%) und Gletscherschmelze (17%) die Monsunsaison (Juli-September) prägen. Daher ist anzunehmen, dass der Klimawandel zu einer Verringerung der Abflussmenge zwischen April und Juni führen wird, was sich besonders auf das Gebirgsinnere auswirkt. In einer dritten Studie untersuche ich mit Hilfe von täglichen Messdaten der letzten Dekade die Ursachen und Eigenschaften des Sedimentaustrags in verschiedenen Bereichen des Sutlej-Einzugsgebietes. Auf der Grundlage von meteorologischen Daten, Erdbebenaufzeichnungen und Gesteinsfestigkeitsmessungen identifiziere ich Starkregenereignisse als häufigste Ursache für extreme Erosionsereignisse, die einen Großteil des gesamten Sedimentaustrags ausmachen. Großräumig betrachtet nimmt der Sedimentaustrag flussabwärts zu, was hauptsächlich auf den Anstieg der Abflussmenge zurückzuführen ist. Zur Monsunzeit treten Erosionsprozesse entlang der Himalajafront besonders häufig auf, während im Gebirgsinneren die Erosion auf einzelne Extremereignisse beschränkt ist. Die Ergebnisse dieser Arbeit untersteichen die Bedeutung von Schnee- und Gletscherschmelze im westlichen Himalaja, in dem große Gebiete nur vereinzelt von monsunalen Niederschlägen erreicht werden. Diese Gebiete sind daher besonders anfällig für den Klimawandel mit weitreichenden Konsequenzen für den Wasserhaushalt in der Region. Die Analyse von Sedimentaustragsdaten zeigt jedoch, dass vereinzelte monsunale Regenstürme, welche die topographische Barriere des Himalaja überqueren, die primäre Ursache von extremen Erosionsereignissen sind, trotz der größeren Abflussmengen von Schnee- und Gletscherschmelze im Gebirgsinneren. Diese Ergebnisse können dazu beitragen, große Erosionsereignisse vorherzusagen und vorbeugende Maßnahmen zum Schutz von Wasserkraftanlagen zu entwickeln. KW - Klimawandel KW - Erosion KW - Monsun KW - Regensturm KW - Suspendsionsfracht KW - climate change KW - erosion KW - monsoon KW - rainstorm KW - suspended sediment Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57905 ER - TY - THES A1 - Malik, Nishant T1 - Extremes in events and dynamics : a nonlinear data analysis perspective on the past and present dynamics of the Indian summer monsoon N2 - To identify extreme changes in the dynamics of the Indian Summer Monsoon (ISM) in the past, I propose a new approach based on the quantification of fluctuations of a nonlinear similarity measure, to identify regimes of distinct dynamical complexity in short time series. I provide an analytical derivation for the relationship of the new measure with the dynamical invariants such as dimension and Lyapunov exponents of the underlying system. A statistical test is also developed to estimate the significance of the identified transitions. Our method is justified by uncovering bifurcation structures in several paradigmatic models, providing more complex transitions compared with traditional Lyapunov exponents. In a real world situation, we apply the method to identify millennial-scale dynamical transitions in Pleistocene proxy records of the south Asian summer monsoon system. We infer that many of these transitions are induced by the external forcing of solar insolation and are also affected by internal forcing on Monsoonal dynamics, i.e., the glaciation cycles of the Northern Hemisphere and the onset of the tropical Walker circulation. Although this new method has general applicability, it is particularly useful in analysing short palaeo-climate records. Rainfall during the ISM over the Indian subcontinent occurs in form of enormously complex spatiotemporal patterns due to the underlying dynamics of atmospheric circulation and varying topography. I present a detailed analysis of summer monsoon rainfall over the Indian peninsular using Event Synchronization (ES), a measure of nonlinear correlation for point processes such as rainfall. First, using hierarchical clustering I identify principle regions where the dynamics of monsoonal rainfall is more coherent or homogenous. I also provide a method to reconstruct the time delay patterns of rain events. Moreover, further analysis is carried out employing the tools of complex network theory. This study provides valuable insights into the spatial organization, scales, and structure of the 90th and 94th percentile rainfall events during the ISM (June to September). I furthermore analyse the influence of different critical synoptic atmospheric systems and the impact of the steep Himalayan topography on rainfall patterns. The presented method not only helps in visualising the structure of the extremeevent rainfall fields, but also identifies the water vapor pathways and decadal-scale moisture sinks over the region. Furthermore a simple scheme based on complex networks is presented to decipher the spatial intricacies and temporal evolution of monsoonal rainfall patterns over the last six decades. Some supplementary results on the evolution of monsoonal rainfall extremes over the last sixty years are also presented. N2 - Um Extremereignisse in der Dynamik des indischen Sommermonsuns (ISM) in der geologischen Vergangenheit zu identifizieren, schlage ich einen neuartigen Ansatz basierend auf der Quantifikation von Fluktuationen in einem nichtlinearen Ähnlichkeitsmaß vor. Dieser reagiert empfindlich auf Zeitabschnitte mit deutlichen Veränderungen in der dynamischen Komplexität kurzer Zeitreihen. Ein mathematischer Zusammenhang zwischen dem neuen Maß und dynamischen Invarianten des zugrundeliegenden Systems wie fraktalen Dimensionen und Lyapunovexponenten wird analytisch hergeleitet. Weiterhin entwickle ich einen statistischen Test zur Schätzung der Signifikanz der so identifizierten dynamischen Übergänge. Die Stärken der Methode werden durch die Aufdeckung von Bifurkationsstrukturen in paradigmatischen Modellsystemen nachgewiesen, wobei im Vergleich zu den traditionellen Lyapunovexponenten eine Identifikation komplexerer dynamischer Übergänge möglich ist. Wir wenden die neu entwickelte Methode zur Analyse realer Messdaten an, um ausgeprägte dynamische Veränderungen auf Zeitskalen von Jahrtausenden in Klimaproxydaten des südasiatischen Sommermonsunsystems während des Pleistozäns aufzuspüren. Dabei zeigt sich, dass viele dieser Übergänge durch den externen Einfluss der veränderlichen Sonneneinstrahlung, sowie durch dem Klimasystem interne Einflussfaktoren auf das Monsunsystem (Eiszeitzyklen der nördlichen Hemisphäre und Einsatz der tropischenWalkerzirkulation) induziert werden. Trotz seiner Anwendbarkeit auf allgemeine Zeitreihen ist der diskutierte Ansatz besonders zur Untersuchung von kurzen Paläoklimazeitreihen geeignet. Die während des ISM über dem indischen Subkontinent fallenden Niederschläge treten, bedingt durch die zugrundeliegende Dynamik der atmosphärischen Zirkulation und topographische Einflüsse, in äußerst komplexen, raumzeitlichen Mustern auf. Ich stelle eine detaillierte Analyse der Sommermonsunniederschläge über der indischen Halbinsel vor, die auf Ereignissynchronisation (ES) beruht, einem Maß für die nichtlineare Korrelation von Punktprozessen wie Niederschlagsereignissen. Mit hierarchischen Clusteringalgorithmen identifiziere ich zunächst Regionen mit besonders kohärenten oder homogenen Monsunniederschlägen. Dabei können auch die Zeitverzögerungsmuster von Regenereignissen rekonstruiert werden. Darüber hinaus führe ich weitere Analysen auf Basis der Theorie komplexer Netzwerke durch. Diese Studien ermöglichen wertvolle Einsichten in räumliche Organisation, Skalen und Strukturen von starken Niederschlagsereignissen oberhalb der 90% und 94% Perzentilen während des ISM (Juni bis September). Weiterhin untersuche ich den Einfluss von verschiedenen, kritischen synoptischen Systemen der Atmosphäre sowie der steilen Topographie des Himalayas auf diese Niederschlagsmuster. Die vorgestellte Methode ist nicht nur geeignet, die Struktur extremer Niederschlagsereignisse zu visualisieren, sondern kann darüber hinaus über der Region atmosphärische Transportwege von Wasserdampf und Feuchtigkeitssenken auf dekadischen Skalen identifizieren.Weiterhin wird ein einfaches, auf komplexen Netzwerken basierendes Verfahren zur Entschlüsselung der räumlichen Feinstruktur und Zeitentwicklung von Monsunniederschlagsextremen während der vergangenen 60 Jahre vorgestellt. T2 - Extrema in Ereignissen und Dynamiken : historische und heutige Dynamik des Indischen Sommer-Monsuns aus der Perspektive nichtlinearer Datenanalyse KW - nichtlineare Datenanalyse KW - Paläoklimatologie KW - Indischer Sommer-Monsun KW - Extremereignisse KW - komplexe Netzwerke KW - nonlinear time series analysis KW - Paleoclimatology KW - Indian summer monsoon KW - extreme events KW - complex networks Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58016 ER - TY - THES A1 - Partskhaladze, Vakhtang T1 - Development perspectives of small and medium businesses in Georgia T1 - Entwicklungsperspektiven der kleinen und mittleren Unternehmen in Georgien N2 - After the collapse of the Soviet Union the former member states have started the transformation process. The transformation process from planned to market economy includes not only the adaptation of the economy to the new market rules but also the profound social and political transformation. For this reason such processes present huge challenges to affected societies. The transformational recession in Georgia was significantly enhanced by the civil war and by ethnic conflicts in Abkhazia and South Ossetia. During the ethnic conflicts and civil war the business and technical infrastructure were damaged and most of them were completely destroyed. Poverty and political instability were predominated. The trade relations with the member countries of Council of Mutual Economic Assistance (Comecon) were aborted. Moreover, the conflict in South Ossetia hampered the power supply from Russia and a conflict in Abkhazia, the production and trade with tea and citruses, which were major trade commodities at that time. In the beginning of 90-ies, Georgian government with the assistance of international organizations, such as International Monetary Fund and World Bank started to elaborate political and economical reforms. The reforms included several aspects, such as the transfer of public assets to private through privatization, the liberalization of domestic market and trade and the creation of market-oriented institutions. Because of lack in implementation neither economical nor political transformation has been achieved. For instance, by the begin of market oriented reforms the awareness of policy makers about the importance of entrepreneurship, in particular small and medium ones for the economy was low. The absence of previous experience prevented the elaboration of appropriate policy instruments and methods for the development of competitive market economy. The stimulation of private sector has been generally neglected. This had a severe affect on political, social and economical problems, which still hampers the development of middle class in Georgia. The presented research indicates that productive entrepreneurship is a driving force of an economy. The entrepreneurial activities on the one hand facilitate the resource allocation and on the other through the development of new products and services urge the competition. Furthermore, they contribute to technological improvements through innovation, create jobs and thus boost the economic and social development of a particular region or country. However, it is important that the legal and institutional framework is appropriately settled. Unlike mature market economies, Georgia is not characterized by well-developed sector of small and medium sized businesses. Most existing SMEs are operating in local markets and predominantly in the shadow economy. It is also noteworthy that small business in Georgia belongs to so called “mom and pop” rather than to innovative, growth oriented businesses. They are mostly engaged in trade and craft. In addition of poor performance, the business activity of SMEs is very centralized. The vast majority of them are operating in the capital Tbilisi. The poor performance of small and medium businesses in Georgia and their negligence by the market forces is among others due to the armed conflicts and state failure. As in the beginning of transformation process, down to the present day, the state fails to provide necessary conditions, such as rule of law, the protection of property rights and competition, transparent and uncorrupted public administration. The result is the weak middle class. The weak middle class by itself has a negative impact on economic development and democratization process in Georgia. N2 - Nach dem Zusammenbruch der Sowjetunion haben die ehemaligen Mitgliedstaaten angefangen, ihre Wirtschaftssysteme zu transformieren. Beim Prozess der Transformation von einer Planwirtschaft zu einer Marktwirtschaft handelt es sich um mehr als um einen Prozess der wirtschaftlichen Umwandlung: Er beinhaltete sowohl einen tiefgreifenden sozialen als auch einen politischen Wandel. Aus diesem Grund stellen derartige Transformationsprozesse eine große Herausforderung für die betroffenen Gesellschaften dar. Die transformationsbedingte Rezession in Georgien wurde in der Anfangszeit durch den Bürgerkrieg und ethnische Konflikte wesentlich verstärkt. Im Laufe der Kriegszeit wurden sowohl die technische als auch die geschäftliche Infrastruktur im Wesentlichen zerstört. Es herrschten Armut und politische Instabilität. Die Handelsbeziehungen mit Mitgliedstaaten des Rates für Gegenseitige Wirtschaftshilfe (RGW) wurden abgebrochen. Zudem behinderte einerseits der Krieg in Südossetien Energielieferungen aus Russland andererseits schwächte der Krieg in Abchasien die Produktion von Zitrusgewächsen und Tee sowie den Handel mit ihnen. Diese Produkte gehörten damals zu den wesentlichen Exportgütern von Georgien. Im Jahr 1994 wurden die marktwirtschaftlichen Reformen in Georgien durch den Internationalen Währungsfonds und die Weltbank unterstützt. Die Unterstützungsmaßnahmen konzentrierten sich zunächst auf den Privatisierungsprozess, auf die Stabilisierung und die Liberalisierung der Märkte. Die Stabilisierungs-und Liberalisierungsmaßnahmen wurden durch diese Unterstützung effektiv durchgeführt. Dadurch wurde ein gewisses Maß an wirtschaftlicher Stabilisierung erreicht, was jedoch die Privatisierung anbetrifft, blieben die Ergebnisse des Prozesses insgesamt mangelhaft. Es ist ganz offensichtlich, dass mit dem Beginn der marktwirtschaftlichen Reformen das Bewusstsein für die volkswirtschaftliche Bedeutung des Unternehmertums, insbesondere der KMU, unter den politischen Entscheidungsträgern allerdings nicht mit der notwendigen Geschwindigkeit gewachsen ist. Die Rolle der kleinen und mittleren Unternehmen für die Volkswirtschaft sowie die Instrumente und Methoden, um eine moderne wettbewerbsfähige Marktwirtschaft aufzubauen und institutionell zu kräftigen, waren den Entscheidungsträgern in den Georgien aus Mangel an früheren Erfahrungen zunächst unbekannt. Deswegen wurde es versäumt, Maßnahmen zur Förderung der kleinen und mittleren Unternehmen zu erarbeiten. Dies führt bis heute zu transformationsbedingten politischen, wirtschaftlichen und sozialen Problemen, welche die Entstehung eines starken Mittelstands bremsen. Die Ergebnisse der Forschung zeigen, dass auf die makroökonomische Ebene bezogen das produktive „Entrepreneurship“ einen Schlüssel zu Wachstum und Dynamik der Wirtschaft darstellt. Unternehmerische Aktivitäten ermöglichen einerseits eine effiziente Allokation der Ressourcen, andererseits treiben sie durch die Entwicklung neuer Produkte und Dienstleistungen den Wettbewerb an. Darüber hinaus erfüllen sie im praktischen Wirtschaftsleben aber noch weitere wichtige Funktionen: Vor allem gewährleisten sie den technischen Fortschritt, indem sie Innovationen durchsetzen, sie tragen zum Entstehen von Arbeitsplätzen bei und beschleunigen die wirtschaftliche und gesellschaftliche Entwicklung, indem sie brach liegende Potenziale mobilisieren. Es ist jedoch unbedingt notwendig, dass die rechtlichen und institutionellen Rahmenbedingungen korrekt festgesetzt sind, damit die Entrepreneure diese Ziele erreichen können. Die Analyse des Status quo in Georgien hat verdeutlicht, dass die überwiegende Zahl der kleinen und mittleren Unternehmen in den Bereichen Handel und Dienstleistungen beschäftigt ist. Die Tätigkeit von vielen davon ist eher als „Proprietorship“ statt „Entrepreneurship“ zu charakterisieren. Die Ursache, dass sich in Georgien eine unproduktive Form unternehmerischer Tätigkeit entwickelt hat, ist u. a. auf Staatsversagen zurückzuführen. Wie in der Anfangsphase versagt der Staat bis heute bei der Bereitstellung der notwendigen Rahmenbedingungen und der Festlegung gerechter Spielregeln, und darunter leiden kleine und mittlere Unternehmen stärker als die großen. Da die notwendigen Rahmenbedingungen in Georgien noch nicht im gewünschten Maße bereitgestellt sind, und die Institutionen einfach fehlen, erschwert das weiter die Funktion der Märkte, sodass die kleinen und mittleren Unternehmen auch durch die Märkte benachteiligt werden. KW - Kleine und mittlere Unternehmen in Georgien KW - Unternehmenspolitik in Georgien KW - Transformation in Georgien KW - Small and medium businesses in Georgia KW - Entrepreneurship in Georgia KW - SME-Policy in Georgia Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66397 ER - TY - THES A1 - Andrews, Claudia T1 - Fundraising interdisziplinär : ein Beitrag zur Erneuerung der Kultur gemeinwohlbezogenen Gebens Y1 - 2011 SN - 978-3-8325-2978-9 PB - Logos-Verl. CY - Berlin ER - TY - THES A1 - Beischer, Benjamin T1 - Der Ausschluss von Personengesellschaftern ohne wichtigen Grund : Plädoyer für eine Rechtsausübungskontrolle T2 - Europäische Hochschulschriften : Rechtswisenschaften Y1 - 2011 SN - 978-3-631-63100-3 SN - 0531-7312 VL - 5259 PB - Lang CY - Frankfurt am Main ER - TY - THES A1 - Schwenzfeier, Katja T1 - Die kollisionsrechtliche Anknüpfung des Behandlungsverhältnisses im Rahmen einer kosmetischen Opertion : der Patient als Verbraucher? T2 - Studien zum Internationalen Privat- und Zivilprozessrecht sowie zum Un-Kaufrecht Y1 - 2011 SN - 978-3-8300-5509-9 SN - 1613-0987 VL - 46 PB - Kova? CY - Hamburg ER - TY - THES A1 - Einsiedler, Martin T1 - Die deutsche Sporteinheit : eine Untersuchung der sportpolitischen Transformations- und Vereinigungsprozesse in den Jahren 1989/90 T2 - Sportforum Dissertations- und Habilitationsschriftenreihe Y1 - 2011 SN - 978-3-89899-641-9 VL - 24 PB - Meyer & Meyer CY - Aachen ER - TY - THES A1 - Spoerr, Kathrin T1 - Recht und Revolution : deutsche Ökonomen und ihr Einfluss auf das Recht der Weimarer Republik - eine Zeitschriftenschau 1917 - 1920 T2 - Rechtshistorische Reihe Y1 - 2011 SN - 978-3-631-60327-7 SN - 0344-290X VL - 412 PB - Lang CY - Frankfurt am Main ER - TY - THES A1 - Linne, Carina Sophia T1 - Frei gespielt : Frauenfußball im geteilten Deutschland Y1 - 2011 SN - 978-3-937233-89-5 PB - Bebra-Wiss.-Verl. CY - Berlin ER - TY - THES A1 - Hartig, Juliane T1 - Learning and innovation a distance : an empirical investigation into the benefits and liabilities of different froms of distance on interactive learning and novelty creation in German biotechnology SMEs Y1 - 2011 SN - 978-3-8349-3178-8 U6 - https://doi.org/10.1007/978-3-8349-6904-0 PB - Gabler Verlag / Springer Fachmedien Wiesbaden GmbH Wiesbaden CY - Wiesbaden ER - TY - THES A1 - Krehl, Susanne T1 - Das Selenoprotein Glutathionperoxidase-2 : physiologische Funktion und Einfluss auf die entzündungsassoziierte Colonkarzinogenese T1 - The selenoprotein glutathione peroxidase-2 : physiological function and influence on inflammation triggered coloncarcinogenesis N2 - Bei der Entdeckung der Glutathionperoxidase-2 (GPx2) wurde zunächst davon ausgegangen, dass die Funktion dieses Enzyms im Kryptengrund des Colons einzig in der Reduktion von H2O2 besteht. Im Laufe der weiteren Erforschung zeigte sich, dass GPx2 auch in verschiedenen Tumorgeweben vermehrt exprimiert wird. Dabei wird diskutiert, ob die Wirkung von GPx2 im Tumor eher als pro- oder als antikarzinogen einzustufen ist. Mehrere Experimente in vitro und in vivo zeigten antiinflammatorische Eigenschaften der GPx2. Aufgrund dieser Befunde wird derzeit über weitere Funktionen der GPx2 spekuliert. In dieser Arbeit wurde die physiologische Funktion von GPx2 näher erforscht, dazu wurden Wildtyp- und GPx2-Knockout-Mäuse in Hinblick auf Veränderungen der Enzymexpression und der Colonmorphologie untersucht. Es wurden drei verschiedene Selendiäten verfüttert: selenarmes, selenadäquates und selensupplementiertes Futter. Unter physiologischen Bedingungen ist am Kryptengrund des Colons, innerhalb der proliferierenden Zone, die Mitoserate am höchsten. Der Großteil der apoptotischen Zellen ist hingegen an der Kryptenspitze vorzufinden. Durch den Knockout von GPx2 kam es zu einer signifikanten Erhöhung der Apoptoserate am Kryptengrund. Dabei war der größte Effekt auf selenarmem Futter zu verzeichnen. Hierbei wurde sogar eine Veränderung der Colonmorphologie dokumentiert, da die Verschiebung der Proliferationszone in Richtung Kryptenspitze eine Verlängerung der Krypten nach sich zog. Im Wildtyp wurden keine Apoptosen im Kryptengrund detektiert. GPx1 wird unter physiologischen Bedingungen im Gegensatz zur GPx2 in der Kryptenspitze exprimiert und ist im Selenmangel nicht mehr detektierbar. Der Knockout von GPx2 erhöhte die GPx1-Expression im Kryptengrund auf allen drei Selendiäten. Diese Überexpression von GPx1 am Kryptengrund soll vermutlich den Verlust von GPx2 an dieser Stelle kompensieren. Da jedoch dort die massive Apoptoserate detektiert wurde, kann die GPx1 nicht die komplette Funktion von GPx2 kompensieren. Diese Ergebnisse deuten darauf hin, dass die Funktion von GPx2 nicht nur in der Reduktion von H2O2 liegt. Vielmehr kann eine Rolle bei der Aufrechterhaltung der Homöostase von Zellen postuliert werden. Ein weiterer Bestandteil dieser Arbeit war die Klärung der Frage, welchen Einfluss GPx2 auf die entzündungsassoziierte Colonkarzinogenese ausübt. In dem hierfür verwendeten AOM/DSS-Model wird der karzinogene Prozess durch Entzündung vorangetrieben. Es erfolgte sowohl im Wildtyp als auch im GPx2-Knockout zum einen die Bewertung des Entzündungsstatus des Colons und zum anderen wurde die Anzahl von ACF und Tumoren verglichen. Das Colon im GPx2-Knockout war wesentlich stärker entzündet als im Wildtyp. Diese Ergebnisse bestätigen die für die GPx2 postulierte antiinflammatorische Funktion. Normalerweise führt eine Erhöhung der Mitoseanzahl zur Regeneration des entzündeten Gewebes. Jedoch beeinflusst der Verlust von GPx2 vermutlich den Ablauf der Entzündung, indem beispielsweise die Regeneration des Gewebes durch die enorm hohe Apoptoserate am Kryptengrund verlangsamt wird. Des Weiteren hatten sich im GPx2-Knockout tendenziell mehr Tumore entwickelt. Somit korrelierte die Entzündung des Colons mit der Entwicklung von Tumoren. Der Verlust von GPx2 begünstigte vermutlich sowohl die Tumorinitiation als auch die Tumorprogression. Allerdings stimulierte die Expression von GPx2 ebenfalls das Tumorwachstum. Es kann geschlussfolgert werden, dass eine adäquate GPx2-Expression vor Entzündung schützt und somit das Risiko für Colonkrebs senkt. Ob GPx2 aber insgesamt pro- oder antikarzinogen wirkt, hängt vermutlich vom Stadium des Colonkarzinogenese ab. N2 - Since the detection of glutathione peroxidase-2 (GPx2) it was assumed that reducing hydroperoxides is the only function of this enzyme in the crypt ground of the colon. But further studies showed that GPx2 is also highly expressed in tumor tissue. However, it is not known whether it acts a pro- or anticarcinogenic manner at this site. In vitro and in vivo experiments elucidate antiinflammatory features of GPx2, based on these findings additional functions of GPx2 are discussed. In this dissertation the physiological function of GPx2 was investigated. For this purpose in wild type and GPx2-knockout mice, changes of enzyme expression and colon morphology were analyzed. The mice were fed three diets containing different selenium concentrations: selenium deficient, selenium adequate and selenium supplemented. Under physiological conditions the mitosis rate is highest in the proliferating zone in the crypt ground of the colon. The majority of apoptotic cells are located at the tip of the crypt. The knockout of GPx2 significantly increased the rate of apoptosis in the crypt ground. The greatest effect was documented on the selenium deficient diet. Here, changes of the colonic morphology were detectable, because the shift of the proliferating zone towards the tip of the crypt lead to an extension of the crypts. In the wild type mice no apoptotic cells were detected on the crypt ground. Under physiological conditions GPx1, in contrast to GPx2, is mainly expressed on the top of the crypt, and this enzyme is no longer detectable under selenium deficiency. The knockout of GPx2 increased the expression of GPx1 in the crypt ground of the colon on all three selenium diets. It is likely that this over expression of GPx1 compensates for the loss of GPx2. However the massive apoptotic rate in the crypt ground shows that GPx1 can not compensate the complete function of GPx2. These results elucidate that GPx2 not only functions as a hydroperoxide reducer, but that it is also important for the maintenance of the stem cell character and the homeostasis of cells. The question if GPx2 influences the inflammation triggered by the coloncarcinogenic process was next assessed in this dissertation. Therefore the AOM/DSS model was used to trigger the carcinogenic process through inflammation. The amount of aberrant crypt foci (ACF) and tumors in the colon were analyzed in both wild type and GPx2-knockout mice. However initially the inflammation status was compared between the two genotypes. The inflammation of the colon was stronger in the GPx2-knockout mice than in wild type. These results support the postulated antiinflammatory features of GPx2. The loss of GPx2 may influence the inflammation process by decelerating the regeneration of the tissue caused by the increased apoptotic rate in the proliferating zone. Additionally, the GPx2-knockout mice developed more tumors in the colon. Therefore the inflammation of the colon correlated with the development of tumors. The loss of GPx2 may have enhanced both tumor initiation and progression. But the expression of GPx2 also stimulated the growth of tumors. These results indicate that an adequate GPx2-expression can protect from colonic inflammation, and therefore decrease the risk of developing colon cancer. Whether GPx2 acts in a pro- or anticarcinogenic manner appears to depend on the state of the carcinogenic process. KW - Glutathionperoxidase-2 GPx2 KW - Apoptose KW - Colonkrebs KW - Entzündung KW - Selen KW - glutathione peroxidase-2 GPx2 KW - apoptosis KW - colon cancer KW - inflammation KW - selenium Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50220 ER - TY - THES A1 - Wichura, Henry T1 - Topographic evolution of the East African Plateau : a combined study on lava-flow modeling and paleo-topography T1 - Die topographische Entwicklung des Ostafrikanischen Plateaus : eine kombinierte Studie über Lavastrommodellierung und Paläotopographie N2 - The East African Plateau provides a spectacular example of geodynamic plateau uplift, active continental rifting, and associated climatic forcing. It is an integral part of the East African Rift System and has an average elevation of approximately 1,000 m. Its location coincides with a negative Bouguer gravity anomaly with a semi-circular shape, closely related to a mantle plume, which influences the Cenozoic crustal development since its impingement in Eocene-Oligocene time. The uplift of the East African Plateau, preceding volcanism, and rifting formed an important orographic barrier and tectonically controlled environment, which is profoundly influenced by climate driven processes. Its location within the equatorial realm supports recently proposed hypotheses, that topographic changes in this region must be considered as the dominant forcing factor influencing atmospheric circulation patterns and rainfall distribution. The uplift of this region has therefore often been associated with fundamental climatic and environmental changes in East Africa and adjacent regions. While the far-reaching influence of the plateau uplift is widely accepted, the timing and the magnitude of the uplift are ambiguous and are still subject to ongoing discussion. This dilemma stems from the lack of datable, geomorphically meaningful reference horizons that could record surface uplift. In order to quantify the amount of plateau uplift and to find evidence for the existence of significant relief along the East African Plateau prior to rifting, I analyzed and modeled one of the longest terrestrial lava flows; the 300-km-long Yatta phonolite flow in Kenya. This lava flow is 13.5 Ma old and originated in the region that now corresponds to the eastern rift shoulders. The phonolitic flow utilized an old riverbed that once drained the eastern flank of the plateau. Due to differential erosion this lava flow now forms a positive relief above the parallel-flowing Athi River, which is mimicking the course of the paleo-river. My approach is a lava-flow modeling, based on an improved composition and temperature dependent method to parameterize the flow of an arbitrary lava in a rectangular-shaped channel. The essential growth pattern is described by a one-dimensional model, in which Newtonian rheological flow advance is governed by the development of viscosity and/or velocity in the internal parts of the lava-flow front. Comparing assessments of different magma compositions reveal that length-dominated, channelized lava flows are characterized by high effusion rates, rapid emplacement under approximately isothermal conditions, and laminar flow. By integrating the Yatta lava flow dimensions and the covered paleo-topography (slope angle) into the model, I was able to determine the pre-rift topography of the East African Plateau. The modeling results yield a pre-rift slope of at least 0.2°, suggesting that the lava flow must have originated at a minimum elevation of 1,400 m. Hence, high topography in the region of the present-day Kenya Rift must have existed by at least 13.5 Ma. This inferred mid-Miocene uplift coincides with the two-step expansion of grasslands, as well as important radiation and speciation events in tropical Africa. Accordingly, the combination of my results regarding the Yatta lava flow emplacement history, its location, and its morphologic character, validates it as a suitable “paleo-tiltmeter” and has thus to be considered as an important topographic and volcanic feature for the topographic evolution in East Africa. N2 - Das Ostafrikanische Plateau ist ein eindrucksvolles Beispiel für aktive, kontinentale Grabenbildung, aber auch für geodynamische Hochebenenbildung mit weitreichendem klimatischen Einfluss auf die gesamte Region. Als integraler Bestandteil des Ostafrikanischen Grabensystems beläuft sich die mittlere Höhe des Plateaus auf durchschnittlich 1000 m ü.NN. Seine Lage korreliert gut mit der Präsenz einer halbkreisförmigen negativen Bouguer-Schwereanomalie, die an den Aufstieg eines Manteldiapirs im Untergrund gekoppelt ist. Dieser prägte die känozoische Krustenentwicklung seit seinem Aufstieg im Eozän-Oligozän. Die Hebungsgeschichte und topographische Entwicklung des Hochlandes steht seither in enger Beziehung zum einsetzenden Vulkanismus, der Bildung erster Abschiebungssysteme und führte schließlich zur Entwicklung des heutigen Vollgrabensystems. Neueste Hypothesen lassen den Schluss zu, dass topographische Veränderungen als dominierende Einflussgrößen atmosphärischer Zirkulationsmuster sowie der regionalen Niederschlagsverbreitung anzusehen sind. Zusätzlich werden diese Prozesse durch die äquatoriale Lage des Ostafrikanischen Plateaus verstärkt und die Hebung dieser Region oft mit wichtigen Klima- und Umweltveränderungen in Ostafrika und angrenzende Gebiete in Verbindung gebracht. Während der weitreichende klimatische Einfluss des Hochlandes größtenteils akzeptiert ist, sind Zeitpunkt und Ausmaß seiner Heraushebung nicht eindeutig bestimmt und daher noch immer Grundlage bestehender Diskussionen. Diese Zwangslage hat ihre Ursache im Fehlen aussagekräftiger und datierbarer Referenzhorizonte. Um den Hebungsbetrag zu quantifizieren und Beweise signifikanten Reliefs vor der Entwicklung des Grabensystems entlang des Ostafrikanischen Hochlandes zu erbringen, analysierte und modellierte ich einen der längsten terrestrischen Lavaströme. Dieser vor 13,5 Ma abgelagerte Yatta-Lavastrom hat mit 300 km Länge seinen Ursprung in der Region der heutigen östlichen Grabenschulter des zentralen Kenia-Rifts. Die phonolitische Lava ergoss sich entlang eines Flussbettes, das einst die östliche Flanke des Hochlandes entwässerte. Aufgrund unterschiedlicher Erosionspotentiale bildet der Lavastrom gegenwärtig ein positives Relief und befindet sich oberhalb des Athi Flusses, der parallel zum Paläofluß, und somit versetzt zu seinen früheren Verlauf, strömt. Mein Ansatz der Lavastrom-Modellierung basiert auf einer Methode, die das Fließverhalten einer beliebigen Lava in Abhängigkeit von Temperatur und Magmenzusammensetzung in einem rechtwinkligen Kanal berechnet. Die wesentlichen Wachstumsmuster des Lavastroms sind durch ein eindimensionales Modell beschrieben, wobei Newtonsches Fließverhalten im Innern hinter der Lavastromfront von der zeitlichen Entwicklung der Viskosität und/oder der Fließgeschwindigkeit bestimmt wird. Vergleiche meiner Resultate mit verschiedenen Magmenzusammensetzungen zeigen, dass sich lange, kanalisierte Lavaströme mit hohen Ergussraten und schneller Platznahme bilden können. Dies geschieht unter annähernd isothermalen Bedingungen und erfordert laminares Fließen. Die Integration der Yatta- Lavastrom-Dimensionen und der bedeckten Paläotopographie (Neigungswinkel) in das Modell, erlaubte es mir die Topographie des Ostafrikanischen Hochlandes vor der Grabenbildung zu modellieren. Das Ergebnis der Modellierung ergibt einen Neigungswinkel von mindestens 0,2° und impliziert, dass der Lavastrom seinen Ursprung in einer Höhe von mindestens 1400 m ü.NN gehabt haben muss. Somit existierte bereits vor 13,5 Ma hohe Topographie in der heutigen Region des zentralen Kenia-Rifts. Diese abgeleitete regionale Hebungsgeschichte im mittleren Miozän korreliert mit der zweistufigen Ausbreitung der Graslandschaften, sowie dem Aufkommen neuer Arten im tropischen Afrika. Die Kombination aus Fließverhalten, Entstehungsort und morphologischer Eigenschaften macht den Yatta-Lavastrom zu einem “Paläoneigungsmesser” und wichtigen vulkanischen Untersuchungsobjekt für die topographische Entwicklung in Ostafrika. KW - Ostafrika KW - Plateau KW - Paläotopographie KW - Miozän KW - Yatta KW - East African Plateau KW - paleo-topography KW - Miocene KW - Yatta Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52363 ER - TY - THES A1 - Kellermann, Thorsten T1 - Accurate numerical relativity simulations of non-vacuumspace-times in two dimensions and applications to critical collapse T1 - Exakte numerisch relativistische Simulationen der Nicht-Vakuum-Raum-Zeit in zwei Dimensionen und deren Anwendung zu Problemen des kritischen Kollaps N2 - This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse. N2 - Diese Arbeit legt seinen Schwerpunkt auf die Physik von Neutronensternen und deren Beschreibung mit Methoden der numerischen Relativitätstheorie. Im ersten Schritt wird eine neue numerische Umgebung, der Whisky2D Code entwickelt, dieser löst die relativistischen Gleichungen der Hydrodynamik in Axialymmetrie. Hierzu betrachten wir eine verbesserte Formulierung der sog. "flux conserved formulation" der Gleichungen. Im zweiten Teil wird der neue Code verwendet , um das kritische Verhalten zweier kollidierenden Neutronensternen zu untersuchen. In Anbetracht der Analogie, um Übergänge in der statistischen Physik Phase werden wir die Entwicklung der Entropie der Neutronensterne während des gesamten Prozesses betrachten. Ein besseres Verständnis der Evolution von thermodynamischen Größen, wie der Entropie in kritischer Prozess, sollte zu einem tieferen Verständnis der relativistischen Thermodynamik führen. Der Whisky2D Code, zur Lösung Gleichungen relativistischer Hydrodynamik wurde in einer „flux conserved form“ und in zylindrischen Koordinaten geschrieben. Hierdurch entstehen 1 / r singuläre Terme, wobei r der ist, die entsprechend behandelt werden müssen. In früheren Arbeiten, wird der Operator expandiert und die 1 / r spezifisch Therme auf die rechte Seite geschrieben, so dass die linke Seite eine Form annimmt, die identisch ist mit der kartesischen Formulierung. Wir nennen dies die Standard-Formulierung. Eine andere Möglichkeit ist, die Terme nicht zu expandieren, den und den 1/r Term in die Gleichung hinein zu ziehen. Wir nennen dies die Neue-Formulierung. Die neuen Gleichungen werden mit den gleichen Verfahren wie im kartesischen Fall gelöst. Aus mathematischer Sicht ist keine Unterschiede zwischen den beiden Formulierungen zu erwarten, erst die numerische Sicht zeigt die Unterschiede auf. Versuche zeigen, dass die Neue-Formulierung numerische Fehler um mehrere Größenordnungen reduziert. Der zweite Teil der Dissertation verwendet den neuen Code für die Untersuchung kritischer Phänomene in der allgemeinen Relativitätstheorie. Insbesondere betrachten wir die Kopf-auf-Kollision zweier Neutronensterne in einem Bereich des Parameter Raums, deren zwei mögliche Endzustände entweder einen neuen stabilen Neutronenstern oder ein Schwarzes Loch darstellen. Im Jahr 1993, betrachtete Choptuik Ein-Parameter-Familien von Lösungen, S [P], der Einstein-Klein-Gordon-Gleichung für ein masseloses Skalarfeld in sphärischer Symmetrie, so dass für jedes P> P ⋆, S[P] ein Schwarzes Loch enthalten ist und jedes P

40 and ~0.3dex for spectra with 20>S/N>40. For this work, the pipeline measured chemical abundances up to 7 elements for 217,358 RAVE stars. With these data we investigated the chemical gradients along the Galactic radius of the Milky Way. We found that stars with low vertical velocities |W| (which stay close to the Galactic plane) show an iron abundance gradient in agreement with previous works (~-0.07$ dex kpc^-1) whereas stars with larger |W| which are able to reach larger heights above the Galactic plane, show progressively flatter gradients. The gradients of the other elements follow the same trend. This suggests that an efficient radial mixing acts in the Galaxy or that the thick disk formed from homogeneous interstellar matter. In particular, we found hundreds of stars which can be kinetically classified as thick disk stars exhibiting a chemical composition typical of the thin disk. A few stars of this kind have already been detected by other authors, and their origin is still not clear. One possibility is that they are thin disk stars kinematically heated, and then underwent an efficient radial mixing process which blurred (and so flattened) the gradient. Alternatively they may be a transition population" which represents an evolutionary bridge between thin and thick disk. Our analysis shows that the two explanations are not mutually exclusive. Future follow-up high resolution spectroscopic observations will clarify their role in the Galactic disk evolution. N2 - Die vorliegende Doktorarbeit wurde im Rahmen des RAdial Velocity Experiment (RAVE) angefertigt. Ihr Ziel ist es, chemische Elementhäufigkeiten an RAVE-Spektren zu messen und zur Untersuchung chemischer Gradienten in der Milchstrassenebene zu benutzen, um verschieden Szenarien der Galaxienentstehung einzugrenzen. RAVE ist eine große spektrokopische Durchmusterung, deren Ziel es ist, bis zum Ende des Jahres 2012 insgesamt 10^6 Sterne zu spektroskopieren, um deren Radialgeschwindigkeiten, sternatmosphärische Parameter und chemische Häufigkeiten zu messen. Das Projekt benutzt das UK Schmidt Teleskop am Australian Astronomical Observatory (AAO) in Siding Spring, Australien, welches mit dem Multiobjekt-Spektrographen 6dF bestückt ist. Bis heute hat RAVE die Spektren von mehr als 450,000 Sternen gesammelt und untersucht. Die Genauigkeit, mit der die Elementhäufigkeiten abgeschätzt werden können, hängt von der Zuverlässigkeit der verwendeten Parameter, (insbesondere der Oszillatorstärken der Absorptionslinien sowie von der effektiven Temperatur, Schwerebeschleunigung und der Metallizität des gemessenen Sterns) ab. Daher identifizierten wir zunächst 604 Absorptionslinien im Wellenlängenbereich von RAVE und verbesserten deren Oszillatorstärken durch eine inverse Spektralanalyse. Dann wurden die stellaren Parameter von RAVE verbessert, indem die RAVE Pipeline und die stellaren Parameter, auf denen sie beruht, modifiziert wurden. Die Änderungen eliminierten einen Teil der systematischen Fehler von stellaren Parametern, die im Laufe dieser Arbeit gefunden wurden. Um Elementhäufigkeiten zu bestimmen, haben wir zwei verschiedene Prozessierungs-Pipelines entwickelt. Beide berechnen die Elementhäufigkeiten unter der Annahme von Sternatmosphären im lokalen thermischen Gleichgewicht (local thermal equilibrium, LTE). Die erste Pipeline berechnete Elemenhäufigkeiten anhand der Äquivalentbreiten von Absorptionslinien. Da diese Methode eine geringe Empfindlichkeit für die Elementhäufigeiten relativ zu Eisen erreichte, wurde sie ersetzt. Die neue Pipeline benutzt chi^2-Fits von Modellspektren an die beobachteten Spektren. Dank Ihrer Präzision wurde diese für die Erstellung des RAVE-Katalogs von Elementhäufigkeiten verwendet. Diese Pipeline liefert Elementhäufigkeiten mit einer Genauigkeit von ~0.2dex, während für Spektren mit 20>S/N>40 immerhin noch ~0.3dex Genauigkeit erreicht werden. Für die vorliegende Arbeit wurden für 217.358 Sterne die Häufigkeiten von sieben chemischen Elementen bestimmt. Mit diesen Daten wurde der radiale chemische Gradient unserer Milchstraße untersucht. Wir finden, dass Sterne mit kleinen vertikalen Geschwindigkeiten |W|, die also nahe der galaktischen Ebene bleiben, einen radialen Gradienten der Eisenhäufigkeit zeigen, der mit früheren Studien übereinstimmt (~-0.07 dex Kpc^-1), während Sterne mit großen |W|, also solche, die größere galaktische Höhen erreichen, einen progressiv flachere Gradienten zeigen. Die Gradienten der anderen Element folgen dem gleichen Trend. Das lässt darauf schließen, dass entweder die Durchmischung der galaktischen dicken Scheibe effizient arbeitet oder aber dass die dicke Scheibe aus interstellarer Materie gebildet wurde, die chemisch recht homogen war. Speziell fanden wir hunderte von Sternen, die zwar kinematisch als zur dicken Scheibe zugehörig klassifiziert werden können, die aber die typische chemische Zusammensetzung der dünnen Scheibe aufweisen. Einige wenige dieser Sterne wurden bereits von anderen Autoren entdeckt, aber ihre Herkunft bleibt immer noch unklar. Eine Möglichkeit ist, dass die Sterne der dünnen Scheibe kinematische geheizt werden, sodass sie effizienter radial gemischt werden, was die chemischen Gradienten verwischt und auch flacher macht. Alternativ dazu könnten diese Sterne einer "Übergangspopulation" angehören, welche hinsichtlich der Scheibenevolution die Verbindung zwischen der dünnen und der dicken Scheibe darstellt. Unsere Untersuchung zeigt, dass sich diese beiden Erklärungen gegenseitig nicht ausschließen. Künftige Nachspektroskopierung mit hoher Auflösung wird die Rolle dieser Sterne in der Entwicklungsgeschichte der galaktischen Scheibe aufklären. KW - Galaxie KW - Milchstraße KW - Spektroskopie KW - chemische Häufigkeiten KW - Galaxy KW - Milky Way KW - Spectroscopy KW - Chemical Abundances Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52478 ER - TY - THES A1 - Bültel, Nadine T1 - Starmanager : Medienprominenz, Reputation und Vergütung von Top-Managern T2 - Unternehmerisches Personalmanagement N2 - Top-Manager stehen seit einigen Jahren verstärkt im Visier der Medien. Durch die mediale Aufmerksamkeit erlangen sie einen Prominentenstatus, der in der angloamerikanischen Managementforschung zu schillernden Bezeichnungen wie Celebrity CEO oder Superstar CEO führt. Nadine Bültel widmet sich in ihrer Arbeit diesem neuartigen Star- Phänomen von Top-Managern und untersucht die Ursachen und Auswirkungen ihrer medialen Prominenz. Sie analysiert, wie Manager eine Starreputation aufbauen und welche Rolle die Medien hierbei spielen. Im Mittelpunkt steht dabei auch die Frage, ob und warum Starmanager eine höhere Vergütung erhalten als ihre weniger prominenten Kollegen. Y1 - 2011 SN - 978-3-8349-2821-4 U6 - https://doi.org/10.1007/978-3-8349-6195-2 PB - Gabler Verlag / Springer Fachmedien Wiesbaden GmbH Wiesbaden CY - Wiesbaden ER - TY - THES A1 - Valverde Serrano, Clara T1 - Self-assembly behavior in hydrophilic block copolymers T1 - Selbstorganisation von hydrophilen Blockcopolymeren N2 - Block copolymers are receiving increasing attention in the literature. Reports on amphiphilic block copolymers have now established the basis of their self-assembly behavior: aggregate sizes, morphologies and stability can be explained from the absolute and relative block lengths, the nature of the blocks, the architecture and also solvent selectiveness. In water, self-assembly of amphiphilic block copolymers is assumed to be driven by the hydrophobic. The motivation of this thesis is to study the influence on the self-assembly in water of A b B type block copolymers (with A hydrophilic) of the variation of the hydrophilicity of B from non-soluble (hydrophobic) to totally soluble (hydrophilic). Glucose-modified polybutadiene-block-poly(N-isopropylacrylamide) copolymers were prepared and their self-assembly behavior in water studied. The copolymers formed vesicles with an asymmetric membrane with a glycosylated exterior and poly(N-isopropylacrylamide) on the inside. Above the low critical solution temperature (LCST) of poly(N-isopropylacrylamide), the structure collapsed into micelles with a hydrophobic PNIPAM core and glycosylated exterior. This collapse was found to be reversible. As a result, the structures showed a temperature-dependent interaction with L-lectin proteins and were shown to be able to encapsulate organic molecules. Several families of double hydrophilic block copolymers (DHBC) were prepared. The blocks of these copolymers were biopolymers or polymer chimeras used in aqueous two-phase partition systems. Copolymers based on dextran and poly(ethylene glycol) blocks were able to form aggregates in water. Dex6500-b-PEG5500 copolymer spontaneously formed vesicles with PEG as the “less hydrophilic” barrier and dextran as the solubilizing block. The aggregates were found to be insensitive to the polymer's architecture and concentration (in the dilute range) and only mildly sensitive to temperature. Variation of the block length, yielded different morphologies. A longer PEG chain seemed to promote more curved aggregates following the inverse trend usually observed in amphiphilic block copolymers. A shorter dextran promoted vesicular structures as usually observed for the amphiphilic counterparts. The linking function was shown to have an influence of the morphology but not on the self-assembly capability in itself. The vesicles formed by dex6500-b-PEG5500 showed slow kinetics of clustering in the presence of Con A lectin. In addition both dex6500-b-PEG5500 and its crosslinked derivative were able to encapsulate fluorescent dyes. Two additional dextran-based copolymers were synthesized, dextran-b-poly(vinyl alcohol) and dextran-b-poly(vinyl pyrrolidone). The study of their self-assembly allowed to conclude that aqueous two-phase systems (ATPS) is a valid source of inspiration to conceive DHBCs capable of self-assembling. In the second part the principle was extended to polypeptide systems with the synthesis of a poly(N-hydroxyethylglutamine)-block-poly(ethylene glycol) copolymer. The copolymer that had been previously reported to have emulsifying properties was able to form vesicles by direct dissolution of the solid in water. Last, a series of thermoresponsive copolymers were prepared, dextran-b-PNIPAMm. These polymers formed aggregates below the LCST. Their structure could not be unambiguously elucidated but seemed to correspond to vesicles. Above the LCST, the collapse of the PNIPAM chains induced the formation of stable objects of several hundreds of nanometers in radius that evolved with increasing temperature. The cooling of these solution below LCST restored the initial aggregates. This self-assembly of DHBC outside any stimuli of pH, ionic strength, or temperature has only rarely been described in the literature. This work constituted the first formal attempt to frame the phenomenon. Two reasons were accounted for the self-assembly of such systems: incompatibility of the polymer pairs forming the two blocks (enthalpic) and a considerable solubility difference (enthalpic and entropic). The entropic contribution to the positive Gibbs free energy of mixing is believed to arise from the same loss of conformational entropy that is responsible for “the hydrophobic effect” but driven by a competition for water of the two blocks. In that sense this phenomenon should be described as the “hydrophilic effect”. N2 - Blockcopolymere erfahren ein stetig wachsendes Interesse, was an der steigenden Anzahl an Publikationen zu diesem Thema erkennbar ist. Zahlreiche Studien zu amphiphilen Blockcopolymeren haben dabei einige grundlegende Erkenntnisse über deren chemisches und physikalisches Verhalten, vor allem über die Selbstorganisation, hervorgebracht. So können die Größe, die verschiedenen Morphologien und auch die Stabilität der gebildeten Aggregate anhand der relativen und absoluten Blocklängen, die chemischen Struktur der Blöcke, der molekularen Architektur und der Eigenschaften des verwendeten Lösungsmittel erklärt werden. Im speziellen Fall des Wassers als Lösungsmittel bist die Selbstorganisation amphiphiler Blockcopolymere durch den hydrophoben Effekt bedingt. Dieser Arbeit liegt das Interesse an der Selbstorganisation in wässrigem Medium von Blockcopolymeren des Typs A-b-B mit A als hydrophilem Block und B als Block mit variierender Hydrophilie bzw. Hydrophpobie von unlöslich bis vollständig löslich zugrunde. Durch Variation dieser Eigenschaften von Block B soll dessen Einfluss auf das Selbstorganisationsverhalten untersucht werden. Dazu wurden mit Glucose modifizierte Polybutadien-block-Poly(N-Isopropylacrylamid)-Copolymere hergestellt und deren Selbstorganisation in Wasser untersucht. Die Copolymere bilden Vesikel mit einer asymmetrischen Membran, wobei im äußeren Bereich glycolysierte Gruppen und im inneren Bereich Poly(N-Isopropylacrylamid) (PNIPAM) vorliegen. Beim Überschreiten der low critical solution temperature (LCST) kollabiert die vesikuläre Struktur unter Bildung von Mizellen mit einem hydrophoben PNIPAM-Mizellinneren und nach außen gerichteten glycolysierten Blöcken. Diese strukturelle Umwandlung ist reversibel. Die Strukturen zeigten außerdem eine temperaturabhängige Wechselwirkung mit L-Lectin-Proteinen und die Möglichkeit zur Einkapselung organischer Moleküle konnte belegt werden. Des weiteren wurden verschiedene Gruppen von Blockcopolymeren mit zwei hydrophilen Blöcken synthetisiert (double hydrophilic block copolymers – DHBC). Die Blöcke dieser Systeme waren entweder Biopolymere oder Polymerchimäre, die in wässrigen Zwei-Phasen-Trennverfahren eingesetzt werden. Polymere, die auf Dextran- und Poly(ethylenglycol)-Blöcken basieren, zeigen Aggregatbildung in wässriger Phase. Dex6500-b-PEG5500 bildet spontan Vesikel mit PEG als „weniger hydrophilem“ Bestandteil und Dextran als löslichem Block. Die Bildung dieser Vesikel zeigte keine Emfpindlichkeit gegenüber einer Veränderung der Polymerarchitektur und der Konzentration, und nur eine geringe Sensitivität gegenüber Temperaturänderungen. Veränderungen der Blocklängen dagegen beeinflussten die Selbstorganisation und führten zu unterschiedlichen Morphologien. Längere PEG-Blöcke bevorzugten dabei die Bildung eher gekrümmter Aggregate, entgegen dem Trend, der gewöhnlicherweise für amphiphile Blockcopolymere beobachtet wird. Die Verkürzung des Dextran-Blocks fördert die Ausbildung vesikulärer Strukturen, was dem Verhalten der amphiphilen Gegenspieler der DHBC-Systeme entspricht. Die funktionelle Gruppe zur Verbindung der beiden Blöcke hat zwar einen Einfluss auf die Morphologie der gebildeten Aggregate, nicht jedoch auf die eigentliche Fähigkeit der Systeme zur Selbstorganisation. Die Dex6500-b-PEG5500-Vesikel wiesen zudem eine langsame Bildungskinetik in Gegenwart von Con-A-Lectin auf. Des Weiteren waren sowohl Dex6500-b-PEG5500 als auch das quervernetzte Derivate dieses Copolymers in der Lage, Fluoreszenzfarbstoffe einzulagern. Um zu zeigen, dass wässrige Zwei-Phasen-Systeme (aqueous two phase systems – ATPS) eine belastbare Grundlage für die Untersuchung und Entwicklung selbstorganisierender DHBC-Systeme sind, wurden weitere Dextran-basierte Copolymere synthetsisiert: Dextran-b-Poly(vinylalokohol) und Detran-b-Poly(vinylpyrrolidon). In einem zweiten Teil dieser Arbeit wurde das zuvor erarbeitete Prinzip auf auf Polypeptidsysteme ausgeweitet. Dazu wurde ein Poly(N-Hydroxyethylglutamin)-block-Poly(ethylenglycol)-Copolymer hergestellt. Dieses Copolymer, dessen emulgierenden Eigenschaften bereits bekannt waren, wies unmittelbar nach Lösung des Feststoffes in Wasser Vesikelbildung auf. In einem dritten Teil der Studie wurden thermoresponsive Copolymere hergestellt und untersucht: Dextran-b-PNIPAMm. Unterhalb der LCST konnte die Bildung von Aggregaten nachgewiesen werden, deren Struktur nicht zweifelsfrei entschlüsselt werden konnte, wobei jedoch zahlreiche Hinweise auf eine vesikuläre Struktur hindeuten. Oberhalb der LCST wurde durch die Kollabierung der PNIPAM-Ketten die Bildung stabiler Strukturen mit Radien von mehreren hundert Nanometern induziert, deren weitere Entwicklung durch eine weitere Temperaturerhöhung gefördert werden konnte. Durch Rückkühlung in den Temperaturebereich unterhalb der LCST konnten die zuvor beobachteten Aggregate reversibel zurückgebildet werden. Das Selbstorganisationsverhalten von DHBC, unabhängig vom Einfluss des pH-Werts, der Ionenstärke oder der Temperatur are bisher nur in sehr geringem Umfang Gegenstand wissenschaftlicher Veröffentlichungen. Diese Arbeit stellt damit den ersten umfassenden Beitrag zur systematischen Erarbeitung dieses Phänomens dar. Es konnten dabei zwei Ursachen für die beobachteten Selbstorganisationseffekte bestimmt werden: die Inkompatibilität der beiden Polymerblöcke (enthalpischer Effekt) und der Unterschied in deren Löslichkeit (enthalpische und entropische Effekte). Der entropische Beitrag zur positiven Gibbs’schen Freien Mischungsenergie wird dem selben Verlust konformativer Entropie zugeordnet, der auch für den hydrophoben Effekt verantwortlich ist, allerdings angetrieben durch einen Wettbewerb der beiden Polymerblöcke um das Wasser. In diesem Sinne kann man das beobachtete Phänomen als „hydrophilen Effekt“ bezeichnen. KW - Selbstorganisation KW - Blockcopolymere KW - hydrophil KW - self-assembly KW - copolymers KW - hydrophilic Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54163 ER - TY - THES A1 - Jiang, Yuan T1 - Precursor phases in non-classical crystallization N2 - The main objective of this thesis is to understand molecular crystallization as a multistep process with or without polymeric additives, including transient liquid-liquid phase separation, nanocrystal nucleation within the dense phase, and subsequent nanocrystal self-assembly or self-organization in sequence. The thesis starts with a quaternary model system, containing DL-Glutamic acid (Glu), polyethyleneimine (PEI), water, and EtOH, for the understanding of multistep precipitation of Glu with PEI as an additive. The experiments were performed by mixing Glu-PEI aqueous solution with a non-solvent EtOH. First, the phase diagram of the quaternary system is determined, obtaining precipitate, coacervates, or homogeneous mixtures by varying Glu/PEI w/w and water/EtOH v/v. Coacervation is observed to occur over a wide range of Glu/PEI with various volumes. The composition of coacervates is conveniently characterized by nuclear magnetic resonance spectroscopy. The observed coacervates are thermodynamically stable phases rich in solute, which is different from metastable polymer-induced liquid precursors. The combination of atomic force microscopy, small angle scattering, and ξ-potential measurements confirms the coexistence of monomers and Glu/PEI complexes and the aggregation of complexes in Glu-PEI-water systems. This suggests that there might be a direct structural transformation between the Glu-PEI complexes in aqueous solution and the metastable liquid precursors in a water-EtOH mixture. The multistep mechanism of Glu precipitation with PEI as an additive is investigated thereafter. The combination of stopped flow and small angle scattering demonstrates that the initially formed liquid precursors pass through an alteration of growth and coalescence. Combined with results from optical microscopy and scanning electron microscopy, the nucleation of nanoplatelets happens within each liquid precursor droplet, and nanoplatelets reorient themselves and self-organize into a radial orientation in the crystalline microspheres. The recipe was then extended to the precipitation of organics in other oppositely charged amino acid-polyelectrolyte systems. After the success in preparing hierarchical microspheres in solution, the similar recipe can be extended to the preparation of patterned thin films on substrate. By dipping a quaternary DL-Lys·HCl (Lys)–polyacrylic acid (PAA)–water–EtOH dispersion on a hydrophilic slide, the fast evaporation process of the volatile solvent EtOH is responsible for the homogeneous nucleation of NPs. Then, the following complete evaporation causes the mesocrystallization of a continuous spherulitic thin film along the receding line of the liquid, which again transforms into a mesocrystalline thin film. Furthermore, annealing is used to optimize the property of mesocrystalline thin films. As evaporation is a non-equilibrium process, it can be used to tune the kinetics of crystallization. Therefore, hierarchical or periodical thin films are obtainable by starting the evaporation from microspheres recrystallization, obtaining mesocrystalline thin films with 4 hierarchy levels. The results reveal that evaporation provides an easy but effective way for the formation of patterned structures via the positioning of NPs after their fast nucleation, resulting in different kinds of patterns by controlling the concentration of NPs, solvent evaporation rate, and other physical forces. Non-classical crystallization is not limited to crystallizations with polymeric additives. We also observed the nucleation and growth of a new molecular layer on the growing DL-Glu·H2O crystals from a supersaturated mother liquor by using an in-situ atomic force microscopy (AFM), where the nucleation and growth of a molecular layer proceed via amorphous nanoparticle (NP) attachment and relaxation process before the observation of the growth of a newly formed molecular layer. NP attachment to the crystal surface is too fast to observe by using in-situ AFM. The height shrinkage of NPs, combined to the structural transformation from 3D amorphous NPs to 2D crystalline layer, is observed during the relaxation process. The nucleation and growth of a newly formed molecular layer from NP relaxation is contradictory to the classical nucleation theory, which hypothesizes that nuclei show the same crystallographic properties as a bulk crystal. The formation of a molecular layer by NP attachment and relaxation rather than attachment of single molecules provides a different picture from the currently held classical nucleation and growth theory regarding the growth of single crystals from solution. N2 - Das Hauptziel dieser Arbeit ist das Verständnis der molekularen Kristallisation, sowohl mit als auch ohne polymere Additive, als einen mehrstufigen Prozess. Dieser beinhaltet eine transiente flüssig-flüssig Phasentrennung, die Nukleation von Nanokristallen in der dichten flüssigen Precursor-Phase so wie eine anschließende nanokristalline Selbstorganisation. Die Arbeit beginnt mit Untersuchungen an einem quaternären Modelsystem bestehend aus DL-Glutamat (Glu), Polyethylenimin (PEI), Wasser und Ethanol. Das Phasendiagramm dieses quaternären Systems wird durch Variation der Glu/PEI w/w und Wasser/EtOH v/v Verhältnisse bestimmt, wobei Präzpitat aus polymerinduzierten flüssigen Precursor, Koazervate oder homogene Mischungen erhalten werden Das thermodynamisch stabile Koazervat kann als Referenz für das Verständnis von flüssigen Precursorn angesehen werden, welche in der Natur metastabil und transient sind. Der mehrstufige Mechanismus der Glu-Präzipitation mit PEI als Additiv wird dann mittels Neutronen Kleinwinkelstreuung untersucht. Dies zeigt, dass die ursprünglich gebildeten flüssigen Precursor noch vor der Nukleation von Nanokristallen einen Wechsel von Wachstum und Koaleszenz durchlaufen. Die Ergebnisse aus optischer- und Eletronenmikroskopie zeigen, dass sowohl die flüssigen Precursor Superstrukturen ausbilden als auch, dass die Nukleation von Nanoplättchen in jedem einzelnen Precursor Tropfen von statten geht. Dies geschieht noch bevor sich die Nanoplättchen selbst in einer radialen Orientierung ausrichten. Diese Studie liefert die Kinetik der Präzipitation von organischen Stoffen in Gegenwart von polymeren Additiven. Eine ähnliche Vorgehensweise wie für die Herstellung von Mikrokügelchen kann für die Darstellung von gemusterten Filmen angewandt werden. Die homogene Nukleation von Nanopartikeln (NPs) findet während der Verdampfung einer quarternären DL-Lys·HCl-Polyacrylsäure-Wasser-Ethanol Dispersion auf einer hydrophilen Oberfläche statt. Die darauffolgende vollständige Verdampfung löst die Mesokristallisation eines kontinuierlichen sphärolithischen dünnen Films aus, welcher sich wiederum in einen mesokristallinen dünnen Film umwandelt. Mesokristalline Filme mit 4 Hierarchiestufen bzw. auch periodische Filme werden durch die Verdampfung der Mikrokügelchen-Dispersion erhalten. Die Ergebnisse zeigen, dass die Verdampfung eine einfache aber effektive Methode zur Herstellung von verschieden gemusterten hierarchischen Filmen darstellt. Nicht-klassische Kristallisation wird auch in der Abwesenheit von polymeren Additiven beobachtet. Wir verfolgen mittels Rasterkraftmikroskop (AFM) die Nukleation und das Wachstum einer neuen molekularen Schicht auf wachsenden DL-Glu·H2O Kristallen aus übersättigter Mutterlauge. Die Bildung einer neuen molekularen Schicht verläuft durch die Anlagerung von amorphen Nanopartikeln. Das Schrumpfen der NPs zusammen mit der strukturellen Änderung von dreidimensionalen NPs zu 2D Schichten wird während dieses Relaxationsprozesses beobachtet. Schließlich kommt es zu der Ausbildung einer neuen molekularen Schicht. Die Bildung einer molekularen Schicht durch die Anlagerung von Nanopartikeln aus der Lösung und die darauffolgende Relaxation liefert ein abweichendes Bild zu der bisher gängigen klassischen Theorie des Kristallwachstums. T2 - Vorstufenphasen in nichtklassischer Kristallisation KW - Mesokristall KW - Vorstufe KW - Kristallisation KW - mesocrystal KW - precursor KW - crystallization Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52460 ER - TY - THES A1 - Kraupner, Alexander T1 - Neuartige Synthese magnetischer Nanostrukturen: Metallcarbide und Metallnitride der Übergangsmetalle Fe/Co/Ni T1 - Novel synthesis of magnetic nanostructures: metal carbides and metal nitrides of transition metals Fe/Co/Ni N2 - Magnetische Nanopartikel bieten ein großes Potential, da sie einerseits die Eigenschaften ihrer Bulk-Materialien besitzen und anderseits, auf Grund ihrer Größe, über komplett unterschiedliche magnetische Eigenschaften verfügen können; Superparamagnetismus ist eine dieser Eigenschaften. Die meisten etablierten Anwendungen magnetischer Nanopartikel basieren heutzutage auf Eisenoxiden. Diese bieten gute magnetische Eigenschaften, sind chemisch relativ stabil, ungiftig und lassen sich auf vielen Synthesewegen relativ einfach herstellen. Die magnetischen Eigenschaften der Eisenoxide sind materialabhängig aber begrenzt, weshalb nach anderen Verbindungen mit besseren Eigenschaften gesucht werden muss. Eisencarbid (Fe3C) kann eine dieser Verbindungen sein. Dieses besitzt vergleichbare positive Eigenschaften wie Eisenoxid, jedoch viel bessere magnetische Eigenschaften, speziell eine höhere Sättigungsmagnetisierung. Bis jetzt wurde Fe3C hauptsächlich in Gasphasenabscheidungsprozessen synthetisiert oder als Nebenprodukt bei der Synthese von Kohlenstoffstrukturen gefunden. Eine Methode, mit der gezielt Fe3C-Nanopartikel und andere Metallcarbide synthetisiert werden können, ist die „Harnstoff-Glas-Route“. Neben den Metallcarbiden können mit dieser Methode auch die entsprechenden Metallnitride synthetisiert werden, was die breite Anwendbarkeit der Methode unterstreicht. Die „Harnstoff-Glas-Route“ ist eine Kombination eines Sol-Gel-Prozesses mit einer anschließenden carbothermalen Reduktion/Nitridierung bei höheren Temperaturen. Sie bietet den Vorteil einer einfachen und schnellen Synthese verschiedener Metallcarbide/nitride. Der Schwerpunkt in dieser Arbeit lag auf der Synthese von Eisencarbiden/nitriden, aber auch Nickel und Kobalt wurden betrachtet. Durch die Variation der Syntheseparameter konnten verschiedene Eisencarbid/nitrid Nanostrukturen synthetisiert werden. Fe3C-Nanopartikel im Größenbereich von d = 5 – 10 nm konnten, durch die Verwendung von Eisenchlorid, hergestellt werden. Die Nanopartikel weisen durch ihre geringe Größe superparamagnetische Eigenschaften auf und besitzen, im Vergleich zu Eisenoxid Nanopartikeln im gleichen Größenbereich, eine höhere Sättigungsmagnetisierung. Diese konnten in fortführenden Experimenten erfolgreich in ionischen Flüssigkeiten und durch ein Polymer-Coating, im wässrigen Medium, dispergiert werden. Desweiteren wurde durch ein Templatieren mit kolloidalem Silika eine mesoporöse Fe3C-Nanostruktur hergestellt. Diese konnte erfolgreich in der katalytischen Spaltung von Ammoniak getestet werden. Mit der Verwendung von Eisenacetylacetonat konnten neben Fe3C-Nanopartikeln, nur durch Variation der Reaktionsparameter, auch Fe7C3- und Fe3N-Nanopartikel synthetisiert werden. Speziell für die Fe3C-Nanopartikel konnte die Sättigungsmagnetisierung, im Vergleich zu den mit Eisenchlorid synthetisierten Nanopartikeln, nochmals erhöht werden. Versuche mit Nickelacetat führten zu Nickelnitrid (Ni3N) Nanokristallen. Eine zusätzliche metallische Nickelphase führte zu einer Selbstorganisation der Partikel in Scheiben-ähnliche Überstrukturen. Mittels Kobaltacetat konnten, in Sphären aggregierte, metallische Kobalt Nanopartikel synthetisiert werden. Kobaltcarbid/nitrid war mit den gegebenen Syntheseparametern nicht zugänglich. N2 - Magnetic nanoparticles offer a great potential, because they exhibit on the one hand the properties of their bulk materials and on the other hand, because of their size, completely different magnetic properties. The most established applications of magnetic nanoparticles are based on iron oxide. These oxides have good magnetic properties, they are chemical relatively stable, non toxic and easy to prepare. But the magnetic properties are limited. Therefore, we need new materials with improved magnetic properties. Iron carbide (Fe3C) could be one of these materials. Up to now, Fe3C was mainly synthesized in chemical vapor deposition processes (CVD) or was found as side product in the synthesis of carbon structures. A method for the systematical synthesis of metal carbides is the “Urea-Glass-Route”. In addition to the synthesis of metal carbides, this method allows to synthesize metal nitrides, which shows the broad practicability. The “Urea-Glass-Route” is a combination of a sol-gel process with following carbothermal reduction/nitridation at higher temperatures. The method is fast and simple and it is possible to synthesis different metal carbides/nitrides. The main topic of this work is the synthesis of iron carbide/nitride, but also cobalt and nickel is examined. By varying the synthesis parameters, different iron carbide/nitride nanostructures could be synthesized. With the use of iron chloride, Fe3C nanoparticles, in the size range of d = 5 – 10 nm, could be produced. Because of their small size, the particles show superparamagnetism and compared to iron oxide particles (in the same size range) a higher saturation magnetization. In following experiments, the particles could be successfully dispersed in an ionic liquid and with a polymer coating in aqueous medium. Furthermore, via templating with colloidal silica a mesoporous Fe3C structure could be synthesized. The material could be successfully tested in the catalytic ammonia decomposition. By changing the iron source to iron acetylacetonate, Fe7C3 and Fe3N nanoparticles, in addition to Fe3C, could be also synthesized. With nickel acetate it was possible to synthesize nickel nitride (Ni3N) nano crystals. An additional metallic nickel phase in the sample leads to a self organization to disk-like superlattice. Via cobalt acetate, in spheres aggregated, metallic cobalt nanoparticles could be synthesized. Cobalt carbide or nitride was not accessible under these synthesis parameters. KW - Carbide KW - Nitride KW - Eisen KW - Magnetismus KW - Nanopartikel KW - carbides KW - nitrides KW - iron KW - magnetism KW - nanoparticles Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52314 ER - TY - THES A1 - Kopetzki, Daniel T1 - Exploring hydrothermal reactions : from prebiotic synthesis to green chemistry T1 - Hydrothermalreaktionen : von präbiotischer Synthese zu nachhaltiger Chemie N2 - In this thesis chemical reactions under hydrothermal conditions were explored, whereby emphasis was put on green chemistry. Water at high temperature and pressure acts as a benign solvent. Motivation to work under hydrothermal conditions was well-founded in the tunability of physicochemical properties with temperature, e.g. of dielectric constant, density or ion product, which often resulted in surprising reactivity. Another cornerstone was the implementation of the principles of green chemistry. Besides the use of water as solvent, this included the employment of a sustainable feedstock and the sensible use of resources by minimizing waste and harmful intermediates and additives. To evaluate the feasibility of hydrothermal conditions for chemical synthesis, exemplary reactions were performed. These were carried out in a continuous flow reactor, allowing for precise control of reaction conditions and kinetics measurements. In most experiments a temperature of 200 °C in combination with a pressure of 100 bar was chosen. In some cases the temperature was even raised to 300 °C. Water in this subcritical range can also be found in nature at hydrothermal vents on the ocean floor. On the primitive earth, environments with such conditions were however present in larger numbers. Therefore we tested whether biologically important carbohydrates could be formed at high temperature from the simple, probably prebiotic precursor formaldehyde. Indeed, this formose reaction could be carried out successfully, although the yield was lower compared to the counterpart reaction under ambient conditions. However, striking differences regarding selectivity and necessary catalysts were observed. At moderate temperatures bases and catalytically active cations like Ca2+ are necessary and the main products are hexoses and pentoses, which accumulate due to their higher stability. In contrast, in high-temperature water no catalyst was necessary but a slightly alkaline solution was sufficient. Hexoses were only formed in negligible amounts, whereas pentoses and the shorter carbohydrates accounted for the major fraction. Amongst the pentoses there was some preference for the formation of ribose. Even deoxy sugars could be detected in traces. The observation that catalysts can be avoided was successfully transferred to another reaction. In a green chemistry approach platform chemicals must be produced from sustainable resources. Carbohydrates can for instance be employed as a basis. They can be transformed to levulinic acid and formic acid, which can both react via a transfer hydrogenation to the green solvent and biofuel gamma-valerolactone. This second reaction usually requires catalysis by Ru or Pd, which are neither sustainable nor low-priced. Under hydrothermal conditions these heavy metals could be avoided and replaced by cheap salts, taking advantage of the temperature dependence of the acid dissociation constant. Simple sulfate was recognized as a temperature switchable base. With this additive high yield could be achieved by simultaneous prevention of waste. In contrast to conventional bases, which create salt upon neutralization, a temperature switchable base becomes neutral again when cooled down and thus can be reused. This adds another sustainable feature to the high atom economy of the presented hydrothermal synthesis. In a last study complex decomposition pathways of biomass were investigated. Gas chromatography in conjunction with mass spectroscopy has proven to be a powerful tool for the identification of unknowns. It was observed that several acids were formed when carbohydrates were treated with bases at high temperature. This procedure was also applied to digest wood. Afterwards it was possible to fermentate the solution and a good yield of methane was obtained. This has to be regarded in the light of the fact that wood practically cannot be used as a feedstock in a biogas factory. Thus the hydrothermal pretreatment is an efficient means to employ such materials as well. Also the reaction network of the hydrothermal decomposition of glycine was investigated using isotope-labeled compounds as comparison for the unambiguous identification of unknowns. This refined analysis allowed the identification of several new molecules and pathways, not yet described in literature. In summary several advantages could be taken from synthesis in high-temperature water. Many catalysts, absolutely necessary under ambient conditions, could either be completely avoided or replaced by cheap, sustainable alternatives. In this respect water is not only a green solvent, but helps to prevent waste and preserves resources. N2 - In dieser Arbeit wurden chemische Reaktionen unter Hydrothermalbedingungen untersucht. Darunter versteht man Wasser als Reaktionsmedium, welches eine Temperatur über 100 °C aufweist. Der flüssige Zustand wird dabei durch erhöhten Druck aufrecht erhalten. Typischerweise wurden die Reaktionen bei 200 °C und einem Druck von 100 bar durchgeführt, also dem 100-fachen des Normaldrucks. Dieses System kann man auch mit einem Dampfdrucktopf vergleichen, wobei durch die erhöhten Temperaturen chemische Reaktionen sehr schnell ablaufen und überraschende Reaktivität auftritt. Die Motivation, Wasser als Lösemittel zu benutzen, ist auch in seiner Umweltfreundlichkeit gegenüber klassischen organischen Lösemitteln begründet. Da solche Hydrothermalbedingungen auf der frühen Erde häufiger anzutreffen waren, wurde untersucht, ob wichtige Biomoleküle bei solch hoher Temperatur gebildet werden können. In der Tat konnten Zucker aus der sehr einfachen Verbindung Formaldehyd synthetisiert werden. Hierzu war lediglich eine leicht basische Lösung nötig und keine der bei moderaten Temperaturen essentiellen Katalysatoren. Zucker stellen zudem den größten Teil der pflanzlichen Biomasse dar und können daher als Grundlage für eine nachhaltige Chemie dienen. Sie können relativ einfach zu Lävulin- und Ameisensäure umgesetzt werden. Aus diesen wiederum kann die wichtige Basischemikalie gamma-Valerolacton hergestellt werden. Der Schlüsselschritt, die Reduktion von Lävulinsäure, erforderte bisher die Zuhilfenahme seltener Edelmetalle wie Ruthenium. Es konnte nun gezeigt werden, dass unter Hydrothermalbedingungen diese Rolle von einfachen Salzen, z. B. Natriumsulfat, übernommen werden kann. Hierbei macht man sich zunutze, dass sie nur bei hoher Temperatur basisch wirken, nicht aber wenn die Lösung wieder abgekühlt ist. Neben Kohlenhydraten besteht Biomasse auch aus Aminosäuren, von denen Glycin die einfachste darstellt. Unter Abspaltung von CO2 können aus ihnen synthetisch wichtige Amine hergestellt werden. Diese Reaktion findet unter Hydrothermalbedingungen statt, daneben treten jedoch noch andere Produkte auf. Unbekannte Verbindungen wurden mittels Massenspektroskopie identifiziert, wobei die Masse des Moleküls und bestimmter Molekülfragmente bestimmt wurde. Dies erlaubte es, bisher noch unbekannte Reaktionswege aufzuklären. Zusammenfassend lässt sich sagen, dass Wasser unter Hydrothermalbedingungen eine interessante Alternative zu organischen Lösemitteln darstellt. Desweiteren können bestimmte Katalysatoren, die bei moderaten Temperaturen nötig sind, entweder vollständig eingespart oder ersetzt werden. In dieser Hinsicht ist Wasser nicht nur ein umweltfreundliches Lösemittel, sondern trägt dazu bei, Abfall zu vermeiden und Ressourcen zu schonen. KW - hydrothermal KW - Formose KW - Valerolacton KW - Lävulinsäure KW - hydrothermal KW - formose KW - valerolactone KW - levulinic acid Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52581 ER - TY - THES A1 - Kubo, Shiori T1 - Nanostructured carbohydrate-derived carbonaceous materials T1 - Nanostrukturierte kohlenstoffbasierte Materialien aus Kohlenhydraten N2 - Nanoporous carbon materials are widely used in industry as adsorbents or catalyst supports, whilst becoming increasingly critical to the developing fields of energy storage / generation or separation technologies. In this thesis, the combined use of carbohydrate hydrothermal carbonisation (HTC) and templating strategies is demonstrated as an efficient route to nanostructured carbonaceous materials. HTC is an aqueous-phase, low-temperature (e.g. 130 – 200 °C) carbonisation, which proceeds via dehydration / poly-condensation of carbon precursors (e.g. carbohydrates and their derivatives), allowing facile access to highly functional carbonaceous materials. Whilst possessing utile, modifiable surface functional groups (e.g. -OH and -C=O-containing moieties), materials synthesised via HTC typically present limited accessible surface area or pore volume. Therefore, this thesis focuses on the development of fabrication routes to HTC materials which present enhanced textural properties and well-defined porosity. In the first discussed synthesis, a combined hard templating / HTC route was investigated using a range of sacrificial inorganic templates (e.g. mesoporous silica beads and macroporous alumina membranes (AAO)). Via pore impregnation of mesoporous silica beads with a biomass-derived carbon source (e.g. 2-furaldehyde) and subsequent HTC at 180 oC, an inorganic / carbonaceous hybrid material was produced. Removal of the template component by acid etching revealed the replication of the silica into mesoporous carbonaceous spheres (particle size ~ 5 μm), representing the inverse morphological structure of the original inorganic body. Surface analysis (e.g. FTIR) indicated a material decorated with hydrophilic (oxygenated) functional groups. Further thermal treatment at increasingly elevated temperatures (e.g. at 350, 550, 750 oC) under inert atmosphere allowed manipulation of functionalities from polar hydrophilic to increasingly non-polar / hydrophobic structural motifs (e.g. extension of the aromatic / pseudo-graphitic nature), thus demonstrating a process capable of simultaneous control of nanostructure and surface / bulk chemistry. As an extension of this approach, carbonaceous tubular nanostructures with controlled surface functionality were synthesised by the nanocasting of uniform, linear macropores of an AAO template (~ 200 nm). In this example, material porosity could be controlled, showing increasingly microporous tube wall features as post carbonisation temperature increased. Additionally, by taking advantage of modifiable surface groups, the introduction of useful polymeric moieties (i.e. grafting of thermoresponsive poly(N-isopropylacrylamide)) was also demonstrated, potentially enabling application of these interesting tubular structures in the fields of biotechnology (e.g. enzyme immobilization) and medicine (e.g. as drug micro-containers). Complimentary to these hard templating routes, a combined HTC / soft templating route for the direct synthesis of ordered porous carbonaceous materials was also developed. After selection of structural directing agents and optimisation of synthesis composition, the F127 triblock copolymer (i.e. ethylene oxide (EO)106 propylene oxide (PO)70 ethylene oxide (EO)106) / D-Fructose system was extensively studied. D-Fructose was found to be a useful carbon precursor as the HTC process could be performed at 130 oC, thus allowing access to stable micellular phase. Thermolytic template removal from the synthesised ordered copolymer / carbon composite yielded functional cuboctahedron single crystalline-like particles (~ 5 μm) with well ordered pore structure of a near perfect cubic Im3m symmetry. N2 sorption analysis revealed a predominantly microporous carbonaceous material (i.e. Type I isotherm, SBET = 257 m2g-1, 79 % microporosity) possessing a pore size of ca. 0.9 nm. The addition of a simple pore swelling additive (e.g. trimethylbenzene (TMB)) to this system was found to direct pore size into the mesopore size domain (i.e. Type IV isotherm, SBET = 116 m2g-1, 60 % mesoporosity) generating pore size of ca. 4 nm. It is proposed that in both cases as HTC proceeds to generate a polyfuran-like network, the organised block copolymer micellular phase is essentially “templated”, either via hydrogen bonding between hydrophilic poly(EO) moiety and the carbohydrate or via hydrophobic interaction between hydrophobic poly(PO) moiety and forming polyfuran-like network, whilst the additive TMB presumably interact with poly(PO) moieties, thus swelling the hydrophobic region expanding the micelle template size further into the mesopore range. N2 - Nanoporöse kohlenstoffbasierte Materialien sind in der Industrie als Adsorbentien und Katalysatorträger weit verbreitet und gewinnen im aufstrebenden Bereich der Energiespeicherung/erzeugung und für Trennverfahren an wachsender Bedeutung. In der vorliegenden Arbeit wird gezeigt, dass die Kombination aus hydrothermaler Karbonisierung von Zuckern (HTC) mit Templatierungsstrategien einen effizienten Weg zu nanostrukturierten kohlenstoffbasierten Materialien darstellt. HTC ist ein in Wasser und bei niedrigen Temperaturen (130 - 200 °C) durchgeführter Karbonisierungsprozess, bei dem Zucker und deren Derivate einen einfachen Zugang zu hochfunktionalisierten Materialien erlauben. Obwohl diese sauerstoffhaltige Funktionalitäten auf der Oberfläche besitzen, an welche andere chemische Gruppen gebunden werden könnten, was die Verwendung für Trennverfahren und in der verzögerten Wirkstofffreisetzung ermöglichen sollte, ist die mittels HTC hergestellte Kohle für solche Anwendungen nicht porös genug. Das Ziel dieser Arbeit ist es daher, Methoden zu entwickeln, um wohldefinierte Poren in solchen Materialien zu erzeugen. Hierbei führte unter anderem der Einsatz von anorganischen formgebenden mesoporösen Silikapartikeln und makroporösen Aluminiumoxid-Membranen zum Erfolg. Durch Zugabe einer Kohlenstoffquelle (z. B. 2-Furfural), HTC und anschließender Entfernung des Templats konnten poröse kohlenstoffbasierte Partikel und röhrenförmige Nanostrukturen hergestellt werden. Gleichzeitig konnte durch eine zusätzliche Nachbehandlung bei hoher Temperatur (350-750 °C) auch noch die Oberflächenfunktionalität hin zu aromatischen Systemen verschoben werden. Analog zur Formgebung durch anorganische Template konnte mit sog. Soft-Templaten, z. B. PEO-PPO-PEO Blockcopolymeren, eine funktionelle poröse Struktur induziert werden. Hierbei machte man sich die Ausbildung geordneter Mizellen mit der Kohlenstoffquelle D-Fructose zu Nutze. Das erhaltene Material wies hochgeordnete Mikroporen mit einem Durchmesser von ca. 0,9 nm auf. Dieser konnte desweiteren durch Zugabe von Quell-Additiven (z. B. Trimethylbenzol) auf 4 nm in den mesoporösen Bereich vergrößert werden. Zusammenfassend lässt sich sagen, dass beide untersuchten Synthesewege nanostrukturierte kohlenstoffbasierte Materialien mit vielfältiger Oberflächenchemie liefern, und das mittels einer bei relativ niedriger Temperatur in Wasser ablaufenden Reaktion und einer billigen, nachhaltigen Kohlenstoffquelle. Die so hergestellten Produkte eröffnen vielseitige Anwendungsmöglichkeiten, z. B. zur Molekültrennung in der Flüssigchromatographie, in der Energiespeicherung als Anodenmaterial in Li-Ionen Akkus oder Superkondensatoren, oder als Trägermaterial für die gezielte Pharmakotherapie. KW - Nanostruktur KW - Kohlenstoff KW - Kohlenhydrate KW - Templating KW - hydrothermale Carbonisierung KW - Nanostructure KW - Carbon KW - Carbohydrate KW - Templating KW - Hydrothermal carbonisation Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53157 ER - TY - THES A1 - Tan, Irene T1 - Towards greener stationary phases : thermoresponsive and carbonaceous chromatographic supports T1 - Zu grüner Separation : thermoresponsive und kohlenstoffhaltige chromatographische Trägermaterialien N2 - Polymers which are sensitive towards external physical, chemical and electrical stimuli are termed as ‘intelligent materials’ and are widely used in medical and engineering applications. Presently, polymers which can undergo a physical change when heat is applied at a certain temperature (cloud point) in water are well-studied for this property in areas of separation chemistry, gene and drug delivery and as surface modifiers. One example of such a polymer is the poly (N-isopropylacrylamide) PNIPAAM, where it is dissolved well in water below 32 oC, while by increasing the temperature further leads to its precipitation. In this work, an alternative polymer poly (2-(2-methoxy ethoxy)ethyl methacrylate-co- oligo(ethylene glycol) methacrylate) (P(MEO2MA-co-OEGMA)) is studied due to its biocompatibility and the ability to vary its cloud points in water. When a layer of temperature responsive polymer was attached to a single continuous porous piece of silica-based material known as a monolith, the thermoresponsive characteristic was transferred to the column surfaces. The hybrid material was demonstrated to act as a simple temperature ‘switch’ in the separation of a mixture of five steroids under water. Different analytes were observed to be separated under varying column temperatures. Furthermore, more complex biochemical compounds such as proteins were also tested for separation. The importance of this work is attributed to separation processes utilizing environmentally friendly conditions, since harsh chemical environments conventionally used to resolve biocompounds could cause their biological activities to be rendered inactive. N2 - Polymere, welche empfindlich gegenüber externen physikalischen, chemischen und elektrischen Einflüssen sind, werden „intelligente Materialien“ genannt. Diese werden weitverbreitet in medizinischen und technischen Anwendungen eingesetzt. Auf diesem Gebiet ausführlich erforschte Materialien sind Polymere, welche durch Hitze bei einer bestimmten Temperatur (Trübungspunkt) eine physikalische Veränderung eingehen können, genannt thermoresponsive Polymere. Eingesetzt werden diese z.B. in chromatographischen Trennverfahren, in Gen- und Wirkstofftransport Vorgängen und zur Oberflächenmodifikation. Ein Beispiel für so ein Polymer ist das poly(N-isopropylacrylamide) PNIPAAM, welches unter 32 °C in Wasser gelöst vorliegt und mit Erhöhung der Temperatur als Niederschlag ausfällt. In dieser Arbeit wurde ein alternatives Polymer, das poly(2-(2-methoxyethoxy)ethylmethacrylate-co-oligo(ethyleneglycol) methacrylate) (P(MEO2MA-co-OEGMA)), untersucht, in Bezug auf Biokompatibilität und der Änderung des Trübungspunktes in Wasser. Wenn eine Schicht eines temperaturempfindlichen Polymers auf einen Monolithen (einteiliger, poröser und auf Silika-basierendes Material) aufgebracht wird, werden die thermoresponsiven Eigenschaften auf die Oberfläche dieses Monolithen übertragen. Der Monolith dient hier als Säule in einer HPLC-Anlage. Es wurde gezeigt, dass das Hybrid-Material als einfacher „Temperaturschalter“ in der Trennung von fünf verschiedenen Steroiden in Wasser agieren kann. Untersucht wurde die Separation verschiedener Analyten mit dem Variieren der Säulentemperatur. Zusätzlich wurden mehr komplexe biochemische Stoffe, wie Proteine, getestet. Die Bedeutung dieser Arbeit ist zurückzuführen auf Separationsprozesse, welche umweltfreundlichen Bedingungen nutzen, da die rauen chemischen Bedingungen in konventionellen Separationsprozessen die biologische Inaktivität der Verbindungen zur Folge haben können. Der zweite Teil der Arbeit beschäftigte sich mit der Entwicklung eines alternativen Trägermaterials als Ersatz zu den Silika-basierende Trennungssäulen. Kohlenstoffmaterialien sind aufgrund ihrer ausgezeichneten mechanischen Härte und chemischen Stabilität eine vielversprechend Alternative. Die Synthese von Kohlenstoffkugeln als Trägermaterial kann als „grüner“ Prozess in meiner Arbeit angesehen werden, da milde Synthesebedingungen in purem Wasser verwendet wurden. Die Leistungsfähigkeit des Materials wurde mit einer Serie von Separationsreaktionen gezeigt. KW - thermoresponsive KW - poly(N-isopropylacrylamide) KW - oligo(ethyleneglycol) KW - Monolith KW - Chromatographie KW - thermoresponsive KW - poly(N-isopropyl acrylamide) KW - oligo(ethylene glycol) KW - monolith KW - chromatography Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53130 ER - TY - THES A1 - Popovic, Jelena T1 - Novel lithium iron phosphate materials for lithium-ion batteries T1 - Neuartige Lithium-Eisen-Phosphat-Materialien für Lithium-Ionen-Batterien N2 - Conventional energy sources are diminishing and non-renewable, take million years to form and cause environmental degradation. In the 21st century, we have to aim at achieving sustainable, environmentally friendly and cheap energy supply by employing renewable energy technologies associated with portable energy storage devices. Lithium-ion batteries can repeatedly generate clean energy from stored materials and convert reversely electric into chemical energy. The performance of lithium-ion batteries depends intimately on the properties of their materials. Presently used battery electrodes are expensive to be produced; they offer limited energy storage possibility and are unsafe to be used in larger dimensions restraining the diversity of application, especially in hybrid electric vehicles (HEVs) and electric vehicles (EVs). This thesis presents a major progress in the development of LiFePO4 as a cathode material for lithium-ion batteries. Using simple procedure, a completely novel morphology has been synthesized (mesocrystals of LiFePO4) and excellent electrochemical behavior was recorded (nanostructured LiFePO4). The newly developed reactions for synthesis of LiFePO4 are single-step processes and are taking place in an autoclave at significantly lower temperature (200 deg. C) compared to the conventional solid-state method (multi-step and up to 800 deg. C). The use of inexpensive environmentally benign precursors offers a green manufacturing approach for a large scale production. These newly developed experimental procedures can also be extended to other phospho-olivine materials, such as LiCoPO4 and LiMnPO4. The material with the best electrochemical behavior (nanostructured LiFePO4 with carbon coating) was able to delive a stable 94% of the theoretically known capacity. N2 - Konventionelle Energiequellen sind weder nachwachsend und daher nachhaltig nutzbar, noch weiterhin langfristig verfügbar. Sie benötigen Millionen von Jahren um gebildet zu werden und verursachen in ihrer Nutzung negative Umwelteinflüsse wie starke Treibhausgasemissionen. Im 21sten Jahrhundert ist es unser Ziel nachhaltige und umweltfreundliche, sowie möglichst preisgünstige Energiequellen zu erschließen und nutzen. Neuartige Technologien assoziiert mit transportablen Energiespeichersystemen spielen dabei in unserer mobilen Welt eine große Rolle. Li-Ionen Batterien sind in der Lage wiederholt Energie aus entsprechenden Prozessen nutzbar zu machen, indem sie reversibel chemische in elektrische Energie umwandeln. Die Leistung von Li-Ionen Batterien hängen sehr stark von den verwendeten Funktionsmaterialien ab. Aktuell verwendete Elektrodenmaterialien haben hohe Produktionskosten, verfügen über limitierte Energiespeichekapazitäten und sind teilweise gefährlich in der Nutzung für größere Bauteile. Dies beschränkt die Anwendungsmöglichkeiten der Technologie insbesondere im Gebiet der hybriden Fahrzeugantriebe. Die vorliegende Dissertation beschreibt bedeutende Fortschritte in der Entwicklung von LiFePO4 als Kathodenmaterial für Li-Ionen Batterien. Mithilfe einfacher Syntheseprozeduren konnten eine vollkommen neue Morphologie (mesokristallines LiFePo4) sowie ein nanostrukturiertes Material mit exzellenten elektrochemischen Eigenschaften hergestellt werden. Die neu entwickelten Verfahren zur Synthese von LiFePo4 sind einschrittig und bei signifikant niedrigeren Temperaturen im Vergleich zu konventionellen Methoden. Die Verwendung von preisgünstigen und umweltfreundlichen Ausgangsstoffen stellt einen grünen Herstellungsweg für die large scale Synthese dar. Mittels des neuen Synthesekonzepts konnte meso- und nanostrukturiertes LiFe PO4 generiert werden. Die Methode ist allerdings auch auf andere phospho-olivin Materialien (LiCoPO4, LiMnPO4) anwendbar. Batterietests der besten Materialien (nanostrukturiertes LiFePO4 mit Kohlenstoffnanobeschichtung) ergeben eine mögliche Energiespeicherung von 94%. KW - Li-Ionen-Akkus KW - Kathode KW - LiFePO4 KW - Mesokristalle KW - Nanopartikel KW - Li-ion batteries KW - cathode KW - LiFePO4 KW - mesocrystals KW - nanoparticles Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54591 ER - TY - THES A1 - ten Brummelhuis, Niels T1 - Self-assembly of cross-linked polymer micelles into complex higher-order aggregates T1 - Selbstorganisation von vernetzten Polymermizellen zu Komplexen Aggregaten mit höherer Ordnung N2 - The creation of complex polymer structures has been one of the major research topics over the last couple of decades. This work deals with the synthesis of (block co-)polymers, the creation of complex and stimuli-responsive aggregates by self-assembly, and the cross-linking of these structures. Also the higher-order self-assembly of the aggregates is investigated. The formation of poly-2-oxazoline based micelles in aqueous solution and their simultaneous functionalization and cross-linking using thiol-yne chemistry is e.g. presented. By introducing pH responsive thiols in the core of the micelles the influence of charged groups in the core of micelles on the entire structure can be studied. The charging of these groups leads to a swelling of the core and a decrease in the local concentration of the corona forming block (poly(2-ethyl-2-oxazoline)). This decrease in concentration yields a shift in the cloud point temperature to higher temperatures for this Type I thermoresponsive polymer. When the swelling of the core is prohibited, e.g. by the introduction of sufficient amounts of salt, this behavior disappears. Similar structures can be prepared using complex coacervate core micelles (C3Ms) built through the interaction of weakly acidic and basic polymer blocks. The advantage of these structures is that two different stabilizing blocks can be incorporated, which allows for more diverse and complex structures and behavior of the micelles. Using block copolymers with either a polyanionic or a polycationic block C3Ms could be created with a corona which contains two different soluble nonionic polymers, which either have a mixed corona or a Janus type corona, depending on the polymers that were chosen. Using NHS and EDC the micelles could easily be cross-linked by the formation of amide bonds in the core of the micelles. The higher-order self-assembly behavior of these core cross-linked complex coacervate core micelles (C5Ms) was studied. Due to the cross-linking the micelles are stabilized towards changes in pH and ionic strength, but polymer chains are also no longer able to rearrange. For C5Ms with a mixed corona likely network structures were formed upon the collapse of the thermoresponsive poly(N-isopropylacrylamide) (PNIPAAm), whereas for Janus type C5Ms well defined spherical aggregates of micelles could be obtained, depending on the pH of the solution. Furthermore it could be shown that Janus micelles can adsorb onto inorganic nanoparticles such as colloidal silica (through a selective interaction between PEO and the silica surface) or gold nanoparticles (by the binding of thiol end-groups). Asymmetric aggregates were also formed using the streptavidin-biotin binding motive. This is achieved by using three out of the four binding sites of streptavidin for the binding of one three-arm star polymer, end-functionalized with biotin groups. A homopolymer with one biotin end-group can be used to occupy the last position. This binding of two different polymers makes it possible to create asymmetric complexes. This phase separation is theoretically independent of the kind of polymer since the structure of the protein is the driving force, not the intrinsic phase separation between polymers. Besides Janus structures also specific cross-linking can be achieved by using other mixing ratios. N2 - In den letzten Jahrzehnten war die Herstellung von komplizierten Polymerstrukturen ein wichtiges Forschungsthema für Polymerchemiker. Diese Arbeit behandelt die Synthese von (Blockco-)Polymere, die Herstellung von komplexen und stimulus-responsiven Aggregaten (Mizellen) durch Selbstorganisation, sowie die Vernetzung dieser Strukturen. Auch die Anordnung dieser Mizellen zu Aggregaten mit höherer Ordnung wurde untersucht. Zum Beispiel wird die Bildung von Poly(2-oxazolin) basierter Mizellen in wässriger Lösung und die gleichzeitige Funktionalisierung und Vernetzung dieser Mizellen mittels Thiol-In-Chemie beschrieben. Durch die Einführung von pH-responsiven Gruppen in den Kern der Mizellen konnte der Einfluss von geladenen Gruppen im Kern auf das gesamte Aggregat untersucht werden. Das Einführen von Ladung führt zum Quellen des Mizellkerns und damit zu einer niedrigeren lokalen Konzentration von wasserlöslichem Poly(2-ethyl-2-oxazolin) (PEtOx). Diese niedrigere Konzentration ergibt eine Verschiebung des Trübungspunkt dieses Typ I thermoresponsiven Polymers zu höheren Temperaturen. Wenn die Ausdehnung des Kerns nicht erfolgt, z.B. in Anwesenheit einer hohen Salzkonzentration, findet dieser Effekt nicht statt. Ähnliche Strukturen können mithilfe von Mizellen mit komplexen Koazervatkern (English: Complex Coacervate Core Micelles, C3Ms) durch die Interaktion zwischen Polymeren mit negativ und positiv geladenen Blöcken hergestellt werden. Der Vorteil dieser Strukturen ist, dass zwei verschiedene stabilisierende Polymerblöcke in einem Aggregat vereint werden können, was zur Bildung einer Vielzahl noch komplizierterer Strukturen und zu mehr Responsivität führen kann. Mithilfe von Blockcopolymeren, bestehend aus jeweils einen polyionischen Block und einem neutralen Block (z.B. PEtOx, PEO oder poly(N-isopropylacrylamid) (PNIPAAm)), konnten C3Ms hergestellt werden, in denen zwei neutrale Polymere vereint wurden. Es konnte gezeigt werden, dass diese Polymere sowohl gemischt als auch phasensepariert vorliegen können (letzteres ergibt Janus Mizellen), abhängig welche Polymere gewählt werden. Durch Vernetzung im Kern konnten die Mizellen stabilisiert und fixiert werden (C5Ms). Die Selbstanordnung dieser vernetzten Mizellen zu größeren Aggregaten wurde untersucht. Wenn eine Lösung mit vernetzten Mizellen über den Trübungspunkt von PNIPAAm erhitzt wurde, bildeten sich Netzwerke aus Mizellen mit einer gemischten Korona, während Janus Mizellen sich zu wohldefinierten Aggregaten höherer Ordnung anordneten. Weiterhin konnte gezeigt werden, dass Janus Mizellen sich auf der Oberfläche von anorganischen Nanopartikeln anlagern können; z.B. durch die selektive Wechselwirkung zwischen PEO und Silica oder durch die Adsorption von Thiolgruppen auf Gold-Nanopartikeln. Asymmetrische Aggregate konnten auch mithilfe des Streptavidin-Biotin Komplexes erhalten werden. Durch das Binden der Biotin-Endgruppen eines dreiarmigen Sternpolymeren an eine Streptavidin-Einheit und anschließende Belegung der verbliebenen Bindungsstelle mit der Biotin-gruppe eines Homopolymers, können sehr spezifisch zwei verschiedene Polymere in einem Janus Aggregat vereint werden. Auch die Vernetzung des Streptavidins kann erzielt werden, indem andere Mischverhältnisse gewählt werden. KW - Polymerchemie KW - Selbstorganisation KW - Mizellen KW - Janus KW - Vernetzung KW - Polymer chemistry KW - self-assembly KW - micelles KW - Janus KW - cross-linking Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52320 ER - TY - THES A1 - Fellinger, Tim-Patrick T1 - Hydrothermal and ionothermal carbon structures T1 - Hydrothermale und ionothermale Kohlenstoffstrukturen BT - from carbon negative materials to energy applications N2 - The needs for sustainable energy generation, but also a sustainable chemistry display the basic motivation of the current thesis. By different single investigated cases, which are all related to the element carbon, the work can be devided into two major topics. At first, the sustainable synthesis of “useful” carbon materials employing the process of hydrothermal carbonisation (HC) is described. In the second part, the synthesis of heteroatom - containing carbon materials for electrochemical and fuel cell applications employing ionic liquid precursors is presented. On base of a thorough review of the literature on hydrothermolysis and hydrothermal carbonisation of sugars in addition to the chemistry of hydroxymethylfurfural, mechanistic considerations of the formation of hydrothermal carbon are proposed. On the base of these reaction schemes, the mineral borax, is introduced as an additive for the hydrothermal carbonisation of glucose. It was found to be a highly active catalyst, resulting in decreased reaction times and increased carbon yields. The chemical impact of borax, in the following is exploited for the modification of the micro- and nanostructure of hydrothermal carbon. From the borax - mediated aggregation of those primary species, widely applicable, low density, pure hydrothermal carbon aerogels with high porosities and specific surface areas are produced. To conclude the first section of the thesis, a short series of experiments is carried out, for the purpose of demonstrating the applicability of the HC model to “real” biowaste i.e. watermelon waste as feedstock for the production of useful materials. In part two cyano - containing ionic liquids are employed as precursors for the synthesis of high - performance, heteroatom - containing carbon materials. By varying the ionic liquid precursor and the carbonisation conditions, it was possible to design highly active non - metal electrocatalyst for the reduction of oxygen. In the direct reduction of oxygen to water (like used in polymer electrolyte fuel cells), compared to commercial platinum catalysts, astonishing activities are observed. In another example the selective and very cost efficient electrochemical synthesis of hydrogen peroxide is presented. In a last example the synthesis of graphitic boron carbon nitrides from the ionic liquid 1 - Ethyl - 3 - methylimidazolium - tetracyanoborate is investigated in detail. Due to the employment of unreactive salts as a new tool to generate high surface area these materials were first time shown to be another class of non - precious metal oxygen reduction electrocatalyst. N2 - Die Notwendigkeit einer nachhaltigen Energiewirtschaft, sowie der nachhaltigen Chemie stellen die Motivation der vorgelegten Arbeit. Auf Grundlage separater Untersuchungen, die jeweils in engem Bezug zum Element Kohlenstoff stehen, kann die Arbeit in zwei Themenfelder geordnet werden. Der erste Teil behandelt die nachhaltige Herstellung nützlicher Kohlenmaterialien mit Hilfe des Verfahrens der hydrothermalen Carbonisierung. Im zweiten Teil wird die Synthese von Bor und Stickstoff angereicherten Kohlen aus ionischen Flüssigkeiten für elektrochemische Anwendungen abgehandelt. Insbesondere geht es um die Anwendung in Wasserstoff-Brennstoffzellen. Als Ergebnis einer sorgfältigen Literatur¬zusammenfassung der Bereiche Hydrothermolyse, hydrothermale Carbonisierung und Chemie des Hydroxymethylfurfurals wird ein chemisch-mechanistisches Modell zur Entstehung der Hydrothemalkohle vorgestellt. Auf der Basis dieses Modells wird ein neues Additiv zur hydrothermalen Carbonisierung von Zuckern vorgestellt. Die Verwendung des einfachen Additivs, genauer Borax, erlaubt eine wesentlich verkürzte und zu niedrigeren Temperaturen hin verschobene Prozessführung mit höheren Ausbeuten. Anhand des mechanistischen Modells wird ein Einfluss auf die Reaktion von Zuckern mit der reaktiven Kohlenvorstufe (Hydroxymethylfurfural) identifiziert. Die chemische Wirkung des Minerals Borax in der hydrothermalen Carbonisierung wird im Folgenden zur Herstellung vielfältig anwendbarer, hochporöser Kohlen mit einstellbarer Partikelgröße genutzt. Zum Abschluss des ersten Teils ist in einer Serie einfacher Experimente die Anwendbarkeit des mechanischen Modells auf die Verwendung „echter“ Biomasse in Form von Wassermelonenabfall gezeigt. Im zweiten Teil werden verschiedene cyano-haltige ionische Flüssigkeiten zur ionothermalen Synthese von Hochleistungskohlen verwendet. Durch Variation der ionischen Flüssigkeiten und Verwendung unterschiedlicher Synthesebedingungen wird die Herstellung hochaktiver, metallfreier Katalysatoren für die elektrochemische Reduktion von Sauerstoff erreicht. In der direkten Reduktion von Sauerstoff zu Wasser (wie sie in Brennstoffzellen Anwendung findet) werden, verglichen zu konventionellen Platin-basierten elektrochemischen Katalysatoren, erstaunliche Aktivitäten erreicht. In einem anderen Beispiel wird die selektive Herstellung von Wasserstoffperoxid zu sehr geringen Kosten vorgestellt. Abschließend wird anhand der Verwendung der ionischen Flüssigkeit 1-Ethyl-3-methylimidazolium-tetracyanoborat eine detaillierte Betrachtung zur Herstellung von graphitischem Borcarbonitrid vorgestellt. Unter Verwendung unreaktiver Salze, als einfaches Werkzeug zur Einführung großer inneren Oberflächen wird erstmals die elektrokatalytische Aktivität eines solchen Materials in der elektrochemischen Sauerstoffreduktion gezeigt. KW - Hydrothermalkohle KW - ionische Flüssigkeiten KW - poröse Materialien KW - Elektrokatalyse KW - hydrothermal carbon KW - ionic liquids KW - porous materials KW - electrocatalysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57825 ER - TY - THES A1 - Schütte, Moritz T1 - Evolutionary fingerprints in genome-scale networks T1 - Evolutionäre Spuren in genomskaligen Netzwerken N2 - Mathematical modeling of biological phenomena has experienced increasing interest since new high-throughput technologies give access to growing amounts of molecular data. These modeling approaches are especially able to test hypotheses which are not yet experimentally accessible or guide an experimental setup. One particular attempt investigates the evolutionary dynamics responsible for today's composition of organisms. Computer simulations either propose an evolutionary mechanism and thus reproduce a recent finding or rebuild an evolutionary process in order to learn about its mechanism. The quest for evolutionary fingerprints in metabolic and gene-coexpression networks is the central topic of this cumulative thesis based on four published articles. An understanding of the actual origin of life will probably remain an insoluble problem. However, one can argue that after a first simple metabolism has evolved, the further evolution of metabolism occurred in parallel with the evolution of the sequences of the catalyzing enzymes. Indications of such a coevolution can be found when correlating the change in sequence between two enzymes with their distance on the metabolic network which is obtained from the KEGG database. We observe that there exists a small but significant correlation primarily on nearest neighbors. This indicates that enzymes catalyzing subsequent reactions tend to be descended from the same precursor. Since this correlation is relatively small one can at least assume that, if new enzymes are no "genetic children" of the previous enzymes, they certainly be descended from any of the already existing ones. Following this hypothesis, we introduce a model of enzyme-pathway coevolution. By iteratively adding enzymes, this model explores the metabolic network in a manner similar to diffusion. With implementation of an Gillespie-like algorithm we are able to introduce a tunable parameter that controls the weight of sequence similarity when choosing a new enzyme. Furthermore, this method also defines a time difference between successive evolutionary innovations in terms of a new enzyme. Overall, these simulations generate putative time-courses of the evolutionary walk on the metabolic network. By a time-series analysis, we find that the acquisition of new enzymes appears in bursts which are pronounced when the influence of the sequence similarity is higher. This behavior strongly resembles punctuated equilibrium which denotes the observation that new species tend to appear in bursts as well rather than in a gradual manner. Thus, our model helps to establish a better understanding of punctuated equilibrium giving a potential description at molecular level. From the time-courses we also extract a tentative order of new enzymes, metabolites, and even organisms. The consistence of this order with previous findings provides evidence for the validity of our approach. While the sequence of a gene is actually subject to mutations, its expression profile might also indirectly change through the evolutionary events in the cellular interplay. Gene coexpression data is simply accessible by microarray experiments and commonly illustrated using coexpression networks where genes are nodes and get linked once they show a significant coexpression. Since the large number of genes makes an illustration of the entire coexpression network difficult, clustering helps to show the network on a metalevel. Various clustering techniques already exist. However, we introduce a novel one which maintains control of the cluster sizes and thus assures proper visual inspection. An application of the method on Arabidopsis thaliana reveals that genes causing a severe phenotype often show a functional uniqueness in their network vicinity. This leads to 20 genes of so far unknown phenotype which are however suggested to be essential for plant growth. Of these, six indeed provoke such a severe phenotype, shown by mutant analysis. By an inspection of the degree distribution of the A.thaliana coexpression network, we identified two characteristics. The distribution deviates from the frequently observed power-law by a sharp truncation which follows after an over-representation of highly connected nodes. For a better understanding, we developed an evolutionary model which mimics the growth of a coexpression network by gene duplication which underlies a strong selection criterion, and slight mutational changes in the expression profile. Despite the simplicity of our assumption, we can reproduce the observed properties in A.thaliana as well as in E.coli and S.cerevisiae. The over-representation of high-degree nodes could be identified with mutually well connected genes of similar functional families: zinc fingers (PF00096), flagella, and ribosomes respectively. In conclusion, these four manuscripts demonstrate the usefulness of mathematical models and statistical tools as a source of new biological insight. While the clustering approach of gene coexpression data leads to the phenotypic characterization of so far unknown genes and thus supports genome annotation, our model approaches offer explanations for observed properties of the coexpression network and furthermore substantiate punctuated equilibrium as an evolutionary process by a deeper understanding of an underlying molecular mechanism. N2 - Die biologische Zelle ist ein sehr kompliziertes Gebilde. Bei ihrer Betrachtung gilt es, das Zusammenspiel von Tausenden bis Millionen von Genen, Regulatoren, Proteinen oder Molekülen zu beschreiben und zu verstehen. Durch enorme Verbesserungen experimenteller Messgeräte gelingt es mittlerweile allerdings in geringer Zeit enorme Datenmengen zu messen, seien dies z.B. die Entschlüsselung eines Genoms oder die Konzentrationen der Moleküle in einer Zelle. Die Systembiologie nimmt sich dem Problem an, aus diesem Datenmeer ein quantitatives Verständnis für die Gesamtheit der Wechselwirkungen in der Zelle zu entwickeln. Dabei stellt die mathematische Modellierung und computergestützte Analyse ein eminent wichtiges Werkzeug dar, lassen sich doch am Computer in kurzer Zeit eine Vielzahl von Fällen testen und daraus Hypothesen generieren, die experimentell verifiziert werden können. Diese Doktorarbeit beschäftigt sich damit, wie durch mathematische Modellierung Rückschlüsse auf die Evolution und deren Mechanismen geschlossen werden können. Dabei besteht die Arbeit aus zwei Teilen. Zum Einen wurde ein Modell entwickelt, dass die Evolution des Stoffwechsels nachbaut. Der zweite Teil beschäftigt sich mit der Analyse von Genexpressionsdaten, d.h. der Stärke mit der ein bestimmtes Gen in ein Protein umgewandelt, "exprimiert", wird. Der Stoffwechsel bezeichnet die Gesamtheit der chemischen Vorgänge in einem Organismus; zum Einen werden Nahrungsstoffe für den Organismus verwertbar zerlegt, zum Anderen aber auch neue Stoffe aufgebaut. Da für nahezu jede chemische Reaktion ein katalysierendes Enzym benötigt wird, ist davon auszugehen, dass sich der Stoffwechsel parallel zu den Enzymen entwickelt hat. Auf dieser Annahme basiert das entwickelte Modell zur Enzyme-Stoffwechsel-Koevolution. Von einer Anfangsmenge von Enzymen und Molekülen ausgehend, die etwa in einer primitiven Atmosphäre vorgekommen sind, werden sukzessive Enzyme und die nun katalysierbaren Reaktionen hinzugefügt, wodurch die Stoffwechselkapazität anwächst. Die Auswahl eines neuen Enzyms geschieht dabei in Abhängigkeit von der Ähnlichkeit mit bereits vorhandenen und ist so an den evolutionären Vorgang der Mutation angelehnt: je ähnlicher ein neues Enzym zu den vorhandenen ist, desto schneller kann es hinzugefügt werden. Dieser Vorgang wird wiederholt, bis der Stoffwechsel die heutige Form angenommen hat. Interessant ist vor allem der zeitliche Verlauf dieser Evolution, der mittels einer Zeitreihenanalyse untersucht wird. Dabei zeigt sich, dass neue Enzyme gebündelt in Gruppen kurzer Zeitfolge auftreten, gefolgt von Intervallen relativer Stille. Dasselbe Phänomen kennt man von der Evolution neuer Arten, die ebenfalls gebündelt auftreten, und wird Punktualismus genannt. Diese Arbeit liefert somit ein besseres Verständnis dieses Phänomens durch eine Beschreibung auf molekularer Ebene. Im zweiten Projekt werden Genexpressionsdaten von Pflanzen analysiert. Einerseits geschieht dies mit einem eigens entwickelten Cluster-Algorithmus. Hier läßt sich beobachten, dass Gene mit einer ähnlichen Funktion oft auch ein ähnliches Expressionsmuster aufweisen. Das Clustering liefert einige Genkandidaten, deren Funktion bisher unbekannt war, von denen aber nun vermutet werden konnte, dass sie enorm wichtig für das Wachstum der Pflanze sind. Durch Experimente von Pflanzen mit und ohne diese Gene zeigte sich, dass sechs neuen Genen dieses essentielle Erscheinungsbild zugeordnet werden kann. Weiterhin wurden Netzwerke der Genexpressionsdaten einer Pflanze, eines Pilzes und eines Bakteriums untersucht. In diesen Netzwerken werden zwei Gene verbunden, falls sie ein sehr ähnliches Expressionsprofil aufweisen. Nun zeigten diese Netzwerke sehr ähnliche und charakteristische Eigenschaften auf. Im Rahmen dieser Arbeit wurde daher ein weiteres evolutionäres Modell entwickelt, das die Expressionsprofile anhand von Duplikation, Mutation und Selektion beschreibt. Obwohl das Modell auf sehr simplen Eigenschaften beruht, spiegelt es die beobachteten Eigenschaften sehr gut wider, und es läßt sich der Schluss ziehen, dass diese als Resultat der Evolution betrachtet werden können. Die Ergebnisse dieser Arbeiten sind als Doktorarbeit in kumulativer Form bestehend aus vier veröffentlichten Artikeln vereinigt. KW - Systembiologie KW - Modellierung KW - Evolution KW - Stoffwechsel KW - Gen-Koexpression KW - Systems Biology KW - Modeling KW - Evolution KW - Metabolism KW - Gene co-expression Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57483 ER - TY - THES A1 - Schiefele, Jürgen T1 - Casimir-Polder interaction in second quantization T1 - Casimir-Polder Wechselwirkung in zweiter Quantisierung N2 - The Casimir-Polder interaction between a single neutral atom and a nearby surface, arising from the (quantum and thermal) fluctuations of the electromagnetic field, is a cornerstone of cavity quantum electrodynamics (cQED), and theoretically well established. Recently, Bose-Einstein condensates (BECs) of ultracold atoms have been used to test the predictions of cQED. The purpose of the present thesis is to upgrade single-atom cQED with the many-body theory needed to describe trapped atomic BECs. Tools and methods are developed in a second-quantized picture that treats atom and photon fields on the same footing. We formulate a diagrammatic expansion using correlation functions for both the electromagnetic field and the atomic system. The formalism is applied to investigate, for BECs trapped near surfaces, dispersion interactions of the van der Waals-Casimir-Polder type, and the Bosonic stimulation in spontaneous decay of excited atomic states. We also discuss a phononic Casimir effect, which arises from the quantum fluctuations in an interacting BEC. N2 - Die durch (quantenmechanische und thermische) Fluktuationen des elektromagnetischen Feldes hervorgerufene Casimir-Polder-Wechselwirkung zwischen einem elektrisch neutralen Atom und einer benachbarten Oberfläche stellt einen theoretisch gut untersuchten Aspekt der Resonator-Quantenelektrodynamik (cavity quantum electrodynamics, cQED) dar. Seit kurzem werden atomare Bose-Einstein-Kondensate (BECs) verwendet, um die theoretischen Vorhersagen der cQED zu überprüfen. Das Ziel der vorliegenden Arbeit ist es, die bestehende cQED Theorie für einzelne Atome mit den Techniken der Vielteilchenphysik zur Beschreibung von BECs zu verbinden. Es werden Werkzeuge und Methoden entwickelt, um sowohl Photon- als auch Atom-Felder gleichwertig in zweiter Quantisierung zu beschreiben. Wir formulieren eine diagrammatische Störungstheorie, die Korrelationsfunktionen des elektromagnetischen Feldes und des Atomsystems benutzt. Der Formalismus wird anschließend verwendet, um für in Fallen nahe einer Oberfläche gehaltene BECs Atom-Oberflächen-Wechselwirkungen vom Casimir-Polder-Typ und die bosonische Stimulation des spontanen Zerfalls angeregter Atome zu untersuchen. Außerdem untersuchen wir einen phononischen Casimir-Effekt, der durch die quantenmechanischen Fluktuationen in einem wechselwirkenden BEC entsteht. KW - Hohlraum-Quantenelektrodynamik KW - Bose-Einstein-Kondensation KW - Casimir-Polder-Interaktion KW - Vakuumschwankungen KW - van der Waals-Kräfte KW - cavity quantum electrodynamics KW - Bose-Einstein condensation KW - Casimir-Polder interaction KW - vacuum fluctuations KW - van der Waals forces Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54171 ER - TY - THES A1 - Hartmann, Stefanie T1 - Phylogenomics: comparative genome analysis ursing large-scale gene family data Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Unterlass, Miriam Margarethe T1 - From monomer salts and their tectonic crystals to aromatic polyimides : development of neoteric synthesis routes Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Buttermann, Ralf T1 - Die Fiktion eines Faktums : Kants Suche nach einer Rechtswissenschaft : Erwägungen zu Begründung und Reichweite der kantischen Rechtsphilosophie T2 - Würzburger wissenschaftliche Schriften Y1 - 2011 SN - 978-3-8260-4646-9 VL - 503 PB - Königshausen & Neumann CY - Würzburg ER - TY - THES A1 - Völker, Jan T1 - Ästhetik der Lebendigkeit : Kants dritte Kritik Y1 - 2011 SN - 978-3-7705-5161-3 PB - Fink CY - Paderborn ER - TY - THES A1 - Kadyamusuma, McLoddy R. T1 - The effect of brain damage and linguistic experience on shona lexicaltone processing Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Leibohm, Thomas T1 - Bedarfsorientierung als Prinzip des öffentlichen Finanzrechts : zur wechselseitigen Abstimmung von Steurrecht und Sozialrecht T2 - Steuerwissenschaftliche Schriften Y1 - 2011 SN - 978-3-8329-6600-3 VL - 31 PB - Nomos CY - Baden-Baden ER - TY - THES A1 - Möhle, Jutta T1 - Instrumentalunterricht bei chronischer Erkrankung im Grundschulalter : eine Fallstudie T2 - Musikwissenschaft/ Musikpädagogik in der Blauen Eule Y1 - 2011 SN - 978-3-89924-312-3 VL - 96 PB - Verl. die Blaue Eule CY - Essen ER - TY - THES A1 - Urieta, Kristin T1 - Kinder in schwierigen Übergangssituationen vom Elementar- zum Primärbereich : eine biografieanalytische Studie Y1 - 2011 SN - 978-3-942002-01-1 PB - Curach Bhán Publ CY - Berlin ER - TY - THES A1 - Oppenheim, Robert T1 - Abfindungsklauseln in Personengesellschaftverträgen : Plädoyer für eine Verhandlungsklausel T2 - Nomos Universitätsschriften : Recht Y1 - 2011 SN - 978-3-8329-6509-9 VL - 728 PB - Nomos CY - Baden-Baden ER - TY - THES A1 - Täger, Philipp T1 - Der Schutz von Menschenrechten im internationalen Investionsrecht : unter besondere Beachtung der Rechte und Pflichten des Exportstaates T2 - Studien zum internationalen Wirtschaftsrecht Y1 - 2011 SN - 978-3-8329-6731-4 VL - 4 PB - Nomos CY - Baden-Baden ER - TY - THES A1 - Fasten, Ines T1 - Die grenzen der Notwehr im Wandel der Zeit T2 - Strafrecht in Forschung und Praxis Y1 - 2011 SN - 978-3-3-8300-5812-0 SN - 1615-8148 VL - 205 PB - Kovac CY - Hamburg ER - TY - THES A1 - Schneider, Anja T1 - Die Freistellung der Banken von der Prospekthaftung bei Aktienemissionen : eine aktien- und kapitalmarktrechtliche Studie T2 - Nomos Universitätschriften Recht Y1 - 2011 SN - 978-3-8329-6565-5 VL - 740 PB - Nomos Verl.-Ges CY - Baden-Baden ER - TY - THES A1 - Schwadtke, Ulrike T1 - Synthese und Charakterisierung von partiell fluorierten Blockcopolymeren Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Behrens, Maik T1 - Molekularbiologie menschlicher Bittergeschmacksrezeptoren Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Alberti, Jan T1 - Geschäftsmodelle für Inkubatoren : Strategien, Konzepte, Handlugsempfehlungen Y1 - 2011 SN - 978-3-8349-2699-9 PB - Gabler Verlag / Springer Fachmedien Wiesbaden GmbH Wiesbaden CY - Wiesbaden ER - TY - THES A1 - Früh, Johannes T1 - Structural change of polyelectrolyte multilayers under mechanical stress Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Berger, René T1 - Die Deacetylierungs- Diazotierungs- Kupplungssequenz : Synthese von Aryldiazoniumtetrafluoroboraten aus Acetaniliden und deren in situ-Umsetzung mit Alken, Alkinen und Kaliumorganifluoroboraten Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Camara Mattos Martins, Marina T1 - What are the downstream targets of trehalose-6-phosphate signalling in plants? Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Klie, Sebastian T1 - Integrative analysis of hight-throughput "omics"-data and structured biological knowledge Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Prifti, Elton T1 - Italoamericano : italiano e inglese in contatto negli USA ; linguistica variazionale e linguistica migrazonale Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Sun, Xiaoliang T1 - Towards understanding the dynamics of biological systems from -Omics data Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Szecówka, Marek T1 - Metabolic fluxes in photosynthetic and heterotrophic plant tissues Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Schüler, Rita T1 - Identifizierung und Charakterisierung neuer natürlicher Liganden des Peroxisomen-Proliferator aktivierten Rezeptors y (PPARy) Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Jelicic, Aleksandra T1 - Combining polymethacrylates and ionic liquids : a way to create and understand Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Grießner, Matthias T1 - Grenzflächenmodifizierung von Mikrosystemen für biochemische Assays Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Partl, Adrian M. T1 - Cosmological radiative transfer and the lonisation of the integalactic medium Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Berg, John K. T1 - Size-dependent wetting behavior of organic molecules on solid surfaces Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Flehmig, Karin Gesine T1 - Evaluation des BCM-Programms der PreCon GmbH & Co. nach MIRA-Konzept Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Schröder, Martin Bernd T1 - Effekte professioneller Sprachförderung in Kindertagesstätten : eine experimentell kontrollierte Intervention zur Förderung von Deutsch als Zweitsprache bei Kindern mit Migrationshintergrund Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Dittrich, Matthias T1 - Physical-chemical characterisation of new lipids designed for non-viral gene transfection Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Li, Xiaoqing T1 - Structural and dynamic analysis of circadian oscillators and modelling seasonal response in Soay sheep Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Tiller, Nadine T1 - Plastid translation : functions of plastid-specific ribosomal proteins and identification of a factor mediating plastid-to-nucleus retrograde sifnalling Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Weber, Nancy T1 - Die Synthese "schizomorpher" Copolymer - Latexteilchen Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Mittag, Sonnhild T1 - Vom Rosetta-Stone-Protein NitFhit zur Tumorsuppressorwirkung der humanen Nitrilase1 Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Hennig, Charlotte T1 - Der Pferdepensionsvertrag Y1 - 2011 SN - 978-3-86345-053-3 PB - DVG CY - Gießen ER - TY - THES A1 - Osterloh, Lukas T1 - Retrieving aerosol microphysical properties from multiwavelength Lidar Data Y1 - 2011 CY - Potsdam ER -