@phdthesis{Schatz2011, author = {Schatz, Daniela}, title = {LNA-clamp-PCR zum sensitiven Nachweis von Punktmutationen im Rahmen der Entwicklung eines Darmkrebsfr{\"u}herkennungstests}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52308}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Darmkrebs ist die zweith{\"a}ufigste malignombedingte Todesursache in den westlichen Industriel{\"a}ndern. Durch eine fr{\"u}hzeitige Diagnose besteht jedoch eine hohe Chance auf Heilung. Der Goldstandard zur Darmkrebsfr{\"u}herkennung ist gegenw{\"a}rtig die Koloskopie. Eine Darmspiegelung ist jedoch invasiv und mit Unannehmlichkeiten f{\"u}r den Patienten verbunden. Die Akzeptanz in der Bev{\"o}lkerung ist daher gering. Ziel des BMBF- Projektes „Entwicklung eines nichtinvasiven Nachweissystems zur Fr{\"u}herkennung von humanem Darmkrebs", in dessen Rahmen diese Arbeit entstand, ist die Bereitstellung eines nichtinvasiven Nachweisverfahrens zur Darmkrebsfr{\"u}herkennung. Der Nachweis soll {\"u}ber die Detektion von aus neoplastischen Zellen stammender DNA in Stuhl erfolgen. Die Entartung dieser Zellen beruht auf Ver{\"a}nderungen im Erbgut, welches unter anderem Mutationen sind. Im ersten Teil des BMBF-Projektes wurde ein Set von Mutationen zusammengestellt, welches eine hohe Sensitivit{\"a}t f{\"u}r Vorstufen von Darmkrebs aufweist. Ziel dieser Arbeit war es, eine Nachweismethode f{\"u}r die zuvor identifizierten Punktmutationen zu entwickeln. Das Nachweisverfahren musste dabei unempfindlich gegen einen hohen Hintergrund nichtmutierter DNA sein, da im Stuhl geringe Mengen DNA aus neoplastischen Zellen bei einem hohen Hintergrund von DNA aus gesunden Zellen vorliegen. Hierzu wurden Plasmidmodellsysteme f{\"u}r die aus dem Marker-Set stammenden Genfragmente BRAF und dessen Mutante V600E, CTNNB1 und T41I, T41A, S45P und K-ras G12C hergestellt. Mit Hilfe dieser Plasmidmodellsysteme wurde dann das Nachweissystem entwickelt. Der entscheidende Schritt f{\"u}r die Detektion von Punktmutationen bei hohem Wildtyp{\"u}berschuss ist eine vorhergehende Anreicherung. In der vorliegenden Arbeit wurde dazu die Methode der LNA-clamp-PCR (locked nucleic acid) etabliert. Die Bewertung der erzielten Anreicherung erfolgte {\"u}ber das relative Detektionslimit. Zur Bestimmung des Detektionslimits wurde die Schmelzkurvenanalyse von Hybridisierungssonden eingesetzt; diese wurde im Rahmen dieser Arbeit f{\"u}r die drei oben genannten Genfragmente und ihre Mutanten entwickelt. Die LNA-clamp-PCR wird in Anwesenheit eines LNA-Blockers durchgef{\"u}hrt. Das Nukleotidanalogon LNA weist im Vergleich zu DNA eine erh{\"o}hte Affinit{\"a}t zu komplement{\"a}ren DNA-Str{\"a}ngen auf. Gleichzeitig kommt es bei Anwesenheit einer Basenfehlpaarung zu einer gr{\"o}ßeren Destabilisierung der Bindung. Als Blocker werden kurze LNA-DNA-Hybridoligonukleotide eingesetzt, die den mutierten Sequenzbereich {\"u}berspannen und selbst der Wildtypsequenz entsprechen. Durch Bindung an die Wildtypsequenz wird deren Amplifikation w{\"a}hrend der PCR verhindert (clamp = arretieren, festklemmen). Der Blocker selbst wird dabei nicht verl{\"a}ngert. Der Blocker bindet unter optimalen Bedingungen jedoch nicht an die mutierte Sequenz. Die Mutante wird daher ungehindert amplifiziert und somit gegen{\"u}ber dem Wildtyp-Fragment angereichert. Die Position des Blockers kann im Bindungsbereich eines der Primer sein und hier dessen Hybridisierung an dem Wildtyp-Fragment verhindern oder zwischen den beiden Primern liegen und so die Synthese durch die Polymerase inhibieren. Die Anwendbarkeit beider Systeme wurde in dieser Arbeit gezeigt. Die LNA-clamp-PCR mit Primerblocker wurde f{\"u}r BRAF etabliert. Es wurde ein Detektionslimit von mindestens 1:100 erzielt. Die LNA-clamp-PCR mit Amplifikationsblocker wurde erfolgreich f{\"u}r BRAF, K-ras und CTNNB1: T41I, T41A mit einem Detektionslimit von 1:1000 bis 1:10 000 entwickelt. In Stuhlproben liegt DNA aus neoplastischen Zellen nach Literaturangaben zu einem Anteil von 1\% bis 0,1\% vor. Die LNA-clamp-PCR weist also mit Amplifikationsblockern ein ausreichend hohes Detektionslimit f{\"u}r die Analyse von Stuhlproben auf. Durch die erfolgreiche Etablierung der Methode auf drei verschiedenen Genfragmenten und vier unterschiedlichen Punktmutationen konnte deren universelle Einsetzbarkeit gezeigt werden. F{\"u}r die Ausweitung der LNA-clamp-PCR auf die {\"u}brigen Mutationen des Marker-Sets wurden Richtlinien ausgearbeitet und die Blockereffizienz als Kennzahl eingef{\"u}hrt. Die LNA-clamp-PCR ist ein schnelles, kosteng{\"u}nstiges Verfahren, welches einen geringen Arbeitsaufwand erfordert und wenig fehleranf{\"a}llig ist. Sie ist somit ein geeignetes Anreicherungsverfahren f{\"u}r Punktmutationen in einem diagnostischen System zur Darmkrebsfr{\"u}herkennung. Dar{\"u}ber hinaus kann die LNA-clamp-PCR auch in anderen Bereichen, in denen die Detektion von Punktmutationen in einem hohen Wildtyphintergrund erforderlich ist, eingesetzt werden.}, language = {de} } @phdthesis{Grochowska2011, author = {Grochowska, Marta}, title = {{\"O}konomische, soziale und r{\"a}umliche Folgen der saisonalen Arbeitsmigration im Herkunftsgebiet : am Beispiel der Region Konin (Polen)}, publisher = {Universit{\"a}tsverlag Potsdam}, address = {Potsdam}, isbn = {978-3-86956-137-0}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-49649}, school = {Universit{\"a}t Potsdam}, pages = {390}, year = {2011}, abstract = {Die vorliegende Arbeit basiert auf Forschungen in den Jahren 2007-2009. Sie betrachtet die saisonale Arbeitsmigration aus der polnischen Region Konin, wo die Arbeitsmigration aus {\"o}konomischen Gr{\"u}nden, wie auch in {\"a}hnlich strukturierten Gebieten Polens, eine lange Tradition hat, die bis ins 19. Jahrhundert zur{\"u}ckgeht. Sie wird die saisonale Migration ins Ausland mit den {\"o}konomischen, sozialen und r{\"a}umlichen Auswirkungen aus der Perspektive des Einzelnen und seiner unmittelbaren Umgebung, aber auch der Gesellschaft und Herkunftsgebiet der Migranten betrachtet.}, language = {de} } @phdthesis{Schulze2011, author = {Schulze, Andreas}, title = {Demographics of supermassive black holes}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-54464}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Supermassive black holes are a fundamental component of the universe in general and of galaxies in particular. Almost every massive galaxy harbours a supermassive black hole (SMBH) in its center. Furthermore, there is a close connection between the growth of the SMBH and the evolution of its host galaxy, manifested in the relationship between the mass of the black hole and various properties of the galaxy's spheroid component, like its stellar velocity dispersion, luminosity or mass. Understanding this relationship and the growth of SMBHs is essential for our picture of galaxy formation and evolution. In this thesis, I make several contributions to improve our knowledge on the census of SMBHs and on the coevolution of black holes and galaxies. The first route I follow on this road is to obtain a complete census of the black hole population and its properties. Here, I focus particularly on active black holes, observable as Active Galactic Nuclei (AGN) or quasars. These are found in large surveys of the sky. In this thesis, I use one of these surveys, the Hamburg/ESO survey (HES), to study the AGN population in the local volume (z~0). The demographics of AGN are traditionally represented by the AGN luminosity function, the distribution function of AGN at a given luminosity. I determined the local (z<0.3) optical luminosity function of so-called type 1 AGN, based on the broad band B_J magnitudes and AGN broad Halpha emission line luminosities, free of contamination from the host galaxy. I combined this result with fainter data from the Sloan Digital Sky Survey (SDSS) and constructed the best current optical AGN luminosity function at z~0. The comparison of the luminosity function with higher redshifts supports the current notion of 'AGN downsizing', i.e. the space density of the most luminous AGN peaks at higher redshifts and the space density of less luminous AGN peaks at lower redshifts. However, the AGN luminosity function does not reveal the full picture of active black hole demographics. This requires knowledge of the physical quantities, foremost the black hole mass and the accretion rate of the black hole, and the respective distribution functions, the active black hole mass function and the Eddington ratio distribution function. I developed a method for an unbiased estimate of these two distribution functions, employing a maximum likelihood technique and fully account for the selection function. I used this method to determine the active black hole mass function and the Eddington ratio distribution function for the local universe from the HES. I found a wide intrinsic distribution of black hole accretion rates and black hole masses. The comparison of the local active black hole mass function with the local total black hole mass function reveals evidence for 'AGN downsizing', in the sense that in the local universe the most massive black holes are in a less active stage then lower mass black holes. The second route I follow is a study of redshift evolution in the black hole-galaxy relations. While theoretical models can in general explain the existence of these relations, their redshift evolution puts strong constraints on these models. Observational studies on the black hole-galaxy relations naturally suffer from selection effects. These can potentially bias the conclusions inferred from the observations, if they are not taken into account. I investigated the issue of selection effects on type 1 AGN samples in detail and discuss various sources of bias, e.g. an AGN luminosity bias, an active fraction bias and an AGN evolution bias. If the selection function of the observational sample and the underlying distribution functions are known, it is possible to correct for this bias. I present a fitting method to obtain an unbiased estimate of the intrinsic black hole-galaxy relations from samples that are affected by selection effects. Third, I try to improve our census of dormant black holes and the determination of their masses. One of the most important techniques to determine the black hole mass in quiescent galaxies is via stellar dynamical modeling. This method employs photometric and kinematic observations of the galaxy and infers the gravitational potential from the stellar orbits. This method can reveal the presence of the black hole and give its mass, if the sphere of the black hole's gravitational influence is spatially resolved. However, usually the presence of a dark matter halo is ignored in the dynamical modeling, potentially causing a bias on the determined black hole mass. I ran dynamical models for a sample of 12 galaxies, including a dark matter halo. For galaxies for which the black hole's sphere of influence is not well resolved, I found that the black hole mass is systematically underestimated when the dark matter halo is ignored, while there is almost no effect for galaxies with well resolved sphere of influence.}, language = {en} } @phdthesis{Avila2011, author = {Avila, Gast{\´o}n}, title = {Asymptotic staticity and tensor decompositions with fast decay conditions}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-54046}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Corvino, Corvino and Schoen, Chruściel and Delay have shown the existence of a large class of asymptotically flat vacuum initial data for Einstein's field equations which are static or stationary in a neighborhood of space-like infinity, yet quite general in the interior. The proof relies on some abstract, non-constructive arguments which makes it difficult to calculate such data numerically by using similar arguments. A quasilinear elliptic system of equations is presented of which we expect that it can be used to construct vacuum initial data which are asymptotically flat, time-reflection symmetric, and asymptotic to static data up to a prescribed order at space-like infinity. A perturbation argument is used to show the existence of solutions. It is valid when the order at which the solutions approach staticity is restricted to a certain range. Difficulties appear when trying to improve this result to show the existence of solutions that are asymptotically static at higher order. The problems arise from the lack of surjectivity of a certain operator. Some tensor decompositions in asymptotically flat manifolds exhibit some of the difficulties encountered above. The Helmholtz decomposition, which plays a role in the preparation of initial data for the Maxwell equations, is discussed as a model problem. A method to circumvent the difficulties that arise when fast decay rates are required is discussed. This is done in a way that opens the possibility to perform numerical computations. The insights from the analysis of the Helmholtz decomposition are applied to the York decomposition, which is related to that part of the quasilinear system which gives rise to the difficulties. For this decomposition analogous results are obtained. It turns out, however, that in this case the presence of symmetries of the underlying metric leads to certain complications. The question, whether the results obtained so far can be used again to show by a perturbation argument the existence of vacuum initial data which approach static solutions at infinity at any given order, thus remains open. The answer requires further analysis and perhaps new methods.}, language = {en} } @phdthesis{Kluth2011, author = {Kluth, Stephan}, title = {Quantitative modeling and analysis with FMC-QE}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52987}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {The modeling and evaluation calculus FMC-QE, the Fundamental Modeling Concepts for Quanti-tative Evaluation [1], extends the Fundamental Modeling Concepts (FMC) for performance modeling and prediction. In this new methodology, the hierarchical service requests are in the main focus, because they are the origin of every service provisioning process. Similar to physics, these service requests are a tuple of value and unit, which enables hierarchical service request transformations at the hierarchical borders and therefore the hierarchical modeling. Through reducing the model complexity of the models by decomposing the system in different hierarchical views, the distinction between operational and control states and the calculation of the performance values on the assumption of the steady state, FMC-QE has a scalable applica-bility on complex systems. According to FMC, the system is modeled in a 3-dimensional hierarchical representation space, where system performance parameters are described in three arbitrarily fine-grained hierarchi-cal bipartite diagrams. The hierarchical service request structures are modeled in Entity Relationship Diagrams. The static server structures, divided into logical and real servers, are de-scribed as Block Diagrams. The dynamic behavior and the control structures are specified as Petri Nets, more precisely Colored Time Augmented Petri Nets. From the structures and pa-rameters of the performance model, a hierarchical set of equations is derived. The calculation of the performance values is done on the assumption of stationary processes and is based on fundamental laws of the performance analysis: Little's Law and the Forced Traffic Flow Law. Little's Law is used within the different hierarchical levels (horizontal) and the Forced Traffic Flow Law is the key to the dependencies among the hierarchical levels (vertical). This calculation is suitable for complex models and allows a fast (re-)calculation of different performance scenarios in order to support development and configuration decisions. Within the Research Group Zorn at the Hasso Plattner Institute, the work is embedded in a broader research in the development of FMC-QE. While this work is concentrated on the theoretical background, description and definition of the methodology as well as the extension and validation of the applicability, other topics are in the development of an FMC-QE modeling and evaluation tool and the usage of FMC-QE in the design of an adaptive transport layer in order to fulfill Quality of Service and Service Level Agreements in volatile service based environments. This thesis contains a state-of-the-art, the description of FMC-QE as well as extensions of FMC-QE in representative general models and case studies. In the state-of-the-art part of the thesis in chapter 2, an overview on existing Queueing Theory and Time Augmented Petri Net models and other quantitative modeling and evaluation languages and methodologies is given. Also other hierarchical quantitative modeling frameworks will be considered. The description of FMC-QE in chapter 3 consists of a summary of the foundations of FMC-QE, basic definitions, the graphical notations, the FMC-QE Calculus and the modeling of open queueing networks as an introductory example. The extensions of FMC-QE in chapter 4 consist of the integration of the summation method in order to support the handling of closed networks and the modeling of multiclass and semaphore scenarios. Furthermore, FMC-QE is compared to other performance modeling and evaluation approaches. In the case study part in chapter 5, proof-of-concept examples, like the modeling of a service based search portal, a service based SAP NetWeaver application and the Axis2 Web service framework will be provided. Finally, conclusions are given by a summary of contributions and an outlook on future work in chapter 6. [1] Werner Zorn. FMC-QE - A New Approach in Quantitative Modeling. In Hamid R. Arabnia, editor, Procee-dings of the International Conference on Modeling, Simulation and Visualization Methods (MSV 2007) within WorldComp '07, pages 280 - 287, Las Vegas, NV, USA, June 2007. CSREA Press. ISBN 1-60132-029-9.}, language = {en} } @phdthesis{Off2011, author = {Off, Thomas}, title = {Durchg{\"a}ngige Verfolgbarkeit im Vorfeld der Softwareentwicklung von E-Government-Anwendungen : ein ontologiebasierter und modellgetriebener Ansatz am Beispiel von B{\"u}rgerdiensten}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-57478}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Die {\"o}ffentliche Verwaltung setzt seit mehreren Jahren E-Government-Anwendungssysteme ein, um ihre Verwaltungsprozesse intensiver mit moderner Informationstechnik zu unterst{\"u}tzen. Da die {\"o}ffentliche Verwaltung in ihrem Handeln in besonderem Maße an Recht und Gesetz gebunden ist verst{\"a}rkt und verbreitet sich der Zusammenhang zwischen den Gesetzen und Rechtsvorschriften einerseits und der zur Aufgabenunterst{\"u}tzung eingesetzten Informationstechnik andererseits. Aus Sicht der Softwaretechnik handelt es sich bei diesem Zusammenhang um eine spezielle Form der Verfolgbarkeit von Anforderungen (engl. Traceability), die so genannte Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (Pre-Requirements Specification Traceability, kurz Pre-RS Traceability), da sie Aspekte betrifft, die relevant sind, bevor die Anforderungen in eine Spezifikation eingeflossen sind (Urspr{\"u}nge von Anforderungen). Der Ansatz dieser Arbeit leistet einen Beitrag zur Verfolgbarkeit im Vorfeld der Anforderungsspezifikation von E-Government-Anwendungssystemen. Er kombiniert dazu aktuelle Entwicklungen und Standards (insbesondere des World Wide Web Consortium und der Object Management Group) aus den Bereichen Verfolgbarkeit von Anforderungen, Semantic Web, Ontologiesprachen und modellgetriebener Softwareentwicklung. Der L{\"o}sungsansatz umfasst eine spezielle Ontologie des Verwaltungshandeln, die mit den Techniken, Methoden und Werkzeugen des Semantic Web eingesetzt wird, um in Texten von Rechtsvorschriften relevante Urspr{\"u}nge von Anforderungen durch Annotationen mit einer definierten Semantik zu versehen. Darauf aufbauend wird das Ontology Definition Metamodel (ODM) verwendet, um die Annotationen als spezielle Individuen einer Ontologie auf Elemente der Unified Modeling Language (UML) abzubilden. Dadurch entsteht ein neuer Modelltyp Pre-Requirements Model (PRM), der das Vorfeld der Anforderungsspezifikation formalisiert. Modelle diesen Typs k{\"o}nnen auch verwendet werden, um Aspekte zu formalisieren die sich nicht oder nicht vollst{\"a}ndig aus dem Text der Rechtsvorschrift ergeben. Weiterhin bietet das Modell die M{\"o}glichkeit zum Anschluss an die modellgetriebene Softwareentwicklung. In der Arbeit wird deshalb eine Erweiterung der Model Driven Architecture (MDA) vorgeschlagen. Zus{\"a}tzlich zu den etablierten Modelltypen Computation Independent Model (CIM), Platform Independent Model (PIM) und Platform Specific Model (PSM) k{\"o}nnte der Einsatz des PRM Vorteile f{\"u}r die Verfolgbarkeit bringen. Wird die MDA mit dem PRM auf das Vorfeld der Anforderungsspezifikation ausgeweitet, kann eine Transformation des PRM in ein CIM als initiale Anforderungsspezifikation erfolgen, indem der MOF Query View Transformation Standard (QVT) eingesetzt wird. Als Teil des QVT-Standards ist die Aufzeichnung von Verfolgbarkeitsinformationen bei Modelltransformationen verbindlich. Um die semantische L{\"u}cke zwischen PRM und CIM zu {\"u}berbr{\"u}cken, erfolgt analog zum Einsatz des Plattformmodells (PM) in der PIM nach PSM Transformation der Einsatz spezieller Hilfsmodelle. Es kommen daf{\"u}r die im Projekt "E-LoGo" an der Universit{\"a}t Potsdam entwickelten Referenzmodelle zum Einsatz. Durch die Aufzeichnung der Abbildung annotierter Textelemente auf Elemente im PRM und der Transformation der Elemente des PRM in Elemente des CIM kann durchg{\"a}ngige Verfolgbarkeit im Vorfeld der Anforderungsspezifikation erreicht werden. Der Ansatz basiert auf einer so genannten Verfolgbarkeitsdokumentation in Form verlinkter Hypertextdokumente, die mittels XSL-Stylesheet erzeugt wurden und eine Verbindung zur graphischen Darstellung des Diagramms (z. B. Anwendungsfall-, Klassendiagramm der UML) haben. Der Ansatz unterst{\"u}tzt die horizontale Verfolgbarkeit zwischen Elementen unterschiedlicher Modelle vorw{\"a}rts- und r{\"u}ckw{\"a}rtsgerichtet umfassend. Er bietet außerdem vertikale Verfolgbarkeit, die Elemente des gleichen Modells und verschiedener Modellversionen in Beziehung setzt. {\"U}ber den offensichtlichen Nutzen einer durchg{\"a}ngigen Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (z. B. Analyse der Auswirkungen einer Gesetzes{\"a}nderung, Ber{\"u}cksichtigung des vollst{\"a}ndigen Kontextes einer Anforderung bei ihrer Priorisierung) hinausgehend, bietet diese Arbeit eine erste Ansatzm{\"o}glichkeit f{\"u}r eine Feedback-Schleife im Prozess der Gesetzgebung. Stehen beispielsweise mehrere gleichwertige Gestaltungsoptionen eines Gesetzes zur Auswahl, k{\"o}nnen die Auswirkungen jeder Option analysiert und der Aufwand ihrer Umsetzung in E-Government-Anwendungen als Auswahlkriterium ber{\"u}cksichtigt werden. Die am 16. M{\"a}rz 2011 in Kraft getretene {\"A}nderung des NKRG schreibt eine solche Analyse des so genannten „Erf{\"u}llungsaufwands" f{\"u}r Teilbereiche des Verwaltungshandelns bereits heute verbindlich vor. F{\"u}r diese Analyse kann die vorliegende Arbeit einen Ansatz bieten, um zu fundierten Aussagen {\"u}ber den {\"A}nderungsaufwand eingesetzter E-Government-Anwendungssysteme zu kommen.}, language = {de} } @phdthesis{Lossow2011, author = {Loßow, Kristina}, title = {Erzeugung und Charakterisierung von Mausmodellen mit lichtsensitivem Geschmackssystem zur Aufkl{\"a}rung der neuronalen Geschmackskodierung}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-58059}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Die Wahrnehmung von Geschmacksempfindungen beruht auf dem Zusammenspiel verschiedener Sinneseindr{\"u}cke wie Schmecken, Riechen und Tasten. Diese Komplexit{\"a}t der gustatorischen Wahrnehmung erschwert die Beantwortung der Frage wie Geschmacksinformationen vom Mund ins Gehirn weitergeleitet, prozessiert und kodiert werden. Die Analysen zur neuronalen Prozessierung von Geschmacksinformationen erfolgten zumeist mit Bitterstimuli am Mausmodell. Zwar ist bekannt, dass das Genom der Maus f{\"u}r 35 funktionelle Bitterrezeptoren kodiert, jedoch war nur f{\"u}r zwei unter ihnen ein Ligand ermittelt worden. Um eine bessere Grundlage f{\"u}r tierexperimentelle Arbeiten zu schaffen, wurden 16 der 35 Bitterrezeptoren der Maus heterolog in HEK293T-Zellen exprimiert und in Calcium-Imaging-Experimenten funktionell charakterisiert. Die Daten belegen, dass das Funktionsspektrum der Bitterrezeptoren der Maus im Vergleich zum Menschen enger ist und widerlegen damit die Aussage, dass humane und murine orthologe Rezeptoren durch das gleiche Ligandenspektrum angesprochen werden. Die Interpretation von tierexperimentellen Daten und die {\"U}bertragbarkeit auf den Menschen werden folglich nicht nur durch die Komplexit{\"a}t des Geschmacks, sondern auch durch Speziesunterschiede verkompliziert. Die Komplexit{\"a}t des Geschmacks beruht u. a. auf der Tatsache, dass Geschmacksstoffe selten isoliert auftreten und daher eine Vielzahl an Informationen kodiert werden muss. Um solche geschmacksstoffassoziierten Stimuli in der Analyse der gustatorischen Kommunikationsbahnen auszuschließen, sollten Opsine, die durch Licht spezifischer Wellenl{\"a}nge angeregt werden k{\"o}nnen, f{\"u}r die selektive Ersetzung von Geschmacksrezeptoren genutzt werden. Um die Funktionalit{\"a}t dieser angestrebten Knockout-Knockin-Modelle zu evaluieren, die eine Kopplung von Opsinen mit dem geschmacksspezifischen G-Protein Gustducin voraussetzte, wurden Oozyten vom Krallenfrosch Xenopus laevis mit dem Zwei-Elektroden-Spannungsklemm-Verfahren hinsichtlich dieser Interaktion analysiert. Der positiven Bewertung dieser Kopplung folgte die Erzeugung von drei Mauslinien, die in der kodierenden Region eines spezifischen Geschmacksrezeptors (Tas1r1, Tas1r2, Tas2r114) Photorezeptoren exprimierten. Durch RT-PCR-, In-situ-Hybridisierungs- und immunhistochemische Experimente konnte der erfolgreiche Knockout der Rezeptorgene und der Knockin der Opsine belegt werden. Der Nachweis der Funktionalit{\"a}t der Opsine im gustatorischen System wird Gegenstand zuk{\"u}nftiger Analysen sein. Bei erfolgreichem Beleg der Lichtempfindlichkeit von Geschmacksrezeptorzellen dieser Mausmodelle w{\"a}re ein System geschaffen, dass es erm{\"o}glichen w{\"u}rde, gustatorische neuronale Netzwerke und Hirnareale zu identifizieren, die auf einen reinen geschmacks- und qualit{\"a}tsspezifischen Stimulus zur{\"u}ckzuf{\"u}hren w{\"a}ren.}, language = {de} } @phdthesis{Spreyer2011, author = {Spreyer, Kathrin}, title = {Does it have to be trees? : Data-driven dependency parsing with incomplete and noisy training data}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-57498}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {We present a novel approach to training data-driven dependency parsers on incomplete annotations. Our parsers are simple modifications of two well-known dependency parsers, the transition-based Malt parser and the graph-based MST parser. While previous work on parsing with incomplete data has typically couched the task in frameworks of unsupervised or semi-supervised machine learning, we essentially treat it as a supervised problem. In particular, we propose what we call agnostic parsers which hide all fragmentation in the training data from their supervised components. We present experimental results with training data that was obtained by means of annotation projection. Annotation projection is a resource-lean technique which allows us to transfer annotations from one language to another within a parallel corpus. However, the output tends to be noisy and incomplete due to cross-lingual non-parallelism and error-prone word alignments. This makes the projected annotations a suitable test bed for our fragment parsers. Our results show that (i) dependency parsers trained on large amounts of projected annotations achieve higher accuracy than the direct projections, and that (ii) our agnostic fragment parsers perform roughly on a par with the original parsers which are trained only on strictly filtered, complete trees. Finally, (iii) when our fragment parsers are trained on artificially fragmented but otherwise gold standard dependencies, the performance loss is moderate even with up to 50\% of all edges removed.}, language = {en} } @phdthesis{Wulf2011, author = {Wulf, Hendrik}, title = {Seasonal precipitation, river discharge, and sediment flux in the western Himalaya}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-57905}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Rainfall, snow-, and glacial melt throughout the Himalaya control river discharge, which is vital for maintaining agriculture, drinking water and hydropower generation. However, the spatiotemporal contribution of these discharge components to Himalayan rivers is not well understood, mainly because of the scarcity of ground-based observations. Consequently, there is also little known about the triggers and sources of peak sediment flux events, which account for extensive hydropower reservoir filling and turbine abrasion. We therefore lack basic information on the distribution of water resources and controls of erosion processes. In this thesis, I employ various methods to assess and quantify general characteristics of and links between precipitation, river discharge, and sediment flux in the Sutlej Valley. First, I analyze daily precipitation data (1998-2007) from 80 weather stations in the western Himalaya, to decipher the distribution of rain- and snowfall. Rainfall magnitude frequency analyses indicate that 40\% of the summer rainfall budget is attributed to monsoonal rainstorms, which show higher variability in the orogenic interior than in frontal regions. Combined analysis of rainstorms and sediment flux data of a major Sutlej River tributary indicate that monsoonal rainfall has a first order control on erosion processes in the orogenic interior, despite the dominance of snowfall in this region. Second, I examine the contribution of rainfall, snow and glacial melt to river discharge in the Sutlej Valley (s55,000 km2), based on a distributed hydrological model, which covers the period 2000-2008. To achieve high spatial and daily resolution despite limited ground-based observations the hydrological model is forced by daily remote sensing data, which I adjusted and calibrated with ground station data. The calibration shows that the Tropical Rainfall Measuring Mission (TRMM) 3B42 rainfall product systematically overestimates rainfall in semi-arid and arid regions, increasing with aridity. The model results indicate that snowmelt-derived discharge (74\%) is most important during the pre-monsoon season (April to June) whereas rainfall (56\%) and glacial melt (17\%) dominate the monsoon season (July-September). Therefore, climate change most likely causes a reduction in river discharge during the pre-monsoon season, which especially affects the orogenic interior. Third, I investigate the controls on suspended sediment flux in different parts of the Sutlej catchments, based on daily gauging data from the past decade. In conjunction with meteorological data, earthquake records, and rock strength measurements I find that rainstorms are the most frequent trigger of high-discharge events with peaks in suspended sediment concentrations (SSC) that account for the bulk of the suspended sediment flux. The suspended sediment flux increases downstream, mainly due to increases in runoff. Pronounced erosion along the Himalayan Front occurs throughout the monsoon season, whereas efficient erosion of the orogenic interior is confined to single extreme events. The results of this thesis highlight the importance of snow and glacially derived melt waters in the western Himalaya, where extensive regions receive only limited amounts of monsoonal rainfall. These regions are therefore particularly susceptible to global warming with major implications on the hydrological cycle. However, the sediment discharge data show that infrequent monsoonal rainstorms that pass the orographic barrier of the Higher Himalaya are still the primary trigger of the highest-impact erosion events, despite being subordinate to snow and glacially-derived discharge. These findings may help to predict peak sediment flux events and could underpin the strategic development of preventative measures for hydropower infrastructures.}, language = {en} } @phdthesis{Malik2011, author = {Malik, Nishant}, title = {Extremes in events and dynamics : a nonlinear data analysis perspective on the past and present dynamics of the Indian summer monsoon}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-58016}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {To identify extreme changes in the dynamics of the Indian Summer Monsoon (ISM) in the past, I propose a new approach based on the quantification of fluctuations of a nonlinear similarity measure, to identify regimes of distinct dynamical complexity in short time series. I provide an analytical derivation for the relationship of the new measure with the dynamical invariants such as dimension and Lyapunov exponents of the underlying system. A statistical test is also developed to estimate the significance of the identified transitions. Our method is justified by uncovering bifurcation structures in several paradigmatic models, providing more complex transitions compared with traditional Lyapunov exponents. In a real world situation, we apply the method to identify millennial-scale dynamical transitions in Pleistocene proxy records of the south Asian summer monsoon system. We infer that many of these transitions are induced by the external forcing of solar insolation and are also affected by internal forcing on Monsoonal dynamics, i.e., the glaciation cycles of the Northern Hemisphere and the onset of the tropical Walker circulation. Although this new method has general applicability, it is particularly useful in analysing short palaeo-climate records. Rainfall during the ISM over the Indian subcontinent occurs in form of enormously complex spatiotemporal patterns due to the underlying dynamics of atmospheric circulation and varying topography. I present a detailed analysis of summer monsoon rainfall over the Indian peninsular using Event Synchronization (ES), a measure of nonlinear correlation for point processes such as rainfall. First, using hierarchical clustering I identify principle regions where the dynamics of monsoonal rainfall is more coherent or homogenous. I also provide a method to reconstruct the time delay patterns of rain events. Moreover, further analysis is carried out employing the tools of complex network theory. This study provides valuable insights into the spatial organization, scales, and structure of the 90th and 94th percentile rainfall events during the ISM (June to September). I furthermore analyse the influence of different critical synoptic atmospheric systems and the impact of the steep Himalayan topography on rainfall patterns. The presented method not only helps in visualising the structure of the extremeevent rainfall fields, but also identifies the water vapor pathways and decadal-scale moisture sinks over the region. Furthermore a simple scheme based on complex networks is presented to decipher the spatial intricacies and temporal evolution of monsoonal rainfall patterns over the last six decades. Some supplementary results on the evolution of monsoonal rainfall extremes over the last sixty years are also presented.}, language = {de} } @phdthesis{Partskhaladze2011, author = {Partskhaladze, Vakhtang}, title = {Development perspectives of small and medium businesses in Georgia}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-66397}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {After the collapse of the Soviet Union the former member states have started the transformation process. The transformation process from planned to market economy includes not only the adaptation of the economy to the new market rules but also the profound social and political transformation. For this reason such processes present huge challenges to affected societies. The transformational recession in Georgia was significantly enhanced by the civil war and by ethnic conflicts in Abkhazia and South Ossetia. During the ethnic conflicts and civil war the business and technical infrastructure were damaged and most of them were completely destroyed. Poverty and political instability were predominated. The trade relations with the member countries of Council of Mutual Economic Assistance (Comecon) were aborted. Moreover, the conflict in South Ossetia hampered the power supply from Russia and a conflict in Abkhazia, the production and trade with tea and citruses, which were major trade commodities at that time. In the beginning of 90-ies, Georgian government with the assistance of international organizations, such as International Monetary Fund and World Bank started to elaborate political and economical reforms. The reforms included several aspects, such as the transfer of public assets to private through privatization, the liberalization of domestic market and trade and the creation of market-oriented institutions. Because of lack in implementation neither economical nor political transformation has been achieved. For instance, by the begin of market oriented reforms the awareness of policy makers about the importance of entrepreneurship, in particular small and medium ones for the economy was low. The absence of previous experience prevented the elaboration of appropriate policy instruments and methods for the development of competitive market economy. The stimulation of private sector has been generally neglected. This had a severe affect on political, social and economical problems, which still hampers the development of middle class in Georgia. The presented research indicates that productive entrepreneurship is a driving force of an economy. The entrepreneurial activities on the one hand facilitate the resource allocation and on the other through the development of new products and services urge the competition. Furthermore, they contribute to technological improvements through innovation, create jobs and thus boost the economic and social development of a particular region or country. However, it is important that the legal and institutional framework is appropriately settled. Unlike mature market economies, Georgia is not characterized by well-developed sector of small and medium sized businesses. Most existing SMEs are operating in local markets and predominantly in the shadow economy. It is also noteworthy that small business in Georgia belongs to so called "mom and pop" rather than to innovative, growth oriented businesses. They are mostly engaged in trade and craft. In addition of poor performance, the business activity of SMEs is very centralized. The vast majority of them are operating in the capital Tbilisi. The poor performance of small and medium businesses in Georgia and their negligence by the market forces is among others due to the armed conflicts and state failure. As in the beginning of transformation process, down to the present day, the state fails to provide necessary conditions, such as rule of law, the protection of property rights and competition, transparent and uncorrupted public administration. The result is the weak middle class. The weak middle class by itself has a negative impact on economic development and democratization process in Georgia.}, language = {de} } @phdthesis{Krehl2011, author = {Krehl, Susanne}, title = {Das Selenoprotein Glutathionperoxidase-2 : physiologische Funktion und Einfluss auf die entz{\"u}ndungsassoziierte Colonkarzinogenese}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-50220}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Bei der Entdeckung der Glutathionperoxidase-2 (GPx2) wurde zun{\"a}chst davon ausgegangen, dass die Funktion dieses Enzyms im Kryptengrund des Colons einzig in der Reduktion von H2O2 besteht. Im Laufe der weiteren Erforschung zeigte sich, dass GPx2 auch in verschiedenen Tumorgeweben vermehrt exprimiert wird. Dabei wird diskutiert, ob die Wirkung von GPx2 im Tumor eher als pro- oder als antikarzinogen einzustufen ist. Mehrere Experimente in vitro und in vivo zeigten antiinflammatorische Eigenschaften der GPx2. Aufgrund dieser Befunde wird derzeit {\"u}ber weitere Funktionen der GPx2 spekuliert. In dieser Arbeit wurde die physiologische Funktion von GPx2 n{\"a}her erforscht, dazu wurden Wildtyp- und GPx2-Knockout-M{\"a}use in Hinblick auf Ver{\"a}nderungen der Enzymexpression und der Colonmorphologie untersucht. Es wurden drei verschiedene Selendi{\"a}ten verf{\"u}ttert: selenarmes, selenad{\"a}quates und selensupplementiertes Futter. Unter physiologischen Bedingungen ist am Kryptengrund des Colons, innerhalb der proliferierenden Zone, die Mitoserate am h{\"o}chsten. Der Großteil der apoptotischen Zellen ist hingegen an der Kryptenspitze vorzufinden. Durch den Knockout von GPx2 kam es zu einer signifikanten Erh{\"o}hung der Apoptoserate am Kryptengrund. Dabei war der gr{\"o}ßte Effekt auf selenarmem Futter zu verzeichnen. Hierbei wurde sogar eine Ver{\"a}nderung der Colonmorphologie dokumentiert, da die Verschiebung der Proliferationszone in Richtung Kryptenspitze eine Verl{\"a}ngerung der Krypten nach sich zog. Im Wildtyp wurden keine Apoptosen im Kryptengrund detektiert. GPx1 wird unter physiologischen Bedingungen im Gegensatz zur GPx2 in der Kryptenspitze exprimiert und ist im Selenmangel nicht mehr detektierbar. Der Knockout von GPx2 erh{\"o}hte die GPx1-Expression im Kryptengrund auf allen drei Selendi{\"a}ten. Diese {\"U}berexpression von GPx1 am Kryptengrund soll vermutlich den Verlust von GPx2 an dieser Stelle kompensieren. Da jedoch dort die massive Apoptoserate detektiert wurde, kann die GPx1 nicht die komplette Funktion von GPx2 kompensieren. Diese Ergebnisse deuten darauf hin, dass die Funktion von GPx2 nicht nur in der Reduktion von H2O2 liegt. Vielmehr kann eine Rolle bei der Aufrechterhaltung der Hom{\"o}ostase von Zellen postuliert werden. Ein weiterer Bestandteil dieser Arbeit war die Kl{\"a}rung der Frage, welchen Einfluss GPx2 auf die entz{\"u}ndungsassoziierte Colonkarzinogenese aus{\"u}bt. In dem hierf{\"u}r verwendeten AOM/DSS-Model wird der karzinogene Prozess durch Entz{\"u}ndung vorangetrieben. Es erfolgte sowohl im Wildtyp als auch im GPx2-Knockout zum einen die Bewertung des Entz{\"u}ndungsstatus des Colons und zum anderen wurde die Anzahl von ACF und Tumoren verglichen. Das Colon im GPx2-Knockout war wesentlich st{\"a}rker entz{\"u}ndet als im Wildtyp. Diese Ergebnisse best{\"a}tigen die f{\"u}r die GPx2 postulierte antiinflammatorische Funktion. Normalerweise f{\"u}hrt eine Erh{\"o}hung der Mitoseanzahl zur Regeneration des entz{\"u}ndeten Gewebes. Jedoch beeinflusst der Verlust von GPx2 vermutlich den Ablauf der Entz{\"u}ndung, indem beispielsweise die Regeneration des Gewebes durch die enorm hohe Apoptoserate am Kryptengrund verlangsamt wird. Des Weiteren hatten sich im GPx2-Knockout tendenziell mehr Tumore entwickelt. Somit korrelierte die Entz{\"u}ndung des Colons mit der Entwicklung von Tumoren. Der Verlust von GPx2 beg{\"u}nstigte vermutlich sowohl die Tumorinitiation als auch die Tumorprogression. Allerdings stimulierte die Expression von GPx2 ebenfalls das Tumorwachstum. Es kann geschlussfolgert werden, dass eine ad{\"a}quate GPx2-Expression vor Entz{\"u}ndung sch{\"u}tzt und somit das Risiko f{\"u}r Colonkrebs senkt. Ob GPx2 aber insgesamt pro- oder antikarzinogen wirkt, h{\"a}ngt vermutlich vom Stadium des Colonkarzinogenese ab.}, language = {de} } @phdthesis{Wichura2011, author = {Wichura, Henry}, title = {Topographic evolution of the East African Plateau : a combined study on lava-flow modeling and paleo-topography}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52363}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {The East African Plateau provides a spectacular example of geodynamic plateau uplift, active continental rifting, and associated climatic forcing. It is an integral part of the East African Rift System and has an average elevation of approximately 1,000 m. Its location coincides with a negative Bouguer gravity anomaly with a semi-circular shape, closely related to a mantle plume, which influences the Cenozoic crustal development since its impingement in Eocene-Oligocene time. The uplift of the East African Plateau, preceding volcanism, and rifting formed an important orographic barrier and tectonically controlled environment, which is profoundly influenced by climate driven processes. Its location within the equatorial realm supports recently proposed hypotheses, that topographic changes in this region must be considered as the dominant forcing factor influencing atmospheric circulation patterns and rainfall distribution. The uplift of this region has therefore often been associated with fundamental climatic and environmental changes in East Africa and adjacent regions. While the far-reaching influence of the plateau uplift is widely accepted, the timing and the magnitude of the uplift are ambiguous and are still subject to ongoing discussion. This dilemma stems from the lack of datable, geomorphically meaningful reference horizons that could record surface uplift. In order to quantify the amount of plateau uplift and to find evidence for the existence of significant relief along the East African Plateau prior to rifting, I analyzed and modeled one of the longest terrestrial lava flows; the 300-km-long Yatta phonolite flow in Kenya. This lava flow is 13.5 Ma old and originated in the region that now corresponds to the eastern rift shoulders. The phonolitic flow utilized an old riverbed that once drained the eastern flank of the plateau. Due to differential erosion this lava flow now forms a positive relief above the parallel-flowing Athi River, which is mimicking the course of the paleo-river. My approach is a lava-flow modeling, based on an improved composition and temperature dependent method to parameterize the flow of an arbitrary lava in a rectangular-shaped channel. The essential growth pattern is described by a one-dimensional model, in which Newtonian rheological flow advance is governed by the development of viscosity and/or velocity in the internal parts of the lava-flow front. Comparing assessments of different magma compositions reveal that length-dominated, channelized lava flows are characterized by high effusion rates, rapid emplacement under approximately isothermal conditions, and laminar flow. By integrating the Yatta lava flow dimensions and the covered paleo-topography (slope angle) into the model, I was able to determine the pre-rift topography of the East African Plateau. The modeling results yield a pre-rift slope of at least 0.2°, suggesting that the lava flow must have originated at a minimum elevation of 1,400 m. Hence, high topography in the region of the present-day Kenya Rift must have existed by at least 13.5 Ma. This inferred mid-Miocene uplift coincides with the two-step expansion of grasslands, as well as important radiation and speciation events in tropical Africa. Accordingly, the combination of my results regarding the Yatta lava flow emplacement history, its location, and its morphologic character, validates it as a suitable "paleo-tiltmeter" and has thus to be considered as an important topographic and volcanic feature for the topographic evolution in East Africa.}, language = {en} } @phdthesis{Kellermann2011, author = {Kellermann, Thorsten}, title = {Accurate numerical relativity simulations of non-vacuumspace-times in two dimensions and applications to critical collapse}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-59578}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P - P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse.}, language = {en} } @phdthesis{Federico2011, author = {Federico, Stefania}, title = {Synthetic peptides derived from decorin as building blocks for biomaterials based on supramolecular interactions}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-59661}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {In this work, the development of a new molecular building block, based on synthetic peptides derived from decorin, is presented. These peptides represent a promising basis for the design of polymer-based biomaterials that mimic the ECM on a molecular level and exploit specific biological recognition for technical applications. Multiple sequence alignments of the internal repeats of decorin that formed the inner and outer surface of the arch-shaped protein were used to develop consensus sequences. These sequences contained conserved sequence motifs that are likely to be related to structural and functional features of the protein. Peptides representative for the consensus sequences were synthesized by microwave-assisted solid phase peptide synthesis and purified by RP-HPLC, with purities higher than 95 mol\%. After confirming the desired masses by MALDI-TOF-MS, the primary structure of each peptide was investigated by 1H and 2D NMR, from which a full assignment of the chemical shifts was obtained. The characterization of the peptides conformation in solution was performed by CD spectroscopy, which demonstrated that using TFE, the peptides from the outer surface of decorin show a high propensity to fold into helical structures as observed in the original protein. To the contrary, the peptides from the inner surface did not show propensity to form stable secondary structure. The investigation of the binding capability of the peptides to Collagen I was performed by surface plasmon resonance analyses, from which all but one of the peptides representing the inner surface of decorin showed binding affinity to collagen with values of dissociation constant between 2•10-7 M and 2.3•10-4 M. On the other hand, the peptides representative for the outer surface of decorin did not show any significant interaction to collagen. This information was then used to develop experimental demonstration for the binding capabilities of the peptides from the inner surface of decorin to collagen even when used in more complicated situations close to possible appications. With this purpose, the peptide (LRELHLNNN) which showed the highest binding affinity to collagen (2•10-7 M) was functionalized with an N-terminal triple bond in order to obtain a peptide dimer via copper(I)-catalyzed cycloaddition reaction with 4,4'-diazidostilbene-2,2'-disulfonic acid. Rheological measurements showed that the presence of the peptide dimer was able to enhance the elastic modulus (G') of a collagen gel from ~ 600 Pa (collagen alone) to ~ 2700 Pa (collagen and peptide dimer). Moreover, it was shown that the mechanical properties of a collagen gel can be tailored by using different molar ratios of peptide dimer respect to collagen. The same peptide, functionalized with the triple bond, was used to obtain a peptide-dye conjugate by coupling it with N-(5'-azidopentanoyl)-5-aminofluorescein. An aqueous solution (5 vol\% methanol) of the peptide dye conjugate was injected into a collagen and a hyaluronic acid (HA) gel and images of fluorescence detection showed that the diffusion of the peptide was slower in the collagen gel compared to the HA gel. The third experimental demonstration was gained using the peptide (LSELRLHNN) which showed the lower binding affinity (2.3•10-4 M) to collagen. This peptide was grafted to hyaluronic acid via EDC-chemistry, with a degree of functionalization of 7 ± 2 mol\% as calculated by 1H-NMR. The grafting was further confirmed by FTIR and TGA measurements, which showed that the onset of decomposition for the HA-g-peptide decreased by 10 °C compared to the native HA. Rheological measurements showed that the elastic modulus of a system based on collagen and HA-g-peptide increased by almost two order of magnitude (G' = 200 Pa) compared to a system based on collagen and HA (G' = 0.9 Pa). Overall, this study showed that the synthetic peptides, which were identified from decorin, can be applied as potential building blocks for biomimetic materials that function via biological recognition.}, language = {en} } @phdthesis{Seewald2011, author = {Seewald, Gunter}, title = {Lineare und nichtlineare optische Untersuchungen am synthetischen Eumelanin und Entwicklung eines Kaskadenmodells}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-59967}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Eumelanin ist ein Fluorophor mit teilweise recht ungew{\"o}hnlichen spektralen Eigenschaften. Unter anderem konnten in fr{\"u}heren Ver{\"o}ffentlichungen Unterschiede zwischen dem 1- und 2-photonen-angeregtem Fluoreszenzspektrum beobachtet werden, weshalb im nichtlinearen Anregungsfall ein schrittweiser Anregungsprozess vermutet wurde. Um diese und weitere optische Eigenschaften des Eumelanins besser zu verstehen, wurden in der vorliegenden Arbeit vielf{\"a}ltige messmethodische Ans{\"a}tze der linearen und nichtlinearen Optik an synthetischem Eumelanin in 0,1M NaOH verfolgt. Aus den Ergebnissen wurde ein Modell abgeleitet, welches die beobachteten photonischen Eigenschaften konsistent beschreibt. In diesem kaskadierten Zustandsmodell (Kaskaden-Modell) wird die aufgenommene Photonenenergie schrittweise von Anregungszust{\"a}nden hoher {\"U}bergangsenergien zu Anregungszust{\"a}nden niedrigerer {\"U}bergangsenergien transferiert. Messungen der transienten Absorption ergaben dominante Anteile mit kurzen Lebensdauern im ps-Bereich und ließen damit auf eine hohe Relaxationsgeschwindigkeit entlang der Kaskade schließen. Durch Untersuchung der nichtlinear angeregten Fluoreszenz von verschieden großen Eumelanin-Aggregaten konnte gezeigt werden, dass Unterschiede zwischen dem linear und nichtlinear angeregten Fluoreszenzspektrum nicht nur durch einen schrittweisen Anregungsprozess bei nichtlinearer Anregung sondern auch durch Unterschiede in den Verh{\"a}ltnissen der Quantenausbeuten zwischen kleinen und großen Aggregaten beim Wechsel von linearer zu nichtlinearer Anregung begr{\"u}ndet sein k{\"o}nnen. Durch Bestimmung des Anregungswirkungsquerschnitts und der Anregungspulsdauer-Abh{\"a}ngigkeit der nichtlinear angeregten Fluoreszenz von Eumelanin konnte jedoch ein schrittweiser 2-Photonen-Anregungsprozess {\"u}ber einen Zwischenzustand mit Lebendsdauern im ps-Bereich nachgewiesen werden.}, language = {de} } @phdthesis{Moesta2011, author = {M{\"o}sta, Philipp}, title = {Novel aspects of the dynamics of binary black-hole mergers}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-59820}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {The inspiral and merger of two black holes is among the most exciting and extreme events in our universe. Being one of the loudest sources of gravitational waves, they provide a unique dynamical probe of strong-field general relativity and a fertile ground for the observation of fundamental physics. While the detection of gravitational waves alone will allow us to observe our universe through an entirely new window, combining the information obtained from both gravitational wave and electro-magnetic observations will allow us to gain even greater insight in some of the most exciting astrophysical phenomena. In addition, binary black-hole mergers serve as an intriguing tool to study the geometry of space-time itself. In this dissertation we study the merger process of binary black-holes in a variety of conditions. Our results show that asymmetries in the curvature distribution on the common apparent horizon are correlated to the linear momentum acquired by the merger remnant. We propose useful tools for the analysis of black holes in the dynamical and isolated horizon frameworks and shed light on how the final merger of apparent horizons proceeds after a common horizon has already formed. We connect mathematical theorems with data obtained from numerical simulations and provide a first glimpse on the behavior of these surfaces in situations not accessible to analytical tools. We study electro-magnetic counterparts of super-massive binary black-hole mergers with fully 3D general relativistic simulations of binary black-holes immersed both in a uniform magnetic field in vacuum and in a tenuous plasma. We find that while a direct detection of merger signatures with current electro-magnetic telescopes is unlikely, secondary emission, either by altering the accretion rate of the circumbinary disk or by synchrotron radiation from accelerated charges, may be detectable. We propose a novel approach to measure the electro-magnetic radiation in these simulations and find a non-collimated emission that dominates over the collimated one appearing in the form of dual jets associated with each of the black holes. Finally, we provide an optimized gravitational wave detection pipeline using phenomenological waveforms for signals from compact binary coalescence and show that by including spin effects in the waveform templates, the detection efficiency is drastically improved as well as the bias on recovered source parameters reduced. On the whole, this disseration provides evidence that a multi-messenger approach to binary black-hole merger observations provides an exciting prospect to understand these sources and, ultimately, our universe.}, language = {en} } @phdthesis{Thiele2011, author = {Thiele, Sven}, title = {Modeling biological systems with Answer Set Programming}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-59383}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Biology has made great progress in identifying and measuring the building blocks of life. The availability of high-throughput methods in molecular biology has dramatically accelerated the growth of biological knowledge for various organisms. The advancements in genomic, proteomic and metabolomic technologies allow for constructing complex models of biological systems. An increasing number of biological repositories is available on the web, incorporating thousands of biochemical reactions and genetic regulations. Systems Biology is a recent research trend in life science, which fosters a systemic view on biology. In Systems Biology one is interested in integrating the knowledge from all these different sources into models that capture the interaction of these entities. By studying these models one wants to understand the emerging properties of the whole system, such as robustness. However, both measurements as well as biological networks are prone to considerable incompleteness, heterogeneity and mutual inconsistency, which makes it highly non-trivial to draw biologically meaningful conclusions in an automated way. Therefore, we want to promote Answer Set Programming (ASP) as a tool for discrete modeling in Systems Biology. ASP is a declarative problem solving paradigm, in which a problem is encoded as a logic program such that its answer sets represent solutions to the problem. ASP has intrinsic features to cope with incompleteness, offers a rich modeling language and highly efficient solving technology. We present ASP solutions, for the analysis of genetic regulatory networks, determining consistency with observed measurements and identifying minimal causes for inconsistency. We extend this approach for computing minimal repairs on model and data that restore consistency. This method allows for predicting unobserved data even in case of inconsistency. Further, we present an ASP approach to metabolic network expansion. This approach exploits the easy characterization of reachability in ASP and its various reasoning methods, to explore the biosynthetic capabilities of metabolic reaction networks and generate hypotheses for extending the network. Finally, we present the BioASP library, a Python library which encapsulates our ASP solutions into the imperative programming paradigm. The library allows for an easy integration of ASP solution into system rich environments, as they exist in Systems Biology.}, language = {en} } @phdthesis{Gomolka2011, author = {Gomolka, Johannes}, title = {Algorithmic Trading}, publisher = {Universit{\"a}tsverlag Potsdam}, address = {Potsdam}, isbn = {978-3-86956-125-7}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-51009}, school = {Universit{\"a}t Potsdam}, pages = {383}, year = {2011}, abstract = {Die Elektronisierung der Finanzm{\"a}rkte ist in den letzten Jahren weit vorangeschritten. Praktisch jede B{\"o}rse verf{\"u}gt {\"u}ber ein elektronisches Handelssystem. In diesem Kontext beschreibt der Begriff Algorithmic Trading ein Ph{\"a}nomen, bei dem Computerprogramme den Menschen im Wertpapierhandel ersetzen. Sie helfen dabei Investmententscheidungen zu treffen oder Transaktionen durchzuf{\"u}hren. Algorithmic Trading selbst ist dabei nur eine unter vielen Innovationen, welche die Entwicklung des B{\"o}rsenhandels gepr{\"a}gt haben. Hier sind z.B. die Erfindung der Telegraphie, des Telefons, des FAX oder der elektronische Wertpapierabwicklung zu nennen. Die Frage ist heute nicht mehr, ob Computerprogramme im B{\"o}rsenhandel eingesetzt werden. Sondern die Frage ist, wo die Grenze zwischen vollautomatischem B{\"o}rsenhandel (durch Computer) und manuellem B{\"o}rsenhandel (von Menschen) verl{\"a}uft. Bei der Erforschung von Algorithmic Trading wird die Wissenschaft mit dem Problem konfrontiert, dass keinerlei Informationen {\"u}ber diese Computerprogramme zug{\"a}nglich sind. Die Idee dieser Dissertation bestand darin, dieses Problem zu umgehen und Informationen {\"u}ber Algorithmic Trading indirekt aus der Analyse von (Fonds-)Renditen zu extrahieren. Johannes Gomolka untersucht daher die Forschungsfrage, ob sich Aussagen {\"u}ber computergesteuerten Wertpapierhandel (kurz: Algorithmic Trading) aus der Analyse von (Fonds-)Renditen ziehen lassen. Zur Beantwortung dieser Forschungsfrage formuliert der Autor eine neue Definition von Algorithmic Trading und unterscheidet mit Buy-Side und Sell-Side Algorithmic Trading zwei grundlegende Funktionen der Computerprogramme (die Entscheidungs- und die Transaktionsunterst{\"u}tzung). F{\"u}r seine empirische Untersuchung greift Gomolka auf das Multifaktorenmodell zur Style-Analyse von Fung und Hsieh (1997) zur{\"u}ck. Mit Hilfe dieses Modells ist es m{\"o}glich, die Zeitreihen von Fondsrenditen in interpretierbare Grundbestandteile zu zerlegen und den einzelnen Regressionsfaktoren eine inhaltliche Bedeutung zuzuordnen. Die Ergebnisse dieser Dissertation zeigen, dass man mit Hilfe der Style-Analyse Aussagen {\"u}ber Algorithmic Trading aus der Analyse von (Fonds-)Renditen machen kann. Die Aussagen sind jedoch keiner technischen Natur, sondern auf die Analyse von Handelsstrategien (Investment-Styles) begrenzt.}, language = {de} } @phdthesis{Hoffmann2011, author = {Hoffmann, Anne}, title = {Comparative aerosol studies based on multi-wavelength Raman LIDAR at Ny-{\AA}lesund, Spitsbergen}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52426}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {The Arctic is a particularly sensitive area with respect to climate change due to the high surface albedo of snow and ice and the extreme radiative conditions. Clouds and aerosols as parts of the Arctic atmosphere play an important role in the radiation budget, which is, as yet, poorly quantified and understood. The LIDAR (Light Detection And Ranging) measurements presented in this PhD thesis contribute with continuous altitude resolved aerosol profiles to the understanding of occurrence and characteristics of aerosol layers above Ny-{\AA}lesund, Spitsbergen. The attention was turned to the analysis of periods with high aerosol load. As the Arctic spring troposphere exhibits maximum aerosol optical depths (AODs) each year, March and April of both the years 2007 and 2009 were analyzed. Furthermore, stratospheric aerosol layers of volcanic origin were analyzed for several months, subsequently to the eruptions of the Kasatochi and Sarychev volcanoes in summer 2008 and 2009, respectively. The Koldewey Aerosol Raman LIDAR (KARL) is an instrument for the active remote sensing of atmospheric parameters using pulsed laser radiation. It is operated at the AWIPEV research base and was fundamentally upgraded within the framework of this PhD project. It is now equipped with a new telescope mirror and new detection optics, which facilitate atmospheric profiling from 450m above sea level up to the mid-stratosphere. KARL provides highly resolved profiles of the scattering characteristics of aerosol and cloud particles (backscattering, extinction and depolarization) as well as water vapor profiles within the lower troposphere. Combination of KARL data with data from other instruments on site, namely radiosondes, sun photometer, Micro Pulse LIDAR, and tethersonde system, resulted in a comprehensive data set of scattering phenomena in the Arctic atmosphere. The two spring periods March and April 2007 and 2009 were at first analyzed based on meteorological parameters, like local temperature and relative humidity profiles as well as large scale pressure patterns and air mass origin regions. Here, it was not possible to find a clear correlation between enhanced AOD and air mass origin. However, in a comparison of two cloud free periods in March 2007 and April 2009, large AOD values in 2009 coincided with air mass transport through the central Arctic. This suggests the occurrence of aerosol transformation processes during the aerosol transport to Ny-{\AA}lesund. Measurements on 4 April 2009 revealed maximum AOD values of up to 0.12 and aerosol size distributions changing with altitude. This and other performed case studies suggest the differentiation between three aerosol event types and their origin: Vertically limited aerosol layers in dry air, highly variable hygroscopic boundary layer aerosols and enhanced aerosol load across wide portions of the troposphere. For the spring period 2007, the available KARL data were statistically analyzed using a characterization scheme, which is based on optical characteristics of the scattering particles. The scheme was validated using several case studies. Volcanic eruptions in the northern hemisphere in August 2008 and June 2009 arose the opportunity to analyze volcanic aerosol layers within the stratosphere. The rate of stratospheric AOD change was similar within both years with maximum values above 0.1 about three to five weeks after the respective eruption. In both years, the stratospheric AOD persisted at higher rates than usual until the measurements were stopped in late September due to technical reasons. In 2008, up to three aerosol layers were detected, the layer structure in 2009 was characterized by up to six distinct and thin layers which smeared out to one broad layer after about two months. The lowermost aerosol layer was continuously detected at the tropopause altitude. Three case studies were performed, all revealed rather large indices of refraction of m = (1.53-1.55) - 0.02i, suggesting the presence of an absorbing carbonaceous component. The particle radius, derived with inversion calculations, was also similar in both years with values ranging from 0.16 to 0.19 μm. However, in 2009, a second mode in the size distribution was detected at about 0.5 μm. The long term measurements with the Koldewey Aerosol Raman LIDAR in Ny-{\AA}lesund provide the opportunity to study Arctic aerosols in the troposphere and the stratosphere not only in case studies but on longer time scales. In this PhD thesis, both, tropospheric aerosols in the Arctic spring and stratospheric aerosols following volcanic eruptions have been described qualitatively and quantitatively. Case studies and comparative studies with data of other instruments on site allowed for the analysis of microphysical aerosol characteristics and their temporal evolution.}, language = {en} } @phdthesis{Gessner2011, author = {Geßner, Andr{\´e}}, title = {Neuartige Lanthanoid-dotierte mikro- und mesopor{\"o}se Feststoffe : Charakterisierung von Ion-Wirt-Wechselwirkungen, Speziesverteilung und Lumineszenzeigenschaften mittels zeitaufgel{\"o}ster Lumineszenzspektroskopie}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52371}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Por{\"o}se Sol-Gel-Materialien finden in vielen Bereichen Anwendung bzw. sind Gegenstand der aktuellen Forschung. Zu diesen Bereichen z{\"a}hlen sowohl klassische Anwendungen, wie z. B. die Verwendung als Katalysator, Molekularsieb oder Trockenmittel, als auch nichtklassische Anwendungen, wie z. B. der Einsatz als Kontrastmittel in der Magnet-Resonanz-Tomographie oder in Form von d{\"u}nnen Zeolithfilmen als Isolatoren in Mikrochips. Auch f{\"u}r den Einsatz in der Photonik werden por{\"o}se Materialien in Betracht gezogen, wie die Entwicklung des Zeolith-Farbstoff-Lasers zeigt. Mikropor{\"o}se Zeolithe k{\"o}nnen generell {\"u}ber einfache Ionenaustauschreaktionen mit Lanthanoidionen in lumineszente Materialien umgewandelt werden. Neben der Erzeugung eines lumineszenten Materials, dessen Lumineszenzeigenschaften charakterisiert werden m{\"u}ssen, bietet die Nutzung von Lanthanoidionen die M{\"o}glichkeit diese Ionen als Sonde zur Charakterisierung der Ion-Wirt-Wechselwirkungen zu funktionalisieren, was z. B. in Bezug auf die Anwendung als Katalysator von großer Bedeutung ist. Dabei werden die einzigartigen Lumineszenzeigenschaften der Lanthanoidionen, in diesem Fall von Europium(III) und Terbium(III), genutzt. In dieser Arbeit wurden Lanthanoid-dotierte mikropor{\"o}se Zeolithe, mikropor{\"o}s-mesopor{\"o}se Hybridmaterialien und mesopor{\"o}se Silikate hinsichtlich ihrer Lumineszenzeigenschaften und ihrer Wechselwirkung des Wirtsmaterials mit den Lanthanoidionen mittels zeitaufgel{\"o}ster Lumineszenzspektroskopie untersucht. Zeitaufgel{\"o}ste Emissionsspektren (TRES) liefern dabei sowohl Informationen in der Wellenl{\"a}ngen- als auch in der Zeitdom{\"a}ne. Erstmalig wurden die TRES mittels einer umfangreichen Auswertemethodik behandelt. Neben der Anpassung des Abklingverhaltens mit einer diskreten Zahl von Exponentialfunktionen, wurden unterst{\"u}tzend auch Abklingzeitverteilungsanalysen durchgef{\"u}hrt. Zeitaufgel{\"o}ste fl{\"a}chennormierte Emissionsspektren (TRANES), eine Erweiterung der normalen TRES, konnten erstmals zur Bestimmung der Zahl der emittierenden Lanthanoidspezies in por{\"o}sen Materialien genutzt werden. Durch die Berechnung der Decayassoziierten Spektren (DAS) konnten den Lanthanoidspezies die entsprechenden Lumineszenzspektren zugeordnet werden. Zus{\"a}tzlich konnte, speziell im Fall der Europium-Lumineszenz, durch Kombination von zeitlicher und spektraler Information das zeitabh{\"a}ngige Asymmetrieverh{\"a}ltnis R und die spektrale Evolution des 5D0-7F0-{\"U}bergangs mit der Zeit t untersucht und somit wesentliche Informationen {\"u}ber die Verteilung der Europiumionen im Wirtsmaterial erhalten werden. {\"U}ber die Abklingzeit und das Asymmetrieverh{\"a}ltnis R konnten R{\"u}ckschl{\"u}sse auf die Zahl der OH-Oszillatoren in der ersten Koordinationssph{\"a}re und die Symmetrie der Koordinationsumgebung gezogen werden. F{\"u}r die mikropor{\"o}sen und mikropor{\"o}s-mesopor{\"o}sen Materialien wurden verschiedene Lanthanoidspezies, im Regelfall zwei, gefunden, welche entsprechend der beschriebenen Methoden charakterisiert wurden. Diese Lanthanoidspezies konnten Positionen in den Materialien zugeordnet werden, die sich im tief Inneren des Porensystems oder auf bzw. nahe der {\"a}ußeren Oberfl{\"a}che oder in den Mesoporen befinden. Erstere Spezies ist aufgrund ihrer Position im Material gut vor Feuchtigkeitseinfl{\"u}ssen gesch{\"u}tzt, was sich deutlich in entsprechend langen Lumineszenzabklingzeiten {\"a}ußert. Zus{\"a}tzlich ist diese Europiumspezies durch unsymmetrische Koordinationsumgebung charakterisiert, was auf einen signifikanten Anteil an Koordination der Lanthanoidionen durch die Sauerstoffatome im Wirtsgitter zur{\"u}ckzuf{\"u}hren ist. Ionen, die sich nahe oder auf der {\"a}ußeren Oberfl{\"a}che befinden, sind dagegen f{\"u}r Feuchtigkeit zug{\"a}nglicher, was in k{\"u}rzeren Lumineszenzabklingzeiten und einer symmetrischeren Koordinationsumgebung resultiert. Der Anteil von Wassermolek{\"u}len in der ersten Koordinationssph{\"a}re ist hier deutlich gr{\"o}ßer, als bei den Ionen, die sich tiefer im Porensystem befinden und entspricht in vielen F{\"a}llen der Koordinationszahl eines vollst{\"a}ndig hydratisierten Lanthanoidions. Auch der Einfluss von Oberfl{\"a}chenmodifikationen auf die Speziesverteilung und das Verhalten der Materialien gegen{\"u}ber Feuchtigkeit wurde untersucht. Dabei gelang es den Einfluss der Feuchtigkeit auf die Lumineszenzeigenschaften und die Speziesverteilung durch die Oberfl{\"a}chenmodifikation zu verringern und die Lumineszenzeigenschaften teilweise zu konservieren. Im Fall der mesopor{\"o}sen Silikamonolithe wurde auch eine heterogene Verteilung der Lanthanoidionen im Porensystem gefunden. Hier wechselwirkt ein Teil der Ionen mit der Porenwand, w{\"a}hrend sich die restlichen Ionen in der w{\"a}ßrigen Phase innerhalb des Porensystems aufhalten. Das Aufbringen von Oberfl{\"a}chenmodifikationen f{\"u}hrte zu einer Wechselwirkung der Ionen mit diesen Oberfl{\"a}chenmodifikationen, was sich in Abh{\"a}ngigkeit von der Oberfl{\"a}chenbeladung in den enstprechenden Lumineszenzeigenschaften niederschlug.}, language = {de} } @phdthesis{Polanski2011, author = {Polanski, Stefan}, title = {Simulation der indischen Monsunzirkulation mit dem Regionalen Klimamodell HIRHAM}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52508}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {In dieser Arbeit wird das regionale Klimamodell HIRHAM mit einer horizontalen Aufl{\"o}sung von 50 km und 19 vertikalen Schichten erstmals auf den asiatischen Kontinent angewendet, um die indische Monsunzirkulation unter rezenten und pal{\"a}oklimatischen Bedingungen zu simulieren. Das Integrationsgebiet des Modells erstreckt sich von etwa 0ºN - 50ºN und 42ºE - 110ºE und bedeckt dabei sowohl die hohe Topographie des Himalajas und Tibet Plateaus als auch den n{\"o}rdlichen Indischen Ozean. Das Ziel besteht in der Beschreibung der regionalen Kopplung zwischen der Monsunzirkulation und den orographischen sowie diabatischen Antriebsmechanismen. Eine 44-j{\"a}hrige Modellsimulation von 1958-2001, die am seitlichen und unteren Rand von ECMWF Reanalysen (ERA40) angetrieben wird, bildet die Grundlage f{\"u}r die Validierung der Modellergebnisse mit Beobachtungen auf der Basis von Stations- und Gitterdatens{\"a}tzen. Der Fokus liegt dabei auf der atmosph{\"a}rischen Zirkulation, der Temperatur und dem Niederschlag im Sommer- und Wintermonsun, wobei die Qualit{\"a}t des Modells sowohl in Bezug zur langfristigen und dekadischen Klimatologie als auch zur interannuellen Variabilit{\"a}t evaluiert wird. Im Zusammenhang mit einer realistischen Reproduktion der Modelltopographie kann f{\"u}r die Muster der Zirkulation und Temperatur eine gute {\"U}bereinstimmung zwischen Modell und Daten nachgewiesen werden. Der simulierte Niederschlag zeigt eine bessere {\"U}bereinstimmung mit einem hoch aufgel{\"o}sten Gitterdatensatz {\"u}ber der Landoberfl{\"a}che Zentralindiens und in den Hochgebirgsregionen, der den Vorteil des Regionalmodells gegen{\"u}ber der antreibenden Reanalyse hervorhebt. In verschiedenen Fall- und Sensitivit{\"a}tsstudien werden die wesentlichen Antriebsfaktoren des indischen Monsuns (Meeresoberfl{\"a}chentemperaturen, St{\"a}rke des winterlichen Sibirischen Hochs und Anomalien der Bodenfeuchte) untersucht. Die Ergebnisse machen deutlich, dass die Simulation dieser Mechanismen auch mit einem Regionalmodell sehr schwierig ist, da die Komplexit{\"a}t des Monsunsystems hochgradig nichtlinear ist und die vor allem subgridskalig wirkenden Prozesse im Modell noch nicht ausreichend parametrisiert und verstanden sind. Ein pal{\"a}oklimatisches Experiment f{\"u}r eine 44-j{\"a}hrige Zeitscheibe im mittleren Holoz{\"a}n (etwa 6000 Jahre vor heute), die am Rand von einer globalen ECHAM5 Simulation angetrieben wird, zeigt markante Ver{\"a}nderungen in der Intensit{\"a}t des Monsuns durch die unterschiedliche solare Einstrahlung, die wiederum Einfl{\"u}sse auf die SST, die Zirkulation und damit auf die Niederschlagsmuster hat.}, language = {de} } @phdthesis{Bergner2011, author = {Bergner, Andr{\´e}}, title = {Synchronization in complex systems with multiple time scales}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-53407}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {In the present work synchronization phenomena in complex dynamical systems exhibiting multiple time scales have been analyzed. Multiple time scales can be active in different manners. Three different systems have been analyzed with different methods from data analysis. The first system studied is a large heterogenous network of bursting neurons, that is a system with two predominant time scales, the fast firing of action potentials (spikes) and the burst of repetitive spikes followed by a quiescent phase. This system has been integrated numerically and analyzed with methods based on recurrence in phase space. An interesting result are the different transitions to synchrony found in the two distinct time scales. Moreover, an anomalous synchronization effect can be observed in the fast time scale, i.e. there is range of the coupling strength where desynchronization occurs. The second system analyzed, numerically as well as experimentally, is a pair of coupled CO₂ lasers in a chaotic bursting regime. This system is interesting due to its similarity with epidemic models. We explain the bursts by different time scales generated from unstable periodic orbits embedded in the chaotic attractor and perform a synchronization analysis of these different orbits utilizing the continuous wavelet transform. We find a diverse route to synchrony of these different observed time scales. The last system studied is a small network motif of limit cycle oscillators. Precisely, we have studied a hub motif, which serves as elementary building block for scale-free networks, a type of network found in many real world applications. These hubs are of special importance for communication and information transfer in complex networks. Here, a detailed study on the mechanism of synchronization in oscillatory networks with a broad frequency distribution has been carried out. In particular, we find a remote synchronization of nodes in the network which are not directly coupled. We also explain the responsible mechanism and its limitations and constraints. Further we derive an analytic expression for it and show that information transmission in pure phase oscillators, such as the Kuramoto type, is limited. In addition to the numerical and analytic analysis an experiment consisting of electrical circuits has been designed. The obtained results confirm the former findings.}, language = {en} } @phdthesis{Boehme2011, author = {B{\"o}hme, Dimo}, title = {EU-Russia energy relations: What chance for solutions? : A focus on the natural gas sector}, publisher = {Universit{\"a}tsverlag Potsdam}, address = {Potsdam}, isbn = {978-3-86956-120-2}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-50210}, school = {Universit{\"a}t Potsdam}, pages = {xix, 322}, year = {2011}, abstract = {Public debate about energy relations between the EU and Russia is distorted. These distortions present considerable obstacles to the development of true partnership. At the core of the conflict is a struggle for resource rents between energy producing, energy consuming and transit countries. Supposed secondary aspects, however, are also of great importance. They comprise of geopolitics, market access, economic development and state sovereignty. The European Union, having engaged in energy market liberalisation, faces a widening gap between declining domestic resources and continuously growing energy demand. Diverse interests inside the EU prevent the definition of a coherent and respected energy policy. Russia, for its part, is no longer willing to subsidise its neighbouring economies by cheap energy exports. The Russian government engages in assertive policies pursuing Russian interests. In so far, it opts for a different globalisation approach, refusing the role of mere energy exporter. In view of the intensifying struggle for global resources, Russia, with its large energy potential, appears to be a very favourable option for European energy supplies, if not the best one. However, several outcomes of the strategic game between the two partners can be imagined. Engaging in non-cooperative strategies will in the end leave all stakeholders worse-off. The European Union should therefore concentrate on securing its partnership with Russia instead of damaging it. Stable cooperation would need the acceptance that the partner may pursue his own goals, which might be different from one's own interests. The question is, how can a sustainable compromise be found? This thesis finds that a mix of continued dialogue, a tit for tat approach bolstered by an international institutional framework and increased integration efforts appears as a preferable solution.}, language = {en} } @phdthesis{Weiss2011, author = {Weiß, Jan}, title = {Synthesis and self-assembly of multiple thermoresponsive amphiphilic block copolymers}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-53360}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {In the present thesis, the self-assembly of multi thermoresponsive block copolymers in dilute aqueous solution was investigated by a combination of turbidimetry, dynamic light scattering, TEM measurements, NMR as well as fluorescence spectroscopy. The successive conversion of such block copolymers from a hydrophilic into a hydrophobic state includes intermediate amphiphilic states with a variable hydrophilic-to-lipophilic balance. As a result, the self-organization is not following an all-or-none principle but a multistep aggregation in dilute solution was observed. The synthesis of double thermoresponsive diblock copolymers as well as triple thermoresponsive triblock copolymers was realized using twofold-TMS labeled RAFT agents which provide direct information about the average molar mass as well as residual end group functionality from a routine proton NMR spectrum. First a set of double thermosensitive diblock copolymers poly(N-n-propylacrylamide)-b-poly(N-ethylacrylamide) was synthesized which differed only in the relative size of the two blocks. Depending on the relative block lengths, different aggregation pathways were found. Furthermore, the complementary TMS-labeled end groups served as NMR-probes for the self-assembly of these diblock copolymers in dilute solution. Reversible, temperature sensitive peak splitting of the TMS-signals in NMR spectroscopy was indicative for the formation of mixed star-/flower-like micelles in some cases. Moreover, triple thermoresponsive triblock copolymers from poly(N-n-propylacrylamide) (A), poly(methoxydiethylene glycol acrylate) (B) and poly(N-ethylacrylamide) (C) were obtained from sequential RAFT polymerization in all possible block sequences (ABC, BAC, ACB). Their self-organization behavior in dilute aqueous solution was found to be rather complex and dependent on the positioning of the different blocks within the terpolymers. Especially the localization of the low-LCST block (A) had a large influence on the aggregation behavior. Above the first cloud point, aggregates were only observed when the A block was located at one terminus. Once placed in the middle, unimolecular micelles were observed which showed aggregation only above the second phase transition temperature of the B block. Carrier abilities of such triple thermosensitive triblock copolymers tested in fluorescence spectroscopy, using the solvatochromic dye Nile Red, suggested that the hydrophobic probe is less efficiently incorporated by the polymer with the BAC sequence as compared to ABC or ACB polymers above the first phase transition temperature. In addition, due to the problem of increasing loss of end group functionality during the subsequent polymerization steps, a novel concept for the one-step synthesis of multi thermoresponsive block copolymers was developed. This allowed to synthesize double thermoresponsive di- and triblock copolymers in a single polymerization step. The copolymerization of different N-substituted maleimides with a thermosensitive styrene derivative (4-vinylbenzyl methoxytetrakis(oxyethylene) ether) led to alternating copolymers with variable LCST. Consequently, an excess of this styrene-based monomer allowed the synthesis of double thermoresponsive tapered block copolymers in a single polymerization step.}, language = {en} } @phdthesis{Bierbaum2011, author = {Bierbaum, Veronika}, title = {Chemomechanical coupling and motor cycles of the molecular motor myosin V}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-53614}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {In the living cell, the organization of the complex internal structure relies to a large extent on molecular motors. Molecular motors are proteins that are able to convert chemical energy from the hydrolysis of adenosine triphosphate (ATP) into mechanical work. Being about 10 to 100 nanometers in size, the molecules act on a length scale, for which thermal collisions have a considerable impact onto their motion. In this way, they constitute paradigmatic examples of thermodynamic machines out of equilibrium. This study develops a theoretical description for the energy conversion by the molecular motor myosin V, using many different aspects of theoretical physics. Myosin V has been studied extensively in both bulk and single molecule experiments. Its stepping velocity has been characterized as a function of external control parameters such as nucleotide concentration and applied forces. In addition, numerous kinetic rates involved in the enzymatic reaction of the molecule have been determined. For forces that exceed the stall force of the motor, myosin V exhibits a 'ratcheting' behaviour: For loads in the direction of forward stepping, the velocity depends on the concentration of ATP, while for backward loads there is no such influence. Based on the chemical states of the motor, we construct a general network theory that incorporates experimental observations about the stepping behaviour of myosin V. The motor's motion is captured through the network description supplemented by a Markov process to describe the motor dynamics. This approach has the advantage of directly addressing the chemical kinetics of the molecule, and treating the mechanical and chemical processes on equal grounds. We utilize constraints arising from nonequilibrium thermodynamics to determine motor parameters and demonstrate that the motor behaviour is governed by several chemomechanical motor cycles. In addition, we investigate the functional dependence of stepping rates on force by deducing the motor's response to external loads via an appropriate Fokker-Planck equation. For substall forces, the dominant pathway of the motor network is profoundly different from the one for superstall forces, which leads to a stepping behaviour that is in agreement with the experimental observations. The extension of our analysis to Markov processes with absorbing boundaries allows for the calculation of the motor's dwell time distributions. These reveal aspects of the coordination of the motor's heads and contain direct information about the backsteps of the motor. Our theory provides a unified description for the myosin V motor as studied in single motor experiments.}, language = {en} } @phdthesis{Samereier2011, author = {Samereier, Matthias}, title = {Functional analyses of microtubule and centrosome-associated proteins in Dictyostelium discoideum}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52835}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Understanding the role of microtubule-associated proteins is the key to understand the complex mechanisms regulating microtubule dynamics. This study employs the model system Dictyostelium discoideum to elucidate the role of the microtubule-associated protein TACC (Transforming acidic coiled-coil) in promoting microtubule growth and stability. Dictyostelium TACC was localized at the centrosome throughout the entire cell cycle. The protein was also detected at microtubule plus ends, however, unexpectedly only during interphase but not during mitosis. The same cell cycle-dependent localization pattern was observed for CP224, the Dictyostelium XMAP215 homologue. These ubiquitous MAPs have been found to interact with TACC proteins directly and are known to act as microtubule polymerases and nucleators. This work shows for the first time in vivo that both a TACC and XMAP215 family protein can differentially localize to microtubule plus ends during interphase and mitosis. RNAi knockdown mutants revealed that TACC promotes microtubule growth during interphase and is essential for proper formation of astral microtubules in mitosis. In many organisms, impaired microtubule stability upon TACC depletion was explained by the failure to efficiently recruit the TACC-binding XMAP215 protein to centrosomes or spindle poles. By contrast, fluorescence recovery after photobleaching (FRAP) analyses conducted in this study demonstrate that in Dictyostelium recruitment of CP224 to centrosomes or spindle poles is not perturbed in the absence of TACC. Instead, CP224 could no longer be detected at the tips of microtubules in TACC mutant cells. This finding demonstrates for the first time in vivo that a TACC protein is essential for the association of an XMAP215 protein with microtubule plus ends. The GFP-TACC strains generated in this work also turned out to be a valuable tool to study the unusual microtubule dynamics in Dictyostelium. Here, microtubules exhibit a high degree of lateral bending movements but, in contrast most other organisms, they do not obviously undergo any growth or shrinkage events during interphase. Despite of that they are affected by microtubuledepolymerizing drugs such as thiabendazole or nocodazol which are thought to act solely on dynamic microtubules. Employing 5D-fluorescence live cell microscopy and FRAP analyses this study suggests Dictyostelium microtubules to be dynamic only in the periphery, while they are stable at the centrosome. In the recent years, the identification of yet unknown components of the Dictyostelium centrosome has made tremendous progress. A proteomic approach previously conducted by our group disclosed several uncharacterized candidate proteins, which remained to be verified as genuine centrosomal components. The second part of this study focuses on the investigation of three such candidate proteins, Cenp68, CP103 and the putative spindle assembly checkpoint protein Mad1. While a GFP-CP103 fusion protein could clearly be localized to isolated centrosomes that are free of microtubules, Cenp68 and Mad1 were found to associate with the centromeres and kinetochores, respectively. The investigation of Cenp68 included the generation of a polyclonal anti-Cenp68 antibody, the screening for interacting proteins and the generation of knockout mutants which, however, did not display any obvious phenotype. Yet, Cenp68 has turned out as a very useful marker to study centromere dynamics during the entire cell cycle. During mitosis, GFP-Mad1 localization strongly resembled the behavior of other Mad1 proteins, suggesting the existence of a yet uncharacterized spindle assembly checkpoint in Dictyostelium.}, language = {en} } @phdthesis{Hess2011, author = {Hess, Markus}, title = {Soziale Partizipation und Pers{\"o}nlichkeitsentwicklung im Vorschulalter : Begriffskl{\"a}rung und Ergebnisse einer L{\"a}ngsschnittstudie}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-66979}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Die vorliegende Arbeit betrachtet Partizipation aus einer interaktionalen Perspektive und nimmt zun{\"a}chst eine interdisziplin{\"a}r orientierte Begriffsbestimmung vor. Daran anschließend werden anhand einer L{\"a}ngsschnittstudie Entwicklungsbedingungen sozialer Partizipationskompetenzen im Vorschulalter untersucht und F{\"o}rderempfehlungen abgeleitet. Partizipation (Teilhabe) soll in Kontexten wie Schule oder Arbeitswelt Entscheidungen demokratisch legitimieren, individuelle Ressourcen aussch{\"o}pfen und soziale Grundbed{\"u}rfnisse des Menschen befriedigen. Ein engeres Verst{\"a}ndnis von sozialer Partizipation aus einer interaktionalen Perspektive erfordert die Beteiligung an den Aktivit{\"a}ten einer bereits bestehenden Gruppe und die Aushandlung eigener Interessen innerhalb dieser Gruppe und wird in der Arbeit als Prozess anhand dreier Phasen (Anbahnung, Projektierung und Realisierung) dargestellt. Im Vorschulalter werden wichtige Grundsteine f{\"u}r eine erfolgreiche soziale Entwicklung und f{\"u}r den Erwerb von sozialen Partizipationskompetenzen gelegt. In der vorliegenden Arbeit wurden deshalb die Zusammenh{\"a}nge und Wechselwirkungen zwischen sozialen Partizipationskompetenzen (Bereitschaft und F{\"a}higkeit) und (1) kognitiven Leistungsparametern (Intelligenz und Perspektiven{\"u}bernahme), (2) dem Selbstkonzept und (3) dem Konfliktverhalten (Aggression und Sch{\"u}chternheit) mit 5- bis 7j{\"a}hrigen Kindern mit Hilfe von Kreuzpfadanalysen untersucht. Zudem wurde die Situationsgebundenheit sozialer Partizipationskompetenzen und die Bedeutung struktureller Parameter der Familie und der Kindertageseinrichtung auf explorativer Ebene analysiert. Die Stichprobe bestand aus 334 Kindern (51,5 \% weiblich, Altersdurchschnitt zum ersten Messzeitpunkt 5,4 Jahre) in 71 Kindergartengruppen in 21 Kindertageseinrichtungen in vier Bundesl{\"a}ndern. Die l{\"a}ngsschnittliche Datenanalyse basiert auf drei Messzeitpunkten. Die Ergebnisse zeigen, dass soziale Partizipationskompetenzen {\"u}ber verschiedene Situationen hinweg bedeutsame, aber nur m{\"a}ßig ausgepr{\"a}gte, Zusammenh{\"a}nge aufweisen. Hohe Auspr{\"a}gungen kognitiver Leistungsparameter gehen mit hohen Erziehereinsch{\"a}tzungen sozialer Partizipationskompetenzen einher. {\"U}ber die Zusammenh{\"a}nge hinaus zeigen sich im L{\"a}ngsschnitt bedeutsame Wechselwirkungen zwischen kognitiver Entwicklung und sozialen Partizipationskompetenzen im Vorschulalter. Selbsteinsch{\"a}tzungen zur eigenen Kompetenz h{\"a}ngen im Vorschulalter hingegen nur gering mit Erziehereinsch{\"a}tzungen der sozialen Partizipationskompetenz zusammen. Im L{\"a}ngsschnitt zeigt sich, dass junge Kinder bei der Beurteilung ihrer Kompetenzen zun{\"a}chst auf soziale Partizipationserfolge zur{\"u}ckgreifen. Sp{\"a}ter hingegen scheint der Partizipationserfolg dann umgekehrt eher durch das Selbstbild bedingt zu sein. Geringe Partizipationskompetenzen gehen mit hohen Erziehereinsch{\"a}tzungen beim aggressiven (schwach signifikant) und sch{\"u}chternen Verhalten (m{\"a}ßig signifikant) einher. Hinsichtlich der Aggression und des sch{\"u}chternen Verhaltens ergaben sich l{\"a}ngsschnittlich betrachtet nur schwache Wechselwirkungen zur sozialen Partizipationskompetenz. Die Kumulation famili{\"a}rer Belastungssituationen (z.B. Krankheit und akute Finanznot) stellen eine gr{\"o}ßere Bedrohung f{\"u}r die kindliche Entwicklung dar als der sozio-{\"o}konomische Status der Familie. Mit Blick auf die F{\"o}rderung sozialer Partizipationskompetenzen lassen sich die Ergebnisse mit einem sozial-konstruktivistischen Ansatz verbinden. Dessen Ziel ist es, intra- und interpersonelle Konflikte auszul{\"o}sen, deren erfolgreiche Bew{\"a}ltigung produktive Lernprozesse auf kognitiver, emotionaler und behavioraler Ebene anstoßen.}, language = {de} } @phdthesis{Muehlbauer2011, author = {M{\"u}hlbauer, Felix}, title = {Entwurf, Methoden und Werkzeuge f{\"u}r komplexe Bildverarbeitungssysteme auf Rekonfigurierbaren System-on-Chip-Architekturen}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-59923}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Bildverarbeitungsanwendungen stellen besondere Anspr{\"u}che an das ausf{\"u}hrende Rechensystem. Einerseits ist eine hohe Rechenleistung erforderlich. Andererseits ist eine hohe Flexibilit{\"a}t von Vorteil, da die Entwicklung tendentiell ein experimenteller und interaktiver Prozess ist. F{\"u}r neue Anwendungen tendieren Entwickler dazu, eine Rechenarchitektur zu w{\"a}hlen, die sie gut kennen, anstatt eine Architektur einzusetzen, die am besten zur Anwendung passt. Bildverarbeitungsalgorithmen sind inh{\"a}rent parallel, doch herk{\"o}mmliche bildverarbeitende eingebettete Systeme basieren meist auf sequentiell arbeitenden Prozessoren. Im Gegensatz zu dieser "Unstimmigkeit" k{\"o}nnen hocheffiziente Systeme aus einer gezielten Synergie aus Software- und Hardwarekomponenten aufgebaut werden. Die Konstruktion solcher System ist jedoch komplex und viele L{\"o}sungen, wie zum Beispiel grobgranulare Architekturen oder anwendungsspezifische Programmiersprachen, sind oft zu akademisch f{\"u}r einen Einsatz in der Wirtschaft. Die vorliegende Arbeit soll ein Beitrag dazu leisten, die Komplexit{\"a}t von Hardware-Software-Systemen zu reduzieren und damit die Entwicklung hochperformanter on-Chip-Systeme im Bereich Bildverarbeitung zu vereinfachen und wirtschaftlicher zu machen. Dabei wurde Wert darauf gelegt, den Aufwand f{\"u}r Einarbeitung, Entwicklung als auch Erweiterungen gering zu halten. Es wurde ein Entwurfsfluss konzipiert und umgesetzt, welcher es dem Softwareentwickler erm{\"o}glicht, Berechnungen durch Hardwarekomponenten zu beschleunigen und das zu Grunde liegende eingebettete System komplett zu prototypisieren. Hierbei werden komplexe Bildverarbeitungsanwendungen betrachtet, welche ein Betriebssystem erfordern, wie zum Beispiel verteilte Kamerasensornetzwerke. Die eingesetzte Software basiert auf Linux und der Bildverarbeitungsbibliothek OpenCV. Die Verteilung der Berechnungen auf Software- und Hardwarekomponenten und die daraus resultierende Ablaufplanung und Generierung der Rechenarchitektur erfolgt automatisch. Mittels einer auf der Antwortmengenprogrammierung basierten Entwurfsraumexploration ergeben sich Vorteile bei der Modellierung und Erweiterung. Die Systemsoftware wird mit OpenEmbedded/Bitbake synthetisiert und die erzeugten on-Chip-Architekturen auf FPGAs realisiert.}, language = {de} } @phdthesis{Ivakov2011, author = {Ivakov, Alexander}, title = {Metabolic interactions in leaf development in Arabidopsis thaliana}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-59730}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Das Wachstum und {\"U}berleben von Pflanzen basiert auf der Photosynthese in den Bl{\"a}ttern. Diese beinhaltet die Aufnahme von Kohlenstoffdioxid aus der Atmosph{\"a}re und das simultane Einfangen von Lichtenergie zur Bildung organischer Molek{\"u}le. Diese werden nach dem Eintritt in den Metabolismus in viele andere Komponenten umgewandelt, welche die Grundlage f{\"u}r die Zunahme der Biomasse bilden. Bl{\"a}tter sind Organe, die auf die Fixierung von Kohlenstoffdioxid spezialisiert sind. Die Funktionen der Bl{\"a}tter beinhalten vor allem die Optimierung und Feinregulierung vieler Prozesse, um eine effektive Nutzung von Ressourcen und eine maximale Photosynthese zu gew{\"a}hrleisten. Es ist bekannt, dass sich die Morphologie der Bl{\"a}tter den Wachstumsbedingungen der Pflanze anpasst und eine wichtige Rolle bei der Optimierung der Photosynthese spielt. Trotzdem ist die Regulation dieser Art der Anpassung bisher nicht verstanden. Die allgemeine Zielsetzung dieser vorliegenden Arbeit ist das Verst{\"a}ndnis wie das Wachstum und die Morphologie der Bl{\"a}tter im Modellorganismus Arabidopsis thaliana reguliert werden. Besondere Aufmerksamkeit wurde hierbei der M{\"o}glichkeit geschenkt, dass es interne metabolische Signale in der Pflanze geben k{\"o}nnte, die das Wachstum und die Entwicklung von Bl{\"a}ttern beeinflussen. Um diese Fragestellung zu untersuchen, muss das Wachstum und die Entwicklung von Bl{\"a}ttern oberhalb des Levels des einzelnen Organs und im Kontext der gesamten Pflanze betrachtet werden, weil Bl{\"a}tter nicht eigenst{\"a}ndig wachsen, sondern von Ressourcen und regulatorischen Einfl{\"u}ssen der ganzen Pflanze abh{\"a}ngig sind. Aufgrund der Komplexit{\"a}t dieser Fragestellung wurden drei komplement{\"a}re Ans{\"a}tze durchgef{\"u}hrt. Im ersten und spezifischsten Ansatz wurde untersucht ob eine flussabw{\"a}rts liegende Komponente des Zucker-Signalwegs, Trehalose-6-Phosphat (Tre-6-P), das Blattwachstum und die Blattentwicklung beinflussen kann. Um diese Frage zu beantworten wurden transgene Arabidopsis-Linien mit einem gest{\"o}rten Gehalt von Tre-6-P durch die Expression von bakteriellen Proteinen die in dem metabolismus von trehalose beteiligt sind. Die Pflanzen-Linien wurden unter Standard-Bendingungen in Erde angebaut und ihr Metabolismus und ihre Blattmorphologie untersucht. Diese Experimente f{\"u}hrten auch zu einem unerwarteten Projekt hinsichtlich einer m{\"o}glichen Rolle von Tre-6-P in der Regulation der Stomata. In einem zweiten, allgemeineren Ansatz wurde untersucht, ob {\"A}nderungen im Zucker-Gehalt der Pflanzen die Morphogenese der Bl{\"a}tter als Antwort auf Licht beeinflussen. Dazu wurden eine Reihe von Mutanten, die im Zentralmetabolismus beeintr{\"a}chtigt sind, in derselben Lichtbedingung angezogen und bez{\"u}glich ihrer Blattmorphologie analysiert. In einem dritten noch allgemeineren Ansatz wurde die nat{\"u}rliche Variation von morphologischen Auspr{\"a}gungen der Bl{\"a}tter und Rosette anhand von wilden Arabidopsis {\"O}kotypen untersucht, um zu verstehen wie sich die Blattmorphologie auf die Blattfunktion und das gesamte Pflanzenwachstum auswirkt und wie unterschiedliche Eigenschaften miteinander verkn{\"u}pft sind. Das Verh{\"a}ltnis der Blattanzahl zum Gesamtwachstum der Pflanze und Blattgr{\"o}ße wurde gesondert weiter untersucht durch eine Normalisierung der Blattanzahl auf das Frischgewicht der Rosette, um den Parameter „leafing Intensity" abzusch{\"a}tzen. Leafing Intensity integrierte Blattanzahl, Blattgr{\"o}ße und gesamtes Rosettenwachstum in einer Reihe von Kompromiss-Interaktionen, die in einem Wachstumsvorteil resultieren, wenn Pflanzen weniger, aber gr{\"o}ßere Bl{\"a}tter pro Einheit Biomasse ausbilden. Dies f{\"u}hrte zu einem theoretischen Ansatz in dem ein einfaches allometrisch mathematisches Modell konstruiert wurde, um Blattanzahl, Blattgr{\"o}ße und Pflanzenwachstum im Kontext der gesamten Pflanze Arabidopsis zu verkn{\"u}pfen.}, language = {en} } @phdthesis{Giorgi2011, author = {Giorgi, Federico Manuel}, title = {Expression-based reverse engineering of plant transcriptional networks}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-56760}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Regulation of gene transcription plays a major role in mediating cellular responses and physiological behavior in all known organisms. The finding that similar genes are often regulated in a similar manner (co-regulated or "co-expressed") has directed several "guilt-by-association" approaches in order to reverse-engineer the cellular transcriptional networks using gene expression data as a compass. This kind of studies has been considerably assisted in the recent years by the development of high-throughput transcript measurement platforms, specifically gene microarrays and next-generation sequencing. In this thesis, I describe several approaches for improving the extraction and interpretation of the information contained in microarray based gene expression data, through four steps: (1) microarray platform design, (2) microarray data normalization, (3) gene network reverse engineering based on expression data and (4) experimental validation of expression-based guilt-by-association inferences. In the first part test case is shown aimed at the generation of a microarray for Thellungiella salsuginea, a salt and drought resistant close relative to the model plant Arabidopsis thaliana; the transcripts of this organism are generated on the combination of publicly available ESTs and newly generated ad-hoc next-generation sequencing data. Since the design of a microarray platform requires the availability of highly reliable and non-redundant transcript models, these issues are addressed consecutively, proposing several different technical solutions. In the second part I describe how inter-array correlation artifacts are generated by the common microarray normalization methods RMA and GCRMA, together with the technical and mathematical characteristics underlying the problem. A solution is proposed in the form of a novel normalization method, called tRMA. The third part of the thesis deals with the field of expression-based gene network reverse engineering. It is shown how different centrality measures in reverse engineered gene networks can be used to distinguish specific classes of genes, in particular essential genes in Arabidopsis thaliana, and how the use of conditional correlation can add a layer of understanding over the information flow processes underlying transcript regulation. Furthermore, several network reverse engineering approaches are compared, with a particular focus on the LASSO, a linear regression derivative rarely applied before in global gene network reconstruction, despite its theoretical advantages in robustness and interpretability over more standard methods. The performance of LASSO is assessed through several in silico analyses dealing with the reliability of the inferred gene networks. In the final part, LASSO and other reverse engineering methods are used to experimentally identify novel genes involved in two independent scenarios: the seed coat mucilage pathway in Arabidopsis thaliana and the hypoxic tuber development in Solanum tuberosum. In both cases an interesting method complementarity is shown, which strongly suggests a general use of hybrid approaches for transcript expression-based inferences. In conclusion, this work has helped to improve our understanding of gene transcription regulation through a better interpretation of high-throughput expression data. Part of the network reverse engineering methods described in this thesis have been included in a tool (CorTo) for gene network reverse engineering and annotated visualization from custom transcription datasets.}, language = {en} } @phdthesis{Herold2011, author = {Herold, Birgit}, title = {Prosodische Verarbeitung und lexikalische Entwicklung sehr untergewichtiger Fr{\"u}hgeborener w{\"a}hrend des ersten Lebensjahres}, publisher = {Universit{\"a}tsverlag Potsdam}, address = {Potsdam}, isbn = {978-3-86956-107-3}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-48517}, school = {Universit{\"a}t Potsdam}, pages = {xv, 244}, year = {2011}, abstract = {Die vorliegende Arbeit besch{\"a}ftigt sich mit der Fragestellung, ob die Fr{\"u}hgeburtlichkeit eine Auswirkung auf den Spracherwerb im ersten Lebensjahr hat. Insbesondere wurde der Frage nachgegangen, ob sich die Verarbeitung der rhythmisch-prosodischen Eigenschaften von Sprache im ersten Lebensjahr und deren weitere Ausnutzung f{\"u}r die Entwicklung des Lexikons bei sehr untergewichtigen Deutsch lernenden Fr{\"u}hgeborenen im Vergleich zu Reifgeborenen unterscheidet. Die besondere Spracherwerbssituation Fr{\"u}hgeborener liefert weitere Erkenntnisse bez{\"u}glich der Frage, inwieweit der fr{\"u}he Spracherwerb durch pr{\"a}determinierte reifungsbedingte Mechanismen und Abl{\"a}ufe bestimmt wird und inwieweit dessen Verlauf und die relevanten Erwerbsmechanismen durch individuelle erfahrungsabh{\"a}ngige Faktoren beeinflusst werden. Damit liefern die Ergebnisse auch einen weiteren Beitrag zur Nature-Nurture-Diskussion.}, language = {de} } @phdthesis{Wist2011, author = {Wist, Dominic}, title = {Attacking complexity in logic synthesis of asynchronous circuits}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-59706}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Most of the microelectronic circuits fabricated today are synchronous, i.e. they are driven by one or several clock signals. Synchronous circuit design faces several fundamental challenges such as high-speed clock distribution, integration of multiple cores operating at different clock rates, reduction of power consumption and dealing with voltage, temperature, manufacturing and runtime variations. Asynchronous or clockless design plays a key role in alleviating these challenges, however the design and test of asynchronous circuits is much more difficult in comparison to their synchronous counterparts. A driving force for a widespread use of asynchronous technology is the availability of mature EDA (Electronic Design Automation) tools which provide an entire automated design flow starting from an HDL (Hardware Description Language) specification yielding the final circuit layout. Even though there was much progress in developing such EDA tools for asynchronous circuit design during the last two decades, the maturity level as well as the acceptance of them is still not comparable with tools for synchronous circuit design. In particular, logic synthesis (which implies the application of Boolean minimisation techniques) for the entire system's control path can significantly improve the efficiency of the resulting asynchronous implementation, e.g. in terms of chip area and performance. However, logic synthesis, in particular for asynchronous circuits, suffers from complexity problems. Signal Transitions Graphs (STGs) are labelled Petri nets which are a widely used to specify the interface behaviour of speed independent (SI) circuits - a robust subclass of asynchronous circuits. STG decomposition is a promising approach to tackle complexity problems like state space explosion in logic synthesis of SI circuits. The (structural) decomposition of STGs is guided by a partition of the output signals and generates a usually much smaller component STG for each partition member, i.e. a component STG with a much smaller state space than the initial specification. However, decomposition can result in component STGs that in isolation have so-called irreducible CSC conflicts (i.e. these components are not SI synthesisable anymore) even if the specification has none of them. A new approach is presented to avoid such conflicts by introducing internal communication between the components. So far, STG decompositions are guided by the finest output partitions, i.e. one output per component. However, this might not yield optimal circuit implementations. Efficient heuristics are presented to determine coarser partitions leading to improved circuits in terms of chip area. For the new algorithms correctness proofs are given and their implementations are incorporated into the decomposition tool DESIJ. The presented techniques are successfully applied to some benchmarks - including 'real-life' specifications arising in the context of control resynthesis - which delivered promising results.}, language = {en} } @phdthesis{Stahl2011, author = {Stahl, Silvester}, title = {Selbstorganisation von Migranten im deutschen Vereinssport : eine soziologische Ann{\"a}herung}, publisher = {Universit{\"a}tsverlag Potsdam}, address = {Potsdam}, isbn = {978-3-86956-151-6}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-53788}, school = {Universit{\"a}t Potsdam}, pages = {341}, year = {2011}, abstract = {Diese von der Wirtschafts- und Sozialwissenschaftlichen Fakult{\"a}t der Universit{\"a}t Potsdam angenommene Dissertation thematisiert die Selbstorganisation von Migranten in eigenen Sportvereinen und auf anderen Ebenen des Vereinssports. Sie beruht auf den Ergebnissen eines vom Bundesinstitut f{\"u}r Sportwissenschaft gef{\"o}rderten Forschungsprojekts der Universit{\"a}t Potsdam. Mit mehreren hundert Migrantensportvereinen in ganz Deutschland stellt der Sport einen der wichtigsten Gesellschaftsbereiche f{\"u}r die Selbstorganisation von Zuwanderern dar. Doch obwohl sich Migranten in der Bundesrepublik schon seit den 1960er Jahren in eigenen Sportvereinen zusammenschließen, ist das Thema zuvor noch nicht umfassend untersucht worden. Um diese Forschungsl{\"u}cke zu schließen, stellt die Arbeit Basisinformationen {\"u}ber verschiedene Organisationsformen, typische Entstehungszusammenh{\"a}nge, spezifische Problemfelder sowie wiederkehrende Konfliktmuster bereit und pr{\"a}sentiert darauf aufbauende Annahmen {\"u}ber die Wirkungen der sportbezogenen Selbstorganisation auf das Verh{\"a}ltnis von Einheimischen und Zuwanderern im Sport, auf die allgemeinen interethnischen Beziehungen und auf den gesamtgesellschaftlichen Integrationsprozess. Daran ankn{\"u}pfend werden m{\"o}gliche Konsequenzen aufgezeigt, die die verschiedenen Akteure des Sportsystems aus den dargestellten Forschungsbefunden ziehen k{\"o}nnen. Die Arbeit basiert auf den Befunden einer in den Jahren 2006 bis 2009 durchgef{\"u}hrten empirischen Untersuchung, in der verschiedene qualitative Methoden eingesetzt wurden, um das Forschungsfeld explorativ, ergebnisoffen und in einer m{\"o}glichst weiten Perspektive zu beleuchten. In erster Linie bestand diese Feldstudie in einer Interviewreihe, f{\"u}r die 25 Vertreter von Migrantensportvereinen sowie 15 Feldexperten aus verschiedenen Berufsgruppen und Organisationen in Leitfaden-Interviews befragt wurden. Erg{\"a}nzt wurde die Interviewstudie durch eine Zeitungsanalyse, f{\"u}r die sieben Tages- und Wochenzeitungen nach Artikeln zum Thema durchsucht wurden, sowie gezielte Feldbeobachtungen, etwa beim Besuch von Fußballspielen, bei Versammlungen und Festen sowie in Vereinsheimen. Dar{\"u}ber hinaus wurde eine umfangreiche Internetrecherche durchgef{\"u}hrt, bei der vor allem die Webseiten von {\"u}ber 65 Migrantensportvereinen in Augenschein genommen wurden. In allen Untersuchungsteilen war das Vorgehen des Verfassers stark an der Grounded-Theory-Methode orientiert. Die so gewonnenen Forschungsergebnisse deuten darauf hin, dass eigenst{\"a}ndige Migrantensportvereine, die als vorherrschende Form der sportbezogenen Selbstorganisation von Zuwanderern im Mittelpunkt der Arbeit stehen, aus komplexen gesellschaftlichen Inklusions-, Schließungs- sowie Segmentationsprozessen resultieren und interindividuell unterschiedliche Beteiligungsmotive ihrer Mitglieder aufnehmen. Sie stellen typischerweise multifunktionale Hybridorganisationen dar und erbringen f{\"u}r die beteiligten Migranten und deren lokale Gemeinschaften spezifische Integrations-, Repr{\"a}sentations- und Solidarleistungen, durch die sie sich signifikant von deutschen Sportvereinen und Migrantenorganisationen in anderen Sektoren abheben. Zugleich unterscheiden sich die Migrantensportvereine untereinander hinsichtlich Vereinst{\"a}tigkeit, Selbstverst{\"a}ndnis und Konfliktbeteiligung sehr stark. Ihre R{\"u}ckwirkung auf den Vereinssport als organisationales Feld, auf die interethnischen Beziehungen in anderen Gesellschaftsbereichen und auf den gesamtgesellschaftlichen Integrationsprozess ist den pr{\"a}sentierten Forschungsergebnissen zufolge gleichfalls sehr ambivalent. Einerseits erbringen Migrantenvereine nicht nur die gleichen gemeinn{\"u}tzigen Leistungen im Bereich der sozialen Integration wie andere Sportvereine auch, sondern entfalten dar{\"u}ber hinaus, indem sie die Integrationsf{\"a}higkeit ihrer Mitglieder erh{\"o}hen und Personen in den organisierten Sport einbeziehen, die sonst gar keinem Sportverein beitreten w{\"u}rden, spezifische Integrationswirkungen, die andere Sportvereine nicht aufweisen. Andererseits erh{\"o}ht die Selbstorganisation von Migranten in eigenen Sportvereinen soziale Distanzen und Spannungen zwischen Einheimischen und Zuwanderern, zumal Migrantensportvereine vor allem an den manchmal gewaltvollen Konflikten im Amateurfußball {\"u}berproportional h{\"a}ufig beteiligt sind. Dar{\"u}ber hinaus stellt ein relativ kleiner Teil der Migrantensportvereine wegen Organisationsdefiziten eine ernste Belastung f{\"u}r die T{\"a}tigkeit der Sportverb{\"a}nde dar. Pauschalisierende Negativbewertungen der Vereine werden vom Verfasser jedoch als ungerechtfertigt und nicht sachangemessen zur{\"u}ckgewiesen.}, language = {de} } @phdthesis{Gause2011, author = {Gause, Clemens}, title = {Das System der Strategie : ein Vergleich zwischen Strategien biologischer Systeme und milit{\"a}rischen Strategien ; eine Modellentwicklung}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-50068}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Das vorliegende Buch vergleicht Strategien biologischer Systeme mit milit{\"a}rischen Strategien. Die zentrale Fragestellung ist dabei darauf gerichtet, ob es neben systemischen Gemeinsamkeiten auch gemeinsame oder {\"a}hnliche Strukturmuster und {\"a}hnliche Prozessabl{\"a}ufe beispielsweise sowohl im biologischen Abwehrmechanismus des Immunsystems und bei Insektenstaaten als auch bei Prozessen im Milit{\"a}r gibt. Vor diesem Hintergrund klaffen in der Theorie der Strategie, speziell in den Milit{\"a}rwissenschaften L{\"u}cken, denn der Systemansatz wird nicht konsequent beachtet, wie in diesem Buch mehrfach nachgewiesen ist. Von einem allgemeinen Verst{\"a}ndnis der Strategie als bewusstem planerischem Vorgehen ist Abstand zu nehmen. Ausgehend von der Methode der Analogie und des Vergleichs wird im theoretischen Teil dieses Buches die Allgemeine Systemtheorie erl{\"a}utert. Dabei werden der Begriff der Strategie ebenso wie die Begriffe Struktur und Prozess und Ans{\"a}tze aus der Kriegsphilosophie von Clausewitz untersucht. Den Ausgangspunkt und schließlich auch wieder den Endpunkt der {\"U}berlegungen bilden neben dem notwendigen weiten Verst{\"a}ndnis von Strategie, vor allem der Begriff der Organisation, ihrer Umwelt und der in diesem Zusammenhang bestehenden Wechselwirkung. Sowohl die Wechselwirkung von Umwelt und System als auch ihre Abh{\"a}ngigkeit durch strukturelle Kopplung werden beschrieben. Das Zusammenspiel und die daraus entstehende Komplexit{\"a}t der f{\"u}nf Komponenten der Wahrnehmung, der Information und der F{\"u}hrung im Zusammenhang der Komponenten von Raum und Zeit in einem sozialen System lassen die klassische Ziel-Mittel-Zweck-Beziehung Clausewitz´scher Strategiedefinition verk{\"u}rzt erscheinen. Anhand eines kurzen Rekurses der Methoden der Sozialen Netzwerkanalyse (SNA) wird der breite und tiefgehende Analyserahmen der Messung und Transparenzerreichung in Organisationen vorgestellt. Die SNA wird als Auspr{\"a}gung der Netzwerk- und Graphentheorie, in die Allgemeine Systemtheorie integriert. Sie bildet eine zukunftsweisende Methode der Untersuchung von Netzwerken wie etwa dem Internet (Facebook, Xing etc.). Der aufgezeigte Theorierahmen bildet dabei zugleich eine Methode f{\"u}r den Systemvergleich und kann als Vorgehensmodell k{\"u}nftiger Strategieentwicklung genutzt werden. Der anschließende Systemvergleich wird mit mehreren Beispielen durchgef{\"u}hrt. Ausgehend von der Zelle als Grundeinheit werden Strukturen und Prozesse des Immunsystems mit solchen in milit{\"a}rischen Strukturen, weil sie im Lauf der Evolution enorme Leistungen in Reaktion, Anpassung und Optimierung vollbracht haben. Der Vergleich geht der Frage nach, ob in diesen Bereichen der Strategie und Organisation systemische Grundregeln existieren. Das Beispiel der Wechselwirkung zwischen Parasit und Wirt zeigt, dass jeder Fortschritt und Sieg angesichts der Systemeinbettung von Strategie nur relativ wirken kann. Die Analogie zwischen Viren und Bakterien sowie die Entwicklung des Begriffs der sozialen Mimikry f{\"u}hren zu einem erweiterten Verst{\"a}ndnis der Strategie von Terroristen in sozialen Systemen. Verdeutlicht wird das Grundschema des T{\"a}uschens und Eindringens in Systeme sowie die Beeinflussung und Umsteuerung von Prozessen und Strukturen in einem System durch Kommunikation und Implementation von Codes. Am Beispiel des Immunsystems und der Bildung verschiedener Kommunikations- und Steuerungsmechanismen von Zellsystemen sowie Beispielen von Schwarmbildung und der Organisation sozialer Insekten werden eine Vielzahl heuristischer Hinweise f{\"u}r neue Ans{\"a}tze f{\"u}r die Organisation von Streitkr{\"a}ften und ihrer Steuerung gefunden. Neben der Erarbeitung eines grundlegenden Strategiebegriffs anhand von Wahrnehmung und Selektion als Grundprozess der Erzeugung von Strategie wird eine differenzierte Betrachtung von Begriffen wie Redundanz und Robustheit sowie eine relativierende Sichtweise von Risiko, Gefahr und Schaden gewonnen. Der Vergleich mit dem Immunsystems zeigt einfache Beispiele der Informationsspeicherung und -{\"u}bertragung, die zudem Bypassf{\"a}higkeiten sowie dezentrale Eskalations- und Deeskalationsprinzipien veranschaulichen. Dies er{\"o}ffnet in Analogie dieser Prinzipien einen weiten Raum Sicherheitsarchitekturen zu {\"u}berdenken und neu zu strukturieren. Zudem kann die r{\"a}umliche Ausbreitung von Information und Kr{\"a}ften als ein gemeinsames Grundproblem der Entwicklung und Wirksamkeit von Strategien sowohl in der Natur, als auch im Milit{\"a}r identifiziert werden. Die Betrachtung zeigt zudem wie Zellen mit fehlgeleiteten Prozessen und Strukturen umgehen. Die Analogie deutet auf das Erfordernis einer Ver{\"a}nderung im Umgang mit Fehlern und ihrer R{\"u}ckf{\"u}hr- und Umkehrbarkeit im weitesten Sinne. Das Buch er{\"o}ffnet {\"u}berdies ein neues Verst{\"a}ndnis von Staat, Gewaltenteilung und Institutionen in einem sozialen System. Die Ergebnisse sind auch auf andere Forschungsbereiche, Organisationen und unterschiedlichste soziale Systeme {\"u}bertragbar. Es er{\"o}ffnet sich ein breites Anwendungsspektrum f{\"u}r k{\"u}nftige strategische Untersuchungen.}, language = {de} } @phdthesis{Pfeifer2011, author = {Pfeifer, Sebastian}, title = {Neue Ans{\"a}tze zur Monomersequenzkontrolle in synthetischen Polymeren}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-51385}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Von der Natur geschaffene Polymere faszinieren Polymerforscher durch ihre spezielle auf eine bestimmte Aufgabe ausgerichtete Funktionalit{\"a}t. Diese ergibt sich aus ihrer Bausteinabfolge uber die Ausbildung von Uberstrukturen. Dazu z{\"a}hlen zum Beispiel Proteine (Eiweiße), aus deren Gestalt sich wichtige Eigenschaften ergeben. Diese Struktureigenschaftsbeziehung gilt ebenso f{\"u}r funktionelle synthetische Makromolek{\"u}le. Demzufolge kann die Kontrolle der Monomersequenz in Polymeren bedeutend f{\"u}r die resultierende Form des Polymermolek{\"u}ls sein. Obwohl die Synthese von synthetischen Polymeren mit der Komplexit{\"a}t und der Gr{\"o}ße von Proteinen in absehbarer Zeit wahrscheinlich nicht gelingen wird, k{\"o}nnen wir von der Natur lernen, um neuartige Polymermaterialien mit definierten Strukturen (Sequenzen) zu synthetisieren. Deshalb ist die Entwicklung neuer und besserer Techniken zur Strukturkontrolle von großem Interesse f{\"u}r die Synthese von Makromolek{\"u}len, die perfekt auf ihre Funktion zugeschnitten sind. Im Gegensatz zu der Anzahl fortgeschrittener Synthesestrategien zum Design aus- gefallener Polymerarchitekturen - wie zum Beispiel Sterne oder baumartige Polymere (Dendrimere) - gibt es vergleichsweise wenig Ans{\"a}tze zur echten Sequenzkontrolle in synthetischen Polymeren. Diese Arbeit stellt zwei unterschiedliche Techniken vor, mit denen die Monomersequenz innerhalb eines Polymers kontrolliert werden kann. Gerade bei den großtechnisch bedeutsamen radikalischen Polymerisationen ist die Sequenzkontrolle schwierig, weil die chemischen Bausteine (Monomere) sehr reaktiv sind. Im ersten Teil dieser Arbeit werden die Eigenschaften zweier Monomere (Styrol und N-substituiertes Maleinimid) geschickt ausgenutzt, um in eine Styrolkette definierte und lokal scharf abgegrenzte Funktionssequenzen einzubauen. Uber eine kontrollierte radikalische Polymerisationsmethode (ATRP) wurden in einer Ein-Topf-Synthese {\"u}ber das N-substituierte Maleinimid chemische Funktionen an einer beliebigen Stelle der Polystyrolkette eingebaut. Es gelang ebenfalls, vier unterschiedliche Funktionen in einer vorgegebenen Sequenz in die Polymerkette einzubauen. Diese Technik wurde an zwanzig verschiedenen N-substituierten Maleinimiden getestet, die meisten konnten erfolgreich in die Polymerkette integriert werden. In dem zweiten in dieser Arbeit vorgestellten Ansatz zur Sequenzkontrolle, wurde der schrittweise Aufbau eines Oligomers aus hydrophoben und hydrophilen Segmenten (ω-Alkin-Carbons{\"a}ure bzw. α-Amin-ω-Azid-Oligoethylenglycol) an einem l{\"o}slichen Polymertr{\"a}ger durchgef{\"u}hrt. Das Oligomer konnte durch die geschickte Auswahl der Verkn{\"u}pfungsreaktionen ohne Schutzgruppenstrategie synthetisiert werden. Der l{\"o}sliche Polymertr{\"a}ger aus Polystyrol wurde mittels ATRP selbst synthetisiert. Dazu wurde ein Startreagenz (Initiator) entwickelt, das in der Mitte einen s{\"a}urelabilen Linker, auf der einen Seite die initiierende Einheit und auf der anderen die Ankergruppe f{\"u}r die Anbindung des ersten Segments tr{\"a}gt. Der l{\"o}sliche Polymertr{\"a}ger erm{\"o}glichte einerseits die schrittweise Synthese in L{\"o}sung. Andererseits konnten {\"u}bersch{\"u}ssige Reagenzien und Nebenprodukte zwischen den Reaktionsschritten durch F{\"a}llung in einem Nicht-L{\"o}sungsmittel einfach abgetrennt werden. Der Linker erm{\"o}glichte die Abtrennung des Oligomers aus jeweils drei hydrophoben und hydrophilen Einheiten nach der Synthese.}, language = {de} } @phdthesis{Lorenz2011, author = {Lorenz, Haik}, title = {Texturierung und Visualisierung virtueller 3D-Stadtmodelle}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-53879}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Im Mittelpunkt dieser Arbeit stehen virtuelle 3D-Stadtmodelle, die Objekte, Ph{\"a}nomene und Prozesse in urbanen R{\"a}umen in digitaler Form repr{\"a}sentieren. Sie haben sich zu einem Kernthema von Geoinformationssystemen entwickelt und bilden einen zentralen Bestandteil geovirtueller 3D-Welten. Virtuelle 3D-Stadtmodelle finden nicht nur Verwendung als Mittel f{\"u}r Experten in Bereichen wie Stadtplanung, Funknetzplanung, oder L{\"a}rmanalyse, sondern auch f{\"u}r allgemeine Nutzer, die realit{\"a}tsnah dargestellte virtuelle St{\"a}dte in Bereichen wie B{\"u}rgerbeteiligung, Tourismus oder Unterhaltung nutzen und z. B. in Anwendungen wie GoogleEarth eine r{\"a}umliche Umgebung intuitiv erkunden und durch eigene 3D-Modelle oder zus{\"a}tzliche Informationen erweitern. Die Erzeugung und Darstellung virtueller 3D-Stadtmodelle besteht aus einer Vielzahl von Prozessschritten, von denen in der vorliegenden Arbeit zwei n{\"a}her betrachtet werden: Texturierung und Visualisierung. Im Bereich der Texturierung werden Konzepte und Verfahren zur automatischen Ableitung von Fototexturen aus georeferenzierten Schr{\"a}gluftbildern sowie zur Speicherung oberfl{\"a}chengebundener Daten in virtuellen 3D-Stadtmodellen entwickelt. Im Bereich der Visualisierung werden Konzepte und Verfahren f{\"u}r die multiperspektivische Darstellung sowie f{\"u}r die hochqualitative Darstellung nichtlinearer Projektionen virtueller 3D-Stadtmodelle in interaktiven Systemen vorgestellt. Die automatische Ableitung von Fototexturen aus georeferenzierten Schr{\"a}gluftbildern erm{\"o}glicht die Veredelung vorliegender virtueller 3D-Stadtmodelle. Schr{\"a}gluftbilder bieten sich zur Texturierung an, da sie einen Großteil der Oberfl{\"a}chen einer Stadt, insbesondere Geb{\"a}udefassaden, mit hoher Redundanz erfassen. Das Verfahren extrahiert aus dem verf{\"u}gbaren Bildmaterial alle Ansichten einer Oberfl{\"a}che und f{\"u}gt diese pixelpr{\"a}zise zu einer Textur zusammen. Durch Anwendung auf alle Oberfl{\"a}chen wird das virtuelle 3D-Stadtmodell fl{\"a}chendeckend texturiert. Der beschriebene Ansatz wurde am Beispiel des offiziellen Berliner 3D-Stadtmodells sowie der in GoogleEarth integrierten Innenstadt von M{\"u}nchen erprobt. Die Speicherung oberfl{\"a}chengebundener Daten, zu denen auch Texturen z{\"a}hlen, wurde im Kontext von CityGML, einem international standardisierten Datenmodell und Austauschformat f{\"u}r virtuelle 3D-Stadtmodelle, untersucht. Es wird ein Datenmodell auf Basis computergrafischer Konzepte entworfen und in den CityGML-Standard integriert. Dieses Datenmodell richtet sich dabei an praktischen Anwendungsf{\"a}llen aus und l{\"a}sst sich dom{\"a}nen{\"u}bergreifend verwenden. Die interaktive multiperspektivische Darstellung virtueller 3D-Stadtmodelle erg{\"a}nzt die gewohnte perspektivische Darstellung nahtlos um eine zweite Perspektive mit dem Ziel, den Informationsgehalt der Darstellung zu erh{\"o}hen. Diese Art der Darstellung ist durch die Panoramakarten von H. C. Berann inspiriert; Hauptproblem ist die {\"U}bertragung des multiperspektivischen Prinzips auf ein interaktives System. Die Arbeit stellt eine technische Umsetzung dieser Darstellung f{\"u}r 3D-Grafikhardware vor und demonstriert die Erweiterung von Vogel- und Fußg{\"a}ngerperspektive. Die hochqualitative Darstellung nichtlinearer Projektionen beschreibt deren Umsetzung auf 3D-Grafikhardware, wobei neben der Bildwiederholrate die Bildqualit{\"a}t das wesentliche Entwicklungskriterium ist. Insbesondere erlauben die beiden vorgestellten Verfahren, dynamische Geometrieverfeinerung und st{\"u}ckweise perspektivische Projektionen, die uneingeschr{\"a}nkte Nutzung aller hardwareseitig verf{\"u}gbaren, qualit{\"a}tssteigernden Funktionen wie z.~B. Bildraumgradienten oder anisotroper Texturfilterung. Beide Verfahren sind generisch und unterst{\"u}tzen verschiedene Projektionstypen. Sie erm{\"o}glichen die anpassungsfreie Verwendung g{\"a}ngiger computergrafischer Effekte wie Stilisierungsverfahren oder prozeduraler Texturen f{\"u}r nichtlineare Projektionen bei optimaler Bildqualit{\"a}t. Die vorliegende Arbeit beschreibt wesentliche Technologien f{\"u}r die Verarbeitung virtueller 3D-Stadtmodelle: Zum einen lassen sich mit den Ergebnissen der Arbeit Texturen f{\"u}r virtuelle 3D-Stadtmodelle automatisiert herstellen und als eigenst{\"a}ndige Attribute in das virtuelle 3D-Stadtmodell einf{\"u}gen. Somit tr{\"a}gt diese Arbeit dazu bei, die Herstellung und Fortf{\"u}hrung texturierter virtueller 3D-Stadtmodelle zu verbessern. Zum anderen zeigt die Arbeit Varianten und technische L{\"o}sungen f{\"u}r neuartige Projektionstypen f{\"u}r virtueller 3D-Stadtmodelle in interaktiven Visualisierungen. Solche nichtlinearen Projektionen stellen Schl{\"u}sselbausteine dar, um neuartige Benutzungsschnittstellen f{\"u}r und Interaktionsformen mit virtuellen 3D-Stadtmodellen zu erm{\"o}glichen, insbesondere f{\"u}r mobile Ger{\"a}te und immersive Umgebungen.}, language = {de} } @phdthesis{Krueger2011, author = {Kr{\"u}ger, Anne}, title = {Molekulare Charakterisierung von NE81 und CP75, zwei kernh{\"u}llen- und centrosomassoziierten Proteinen in Dictyostelium discoideum}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-53915}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Lamine bilden zusammen mit laminassoziierten Proteinen die nukle{\"a}re Lamina. Diese ist notwendig f{\"u}r die mechanische Stabilit{\"a}t von Zellen, die Organisation des Chromatins, der Genexpression, dem Fortgang des Zellzyklus und der Zellmigration. Die vielf{\"a}ltigen Funktionen der Lamine werden durch die Pathogenese von Laminopathien belegt. Zu diesen Erkrankungen, welche ihre Ursache in Mutationen innerhalb der laminkodierenden Gene, oder der Gene laminassoziierter bzw. laminprozessierender Proteine haben, z{\"a}hlen unter anderem das „Hutchinson-Gilford Progerie Syndrom", die „Emery-Dreifuss" Muskeldystrophie und die dilatierte Kardiomyopathie. Trotz der fundamentalen Bedeutung der Lamine, wurden diese bisher nur in Metazoen und nicht in einzelligen Organismen detektiert. Der am{\"o}bide Organismus Dictyostelium discoideum ist ein haploider Eukaryot, der h{\"a}ufig als Modellorganismus in den verschiedensten Bereichen der Zellbiologie eingesetzt wird. Mit der Entdeckung von NE81, einem Protein das mit der inneren Kernh{\"u}lle von Dictyostelium discoideum assoziiert ist, wurde erstmals ein Protein identifiziert, dass man aufgrund seiner Eigenschaften als lamin{\"a}hnliches Protein in einem niederen Eukaryoten bezeichnen kann. Diese Merkmale umfassen die Existenz lamintypischer Sequenzen, wie die CDK1-Phosphorylierungsstelle, direkt gefolgt von einer zentralen „Rod"-Dom{\"a}ne, sowie eine typische NLS und die hoch konservierte CaaX-Box. F{\"u}r die Etablierung des NE81 als „primitives" Lamin, wurden im Rahmen dieser Arbeit verschiedene Experimente durchgef{\"u}hrt, die strukturelle und funktionelle Gemeinsamkeiten zu den Laminen in anderen Organismen aufzeigen konnten. Die Herstellung eines polyklonalen Antik{\"o}rpers erm{\"o}glichte die Verifizierung der subzellul{\"a}ren Lokalisation des NE81 durch Elektronenmikroskopie und gab Einblicke in das Verhalten des endogenen Proteins innerhalb des Zellzyklus. Mit der Generierung von NE81-Nullmutanten konnte demonstriert werden, dass NE81 eine wichtige Rolle bei der nukle{\"a}ren Integrit{\"a}t und der Chromatinorganisation von Zellen spielt. Des Weiteren f{\"u}hrte die Expression von zwei CaaX-Box deletierten NE81 - Varianten dazu, den Einfluss des Proteins auf die mechanische Stabilit{\"a}t der Zellen nachweisen zu k{\"o}nnen. Auch die Bedeutung der hochkonservierten CaaX-Box f{\"u}r die Lokalisation des Proteins wurde durch die erhaltenen Ergebnisse deutlich. Mit der Durchf{\"u}hrung von FRAP-Experimente konnte außerdem die strukturgebende Funktion von NE81 innerhalb des Zellkerns bekr{\"a}ftigt werden. Zus{\"a}tzlich wurde im Rahmen dieser Arbeit damit begonnen, den Einfluss der Isoprenylcysteincarboxylmethyltransferase auf die Lokalisation des Proteins aufzukl{\"a}ren. Die Entdeckung eines lamin{\"a}hnlichen Proteins in einem einzelligen Organismus, der an der Schwelle zu den Metazoen steht, ist f{\"u}r die evolution{\"a}re Betrachtung der Entwicklung der sozialen Am{\"o}be und f{\"u}r die Erforschung der molekularen Basis von Laminopathien in einem einfachen Modellorganismus sehr interessant. Die Arbeit mit Dictyostelium discoideum k{\"o}nnte daher Wege aufzeigen, dass Studium der Laminopathien am Tiermodell drastisch zu reduzieren. In den letzten Jahren hat die Erforschung unbekannter Bestandteile des Centrosoms in Dictyostelium discoideum große Fortschritte gemacht. Eine zu diesem Zwecke von unserer Arbeitsgruppe durchgef{\"u}hrte Proteomstudie, f{\"u}hrte zur Identifizierung weiterer, potentiell centrosomaler Kandidatenproteine. Der zweite Teil dieser Arbeit besch{\"a}ftigt sich mit der Charakterisierung eines solchen Kandidatenproteins, dem CP75. Es konnte gezeigt werden, dass CP75 einen echten, centrosomalen Bestandteil darstellt, der mikrotubuli-unabh{\"a}ngig mit der Core Struktur des Zellorganells assoziiert ist. Weiterhin wurde deutlich, dass die Lokalisation am Centrosom in Abh{\"a}ngigkeit vom Zellzyklus erfolgt und CP75 vermutlich mit CP39, einem weiteren centrosomalen Core Protein, interagiert.}, language = {de} } @phdthesis{Graeff2011, author = {Gr{\"a}ff, Thomas}, title = {Soil moisture dynamics and soil moisture controlled runoff processes at different spatial scales : from observation to modelling}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-54470}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Soil moisture is a key state variable that controls runoff formation, infiltration and partitioning of radiation into latent and sensible heat. However, the experimental characterisation of near surface soil moisture patterns and their controls on runoff formation remains a challenge. This subject was one aspect of the BMBF-funded OPAQUE project (operational discharge and flooding predictions in head catchments). As part of that project the focus of this dissertation is on: (1) testing the methodology and feasibility of the Spatial TDR technology in producing soil moisture profiles along TDR probes, including an inversion technique of the recorded signal in heterogeneous field soils, (2) the analysis of spatial variability and temporal dynamics of soil moisture at the field scale including field experiments and hydrological modelling, (3) the application of models of different complexity for understanding soil moisture dynamics and its importance for runoff generation as well as for improving the prediction of runoff volumes. To fulfil objective 1, several laboratory experiments were conducted to understand the influence of probe rod geometry and heterogeneities in the sampling volume under different wetness conditions. This includes a detailed analysis on how these error sources affect retrieval of soil moisture profiles in soils. Concerning objective 2 a sampling strategy of two TDR clusters installed in the head water of the Wilde Weißeritz catchment (Eastern Ore Mountains, Germany) was used to investigate how well "the catchment state" can be characterised by means of distributed soil moisture data observed at the field scale. A grassland site and a forested site both located on gentle slopes were instrumented with two Spatial TDR clusters that consist of up to 39 TDR probes. Process understanding was gained by modelling the interaction of evapotranspiration and soil moisture with the hydrological process model CATFLOW. A field scale irrigation experiment was carried out to investigate near subsurface processes at the hillslope scale. The interactions of soil moisture and runoff formation were analysed using discharge data from three nested catchments: the Becherbach with a size of 2 km², the Rehefeld catchment (17 km²) and the superordinate Ammelsdorf catchment (49 km²). Statistical analyses including observations of pre-event runoff, soil moisture and different rainfall characteristics were employed to predict stream flow volume. On the different scales a strong correlation between the average soil moisture and the runoff coefficients of rainfall-runoff events could be found, which almost explains equivalent variability as the pre-event runoff. Furthermore, there was a strong correlation between surface soil moisture and subsurface wetness with a hysteretic behaviour between runoff soil moisture. To fulfil objective 3 these findings were used in a generalised linear model (GLM) analysis which combines state variables describing the catchments antecedent wetness and variables describing the meteorological forcing in order to predict event runoff coefficients. GLM results were compared to simulations with the catchment model WaSiM ETH. Hereby were the model results of the GLMs always better than the simulations with WaSiM ETH. The GLM analysis indicated that the proposed sampling strategy of clustering TDR probes in typical functional units is a promising technique to explore soil moisture controls on runoff generation and can be an important link between the scales. Long term monitoring of such sites could yield valuable information for flood warning and forecasting by identifying critical soil moisture conditions for the former and providing a better representation of the initial moisture conditions for the latter.}, language = {en} } @phdthesis{Heine2011, author = {Heine, Moreen}, title = {Transfer von E-Government-L{\"o}sungen : Wirkungen und Strategien}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-54155}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Der E-Government-Fortschritt wird nach wie vor durch redundante Entwicklungsaktivit{\"a}ten und isolierte, wenig interoperable L{\"o}sungen gehemmt. Die Herausforderung liegt weniger in der Entwicklung und Einf{\"u}hrung leistungsstarker Informationssysteme, sondern in der Verbreitung bestehender L{\"o}sungen. Die Arbeit identifiziert m{\"o}gliche Strategien f{\"u}r den Transfer von E-Government-L{\"o}sungen zwischen Verwaltungen gleicher wie auch verschiedener f{\"o}deraler Ebene. Es werden Konzepte zur Diffusion von Innovationen, zum Technologie- wie auch Politiktransfer herangezogen. Weiter werden drei umfangreiche Fallstudien vorgestellt. Sie f{\"u}hren zu transferhemmenden wie auch f{\"o}rdernden Faktoren und somit zu Gestaltungsoptionen f{\"u}r erfolgreiche Transferprozesse unter den vielf{\"a}ltigen Rahmenbedingungen im {\"o}ffentlichen Sektor.}, language = {de} } @phdthesis{Boeche2011, author = {Boeche, Corrado}, title = {Chemical gradients in the Milky Way from unsupervised chemical abundances measurements of the RAVE spectroscopic data set}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52478}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {The present thesis was born and evolved within the RAdial Velocity Experiment (RAVE) with the goal of measuring chemical abundances from the RAVE spectra and exploit them to investigate the chemical gradients along the plane of the Galaxy to provide constraints on possible Galactic formation scenarios. RAVE is a large spectroscopic survey which aims to observe spectroscopically ~10^6 stars by the end of 2012 and measures their radial velocities, atmospheric parameters and chemical abundances. The project makes use of the UK Schmidt telescope at Australian Astronomical Observatory (AAO) in Siding Spring, Australia, equipped with the multiobject spectrograph 6dF. To date, RAVE collected and measured more than 450,000 spectra. The precision of the chemical abundance estimations depends on the reliability of the atomic and atmosphere parameters adopted (in particular the oscillator strengths of the absorption lines and the effective temperature, gravity, and metallicity of the stars measured). Therefore we first identified 604 absorption lines in the RAVE wavelength range and refined their oscillator strengths with an inverse spectral analysis. Then, we improved the RAVE stellar parameters by modifying the RAVE pipeline and the spectral library the pipeline rely on. The modifications removed some systematic errors in stellar parameters discovered during this work. To obtain chemical abundances, we developed two different processing pipelines. Both of them perform chemical abundances measurements by assuming stellar atmospheres in Local Thermodynamic Equilibrium (LTE). The first one determines elements abundances from equivalent widths of absorption lines. Since this pipeline showed poor sensibility on abundances relative to iron, it has been superseded. The second one exploits the chi^2 minimization technique between observed and model spectra. Thanks to its precision, it has been adopted for the creation of the RAVE chemical catalogue. This pipeline provides abundances with uncertains of about ~0.2dex for spectra with signal-to-noise ratio S/N>40 and ~0.3dex for spectra with 20>S/N>40. For this work, the pipeline measured chemical abundances up to 7 elements for 217,358 RAVE stars. With these data we investigated the chemical gradients along the Galactic radius of the Milky Way. We found that stars with low vertical velocities |W| (which stay close to the Galactic plane) show an iron abundance gradient in agreement with previous works (~-0.07\$ dex kpc^-1) whereas stars with larger |W| which are able to reach larger heights above the Galactic plane, show progressively flatter gradients. The gradients of the other elements follow the same trend. This suggests that an efficient radial mixing acts in the Galaxy or that the thick disk formed from homogeneous interstellar matter. In particular, we found hundreds of stars which can be kinetically classified as thick disk stars exhibiting a chemical composition typical of the thin disk. A few stars of this kind have already been detected by other authors, and their origin is still not clear. One possibility is that they are thin disk stars kinematically heated, and then underwent an efficient radial mixing process which blurred (and so flattened) the gradient. Alternatively they may be a transition population" which represents an evolutionary bridge between thin and thick disk. Our analysis shows that the two explanations are not mutually exclusive. Future follow-up high resolution spectroscopic observations will clarify their role in the Galactic disk evolution.}, language = {en} } @phdthesis{ValverdeSerrano2011, author = {Valverde Serrano, Clara}, title = {Self-assembly behavior in hydrophilic block copolymers}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-54163}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Block copolymers are receiving increasing attention in the literature. Reports on amphiphilic block copolymers have now established the basis of their self-assembly behavior: aggregate sizes, morphologies and stability can be explained from the absolute and relative block lengths, the nature of the blocks, the architecture and also solvent selectiveness. In water, self-assembly of amphiphilic block copolymers is assumed to be driven by the hydrophobic. The motivation of this thesis is to study the influence on the self-assembly in water of A b B type block copolymers (with A hydrophilic) of the variation of the hydrophilicity of B from non-soluble (hydrophobic) to totally soluble (hydrophilic). Glucose-modified polybutadiene-block-poly(N-isopropylacrylamide) copolymers were prepared and their self-assembly behavior in water studied. The copolymers formed vesicles with an asymmetric membrane with a glycosylated exterior and poly(N-isopropylacrylamide) on the inside. Above the low critical solution temperature (LCST) of poly(N-isopropylacrylamide), the structure collapsed into micelles with a hydrophobic PNIPAM core and glycosylated exterior. This collapse was found to be reversible. As a result, the structures showed a temperature-dependent interaction with L-lectin proteins and were shown to be able to encapsulate organic molecules. Several families of double hydrophilic block copolymers (DHBC) were prepared. The blocks of these copolymers were biopolymers or polymer chimeras used in aqueous two-phase partition systems. Copolymers based on dextran and poly(ethylene glycol) blocks were able to form aggregates in water. Dex6500-b-PEG5500 copolymer spontaneously formed vesicles with PEG as the "less hydrophilic" barrier and dextran as the solubilizing block. The aggregates were found to be insensitive to the polymer's architecture and concentration (in the dilute range) and only mildly sensitive to temperature. Variation of the block length, yielded different morphologies. A longer PEG chain seemed to promote more curved aggregates following the inverse trend usually observed in amphiphilic block copolymers. A shorter dextran promoted vesicular structures as usually observed for the amphiphilic counterparts. The linking function was shown to have an influence of the morphology but not on the self-assembly capability in itself. The vesicles formed by dex6500-b-PEG5500 showed slow kinetics of clustering in the presence of Con A lectin. In addition both dex6500-b-PEG5500 and its crosslinked derivative were able to encapsulate fluorescent dyes. Two additional dextran-based copolymers were synthesized, dextran-b-poly(vinyl alcohol) and dextran-b-poly(vinyl pyrrolidone). The study of their self-assembly allowed to conclude that aqueous two-phase systems (ATPS) is a valid source of inspiration to conceive DHBCs capable of self-assembling. In the second part the principle was extended to polypeptide systems with the synthesis of a poly(N-hydroxyethylglutamine)-block-poly(ethylene glycol) copolymer. The copolymer that had been previously reported to have emulsifying properties was able to form vesicles by direct dissolution of the solid in water. Last, a series of thermoresponsive copolymers were prepared, dextran-b-PNIPAMm. These polymers formed aggregates below the LCST. Their structure could not be unambiguously elucidated but seemed to correspond to vesicles. Above the LCST, the collapse of the PNIPAM chains induced the formation of stable objects of several hundreds of nanometers in radius that evolved with increasing temperature. The cooling of these solution below LCST restored the initial aggregates. This self-assembly of DHBC outside any stimuli of pH, ionic strength, or temperature has only rarely been described in the literature. This work constituted the first formal attempt to frame the phenomenon. Two reasons were accounted for the self-assembly of such systems: incompatibility of the polymer pairs forming the two blocks (enthalpic) and a considerable solubility difference (enthalpic and entropic). The entropic contribution to the positive Gibbs free energy of mixing is believed to arise from the same loss of conformational entropy that is responsible for "the hydrophobic effect" but driven by a competition for water of the two blocks. In that sense this phenomenon should be described as the "hydrophilic effect".}, language = {en} } @phdthesis{Jiang2011, author = {Jiang, Yuan}, title = {Precursor phases in non-classical crystallization}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52460}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {The main objective of this thesis is to understand molecular crystallization as a multistep process with or without polymeric additives, including transient liquid-liquid phase separation, nanocrystal nucleation within the dense phase, and subsequent nanocrystal self-assembly or self-organization in sequence. The thesis starts with a quaternary model system, containing DL-Glutamic acid (Glu), polyethyleneimine (PEI), water, and EtOH, for the understanding of multistep precipitation of Glu with PEI as an additive. The experiments were performed by mixing Glu-PEI aqueous solution with a non-solvent EtOH. First, the phase diagram of the quaternary system is determined, obtaining precipitate, coacervates, or homogeneous mixtures by varying Glu/PEI w/w and water/EtOH v/v. Coacervation is observed to occur over a wide range of Glu/PEI with various volumes. The composition of coacervates is conveniently characterized by nuclear magnetic resonance spectroscopy. The observed coacervates are thermodynamically stable phases rich in solute, which is different from metastable polymer-induced liquid precursors. The combination of atomic force microscopy, small angle scattering, and ξ-potential measurements confirms the coexistence of monomers and Glu/PEI complexes and the aggregation of complexes in Glu-PEI-water systems. This suggests that there might be a direct structural transformation between the Glu-PEI complexes in aqueous solution and the metastable liquid precursors in a water-EtOH mixture. The multistep mechanism of Glu precipitation with PEI as an additive is investigated thereafter. The combination of stopped flow and small angle scattering demonstrates that the initially formed liquid precursors pass through an alteration of growth and coalescence. Combined with results from optical microscopy and scanning electron microscopy, the nucleation of nanoplatelets happens within each liquid precursor droplet, and nanoplatelets reorient themselves and self-organize into a radial orientation in the crystalline microspheres. The recipe was then extended to the precipitation of organics in other oppositely charged amino acid-polyelectrolyte systems. After the success in preparing hierarchical microspheres in solution, the similar recipe can be extended to the preparation of patterned thin films on substrate. By dipping a quaternary DL-Lys·HCl (Lys)-polyacrylic acid (PAA)-water-EtOH dispersion on a hydrophilic slide, the fast evaporation process of the volatile solvent EtOH is responsible for the homogeneous nucleation of NPs. Then, the following complete evaporation causes the mesocrystallization of a continuous spherulitic thin film along the receding line of the liquid, which again transforms into a mesocrystalline thin film. Furthermore, annealing is used to optimize the property of mesocrystalline thin films. As evaporation is a non-equilibrium process, it can be used to tune the kinetics of crystallization. Therefore, hierarchical or periodical thin films are obtainable by starting the evaporation from microspheres recrystallization, obtaining mesocrystalline thin films with 4 hierarchy levels. The results reveal that evaporation provides an easy but effective way for the formation of patterned structures via the positioning of NPs after their fast nucleation, resulting in different kinds of patterns by controlling the concentration of NPs, solvent evaporation rate, and other physical forces. Non-classical crystallization is not limited to crystallizations with polymeric additives. We also observed the nucleation and growth of a new molecular layer on the growing DL-Glu·H2O crystals from a supersaturated mother liquor by using an in-situ atomic force microscopy (AFM), where the nucleation and growth of a molecular layer proceed via amorphous nanoparticle (NP) attachment and relaxation process before the observation of the growth of a newly formed molecular layer. NP attachment to the crystal surface is too fast to observe by using in-situ AFM. The height shrinkage of NPs, combined to the structural transformation from 3D amorphous NPs to 2D crystalline layer, is observed during the relaxation process. The nucleation and growth of a newly formed molecular layer from NP relaxation is contradictory to the classical nucleation theory, which hypothesizes that nuclei show the same crystallographic properties as a bulk crystal. The formation of a molecular layer by NP attachment and relaxation rather than attachment of single molecules provides a different picture from the currently held classical nucleation and growth theory regarding the growth of single crystals from solution.}, language = {de} } @phdthesis{Kraupner2011, author = {Kraupner, Alexander}, title = {Neuartige Synthese magnetischer Nanostrukturen: Metallcarbide und Metallnitride der {\"U}bergangsmetalle Fe/Co/Ni}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52314}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Magnetische Nanopartikel bieten ein großes Potential, da sie einerseits die Eigenschaften ihrer Bulk-Materialien besitzen und anderseits, auf Grund ihrer Gr{\"o}ße, {\"u}ber komplett unterschiedliche magnetische Eigenschaften verf{\"u}gen k{\"o}nnen; Superparamagnetismus ist eine dieser Eigenschaften. Die meisten etablierten Anwendungen magnetischer Nanopartikel basieren heutzutage auf Eisenoxiden. Diese bieten gute magnetische Eigenschaften, sind chemisch relativ stabil, ungiftig und lassen sich auf vielen Synthesewegen relativ einfach herstellen. Die magnetischen Eigenschaften der Eisenoxide sind materialabh{\"a}ngig aber begrenzt, weshalb nach anderen Verbindungen mit besseren Eigenschaften gesucht werden muss. Eisencarbid (Fe3C) kann eine dieser Verbindungen sein. Dieses besitzt vergleichbare positive Eigenschaften wie Eisenoxid, jedoch viel bessere magnetische Eigenschaften, speziell eine h{\"o}here S{\"a}ttigungsmagnetisierung. Bis jetzt wurde Fe3C haupts{\"a}chlich in Gasphasenabscheidungsprozessen synthetisiert oder als Nebenprodukt bei der Synthese von Kohlenstoffstrukturen gefunden. Eine Methode, mit der gezielt Fe3C-Nanopartikel und andere Metallcarbide synthetisiert werden k{\"o}nnen, ist die „Harnstoff-Glas-Route". Neben den Metallcarbiden k{\"o}nnen mit dieser Methode auch die entsprechenden Metallnitride synthetisiert werden, was die breite Anwendbarkeit der Methode unterstreicht. Die „Harnstoff-Glas-Route" ist eine Kombination eines Sol-Gel-Prozesses mit einer anschließenden carbothermalen Reduktion/Nitridierung bei h{\"o}heren Temperaturen. Sie bietet den Vorteil einer einfachen und schnellen Synthese verschiedener Metallcarbide/nitride. Der Schwerpunkt in dieser Arbeit lag auf der Synthese von Eisencarbiden/nitriden, aber auch Nickel und Kobalt wurden betrachtet. Durch die Variation der Syntheseparameter konnten verschiedene Eisencarbid/nitrid Nanostrukturen synthetisiert werden. Fe3C-Nanopartikel im Gr{\"o}ßenbereich von d = 5 - 10 nm konnten, durch die Verwendung von Eisenchlorid, hergestellt werden. Die Nanopartikel weisen durch ihre geringe Gr{\"o}ße superparamagnetische Eigenschaften auf und besitzen, im Vergleich zu Eisenoxid Nanopartikeln im gleichen Gr{\"o}ßenbereich, eine h{\"o}here S{\"a}ttigungsmagnetisierung. Diese konnten in fortf{\"u}hrenden Experimenten erfolgreich in ionischen Fl{\"u}ssigkeiten und durch ein Polymer-Coating, im w{\"a}ssrigen Medium, dispergiert werden. Desweiteren wurde durch ein Templatieren mit kolloidalem Silika eine mesopor{\"o}se Fe3C-Nanostruktur hergestellt. Diese konnte erfolgreich in der katalytischen Spaltung von Ammoniak getestet werden. Mit der Verwendung von Eisenacetylacetonat konnten neben Fe3C-Nanopartikeln, nur durch Variation der Reaktionsparameter, auch Fe7C3- und Fe3N-Nanopartikel synthetisiert werden. Speziell f{\"u}r die Fe3C-Nanopartikel konnte die S{\"a}ttigungsmagnetisierung, im Vergleich zu den mit Eisenchlorid synthetisierten Nanopartikeln, nochmals erh{\"o}ht werden. Versuche mit Nickelacetat f{\"u}hrten zu Nickelnitrid (Ni3N) Nanokristallen. Eine zus{\"a}tzliche metallische Nickelphase f{\"u}hrte zu einer Selbstorganisation der Partikel in Scheiben-{\"a}hnliche {\"U}berstrukturen. Mittels Kobaltacetat konnten, in Sph{\"a}ren aggregierte, metallische Kobalt Nanopartikel synthetisiert werden. Kobaltcarbid/nitrid war mit den gegebenen Syntheseparametern nicht zug{\"a}nglich.}, language = {de} } @phdthesis{Kopetzki2011, author = {Kopetzki, Daniel}, title = {Exploring hydrothermal reactions : from prebiotic synthesis to green chemistry}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52581}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {In this thesis chemical reactions under hydrothermal conditions were explored, whereby emphasis was put on green chemistry. Water at high temperature and pressure acts as a benign solvent. Motivation to work under hydrothermal conditions was well-founded in the tunability of physicochemical properties with temperature, e.g. of dielectric constant, density or ion product, which often resulted in surprising reactivity. Another cornerstone was the implementation of the principles of green chemistry. Besides the use of water as solvent, this included the employment of a sustainable feedstock and the sensible use of resources by minimizing waste and harmful intermediates and additives. To evaluate the feasibility of hydrothermal conditions for chemical synthesis, exemplary reactions were performed. These were carried out in a continuous flow reactor, allowing for precise control of reaction conditions and kinetics measurements. In most experiments a temperature of 200 °C in combination with a pressure of 100 bar was chosen. In some cases the temperature was even raised to 300 °C. Water in this subcritical range can also be found in nature at hydrothermal vents on the ocean floor. On the primitive earth, environments with such conditions were however present in larger numbers. Therefore we tested whether biologically important carbohydrates could be formed at high temperature from the simple, probably prebiotic precursor formaldehyde. Indeed, this formose reaction could be carried out successfully, although the yield was lower compared to the counterpart reaction under ambient conditions. However, striking differences regarding selectivity and necessary catalysts were observed. At moderate temperatures bases and catalytically active cations like Ca2+ are necessary and the main products are hexoses and pentoses, which accumulate due to their higher stability. In contrast, in high-temperature water no catalyst was necessary but a slightly alkaline solution was sufficient. Hexoses were only formed in negligible amounts, whereas pentoses and the shorter carbohydrates accounted for the major fraction. Amongst the pentoses there was some preference for the formation of ribose. Even deoxy sugars could be detected in traces. The observation that catalysts can be avoided was successfully transferred to another reaction. In a green chemistry approach platform chemicals must be produced from sustainable resources. Carbohydrates can for instance be employed as a basis. They can be transformed to levulinic acid and formic acid, which can both react via a transfer hydrogenation to the green solvent and biofuel gamma-valerolactone. This second reaction usually requires catalysis by Ru or Pd, which are neither sustainable nor low-priced. Under hydrothermal conditions these heavy metals could be avoided and replaced by cheap salts, taking advantage of the temperature dependence of the acid dissociation constant. Simple sulfate was recognized as a temperature switchable base. With this additive high yield could be achieved by simultaneous prevention of waste. In contrast to conventional bases, which create salt upon neutralization, a temperature switchable base becomes neutral again when cooled down and thus can be reused. This adds another sustainable feature to the high atom economy of the presented hydrothermal synthesis. In a last study complex decomposition pathways of biomass were investigated. Gas chromatography in conjunction with mass spectroscopy has proven to be a powerful tool for the identification of unknowns. It was observed that several acids were formed when carbohydrates were treated with bases at high temperature. This procedure was also applied to digest wood. Afterwards it was possible to fermentate the solution and a good yield of methane was obtained. This has to be regarded in the light of the fact that wood practically cannot be used as a feedstock in a biogas factory. Thus the hydrothermal pretreatment is an efficient means to employ such materials as well. Also the reaction network of the hydrothermal decomposition of glycine was investigated using isotope-labeled compounds as comparison for the unambiguous identification of unknowns. This refined analysis allowed the identification of several new molecules and pathways, not yet described in literature. In summary several advantages could be taken from synthesis in high-temperature water. Many catalysts, absolutely necessary under ambient conditions, could either be completely avoided or replaced by cheap, sustainable alternatives. In this respect water is not only a green solvent, but helps to prevent waste and preserves resources.}, language = {en} } @phdthesis{Kubo2011, author = {Kubo, Shiori}, title = {Nanostructured carbohydrate-derived carbonaceous materials}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-53157}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Nanoporous carbon materials are widely used in industry as adsorbents or catalyst supports, whilst becoming increasingly critical to the developing fields of energy storage / generation or separation technologies. In this thesis, the combined use of carbohydrate hydrothermal carbonisation (HTC) and templating strategies is demonstrated as an efficient route to nanostructured carbonaceous materials. HTC is an aqueous-phase, low-temperature (e.g. 130 - 200 °C) carbonisation, which proceeds via dehydration / poly-condensation of carbon precursors (e.g. carbohydrates and their derivatives), allowing facile access to highly functional carbonaceous materials. Whilst possessing utile, modifiable surface functional groups (e.g. -OH and -C=O-containing moieties), materials synthesised via HTC typically present limited accessible surface area or pore volume. Therefore, this thesis focuses on the development of fabrication routes to HTC materials which present enhanced textural properties and well-defined porosity. In the first discussed synthesis, a combined hard templating / HTC route was investigated using a range of sacrificial inorganic templates (e.g. mesoporous silica beads and macroporous alumina membranes (AAO)). Via pore impregnation of mesoporous silica beads with a biomass-derived carbon source (e.g. 2-furaldehyde) and subsequent HTC at 180 oC, an inorganic / carbonaceous hybrid material was produced. Removal of the template component by acid etching revealed the replication of the silica into mesoporous carbonaceous spheres (particle size ~ 5 μm), representing the inverse morphological structure of the original inorganic body. Surface analysis (e.g. FTIR) indicated a material decorated with hydrophilic (oxygenated) functional groups. Further thermal treatment at increasingly elevated temperatures (e.g. at 350, 550, 750 oC) under inert atmosphere allowed manipulation of functionalities from polar hydrophilic to increasingly non-polar / hydrophobic structural motifs (e.g. extension of the aromatic / pseudo-graphitic nature), thus demonstrating a process capable of simultaneous control of nanostructure and surface / bulk chemistry. As an extension of this approach, carbonaceous tubular nanostructures with controlled surface functionality were synthesised by the nanocasting of uniform, linear macropores of an AAO template (~ 200 nm). In this example, material porosity could be controlled, showing increasingly microporous tube wall features as post carbonisation temperature increased. Additionally, by taking advantage of modifiable surface groups, the introduction of useful polymeric moieties (i.e. grafting of thermoresponsive poly(N-isopropylacrylamide)) was also demonstrated, potentially enabling application of these interesting tubular structures in the fields of biotechnology (e.g. enzyme immobilization) and medicine (e.g. as drug micro-containers). Complimentary to these hard templating routes, a combined HTC / soft templating route for the direct synthesis of ordered porous carbonaceous materials was also developed. After selection of structural directing agents and optimisation of synthesis composition, the F127 triblock copolymer (i.e. ethylene oxide (EO)106 propylene oxide (PO)70 ethylene oxide (EO)106) / D-Fructose system was extensively studied. D-Fructose was found to be a useful carbon precursor as the HTC process could be performed at 130 oC, thus allowing access to stable micellular phase. Thermolytic template removal from the synthesised ordered copolymer / carbon composite yielded functional cuboctahedron single crystalline-like particles (~ 5 μm) with well ordered pore structure of a near perfect cubic Im3m symmetry. N2 sorption analysis revealed a predominantly microporous carbonaceous material (i.e. Type I isotherm, SBET = 257 m2g-1, 79 \% microporosity) possessing a pore size of ca. 0.9 nm. The addition of a simple pore swelling additive (e.g. trimethylbenzene (TMB)) to this system was found to direct pore size into the mesopore size domain (i.e. Type IV isotherm, SBET = 116 m2g-1, 60 \% mesoporosity) generating pore size of ca. 4 nm. It is proposed that in both cases as HTC proceeds to generate a polyfuran-like network, the organised block copolymer micellular phase is essentially "templated", either via hydrogen bonding between hydrophilic poly(EO) moiety and the carbohydrate or via hydrophobic interaction between hydrophobic poly(PO) moiety and forming polyfuran-like network, whilst the additive TMB presumably interact with poly(PO) moieties, thus swelling the hydrophobic region expanding the micelle template size further into the mesopore range.}, language = {en} } @phdthesis{Tan2011, author = {Tan, Irene}, title = {Towards greener stationary phases : thermoresponsive and carbonaceous chromatographic supports}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-53130}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Polymers which are sensitive towards external physical, chemical and electrical stimuli are termed as 'intelligent materials' and are widely used in medical and engineering applications. Presently, polymers which can undergo a physical change when heat is applied at a certain temperature (cloud point) in water are well-studied for this property in areas of separation chemistry, gene and drug delivery and as surface modifiers. One example of such a polymer is the poly (N-isopropylacrylamide) PNIPAAM, where it is dissolved well in water below 32 oC, while by increasing the temperature further leads to its precipitation. In this work, an alternative polymer poly (2-(2-methoxy ethoxy)ethyl methacrylate-co- oligo(ethylene glycol) methacrylate) (P(MEO2MA-co-OEGMA)) is studied due to its biocompatibility and the ability to vary its cloud points in water. When a layer of temperature responsive polymer was attached to a single continuous porous piece of silica-based material known as a monolith, the thermoresponsive characteristic was transferred to the column surfaces. The hybrid material was demonstrated to act as a simple temperature 'switch' in the separation of a mixture of five steroids under water. Different analytes were observed to be separated under varying column temperatures. Furthermore, more complex biochemical compounds such as proteins were also tested for separation. The importance of this work is attributed to separation processes utilizing environmentally friendly conditions, since harsh chemical environments conventionally used to resolve biocompounds could cause their biological activities to be rendered inactive.}, language = {en} } @phdthesis{Popovic2011, author = {Popovic, Jelena}, title = {Novel lithium iron phosphate materials for lithium-ion batteries}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-54591}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {Conventional energy sources are diminishing and non-renewable, take million years to form and cause environmental degradation. In the 21st century, we have to aim at achieving sustainable, environmentally friendly and cheap energy supply by employing renewable energy technologies associated with portable energy storage devices. Lithium-ion batteries can repeatedly generate clean energy from stored materials and convert reversely electric into chemical energy. The performance of lithium-ion batteries depends intimately on the properties of their materials. Presently used battery electrodes are expensive to be produced; they offer limited energy storage possibility and are unsafe to be used in larger dimensions restraining the diversity of application, especially in hybrid electric vehicles (HEVs) and electric vehicles (EVs). This thesis presents a major progress in the development of LiFePO4 as a cathode material for lithium-ion batteries. Using simple procedure, a completely novel morphology has been synthesized (mesocrystals of LiFePO4) and excellent electrochemical behavior was recorded (nanostructured LiFePO4). The newly developed reactions for synthesis of LiFePO4 are single-step processes and are taking place in an autoclave at significantly lower temperature (200 deg. C) compared to the conventional solid-state method (multi-step and up to 800 deg. C). The use of inexpensive environmentally benign precursors offers a green manufacturing approach for a large scale production. These newly developed experimental procedures can also be extended to other phospho-olivine materials, such as LiCoPO4 and LiMnPO4. The material with the best electrochemical behavior (nanostructured LiFePO4 with carbon coating) was able to delive a stable 94\% of the theoretically known capacity.}, language = {en} } @phdthesis{tenBrummelhuis2011, author = {ten Brummelhuis, Niels}, title = {Self-assembly of cross-linked polymer micelles into complex higher-order aggregates}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52320}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {The creation of complex polymer structures has been one of the major research topics over the last couple of decades. This work deals with the synthesis of (block co-)polymers, the creation of complex and stimuli-responsive aggregates by self-assembly, and the cross-linking of these structures. Also the higher-order self-assembly of the aggregates is investigated. The formation of poly-2-oxazoline based micelles in aqueous solution and their simultaneous functionalization and cross-linking using thiol-yne chemistry is e.g. presented. By introducing pH responsive thiols in the core of the micelles the influence of charged groups in the core of micelles on the entire structure can be studied. The charging of these groups leads to a swelling of the core and a decrease in the local concentration of the corona forming block (poly(2-ethyl-2-oxazoline)). This decrease in concentration yields a shift in the cloud point temperature to higher temperatures for this Type I thermoresponsive polymer. When the swelling of the core is prohibited, e.g. by the introduction of sufficient amounts of salt, this behavior disappears. Similar structures can be prepared using complex coacervate core micelles (C3Ms) built through the interaction of weakly acidic and basic polymer blocks. The advantage of these structures is that two different stabilizing blocks can be incorporated, which allows for more diverse and complex structures and behavior of the micelles. Using block copolymers with either a polyanionic or a polycationic block C3Ms could be created with a corona which contains two different soluble nonionic polymers, which either have a mixed corona or a Janus type corona, depending on the polymers that were chosen. Using NHS and EDC the micelles could easily be cross-linked by the formation of amide bonds in the core of the micelles. The higher-order self-assembly behavior of these core cross-linked complex coacervate core micelles (C5Ms) was studied. Due to the cross-linking the micelles are stabilized towards changes in pH and ionic strength, but polymer chains are also no longer able to rearrange. For C5Ms with a mixed corona likely network structures were formed upon the collapse of the thermoresponsive poly(N-isopropylacrylamide) (PNIPAAm), whereas for Janus type C5Ms well defined spherical aggregates of micelles could be obtained, depending on the pH of the solution. Furthermore it could be shown that Janus micelles can adsorb onto inorganic nanoparticles such as colloidal silica (through a selective interaction between PEO and the silica surface) or gold nanoparticles (by the binding of thiol end-groups). Asymmetric aggregates were also formed using the streptavidin-biotin binding motive. This is achieved by using three out of the four binding sites of streptavidin for the binding of one three-arm star polymer, end-functionalized with biotin groups. A homopolymer with one biotin end-group can be used to occupy the last position. This binding of two different polymers makes it possible to create asymmetric complexes. This phase separation is theoretically independent of the kind of polymer since the structure of the protein is the driving force, not the intrinsic phase separation between polymers. Besides Janus structures also specific cross-linking can be achieved by using other mixing ratios.}, language = {en} } @phdthesis{Fellinger2011, author = {Fellinger, Tim-Patrick}, title = {Hydrothermal and ionothermal carbon structures}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-57825}, school = {Universit{\"a}t Potsdam}, year = {2011}, abstract = {The needs for sustainable energy generation, but also a sustainable chemistry display the basic motivation of the current thesis. By different single investigated cases, which are all related to the element carbon, the work can be devided into two major topics. At first, the sustainable synthesis of "useful" carbon materials employing the process of hydrothermal carbonisation (HC) is described. In the second part, the synthesis of heteroatom - containing carbon materials for electrochemical and fuel cell applications employing ionic liquid precursors is presented. On base of a thorough review of the literature on hydrothermolysis and hydrothermal carbonisation of sugars in addition to the chemistry of hydroxymethylfurfural, mechanistic considerations of the formation of hydrothermal carbon are proposed. On the base of these reaction schemes, the mineral borax, is introduced as an additive for the hydrothermal carbonisation of glucose. It was found to be a highly active catalyst, resulting in decreased reaction times and increased carbon yields. The chemical impact of borax, in the following is exploited for the modification of the micro- and nanostructure of hydrothermal carbon. From the borax - mediated aggregation of those primary species, widely applicable, low density, pure hydrothermal carbon aerogels with high porosities and specific surface areas are produced. To conclude the first section of the thesis, a short series of experiments is carried out, for the purpose of demonstrating the applicability of the HC model to "real" biowaste i.e. watermelon waste as feedstock for the production of useful materials. In part two cyano - containing ionic liquids are employed as precursors for the synthesis of high - performance, heteroatom - containing carbon materials. By varying the ionic liquid precursor and the carbonisation conditions, it was possible to design highly active non - metal electrocatalyst for the reduction of oxygen. In the direct reduction of oxygen to water (like used in polymer electrolyte fuel cells), compared to commercial platinum catalysts, astonishing activities are observed. In another example the selective and very cost efficient electrochemical synthesis of hydrogen peroxide is presented. In a last example the synthesis of graphitic boron carbon nitrides from the ionic liquid 1 - Ethyl - 3 - methylimidazolium - tetracyanoborate is investigated in detail. Due to the employment of unreactive salts as a new tool to generate high surface area these materials were first time shown to be another class of non - precious metal oxygen reduction electrocatalyst.}, language = {en} }