TY - BOOK A1 - Murr, Rüdiger T1 - Characterization of Lévy Processes by a duality formula and related results T3 - Preprint / Universität Potsdam, Institut für Mathematik, Mathematische Statistik un Y1 - 2011 SN - 1613-3307 PB - Univ. CY - Potsdam ER - TY - GEN A1 - Priewe, Marc T1 - Walter W. Woodward, Prospero´s America: John Winthrop, Jr., Alchemy, and the Creation of New England Culture, 1606-1676 / [rezensiert von] Marc Priewe N2 - Rezensiertes Werk: Walter W. Woodward: Prospero’s America: John Winthrop, Jr., Alchemy, and the Creation of New England Culture, 1606-1676. Chapel Hill: University of North Carolina Press, 2010. Hb. 336pp. ISBN 978-0-8078-3301-8. T3 - Zweitveröffentlichungen der Universität Potsdam : Philosophische Reihe - 104 Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93713 SP - 199 EP - 200 ER - TY - GEN A1 - Rössler, Patrick A1 - Bomhoff, Jana A1 - Haschke, Josef Ferdinand A1 - Kersten, Jan A1 - Müller, Rüdiger T1 - Selection and impact of press photography BT - an empirical study on the basis of photo news factors T2 - Postprints der Universität Potsdam : Philosophische Reihe N2 - The selection of ‘good’ pictures has increasingly become a crucial factor when transmitting news to the recipients. Every day thousands of events are happening and millions of pictures are taken. By choosing photographs for newspapers and magazines, photographic editorial departments want to attract the recipients’ attention, evoke emotions and get them to read their stories. But what exactly is a good picture that meets these expectations? Which criteria are decisive for selecting pictures and what effects of this selection can be measured on the recipients’ side? This article presents the results of a research project carried out at the University of Erfurt in 2008 and conducted in collaboration with the German weekly magazine stern. It deals with the selection and impact of press photography by introducing the concept ‘photo news factors’. Applying the traditional news value theory to pictures, photo news factors are defined as selection criteria that, on the part of the communicator, decide whether the press photos are worth publishing. Furthermore, they are assumed to exert an influence on the intensity of attention that a picture arouses. T3 - Zweitveröffentlichungen der Universität Potsdam : Philosophische Reihe - 103 KW - press photography KW - news value theory KW - photo news factors KW - selectivity KW - media effects Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93694 SN - 1866-8380 IS - 103 ER - TY - GEN A1 - Franselow, Gisbert A1 - Schlesewsky, Matthias A1 - Vogel, Ralf A1 - Weskott, Thomas T1 - Animacy effects on crossing wh-movement in German N2 - This article presents several acceptability rating experiments concerned with crossing wh-movement in German multiple questions. Our results show that there is no general superiority effect in German, thus refuting claims to the contrary by Featherston (2005). However, acceptability is reduced when a whphrase crosses a wh-subject with which it agrees in animacy. We explain this finding in terms of the availability of different sorting keys for the answers to the multiple questions. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 299 Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93630 SP - 657 EP - 683 ER - TY - GEN A1 - Zimmermann, Malte T1 - The grammatical expression of focus in West Chadic BT - Variation and uniformity in and across languages N2 - The article provides an overview of the grammatical realization of focus in four West Chadic languages (Chadic, Afro-Asiatic). The languages discussed exhibit an intriguing crosslinguistic variation in the realization of focus, both among themselves as well as compared to European intonation languages. They also display language-internal variation in the formal realization of focus. The West Chadic languages differ widely in their ways of expressing focus, which range from syntactic over prosodic to morphological devices. In contrast to European intonation languages, the focus marking systems of the West Chadic languages are inconsistent in that focus is often not grammatically expressed, but these inconsistencies are shown to be systematic. Subject foci (contrastive or not) and contrastive nonsubject foci are always grammatically marked, whereas information focus on nonsubjects need not be marked as such. The absence of formal focus marking supports pragmatic theories of focus in terms of contextual resolution. The special status of focused subjects and contrastive foci is derived from the Contrastive Focus Hypothesis, which requires unexpected foci and unexpected focus contents to be marked as such, together with the assumption that canonical subjects in West Chadic receive a default interpretation as topics. Finally, I discuss certain focus ambiguities which are not attested in intonation languages, nor do they follow on standard accounts of focus marking, but which can be accounted for in terms of constraint interaction in the formal expression of focus. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 298 Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93617 SP - 1163 EP - 1213 ER - TY - GEN A1 - Wiese, Heike T1 - So as a focus marker in German T2 - Postprints der Universität Potsdam : Philosophische Reihe N2 - This paper discusses a hitherto undescribed usage of the particle so as a dedicated focus marker in contemporary German. I discuss grammatical and pragmatic characteristics of this focus marker, supporting my account with natural linguistic data and with controlled experimental evidence showing that so has a significant influence on speakers’ understanding of what the focus expression in a sentence is. Against this background, I sketch a possible pragmaticalization path from referential usages of so via hedging to a semantically bleached focus marker, which, unlike particles such as auch ‘also’/‘too’ or nur ‘only’, does not contribute any additional meaning. T3 - Zweitveröffentlichungen der Universität Potsdam : Philosophische Reihe - 102 Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93592 SN - 1866-8380 IS - 102 ER - TY - THES A1 - Gendt, Anja T1 - Eye movements under the control of working memory : the challenge of a reading-span task T1 - Blickbewegungen unter Arbeitsgedächtniskontrolle : Die Herausforderungen einer Lesespannenaufgabe N2 - During reading oculomotor processes guide the eyes over the text. The visual information recorded is accessed, evaluated and processed. Only by retrieving the meaning of a word from the long-term memory, as well as through the connection and storage of the information about each individual word, is it possible to access the semantic meaning of a sentence. Therefore memory, and here in particular working memory, plays a pivotal role in the basic processes of reading. The following dissertation investigates to what extent different demands on memory and memory capacity have an effect on eye movement behavior while reading. The frequently used paradigm of the reading span task, in which test subjects read and evaluate individual sentences, was used for the experimental review of the research questions. The results speak for the fact that working memory processes have a direct effect on various eye movement measurements. Thus a high working memory load, for example, reduced the perceptual span while reading. The lower the individual working memory capacity of the reader was, the stronger was the influence of the working memory load on the processing of the sentence. N2 - Beim Lesen steuern okulomotorische Prozesse die Blickbewegungen über den Text. Die aufgenommenen visuellen Informationen werden erschlossen, beurteilt und verarbeitet. Erst durch den Abruf der Wortbedeutung aus dem Langzeitgedächtnis, und die Verknüpfung sowie Speicherung der einzelnen Wortinformationen erschließt sich die semantische Bedeutung eines Satzes. Somit stellt das Gedächtnis und hier insbesondere das Arbeitsgedächtnis eines der grundlegenden Prozesse für das Lesen dar. Die vorliegende Dissertation untersucht inwieweit sich unterschiedliche Gedächtnisanforderungen und Gedächtniskapazitäten auf das Blickverhalten während des Lesens auswirken. Für die experimentelle Überprüfung der Forschungsfragen wurde das in der Arbeitsgedächtnisforschung sehr häufig genutzte Paradigma der Lesespannenaufgabe verwendet, bei dem Probanden einzelne Sätze lesen und beurteilen. Die Ergebnisse sprechen für einen direkten Einfluss von Arbeitsgedächtnisprozessen auf verschiedene Blickbewegungsmaße. So reduzierte eine hohe Arbeitsgedächtnisbelastung beispielsweise die perzeptuelle Spanne während des Lesens. Je geringer die individuelle Arbeitsgedächtniskapazität des Lesers war, desto stärker war der Einfluss der Arbeitsgedächtnisbelastung auf die Satzverarbeitung. KW - Blickbewegungen KW - Arbeitsgedächtnis KW - Lesen KW - Lesespanne KW - eye movements KW - working memory KW - reading KW - reading-span Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69224 ER - TY - THES A1 - Wang, Yongbo T1 - Late glacial to Holocene climate and vegetation changes on the Tibetan Plateau inferred from fossil pollen records in lacustrine sediments T1 - Pollenanalytische Ableitung der spätglazialen und holozänen Klima- und Vegetationsveränderungen auf dem tibetischen Hochland anhand von Seesedimenten N2 - The past climate in central Asia, and especially on the Tibetan Plateau (TP), is of great importance for an understanding of global climate processes and for predicting the future climate. As a major influence on the climate in this region, the Asian Summer Monsoon (ASM) and its evolutionary history are of vital importance for accurate predictions. However, neither the evolutionary pattern of the summer monsoon nor the driving mechanisms behind it are yet clearly understood. For this research, I first synthesized previously published Late Glacial to Holocene climatic records from monsoonal central Asia in order to extract the general climate signals and the associated summer monsoon intensities. New climate and vegetation sequences were then established using improved quantitative methods, focusing on fossil pollen records recovered from Tibetan lakes and also incorporating new modern datasets. The pollen-vegetation and vegetation-climate relationships on the TP were also evaluated in order to achieve a better understanding of fossil pollen records. The synthesis of previously published moisture-related palaeoclimate records in monsoonal central Asia revealed generally different temporal patterns for the two monsoonal subsystems, i.e. the Indian Summer Monsoon (ISM) and East Asian Summer Monsoon (EASM). The ISM appears to have experienced maximum wet conditions during the early Holocene, while many records from the area affected by the EASM indicate relatively dry conditions at that time, particularly in north-central China where the maximum moisture levels occurred during the middle Holocene. A detailed consideration of possible driving factors affecting the summer monsoon, including summer solar insolation and sea surface temperatures, revealed that the ISM was primarily driven by variations in northern hemisphere solar insolation, and that the EASM may have been constrained by the ISM resulting in asynchronous patterns of evolution for these two subsystems. This hypothesis is further supported by modern monsoon indices estimated using the NCEP/NCAR Reanalysis data from the last 50 years, which indicate a significant negative correlation between the two summer monsoon subsystems. By analogy with the early Holocene, intensification of the ISM during coming decades could lead to increased aridification elsewhere as a result of the asynchronous nature of the monsoon subsystems, as can already be observed in the meteorological data from the last 15 years. A quantitative climate reconstruction using fossil pollen records was achieved through analysis of sediment core recovered from Lake Donggi Cona (in the north-eastern part of the TP) which has been dated back to the Last Glacial Maximum (LGM). A new data-set of modern pollen collected from large lakes in arid to semi-arid regions of central Asia is also presented herein. The concept of "pollen source area" was introduced to modern climate calibration based on pollen from large lakes, and was applied to the fossil pollen sequence from Lake Donggi Cona. Extremely dry conditions were found to have dominated the LGM, and a subsequent gradually increasing trend in moisture during the Late Glacial period was terminated by an abrupt reversion to a dry phase that lasted for about 1000 years and coincided with the first Heinrich Event of the northern Atlantic region. Subsequent periods corresponding to the warm Bølling-Allerød period and the Younger Dryas cold event were followed by moist conditions during the early Holocene, with annual precipitation of up to about 400 mm. A slightly drier trend after 9 cal ka BP was then followed by a second wet phase during the middle Holocene that lasted until 4.5 cal ka BP. Relatively steady conditions with only slight fluctuations then dominated the late Holocene, resulting in the present climatic conditions. In order to investigate the relationship between vegetation and climate, temporal variations in the possible driving factors for vegetation change on the northern TP were examined using a high resolution late Holocene pollen record from Lake Kusai. Moving-window Redundancy Analyses (RDAs) were used to evaluate the correlations between pollen assemblages and individual sedimentary proxies. These analyses have revealed frequent fluctuations in the relative abundances of alpine steppe and alpine desert components, and in particular a decrease in the total vegetation cover at around 1500 cal a BP. The climate was found to have had an important influence on vegetation changes when conditions were relatively wet and stable. However, after the 1500 cal a BP threshold in vegetation cover was crossed the vegetation appears to have been affected more by extreme events such as dust storms or fluvial erosion than by the general climatic trends. In addition, pollen spectra over the last 600 years have been revealed by Procrustes analysis to be significantly different from those recovered from older samples, which is attributed to an increased human impact that resulted in unprecedented changes to the composition of the vegetation. Theoretical models that have been developed and widely applied to the European area (i.e. the Extended R-Value (ERV) model and the Regional Estimates of Vegetation Abundance from Large Sites (REVEALS) model) have been applied to the high alpine TP ecosystems in order to investigate the pollen-vegetation relationships, as well as for quantitative reconstructions of vegetation abundance. The modern pollen–vegetation relationships for four common pollen species on the TP have been investigated using Poaceae as the reference taxa. The ERV Submodel 2 yielded relatively high PPEs for the steppe and desert taxa (Artemisia Chenopodiaceae), and low PPEs for the Cyperaceae that are characteristic of the alpine Kobresia meadows. The plant abundances on the central and north-eastern TP were quantified by applying these PPEs to four post-Late Glacial fossil pollen sequences. The reconstructed vegetation assemblages for the four pollen sequences always yielded smaller compositional species turnovers than suggested by the pollen spectra, indicating that the strength of the previously-reported vegetation changes may therefore have been overestimated. In summary, the key findings of this thesis are that (a) the two ASM subsystems show asynchronous patterns during both the Holocene and modern time periods, (b) fossil pollen records from large lakes reflect regional signals for which the pollen source areas need to be taken into account, (c) climate is not always the main driver for vegetation change, and (d) previously reported vegetation changes on the TP may have been overestimated because they ignored inter-species variations in pollen productivity. N2 - Das Paläoklima in Zentralasien, besonders in der Hochebene von Tibet (HT), ist von großer Bedeutung um globale Klimaprozesse zu verstehen und mögliche Voraussagung für die zukunft zu treffen. Als wichtigstes Klimaphänomen nehmen der asiatische Sommermonsun (ASM) und seine Entwicklungsgeschichte eine Schlüsselposition ein. Dennoch sind derzeit weder das Entwicklungsschema noch der antreibende Vorgang ausreichend verstanden. Dies gilt insbesondere für das Holozän, für welches große Kimaschwankungen und regionale Diskrepanzen weithin belegt sind. Deshalb habe ich zuerst holozäne Klimadaten zusammengefasst. Bereits veröffentlichte Publikationen aus den Monsungebieten Zentralasiens dienten als Grundlage, um die wichtigsten Klimasignale und die zugehörigen Intensitäten des Sommermonsuns heraus zu arbeiten. Anhand von Pollensequenzen aus tibetischen Seen erzeugte ich neue Klima- und Vegetationssequenzen, welche auf verbesserten quantitativen Methoden und rezenten Datensätzen beruhen. Außerdem wurden die Verhältnisse Pollen-Vegetation und Vegetation-Klima bewertet, um Schlussfolgerungen fossiler Pollensequenzen zu verbessern. Die Zusammenfassung der zuvor veröffentlichten, niederschlagsbezogenen Paläoklimadaten im Monsungebiet Zentralasiens ergab generell unterschiedliche Muster für die zwei Teilsysteme des ASMs, den Indischen Sommermonsun (ISM) und den Ostasiatischen Sommermonsun (OASM). Der ISM weist maximale feuchte Bedingungen während des frühen Holozöns auf, während viele Datensätze aus dem Gebiet des OASMs einen relativ trockenen Zustand anzeigen, besonders im nördlichen Zentralchina, wo maximale Niederschläge während des mittleren Holozäns registriert wurden. Genaue Betrachtungen der Antriebsfaktoren des Sommermonsuns ergaben, dass der ISM hauptsächlich durch Veränderungen der Sonneneinstrahlung auf der Nordhemisphäre angetrieben wird, während der OASM potentiell durch den ISM beherrscht wird - dies führt zu asynchronen Entwicklungen. Diese Hypothese wird durch rezente Monsunindizes gestützt. Sie weisen eine signifikant negative Korrelation zwischen den beiden Sommermonsun-Teilsystemen auf. Für die quantitative Klimarekonstruktion von Pollensequenzen wurde ein Sedimentkern aus dem See Donggi Cona im Nordosten der HT analysiert, der bis zum letzten glazialen Maximum (LGM) zurückdatiert wurde. Aufgrund der Tatsache, dass Donggi Cona ein relativ großer See ist, wird hiermit ein neuer Pollen-Klima-Kalibrierungsdatensatz auf Grundlage großer Seen in ariden und semiariden Regionen Zentralasiens vorgelegt. Das Konzept des Pollenherkunftsgebietes wurde in diese rezente, pollenbasierte Klimakalibrierung eingebracht und auf die Pollensequenz von Donggi Cona angewendet. Die Auswertung ergab, dass extrem trockene Bedingungen während des LGM (ca. 100 mm/yr) vorherrschten. Ein ansteigender Trend von Niederschlägen während des späten Glazials wurde durch einen abrupten Rückgang zu einer etwa 1000-jährigen Trockenphase beendet, welche mit Heinrich-Ereignis 1 in der Nordatlantik-Region übereinstimmt. Danach entsprechen die Klimaperioden dem warmen Bølling/Allerød und dem Kälteereignis der Jüngeren Dryas. Anschließend herrschten feuchte Bedingungen im frühen Holozän (bis zu 400 mm/yr). Ein etwas trockenerer Trend nach dem Holozänen Klimaoptimum wurde dann von einer zweiten Feuchtphase abgelöst, welche bis 4,5 cal. ka vor heute andauerte. Relativ gleichmäßige Bedingungen dominierten das späte Holozän bis heute. Die Klimadynamik seit dem LGM wurde vor allem durch Entgletscherung und Intensitätsschwankungen des ASM bestimmt. Bei der Betrachtung des Vegetation-Klima-Verhältnisses habe ich die zeitlichen Variationen der bestimmenden Faktoren hinsichtlich der Vegetationsdynamik auf der nördlichen HT untersucht. Dabei wurden hochauflösende holozäne Pollendaten des Kusai-Sees verwendet. Eine Redundanzanalyse (RDA) wurde angewendet um die Korrelation zwischen Pollenvergesellschaftungen und individuellen sedimentären Klimaanzeigern als auch die damit verbundene Signifikanz zu bewerten. Es stellte sich heraus, dass das Klima einen wichtigen Einfluss auf den Veränderungen in der Vegetation besaß, wenn die Bedingungen relativ warm und feucht waren. Trotzdem scheint es, dass, dass die Vegetation bei zu geringer Bedeckung stärker durch Extremereignisse wie Staubstürme oder fluviale Erosion beeinflusst wurde. Pollenspektren der vergangen 600 Jahre erwiesen sich als signifikant unterschiedlich verglichen mit den älterer Proben, was auf verstärkten anthropogenen Einfluss hindeutet. Dieser resultierte in einem beispiellosen Wandel in der Zusammensetzung der Vegetation. In Hinsicht auf das Pollen-Vegetation-Verhältnis und der quantitativen Rekonstruktion der Vegetationshäufigkeit habe ich theoretische Modelle, welche für europäische Regionen entwickelt und weithin angewendet wurden, respektive die Modelle "Extended R-Value" (ERV) sowie "Regional Estimates of Vegetation Abundance from Large Sites" (REVEALS), auf die hochalpinen Ökosysteme der HT überführt. Dafür wurden rezente Pollen-Vegetations-Verhältnisse von vier weit verbreiteten Pollen-Arten der HT überprüft. Poaceae wurden als Referenztaxa verwendet. Bei der Anwendung dieser Verhältnisse auf vier Pollensequenzen, welche die Paläoumweltbedingungen seit dem letzten Glazial widerspiegeln, wurden die Häufigkeiten von Pflanzen auf der zentralen und nordöstlichen HT quantifiziert. Anteile von Artimisia und Chenopodiaceae waren dabei im Vergleich zu ihren ursprünglichen Pollenprozenten deutlich verringert. Cyperaceae hingegen wies eine relative Zunahme in dieser Vegetationsrekonstruktion auf. Die rekonstruierten Vegetationsvergesellschaftungen an den Standorten der vier Pollensequenzen ergaben stets geringere Umwälzungen in der Artenzusammensetzung, als durch die Pollenspektren zu vermuten gewesen wäre. Dies kann ein Hinweis darauf sein, dass die Intensität der bislang angenommenen Vegetationsveränderungen überschätzt worden ist. Zusammengefasst sind die Hauptresultate dieser Dissertation, dass (a) die zwei ASM Teilsysteme asynchrone Muster während des Holozäns und heute aufweisen, dass (b) fossile Pollensequenzen großer Seen regionale Klimasignale widerspiegeln sofern die Herkunftsgebiete der Pollen berücksichtigt werden, dass (c) Klima nicht immer der Haupteinflussfaktor für Vegetationswandel ist und dass (d) das Ausmaß von Vegetationsveränderungen in zuvor veröffentlichten Studien auf der Hochebene von Tibet überschätzt worden sein kann, weil Diskrepanzen der Pollenproduktivität zwischen den Arten nicht einbezogen wurden. KW - Asiatischer Sommermonsun KW - ASM KW - Holozän KW - Seesedimente KW - Pollen KW - Hochland von Tibet KW - Asian Summer Monsoon KW - Holocene KW - Lake sediments KW - Pollen KW - Tibetan Plateau Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63155 ER - TY - JOUR A1 - Mitra, Subrata T1 - Turning Aliens into Citizens BT - significance of the Indian Case* JF - WeltTrends-Papiere N2 - Inhalt: Empirical results of the survey ; A cumulative index of citizenship ; Jammu and Kashmir: Contesting “Indian” citizenship ; Conclusion KW - Politische Theorie KW - Migration KW - Integration KW - Bürgerschaft Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63558 SN - 1864-0656 IS - 19 SP - 120 EP - 127 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Risse, Sarah T1 - Processing in the perceptual span : investigations with the n+2-boundary paradigm T1 - Verarbeitung in der Wahrnehmungsspanne : Untersuchungen mit dem n+2-Boundary Paradigm N2 - Cognitive psychology is traditionally interested in the interaction of perception, cognition, and behavioral control. Investigating eye movements in reading constitutes a field of research in which the processes and interactions of these subsystems can be studied in a well-defined environment. Thereby, the following questions are pursued: How much information is visually perceived during a fixation, how is processing achieved and temporally coordinated from visual letter encoding to final sentence comprehension, and how do such processes reflect on behavior such as the control of the eyes’ movements during reading. Various theoretical models have been proposed to account for the specific eye-movement behavior in reading (for a review see Reichle, Rayner, & Pollatsek, 2003). Some models are based on the idea of shifting attention serially from one word to the next within the sentence whereas others propose distributed attention allocating processing resources to more than one word at a time. As attention is assumed to drive word recognition processes one major difference between these models is that word processing must either occur in strict serial order, or that word processing is achieved in parallel. In spite of this crucial difference in the time course of word processing, both model classes perform well on explaining many of the benchmark effects in reading. In fact, there seems to be not much empirical evidence that challenges the models to a point at which their basic assumptions could be falsified. One issue often perceived as being decisive in the debate on serial and parallel word processing is how not-yet-fixated words to the right of fixation affect eye movements. Specifically, evidence is discussed as to what spatial extent such parafoveal words are previewed and how this influences current and subsequent word processing. Four experiments investigated parafoveal processing close to the spatial limits of the perceptual span. The present work aims to go beyond mere existence proofs of previewing words at such spatial distances. Introducing a manipulation that dissociates the sources of long-range preview effects, benefits and costs of parafoveal processing can be investigated in a single analysis and the differing impact is tracked across a three-word target region. In addition, the same manipulation evaluates the role of oculomotor error as the cause of non-local distributed effects. In this respect, the results contribute to a better understanding of the time course of word processing inside the perceptual span and attention allocation during reading. N2 - Die kognitive Psychologie beschäftigt sich traditionell mit dem Zusammenspiel von Wahrnehmung, Kognition und Verhaltenssteuerung. Die Untersuchung von Blickbewegungen beim Lesen bildet dabei ein Forschungsfeld, in dem die Prozesse und Interaktionen dieser Subsysteme in einem klar definierten Rahmen untersucht werden können. Dabei geht es speziell um die Frage, wie viel Information visuell wahrgenommen wird, wie die kognitive Weiterverarbeitung der visuellen Buchstabeninformation über lexikalische Wortverarbeitung hin zu einem inhaltlichen Satzverständnis zeitlich koordiniert ist, und wie sich diese Prozesse auf das Verhalten – die Steuerung der Blickbewegung – auswirken. Verschiedene Modelle zur Erklärung des spezifischen Blickbewegungsverhaltens beim Lesen wurden vorgeschlagen (für einen Überblick siehe Reichle, Rayner, & Pollatsek, 2003). Einige Modelle basieren auf der Annahme serieller Aufmerksamkeitsverschiebung von Wort zu Wort, wohingegen andere verteilte Aufmerksamkeit auf eine Region mehrerer Wörter im Satz gleichzeitig annehmen. Da Aufmerksamkeit eng mit der eigentlichen Wortverarbeitung assoziiert ist, besteht ein wesentlicher Unterschied zwischen den Modellen darin, dass die eigentlichen Wortverarbeitungsprozesse entweder ebenfalls strikt seriell oder parallel erfolgen. Trotz solch entscheidender Unterschiede im zeitlichen Verlauf der Wortverarbeitung können beide Modellklassen viele der Benchmark-Effekte beim Lesen hinreichend erklären. Tatsächlich scheint es nicht viel empirische Evidenz zu geben, die die Grundannahmen der Modelle falsifizieren könnte. Die Frage, ob und wie noch nicht direkt angesehene Wörter rechts der Fixation die Blickbewegung beeinflussen, wird in der Debatte über serielle oder parallele Wortverarbeitung oft als entscheidend betrachtet. Insbesondere wird diskutiert, bis zu welcher Entfernung parafoveale Wörter vorverarbeitet werden und wie das die gegenwärtige und folgende Wortverarbeitung beeinflusst. In einer Serie von vier Leseexperimenten wurde die Vorverarbeitung von Wörtern an den Grenzen der Wahrnehmungsspanne untersucht. Die vorliegende Arbeit versucht zudem, über einen einfachen Existenzbeweis der Vorverarbeitung von Wörtern in solchen Distanzen hinaus zu gehen. Mit einer Manipulation, die verschiedene Quellen solcher weitreichenden Vorverarbeitungseffekte dissoziiert, können Nutzen und Kosten der parafovealen Vorschau in einer einzigen Analyse untersucht und über eine Zielregion von drei Wörtern hinweg verfolgt werden. Dieselbe Manipulation überprüft gleichzeitig die Rolle okulomotorischer Fehler als Ursache für nicht lokale, verteilte Effekte beim Lesen. Die Ergebnisse tragen zu einem differenzierteren Verständnis der Wortverarbeitung in der Wahrnehmungsspanne und der zeitlich-räumlichen Verteilung der Aufmerksamkeit beim Lesen bei. KW - Blickbewegungen KW - Lesen KW - parafoveale Wortverarbeitung KW - Aufmerksamkeit KW - Preview Benefit KW - eye movements KW - reading KW - parafoveal processing KW - attention KW - preview benefit Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60414 ER - TY - THES A1 - Kristen, Juliane Ute T1 - Amphiphilic BAB-triblock copolymers bearing fluorocarbon groups : synthesis and self-organization in aqueous media T1 - Amphiphile BAB-Triblockcopolymere mit Fluorcarbon-Gruppen : Synthese und Selbstorganisation in wässrigen Medien N2 - In this work new fluorinated and non-fluorinated mono- and bifunctional trithiocarbonates of the structure Z-C(=S)-S-R and Z-C(=S)-S-R-S-C(=S)-Z were synthesized for the use as chain transfer agents (CTAs) in the RAFT-process. All newly synthesized CTAs were tested for their efficiency to moderate the free radical polymerization process by polymerizing styrene (M3). Besides characterization of the homopolymers by GPC measurements, end- group analysis of the synthesized block copolymers via 1H-, 19F-NMR, and in some cases also UV-vis spectroscopy, were performed attaching suitable fluorinated moieties to the Z- and/or R-groups of the CTAs. Symmetric triblock copolymers of type BAB and non-symmetric fluorine end- capped polymers were accessible using the RAFT process in just two or one polymerization step. In particular, the RAFT-process enabled the controlled polymerization of hydrophilic monomers such as N-isopropylacrylamide (NIPAM) (M1) as well as N-acryloylpyrrolidine (NAP) (M2) for the A-blocks and of the hydrophobic monomers styrene (M3), 2-fluorostyrene (M4), 3-fluorostyrene (M5), 4-fluorostyrene (M6) and 2,3,4,5,6-pentafluorostyrene (M7) for the B-blocks. The properties of the BAB-triblock copolymers were investigated in dilute, concentrated and highly concentrated aqueous solutions using DLS, turbidimetry, 1H- and 19F-NMR, rheology, determination of the CMC, foam height- and surface tension measurements and microscopy. Furthermore, their ability to stabilize emulsions and microemulsions and the wetting behaviour of their aqueous solutions on different substrates was investigated. The behaviour of the fluorine end-functionalized polymers to form micelles was studied applying DLS measurements in diluted organic solution. All investigated BAB-triblock copolymers were able to form micelles and show surface activity at room temperature in dilute aqueous solution. The aqueous solutions displayed moderate foam formation. With different types and concentrations of oils, the formation of emulsions could be detected using a light microscope. A boosting effect in microemulsions could not be found adding BAB-triblock copolymers. At elevated polymer concentrations, the formation of hydrogels was proved applying rheology measurements. N2 - Im Rahmen dieser Arbeit wurden neue fluorierte und unfluorierte mono- und bifunktionelle Trithiocarbonate der Typen Z-C(=S)-S-R und Z-C(=S)-S-R-S-C(=S)-Z zur Anwendung als CTAs (chain- transfer agents) im RAFT-Polymerisationsverfahren hergestellt. Alle CTAs wurden erfolgreich auf ihre Effizienz zur Steuerung des radikalischen Polymerisationsverfahrens hin durch Polymerisation von Styrol (M3) getestet. Neben GPC-Messungen wurden Endgruppenanalysen der synthetisierten Blockcopolymere mittels 1H-, 19F-NMR und in manchen Fällen auch UV-Vis Spektroskopie durchgeführt. Dazu wurden die Z- und/oder R-Gruppen der CTAs mit geeigneten fluorierten Gruppen versehen. Durch Anwendung des RAFT Verfahrens konnten symmetrische Triblockcopolymere vom Typ BAB bzw. mit einer Fluoralkylgruppe endgecappte unsymmetrische Polymere in nur zwei bzw. einem Polymerisationsschritt hergestellt werden. Das RAFT- Polymerisationsverfahren ermöglicht sowohl die Polymerisation hydrophiler Monomere wie N-Isopropylacrylamid (NIPAM) (M1) oder N-Acryloylpyrrolidin (NAP) (M2) für die A-Blöcke als auch der hydropoben Monomere Styrol (M3), 2-Fluorostyrol (M4), 3-Fluorostyrol (M5), 4- Fluorostyrol (M6) und 2,3,4,5,6- Pentafluorostyrol (M7) für die B-Blöcke. Die Eigenschaften der Blockcopolymere in verdünnten, konzentrierten und hochkonzentrierten wässrigen Lösungen wurden mittels DLS, Trübungsphotometrie, 1H- und 19F-NMR, Rheologie, CMC- sowie Schaumhöhen- und Oberflächenspannungsmessungen und Lichtmikroskopie untersucht. Weiterhin wurden ihre Eigenschaften als Emulgatoren und in Mikroemulsion untersucht. Das Micellbildungsverhalten der hydrophob endfunktionalisierten Polymere wurde mittels DLS Messungen in verdünnter organischer Lösung untersucht. Alle untersuchten BAB-Triblöcke bildeten Micellen und zeigten Oberflächenaktivität bei Raumtemperatur in verdünnter, wässriger Lösung. Weiterhin zeigen die wässrigen Lösungen der Polymere mäßige Schaumbildung. Mit verschiedenen Öltypen und Ölkonzentrationen wurden Emulsionen bzw. Mikroemulsionen gebildet. In Mikroemulsion wurde durch Zugabe von BAB-Triblockopolymeren kein Boosting-Effekt erzielt werden. Bei Untersuchung höherer Polymerkonzentrationen wurde die Bildung von Hydrogelen mittels rheologischer Messungen nachgewiesen. Verschiedene Substrate konnten benetzt werden. Die hydrophob endgecappten Polymere bilden in verdünnter organischer Lösung Micellen, die mittels DLS untersucht wurden, und zeigen somit Tensidverhalten in nichtwässriger Lösung. KW - Fluorierte Blockcopolymere KW - RAFT KW - Rheologie KW - Tenside KW - Gele KW - wässrige Systeme KW - thermisch schaltbare Polymere KW - fluorinated Blockcopolymers KW - RAFT-Polymerisation KW - rheology KW - surfactants KW - gels KW - aqueous systems KW - thermosensitive polymers Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61782 ER - TY - JOUR A1 - Schmidt, Markus G. T1 - Reform of the United Nations Human Rights Programs BT - current challenges and trends JF - Die Vereinten Nationen vor globalen Herausforderungen : Referate der Potsdamer UNO-Konferenzen 2000–2008 N2 - Inhalt: - Kurzzusammenfassung - I. Introduction - II. Current challenges to the United Nations Human Rights Programme - III. The Secretary General’s Reform report “In larger Freedom” and its impact for the human rights programme - IV. The High Commissioner’s Plan of Action of May 2005 - V. Negotiations on the establishment of the Human Rights Council and first Council activities - VI. Reform of the treaty body system and debates over the creation of a unified standing treaty body N2 - Diskussionen über die Reform der UN-Mechanismen zum Schutz der Menschenrechte sind keineswegs neu. Seit Veröffentlichung des dritten Reformberichts von UN-Generalsekretär Kofi Annan “In Larger Freedom” im März 2005 haben sich jedoch die Voraussetzungen für eine tiefer gehende Reform der Menschenrechtsgremien verbessert. Zum ersten Mal haben UN-Mitgliedstaaten den politischen Willen manifestiert, das System grundlegend und nicht wie früher nur kosmetisch zu verändern. Das zeigt sich zum einen in dem Bestreben, die seit langem als hoffnungslos politisiert diskreditierte Menschenrechtskommission durch einen effizienteren Menschenrechtsrat mit weitergehenden Kompetenzen und innovativen Arbeitsmethoden zu ersetzen. Zum anderen sind Diskussionen im Gange, um das System der Expertenausschüsse, die die innerstaatliche Umsetzung der wichtigsten UNO Menschenrechtskonventionen überwachen sollen, effizienter zu gestalten und gegebenenfalls durch ein einziges, permanent tagendes Expertengremium zu ersetzen. Dieser Artikel gibt einen Überblick der Verhandlungen und versucht, ein vorsichtiges Fazit der ersten beiden Sitzungen des Menschenrechtsrates zu ziehen. Obwohl die meisten Arbeitsmethoden des Rates erst noch ausgehandelt werden müssen, so läßt sich doch bereits erkennen, daß die Politisierung, die die frühere Menschenrechtskommission charakterisierte, leider auch die Arbeit des Rates prägen wird. Das verheißt nicht unbedingt Gutes für die Zukunft. Was eine Reform der Expertenausschüsse betrifft, so stehen Diskussionen noch in der Anfangsphase, und ein permanent tagender Expertenausschuß ist in absehbarer Zukunft nicht zu erwarten. Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60964 SP - 81 EP - 93 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Ivakov, Alexander T1 - Metabolic interactions in leaf development in Arabidopsis thaliana T1 - Metabolische Interaktionen während der Blattentwicklung in Arabidopsis thaliana N2 - Das Wachstum und Überleben von Pflanzen basiert auf der Photosynthese in den Blättern. Diese beinhaltet die Aufnahme von Kohlenstoffdioxid aus der Atmosphäre und das simultane Einfangen von Lichtenergie zur Bildung organischer Moleküle. Diese werden nach dem Eintritt in den Metabolismus in viele andere Komponenten umgewandelt, welche die Grundlage für die Zunahme der Biomasse bilden. Blätter sind Organe, die auf die Fixierung von Kohlenstoffdioxid spezialisiert sind. Die Funktionen der Blätter beinhalten vor allem die Optimierung und Feinregulierung vieler Prozesse, um eine effektive Nutzung von Ressourcen und eine maximale Photosynthese zu gewährleisten. Es ist bekannt, dass sich die Morphologie der Blätter den Wachstumsbedingungen der Pflanze anpasst und eine wichtige Rolle bei der Optimierung der Photosynthese spielt. Trotzdem ist die Regulation dieser Art der Anpassung bisher nicht verstanden. Die allgemeine Zielsetzung dieser vorliegenden Arbeit ist das Verständnis wie das Wachstum und die Morphologie der Blätter im Modellorganismus Arabidopsis thaliana reguliert werden. Besondere Aufmerksamkeit wurde hierbei der Möglichkeit geschenkt, dass es interne metabolische Signale in der Pflanze geben könnte, die das Wachstum und die Entwicklung von Blättern beeinflussen. Um diese Fragestellung zu untersuchen, muss das Wachstum und die Entwicklung von Blättern oberhalb des Levels des einzelnen Organs und im Kontext der gesamten Pflanze betrachtet werden, weil Blätter nicht eigenständig wachsen, sondern von Ressourcen und regulatorischen Einflüssen der ganzen Pflanze abhängig sind. Aufgrund der Komplexität dieser Fragestellung wurden drei komplementäre Ansätze durchgeführt. Im ersten und spezifischsten Ansatz wurde untersucht ob eine flussabwärts liegende Komponente des Zucker-Signalwegs, Trehalose-6-Phosphat (Tre-6-P), das Blattwachstum und die Blattentwicklung beinflussen kann. Um diese Frage zu beantworten wurden transgene Arabidopsis-Linien mit einem gestörten Gehalt von Tre-6-P durch die Expression von bakteriellen Proteinen die in dem metabolismus von trehalose beteiligt sind. Die Pflanzen-Linien wurden unter Standard-Bendingungen in Erde angebaut und ihr Metabolismus und ihre Blattmorphologie untersucht. Diese Experimente führten auch zu einem unerwarteten Projekt hinsichtlich einer möglichen Rolle von Tre-6-P in der Regulation der Stomata. In einem zweiten, allgemeineren Ansatz wurde untersucht, ob Änderungen im Zucker-Gehalt der Pflanzen die Morphogenese der Blätter als Antwort auf Licht beeinflussen. Dazu wurden eine Reihe von Mutanten, die im Zentralmetabolismus beeinträchtigt sind, in derselben Lichtbedingung angezogen und bezüglich ihrer Blattmorphologie analysiert. In einem dritten noch allgemeineren Ansatz wurde die natürliche Variation von morphologischen Ausprägungen der Blätter und Rosette anhand von wilden Arabidopsis Ökotypen untersucht, um zu verstehen wie sich die Blattmorphologie auf die Blattfunktion und das gesamte Pflanzenwachstum auswirkt und wie unterschiedliche Eigenschaften miteinander verknüpft sind. Das Verhältnis der Blattanzahl zum Gesamtwachstum der Pflanze und Blattgröße wurde gesondert weiter untersucht durch eine Normalisierung der Blattanzahl auf das Frischgewicht der Rosette, um den Parameter „leafing Intensity“ abzuschätzen. Leafing Intensity integrierte Blattanzahl, Blattgröße und gesamtes Rosettenwachstum in einer Reihe von Kompromiss-Interaktionen, die in einem Wachstumsvorteil resultieren, wenn Pflanzen weniger, aber größere Blätter pro Einheit Biomasse ausbilden. Dies führte zu einem theoretischen Ansatz in dem ein einfaches allometrisch mathematisches Modell konstruiert wurde, um Blattanzahl, Blattgröße und Pflanzenwachstum im Kontext der gesamten Pflanze Arabidopsis zu verknüpfen. N2 - Plant growth and survival depend on photosynthesis in the leaves. This involves the uptake of carbon dioxide from the atmosphere and the simultaneous capture of light energy to produce organic molecules, which enter metabolism and are converted to many other compounds which then serve as building blocks for biomass growth. Leaves are organs specialised for photosynthetic carbon dioxide fixation. The function of leaves involves many trade-offs which must be optimised in order to achieve effective use of resources and maximum photosynthesis. It is known that the morphology of leaves adjusts to the growth environment of plants and this is important for optimising their function for photosynthesis. However, it is unclear how this adjustment is regulated. The general aim of the work presented in this thesis is to understand how leaf growth and morphology are regulated in the model species Arabidopsis thaliana. Special attention was dedicated to the possibility that there might be internal metabolic signals within the plant which affect the growth and development of leaves. In order to investigate this question, leaf growth and development must be considered beyond the level of the single organ and in the context of the whole plant because leaves do not grow autonomously but depend on resources and regulatory influences delivered by the rest of the plant. Due to the complexity of this question, three complementary approaches were taken. In the first and most specific approach it was asked whether a proposed down-stream component of sucrose signalling, trehalose-6-phosphate (Tre-6-P), might influence leaf development and growth. To investigate this question, transgenic Arabidopsis lines with perturbed levels of Tre-6-P were generated using the constitutive 35S promoter to express bacterial enzymes involved in trehalose metabolism. These experiments also led to an unanticipated project concerning a possible role for Tre-6-P in stomatal function, which is another very important function in leaves. In a second and more general approach it was investigated whether changes in sugar levels in plants affect the morphogenesis of leaves in response to light. For this, a series of metabolic mutants impaired in central metabolism were grown in one light environment and their leaf morphology was analysed. In a third and even more general approach the natural variation in leaf and rosette morphological traits was investigated in a panel of wild Arabidopsis accessions with the aim of understanding how leaf morphology affects leaf function and whole plant growth and how different traits relate to each other. The analysis included measurements of leaf morphological traits as well as the number of leaves in the plant to put leaf morphology in a whole plant context. The variance in plant growth could not be explained by variation in photosynthetic rates and only to a small degree by variation in rates of dark respiration. There were four key axes of variation in rosette and leaf morphology – leaf area growth, leaf thickness, cell expansion and leaf number. These four processes were integrated in the context of whole plant growth by models that employed a multiple linear regression approach. This then led to a theoretical approach in which a simple allometric mathematical model was constructed, linking leaf number, leaf size and plant growth rate together in a whole plant context in Arabidopsis. KW - Blattmorphologie KW - Entwicklung KW - Arabidopsis KW - Metabolismus KW - Ökotypen KW - leaf KW - morphology KW - Arabidopsis KW - metabolism KW - accessions Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59730 ER - TY - THES A1 - Mösta, Philipp T1 - Novel aspects of the dynamics of binary black-hole mergers T1 - Neue Aspekte der Dynamik von Kollisionen binärer schwarzer Löcher N2 - The inspiral and merger of two black holes is among the most exciting and extreme events in our universe. Being one of the loudest sources of gravitational waves, they provide a unique dynamical probe of strong-field general relativity and a fertile ground for the observation of fundamental physics. While the detection of gravitational waves alone will allow us to observe our universe through an entirely new window, combining the information obtained from both gravitational wave and electro-magnetic observations will allow us to gain even greater insight in some of the most exciting astrophysical phenomena. In addition, binary black-hole mergers serve as an intriguing tool to study the geometry of space-time itself. In this dissertation we study the merger process of binary black-holes in a variety of conditions. Our results show that asymmetries in the curvature distribution on the common apparent horizon are correlated to the linear momentum acquired by the merger remnant. We propose useful tools for the analysis of black holes in the dynamical and isolated horizon frameworks and shed light on how the final merger of apparent horizons proceeds after a common horizon has already formed. We connect mathematical theorems with data obtained from numerical simulations and provide a first glimpse on the behavior of these surfaces in situations not accessible to analytical tools. We study electro-magnetic counterparts of super-massive binary black-hole mergers with fully 3D general relativistic simulations of binary black-holes immersed both in a uniform magnetic field in vacuum and in a tenuous plasma. We find that while a direct detection of merger signatures with current electro-magnetic telescopes is unlikely, secondary emission, either by altering the accretion rate of the circumbinary disk or by synchrotron radiation from accelerated charges, may be detectable. We propose a novel approach to measure the electro-magnetic radiation in these simulations and find a non-collimated emission that dominates over the collimated one appearing in the form of dual jets associated with each of the black holes. Finally, we provide an optimized gravitational wave detection pipeline using phenomenological waveforms for signals from compact binary coalescence and show that by including spin effects in the waveform templates, the detection efficiency is drastically improved as well as the bias on recovered source parameters reduced. On the whole, this disseration provides evidence that a multi-messenger approach to binary black-hole merger observations provides an exciting prospect to understand these sources and, ultimately, our universe. N2 - Schwarze Löcher gehören zu den extremsten und faszinierensten Objekten in unserem Universum. Elektromagnetische Strahlung kann nicht aus ihrem Inneren entkommen, und sie bilden die kompaktesten Objekte, die wir kennen. Wir wissen heute, dass in den Zentren der meisten Galaxien sehr massereiche schwarze Löcher vorhanden sind. Im Fall unserer eigenen Galaxie, der Milchstrasse, ist dieses schwarze Loch ungefähr vier Millionen mal so schwer wie unsere Sonne. Wenn zwei Galaxien miteinander kollidieren, führt dies auch dazu, dass ihre beiden schwarzen Löcher kollidieren und zu einem einzelnen schwarzen Loch verschmelzen. Das Simulieren einer solchen Kollision von zwei schwarzen Löchern, die Vorhersage sowie Analyse der von ihnen abgestrahlten Energie in Form von Gravitations- und elektromagnetischen Wellen, bildet das Thema der vorliegenden Dissertation. Im ersten Teil dieser Arbeit untersuchen wir die Verschmelzung von zwei schwarzen Löchern unter verschiedenen Gesichtspunkten. Wir zeigen, dass Ungleichmässigkeiten in der Geometrie des aus einer Kollision entstehenden schwarzen Loches dazu führen, dass es zuerst beschleunigt und dann abgebremst wird, bis diese Ungleichmässigkeiten in Form von Gravitationswellen abgetrahlt sind. Weiterhin untersuchen wir, wie der genaue Verschmelzungsprozess aus einer geometrischen Sicht abläuft und schlagen neue Methoden zur Analyse der Raumzeitgeometrie in Systemen vor, die schwarze Löcher enthalten. Im zweiten Teil dieser Arbeit beschäftigen wir uns mit den Gravitationswellen und elektromagnetischer Strahlung, die bei einer Kollision von zwei schwarzen Löchern freigesetzt wird. Gravitationswellen sind Wellen, die Raum und Zeit dehnen und komprimieren. Durchläuft uns eine Gravitationswelle, werden wir in einer Richtung minimal gestreckt, während wir in einer anderen Richtung minimal zusammengedrückt werden. Diese Effekte sind allerdings so klein, dass wir sie weder spüren, noch auf einfache Weise messen können. Bei einer Kollision von zwei schwarzen Löchern wird eine grosse Menge Energie in Form von Gravitationswellen und elektromagnetischen Wellen abgestrahlt. Wir zeigen, dass beide Signale in ihrer Struktur sehr ähnlich sind, dass aber die abgestrahlte Energie in Gravitationswellen um ein Vielfaches grösser ist als in elektromagnetischer Strahlung. Wir führen eine neue Methode ein, um die elektromagnetische Strahlung in unseren Simulationen zu messen und zeigen, dass diese dazu führt, dass sich die räumliche Struktur der Strahlung verändert. Abschliessend folgern wir, dass in der Kombination der Signale aus Gravitationswellen und elektromagnetischer Strahlung eine grosse Chance liegt, ein System aus zwei schwarzen Löchern zu detektieren und in einem weiteren Schritt zu analysieren. Im dritten und letzen Teil dieser Dissertation entwickeln wir ein verbessertes Suchverfahren für Gravitationswellen, dass in modernen Laser-Interferometerexperimenten genutzt werden kann. Wir zeigen, wie dieses Verfahren die Chancen für die Detektion eines Gravitationswellensignals deutlich erhöht, und auch, dass im Falle einer erfolgreichen Detektion eines solchen Signals, seine Parameter besser bestimmt werden können. Wir schliessen die Arbeit mit dem Fazit, dass die Kollision von zwei schwarzen Löchern ein hochinteressantes Phenomenon darstellt, das uns neue Möglichkeiten bietet die Gravitation sowie eine Vielzahl anderer fundamentaler Vorgänge in unserem Universum besser zu verstehen. KW - schwarze Löcher KW - elektromagnetische Strahlung KW - Allgemeine Relativitätstheorie KW - Gravitationswellen KW - Raumzeitgeometrie KW - black-holes KW - gravitational waves KW - electromagnetic counterparts KW - general relativity KW - space-time geometry Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59820 ER - TY - THES A1 - Smirnov, Sergey T1 - Business process model abstraction T1 - Abstraktion von Geschäftsprozessmodellen N2 - Business process models are used within a range of organizational initiatives, where every stakeholder has a unique perspective on a process and demands the respective model. As a consequence, multiple process models capturing the very same business process coexist. Keeping such models in sync is a challenge within an ever changing business environment: once a process is changed, all its models have to be updated. Due to a large number of models and their complex relations, model maintenance becomes error-prone and expensive. Against this background, business process model abstraction emerged as an operation reducing the number of stored process models and facilitating model management. Business process model abstraction is an operation preserving essential process properties and leaving out insignificant details in order to retain information relevant for a particular purpose. Process model abstraction has been addressed by several researchers. The focus of their studies has been on particular use cases and model transformations supporting these use cases. This thesis systematically approaches the problem of business process model abstraction shaping the outcome into a framework. We investigate the current industry demand in abstraction summarizing it in a catalog of business process model abstraction use cases. The thesis focuses on one prominent use case where the user demands a model with coarse-grained activities and overall process ordering constraints. We develop model transformations that support this use case starting with the transformations based on process model structure analysis. Further, abstraction methods considering the semantics of process model elements are investigated. First, we suggest how semantically related activities can be discovered in process models-a barely researched challenge. The thesis validates the designed abstraction methods against sets of industrial process models and discusses the method implementation aspects. Second, we develop a novel model transformation, which combined with the related activity discovery allows flexible non-hierarchical abstraction. In this way this thesis advocates novel model transformations that facilitate business process model management and provides the foundations for innovative tool support. N2 - Geschäftsprozessmodelle werden in einer Fülle organisatorischer Initiativen eingesetzt, wobei verschiedene Stakeholder individuelle Ansprüche an die Sicht auf den jeweiligen Prozess haben. Dies führt dazu, dass zu einem Geschäftsprozess eine Vielzahl unterschiedlicher Modelle existiert. In einer sich ständig verändernden Geschäftsumgebung ist es daher schwierig, diese Vielzahl von Modellen konsistent zu halten: Ändert sich sich ein Prozess, müssen alle Modelle, die ihn beschreiben, aktualisiert werden. Aufgrund der schieren Menge an Prozessmodellen und ihrer komplexen Beziehungen zueinander, erhöhen sich Aufwand und Kosten zur Pflege aller Modelle enorm. Vor diesem Hintergrund ermöglicht die Abstraktion von Geschäftsprozessmodellen, die Menge der Modelle zu reduzieren und damit ihre Verwaltung zu vereinfachen. Abstraktion von Geschäftsprozessmodellen bezeichnet eine Transformation eines Prozessmodells, so dass es für einen bestimmten Zweck besonders geeignet ist. Bei der Abstraktion von Geschäftsprozessen bleiben essentielle Eigenschaften eines Modells erhalten, während irrelevante Eigenschaften verworfen werden. Mehrere Studien stellen Prozessmodellabstraktion in den Fokus und konzentrieren sich auf konkrete Anwendungsfälle, für die sie geeignete Transformationen entwickelt haben. Diese Dissertation untersucht das Problem der Prozessmodellabstraktion und systematisiert die Lösung in einem Framework. Aktuelle Anforderungen der Industrie an die Abstraktion von Prozessmodellen wurden recherchiert und in einem Katalog von Anwendungsfällen zusammengefasst, von denen ein besonderer für die weiteren Untersuchungen ausgewählt wurde. In diesem Fall erwartet der Nutzer ein Modell niedrigeren Detailgrades, in welchem die Kontrollflussbeziehungen des Ursprungsmodells erhalten bleiben. Beginnend bei Modelltransformationen, die auf der Analyse der Prozessmodellstruktur aufbauen, entwickeln wir neuartige Abstraktionsoperationen zur Unterstützung dieses Anwendungsfalles. Darüber hinaus untersuchen wir Abstraktionsmethoden, welche die Semantik von Prozessmodellelementen berücksichtigen. Zum einen zeigen wir, wie Aktivitäten ermittelt werden können, die miteinander in semantischer Beziehung stehen - ein Problem, das bisher nur unzureichend betrachtet wurde. Die vorgeschlagenen Methoden werden mithilfe industrieller Prozessmodellsammlungen validiert und deren Umsetzung diskutiert. Zum anderen schlagen wir eine innovative Modelltransformation zur nicht-hierarchischen Abstraktion von Prozessmodellen vor. Dieser liegt die Ermittlung in Beziehung stehender Aktivitäten zugrunde. Demzufolge präsentiert diese Arbeit eine originäre Methode zur Prozessmodellabstraktion, die die Verwaltung von Geschäftsprozessmodellen vereinfacht und den Grundstein für innovative Softwarewerkzeuge legt. KW - Abstraktion KW - Prozess KW - Modell KW - Transformation KW - Komplexität KW - abstraction KW - process KW - model KW - transformation KW - complexity Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60258 ER - TY - THES A1 - Flores Suárez, Rosaura T1 - Three-dimensional polarization probing in polymer ferroelectrics, polymer-dispersed liquid crystals, and polymer ferroelectrets T1 - Dreidimensionale Polarisationsmessung in polymeren Ferroelektrika, polymerdispergierten Flüssigkristallen und polymeren Ferroelektreten N2 - A key non-destructive technique for analysis, optimization and developing of new functional materials such as sensors, transducers, electro-optical and memory devices is presented. The Thermal-Pulse Tomography (TPT) provides high-resolution three-dimensional images of electric field and polarization distribution in a material. This thermal technique use a pulsed heating by means of focused laser light which is absorbed by opaque electrodes. The diffusion of the heat causes changes in the sample geometry, generating a short-circuit current or change in surface potential, which contains information about the spatial distribution of electric dipoles or space charges. Afterwards, a reconstruction of the internal electric field and polarization distribution in the material is possible via Scale Transformation or Regularization methods. In this way, the TPT was used for the first time to image the inhomogeneous ferroelectric switching in polymer ferroelectric films (candidates to memory devices). The results shows the typical pinning of electric dipoles in the ferroelectric polymer under study and support the previous hypotheses of a ferroelectric reversal at a grain level via nucleation and growth. In order to obtain more information about the impact of the lateral and depth resolution of the thermal techniques, the TPT and its counterpart called Focused Laser Intensity Modulation Method (FLIMM) were implemented in ferroelectric films with grid-shaped electrodes. The results from both techniques, after the data analysis with different regularization and scale methods, are in total agreement. It was also revealed a possible overestimated lateral resolution of the FLIMM and highlights the TPT method as the most efficient and reliable thermal technique. After an improvement in the optics, the Thermal-Pulse Tomography method was implemented in polymer-dispersed liquid crystals (PDLCs) films, which are used in electro-optical applications. The results indicated a possible electrostatic interaction between the COH group in the liquid crystals and the fluorinate atoms of the used ferroelectric matrix. The geometrical parameters of the LC droplets were partially reproduced as they were compared with Scanning Electron Microscopy (SEM) images. For further applications, it is suggested the use of a non-strong-ferroelectric polymer matrix. In an effort to develop new polymerferroelectrets and for optimizing their properties, new multilayer systems were inspected. The results of the TPT method showed the non-uniformity of the internal electric-field distribution in the shaped-macrodipoles and thus suggested the instability of the sample. Further investigation on multilayers ferroelectrets was suggested and the implementation of less conductive polymers layers too. N2 - In dieser Arbeit wird eine zerstörungsfreie Technik zur Analyse, Optimierung, und Entwicklung neuer funktioneller Materialien für Sensoren, Wandler, Speicher und elektrooptische Anwendungen vorgestellt. Die Wärmepuls-Tomographie (engl. Thermal-Pulse Tomography, TPT) liefert dreidimensionale Abbildungen hoher Auflösung von elektrischen Feldern und Polarisationsverteilungen eines Materials. Bei dieser thermischen Methode wird ein fokussierter, gepulster Laserstrahl durch eine undurchsichtige Oberflächenelektrode absorbiert, welche sich dadurch aufheizt. Die einsetzende Wärmediffusion führt – aufgrund der Wärmeausdehnung des Materials – zu Änderungen der Probengeometrie, welche in pyroelektrischen Materialien einen Kurzschlussstrom oder eine Änderung des Oberflächenpotentials zur Folge hat. Diese wiederum enthalten wichtige Informationen über die räumliche Verteilung elektrischer Dipole und Raumladungen im untersuchten Material. Aus dem gemessenen Kurzsschlussstrom kann anschließend das interne elektrische Feld und die Polarisationsverteilung im Material mittels verschiedener Skalentransformations- und Regularisierungsmethoden rekonstruiert werden. Auf diese Weise ermöglichte die TPT-Methode erstmals die Darstellung inhomogener ferroelektrischer Schaltvorgänge in polymeren ferroelektrischen Filmen, welche mögliche Materialien für die Datenspeicherung sind. Die Ergebnisse zeigen eine typische Haftschicht im ferroelektrischen Polymer und unterstützen die Hypothese einer ferroelektrischen Umpolung auf einer der Korngröße äquivalenten Längenskala über Keimbildung und anschließendes Wachstum. Um die Lateral- und Tiefenauflösung zu untersuchen, wurden sowohl die TPT-Methode als auch die äquivalente Methode in der Zeitdomäne (Focused Laser Intensity Modulation Method, FLIMM) auf ferroelektrischen Filme mit Gitterelektroden angewendet. Die Ergebnisse beider Techniken zeigen nach der Datenauswertung mit unterschiedlichen Regularisierungs- und Scale-Methoden eine vollkommene Übereinstimmung. Des Weiteren stellte sich heraus, dass bisherige Untersuchungen der lateralen Auflösung von FLIMM diese möglicherweise überschätzen. Damit behauptet sich TPT als effiziente und verlässliche thermische Methode. Nach einer Optimierung der Optik wurde die TPT-Methode in polymerdispergierten Flüssigkristallen (polymer-dispersed liquid crystals, PDLC), welche in elektrooptischen Anwendungen von Interesse sind, angewendet. Die Ergebnisse deuten auf eine mögliche elektrostatischeWechselwirkung zwischen den COH-Gruppen des Flüssigkristalls und den Fluoratomen der verwendeten ferroelektrischen Matrix hin. Die durch rasterelektronenmikroskopische Aufnahmen (scanning electron microscopy, SEM) gewonnenen geometrischen Parameter der Flüssigkristalltröpfchen konnten mittels TPT reproduziert werden. Für weitere Anwendungen werden schwach ferroelektrische Polymermatrices vorgeschlagen. Im Bestreben neue polymere Ferroelektrete zu entwickeln und deren Eigenschaften zu optimieren, wurden neuartige Mehrschichtsysteme untersucht. Die Ergebnisse aus der TPT-Methode zeigen eine Abweichung der Uniformität der inneren Verteilung des elektrischen Feldes in den geformten Makrodipolen, was auf eine Instabilität der Probe hindeutet. Ebenfalls wurden weitere Untersuchungen an Mehrschicht-Ferroelektreten und die Anwendung von halbleitenden Polymerschichten vorgeschlagen. KW - Ferroelektrik KW - Ferroelektrete KW - Wärmepuls-Tomographie KW - Polarisationsverteilung KW - Flüssigkristalle KW - Polarization distribution KW - Ferroelectrics KW - PDLC KW - Ferroelectrets KW - Thermal-Pulse Tomography Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60173 ER - TY - THES A1 - Züllich, Gunda T1 - Migration and development in Senegal : a system dynamics analysis of the feedback relationships N2 - This thesis investigates the reciprocal relationship between migration and development in Senegal. Therewith, it contributes to the debate as to whether migration in developing countries enhances or rather impedes the development process. Even though extensive and controversial discussions can be found in the scientific literature regarding the impact of migration on development, research has scarcely examined the feedback relationships between migration and development. Science however agrees with both the fact that migration affects development as well as that the level of development in a country determines migration behaviour. Thus, both variables are neither dependent nor independent, but endogenous variables influencing each other and producing behavioural pattern that cannot be investigated using a static and unidirectional approach. On account of this, the thesis studies the feedback mechanisms existing between migration and development and the behavioural pattern generated by the high interdependence in order to be able to draw conclusions concerning the impact of changes in migration behaviour on the development process. To explore these research questions, the study applies the computer simulation method ‘System Dynamics’ and amplifies the simulation model for national development planning called ‘Threshold 21’ (T21), representing development processes endogenously and integrating economic, social and environmental aspects, using a structure that portrays the reasons and consequences of migration. The model has been customised to Senegal, being an appropriate representative of the theoretical interesting universe of cases. The comparison of the model generated scenarios - in which the intensity of emigration, the loss and gain of education, the remittances or the level of dependence changes - facilitates the analysis. The present study produces two important results. The first outcome is the development of an integrative framework representing migration and development in an endogenous way and incorporating several aspects of different theories. This model can be used as a starting point for further discussions and improvements and it is a fairly relevant and useful result against the background that migration is not integrated into most of the development planning tools despite its significant impact. The second outcome is the gained insights concerning the feedback relations between migration and development and the impact of changes in migration on development. To give two examples: It could be found that migration impacts development positively, indicated by HDI, but that the dominant behaviour of migration and development is a counteracting behaviour. That means that an increase in emigration leads to an improvement in development, while this in turn causes a decline in emigration, counterbalancing the initial increase. Another insight concerns the discovery that migration causes a decline in education in the short term, but leads to an increase in the long term, after approximately 25 years - a typical worse-before-better behaviour. From these and further observations, important policy implications can be derived for the sending and receiving countries. Hence, by overcoming the unidirectional perspective, this study contributes to an improved understanding of the highly complex relationship between migration and development and their feedback relations. N2 - Die vorliegende Arbeit untersucht das wechselseitige Verhältnis zwischen Migration und Entwicklung im Senegal. Damit soll ein Beitrag zu der Debatte geleistet werden, ob Migration in Entwicklungsländern den Entwicklungsprozess eher fördert oder verhindert. Während die Frage nach der Auswirkung von Migration auf Entwicklung in der Literatur ausgiebig und kontrovers diskutiert wird, hat sich die Forschung bisher kaum den Rückkopplungen zwischen Migration und Entwicklung gewidmet, obwohl sich die Wissenschaft sowohl darüber einig ist, dass Migration den Entwicklungsprozess beeinflusst, als auch, dass der Entwicklungsstand eines Land das Migrationsverhalten bestimmt. Folglich sind beide Variablen weder abhängig, noch unabhängige, sondern endogene Variablen, die sich gegenseitig beeinflussen und damit Verhaltensweisen produzieren, deren Erforschung ein statischer, unidirektionaler Ansatz nicht gerecht wird. Deswegen fragt diese Arbeit nach den Rückwirkungsmechanismen, die zwischen Migration und Entwicklung existieren, und nach den Verhaltensweisen, die durch die hohe Interdependenz entstehen, um daraus Rückschlüsse auf die Frage ziehen zu können, welchen Einfluss Änderungen im Migrationsverhalten auf den Entwicklungsprozess haben. Um diese Forschungsfragen zu untersuchen wurde die Computersimulationsmethode System Dynamics genutzt und das Simulationsmodell zur nationalen Entwicklungsplanung, das ‚Threshold 21’ (T21), das die Entwicklungsprozesse endogen darstellt und soziale, ökonomische sowie ökologische Aspekte miteinander verknüpft, um eine Struktur erweitert, welche die Gründe und Konsequenzen von Migration abbildet. Dies wurde an den Senegal, ein angemessener Repräsentant der theoretisch interessanten Grundgesamtheit, angepasst. Der Vergleich der mit dem Modell generierten Szenarien, in denen die Intensität der Abwanderung, des Bildungsverlustes, des Bildungsgewinns, der Geldüberweisungen, oder der Abhängigkeit verändert wurden, ermöglichte die Analyse. Die Studie bringt zwei wichtige Ergebnisse hervor. Erstens entwickelt sie ein umfangreiches Modell, das Migration und Entwicklung endogen erklärt und verschiedene theoretische Ansatzpunkte enthält. Dies kann sowohl als Grundlage für weitere Diskussion und Verbesserungen genutzt werden, ist aber vor allem vor dem Hintergrund, dass Migration in den meisten Modellen zur Entwicklungsplanung trotz des relevanten Einflusses nicht integriert ist, ein wichtiges und nützliches Resultat. Zweitens konnte die Analyse des Verhaltens des Modells wichtige Erkenntnisse bezüglich der Rückwirkungsmechanismen zwischen Migration und Entwicklung und der Wirkung von Veränderungen in Migration auf Entwicklung erzielen. Um zwei Beispiele zu nennen, wurde herausgearbeitet, dass Migration sich positiv auf Entwicklung, gemessen am Human Development Index (HDI), auswirkt, dass es sich aber generell um ein sich ausgleichendes Verhalten handelt, da die positiven Einflüsse auf Entwicklung ihrerseits Migration verringern, wodurch die positiven Einflüsse wieder abnehmen. Ebenso konnte festgestellt werden, dass Migration für das Bildungsniveau zunächst eine Verschlechterung, später aber, nach ca. 25 Jahren, eine Verbesserung nach sich zieht. Aus diesen und weiteren Beobachtungen können wichtige Politikempfehlungen für die Sende- und Empfängerländer von Migration abgeleitet werden. Durch das Überwinden der unidirektionalen Betrachtungsweise trägt diese Arbeit somit zu einem besseren Verständnis des hoch komplexen und von Rückwirkungsmechanismen geprägten Verhältnisses zwischen Migration und Entwicklung bei. KW - Internationale Migration KW - Nachhaltige Entwicklung KW - Senegal KW - System Dynamics KW - Modellierung KW - International Migration KW - Sustainable Development KW - Senegal KW - System Dynamics KW - Modelling Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57836 ER - TY - THES A1 - Bordihn, Henning T1 - Contributions to the syntactical analysis beyond context-freeness T1 - Beiträge zur syntaktischen Analyse nicht-kontextfreier Sprachen N2 - Parsability approaches of several grammar formalisms generating also non-context-free languages are explored. Chomsky grammars, Lindenmayer systems, grammars with controlled derivations, and grammar systems are treated. Formal properties of these mechanisms are investigated, when they are used as language acceptors. Furthermore, cooperating distributed grammar systems are restricted so that efficient deterministic parsing without backtracking becomes possible. For this class of grammar systems, the parsing algorithm is presented and the feature of leftmost derivations is investigated in detail. N2 - Ansätze zum Parsing verschiedener Grammatikformalismen, die auch nicht-kontextfreie Sprachen erzeugen können, werden diskutiert. Chomsky-Grammatiken, Lindenmayer-Systeme, Grammatiken mit gesteuerten Ersetzungen und Grammatiksysteme werden behandelt. Formale Eigenschaften dieser Mechanismen als Akzeptoren von Sprachen werden untersucht. Weiterhin werden kooperierende verteilte (CD) Grammatiksysteme derart beschränkt, dass effizientes deterministisches Parsing ohne Backtracking möglich ist. Für diese Klasse von Grammatiksystemen wird der Parsingalgorithmus vorgestellt und die Rolle von Linksableitungen wird detailliert betrachtet. KW - Parsing KW - Akzeptierende Grammatiken KW - Gesteuerte Ableitungen KW - Grammatiksysteme KW - Linksableitungen KW - Parsing KW - Accepting Grammars KW - Controlled Derivations KW - Grammar Systems KW - Leftmost Derivations Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59719 ER - TY - THES A1 - Thiele, Sven T1 - Modeling biological systems with Answer Set Programming T1 - Modellierung biologischer Systeme mit Answer Set Programming N2 - Biology has made great progress in identifying and measuring the building blocks of life. The availability of high-throughput methods in molecular biology has dramatically accelerated the growth of biological knowledge for various organisms. The advancements in genomic, proteomic and metabolomic technologies allow for constructing complex models of biological systems. An increasing number of biological repositories is available on the web, incorporating thousands of biochemical reactions and genetic regulations. Systems Biology is a recent research trend in life science, which fosters a systemic view on biology. In Systems Biology one is interested in integrating the knowledge from all these different sources into models that capture the interaction of these entities. By studying these models one wants to understand the emerging properties of the whole system, such as robustness. However, both measurements as well as biological networks are prone to considerable incompleteness, heterogeneity and mutual inconsistency, which makes it highly non-trivial to draw biologically meaningful conclusions in an automated way. Therefore, we want to promote Answer Set Programming (ASP) as a tool for discrete modeling in Systems Biology. ASP is a declarative problem solving paradigm, in which a problem is encoded as a logic program such that its answer sets represent solutions to the problem. ASP has intrinsic features to cope with incompleteness, offers a rich modeling language and highly efficient solving technology. We present ASP solutions, for the analysis of genetic regulatory networks, determining consistency with observed measurements and identifying minimal causes for inconsistency. We extend this approach for computing minimal repairs on model and data that restore consistency. This method allows for predicting unobserved data even in case of inconsistency. Further, we present an ASP approach to metabolic network expansion. This approach exploits the easy characterization of reachability in ASP and its various reasoning methods, to explore the biosynthetic capabilities of metabolic reaction networks and generate hypotheses for extending the network. Finally, we present the BioASP library, a Python library which encapsulates our ASP solutions into the imperative programming paradigm. The library allows for an easy integration of ASP solution into system rich environments, as they exist in Systems Biology. N2 - In den letzten Jahren wurden große Fortschritte bei der Identifikation und Messung der Bausteine des Lebens gemacht. Die Verfügbarkeit von Hochdurchsatzverfahren in der Molekularbiology hat das Anwachsen unseres biologischen Wissens dramatisch beschleunigt. Durch die technische Fortschritte in Genomic, Proteomic und Metabolomic wurde die Konstruktion komplexer Modelle biologischer Systeme ermöglicht. Immer mehr biologische Datenbanken sind über das Internet verfügbar, sie enthalten tausende Daten biochemischer Reaktionen und genetischer Regulation. System Biologie ist ein junger Forschungszweig der Biologie, der versucht Biologische Systeme in ihrer Ganzheit zu erforschen. Dabei ist man daran interessiert möglichst viel Wissen aus den unterschiedlichsten Bereichen in ein Modell zu aggregieren, welches das Zusammenwirken der verschiedensten Komponenten nachbildet. Durch das Studium derartiger Modelle erhofft man sich ein Verständnis der aufbauenden Eigenschaften, wie zum Beispiel Robustheit, des Systems zu erlangen. Es stellt sich jedoch die Problematik, das sowohl die biologischen Modelle als auch die verfügbaren Messwerte, oft unvollständig, miteinander unvereinbar oder fehlerhaft sind. All dies macht es schwierig biologisch sinnvolle Schlussfolgerungen zu ziehen. Daher, möchten wir in dieser Arbeit Antwortmengen Programmierung (engl. Answer Set Programming; ASP) als Werkzeug zur diskreten Modellierung system biologischer Probleme vorschlagen. ASP verfügt über eingebaute Eigenschaften zum Umgang mit unvollständiger Information, eine reichhaltige Modellierungssprache und hocheffiziente Berechnungstechniken. Wir präsentieren ASP Lösungen zur Analyse von Netzwerken genetischer Regulierungen, zur Prüfung der Konsistenz mit gemessene Daten, und zur Identifikation von Gründen für Inkonsistenz. Diesen Ansatz erweitern wir um die Möglichkeit zur Berechnung minimaler Reparaturen an Modell und Daten, welche Konsistenz erzeugen. Mithilfe dieser Methode werden wir in die Lage versetzt, auch im Fall von Inkonsistenz, noch ungemessene Daten vorherzusagen. Weiterhin, präsentieren wir einen ASP Ansatz zur Analyse metabolischer Netzwerke. Bei diesem Ansatz, nutzen wir zum einen aus das sich Erreichbarkeit mit ASP leicht spezifizieren lässt und das ASP mehrere mächtige Methoden zur Schlussfolgerung bereitstellt, welche sich auch kombiniert lassen. Dadurch wird es möglich die Synthese Möglichkeiten eines Metabolischen Netzwerks zu erforschen und Hypothesen für Erweiterungen des metabolischen Netzwerks zu berechnen. Zu guter Letzt, präsentieren wir die BioASP Softwarebibliothek. Die BioASP-Bibliothek kapselt unsere ASP Lösungen in das imperative Programmierparadigma und vereinfacht eine Integration von ASP Lösungen in heterogene Betriebsumgebungen, wie sie in der System Biologie vorherrschen. KW - Antwortmengen Programmierung KW - System Biologie KW - Inkonsistenz KW - Unvollständigkeit KW - Reparatur KW - answer set programming KW - systems biology KW - inconsistency KW - incompleteness KW - repair Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59383 ER - TY - THES A1 - Wist, Dominic T1 - Attacking complexity in logic synthesis of asynchronous circuits T1 - Komplexitätsbewältigung in der Logiksynthese asynchroner Schaltungen N2 - Most of the microelectronic circuits fabricated today are synchronous, i.e. they are driven by one or several clock signals. Synchronous circuit design faces several fundamental challenges such as high-speed clock distribution, integration of multiple cores operating at different clock rates, reduction of power consumption and dealing with voltage, temperature, manufacturing and runtime variations. Asynchronous or clockless design plays a key role in alleviating these challenges, however the design and test of asynchronous circuits is much more difficult in comparison to their synchronous counterparts. A driving force for a widespread use of asynchronous technology is the availability of mature EDA (Electronic Design Automation) tools which provide an entire automated design flow starting from an HDL (Hardware Description Language) specification yielding the final circuit layout. Even though there was much progress in developing such EDA tools for asynchronous circuit design during the last two decades, the maturity level as well as the acceptance of them is still not comparable with tools for synchronous circuit design. In particular, logic synthesis (which implies the application of Boolean minimisation techniques) for the entire system's control path can significantly improve the efficiency of the resulting asynchronous implementation, e.g. in terms of chip area and performance. However, logic synthesis, in particular for asynchronous circuits, suffers from complexity problems. Signal Transitions Graphs (STGs) are labelled Petri nets which are a widely used to specify the interface behaviour of speed independent (SI) circuits - a robust subclass of asynchronous circuits. STG decomposition is a promising approach to tackle complexity problems like state space explosion in logic synthesis of SI circuits. The (structural) decomposition of STGs is guided by a partition of the output signals and generates a usually much smaller component STG for each partition member, i.e. a component STG with a much smaller state space than the initial specification. However, decomposition can result in component STGs that in isolation have so-called irreducible CSC conflicts (i.e. these components are not SI synthesisable anymore) even if the specification has none of them. A new approach is presented to avoid such conflicts by introducing internal communication between the components. So far, STG decompositions are guided by the finest output partitions, i.e. one output per component. However, this might not yield optimal circuit implementations. Efficient heuristics are presented to determine coarser partitions leading to improved circuits in terms of chip area. For the new algorithms correctness proofs are given and their implementations are incorporated into the decomposition tool DESIJ. The presented techniques are successfully applied to some benchmarks - including 'real-life' specifications arising in the context of control resynthesis - which delivered promising results. N2 - Moderner Schaltungsentwurf fokussiert hauptsächlich synchrone Schaltungstechnik mit allen inhärenten Problemen. Asynchone (d.h. ungetaktete) Schaltungen zeichnen sich jedoch nicht nur durch das Fehlen der Taktversatzproblematik gegenüber ihren synchronen Pendents aus, sondern auch insbesondere durch geringeren Energieverbrauch, günstigere EMV-Eigenschaften, hohe Performance, Modularität und Robustheit gegenüber Schwankungen in der Spannungsversorgung, im Herstellungsprozess sowie Temperaturunterschieden. Diese Vorteile werden mit höherer Integration sowie höheren Taktraten signifikanter. Jedoch ist der Entwurf und auch der Test asynchroner Schaltungen erheblich schwieriger verglichen mit synchronen Schaltungen. Entwurfswerkzeuge zur Synthese asynchroner Schaltungen aus Hochsprachen-Spezifikationen sind zwar inzwischen verfügbar, sie sind jedoch noch nicht so ausgereift und bei weitem noch nicht so akzeptiert in der Industrie, wie ihre Äquivalente für den synchronen Schaltungsentwurf. Insbesondere fehlt es an Werkzeugunterstützung im Bereich der Logiksynthese komplexer Steuerungen („Controller“), welche kritisch für die Effizienz – z.B. in Bezug auf Chipfläche und Geschwindigkeit – der resultierenden Schaltungen oder Systeme ist. Zur Spezifikation von Steuerungen haben sich Signalflankengraphen („signal transition graphs“, STGs) bewährt, die auch als Entwurfseinstieg für eine Logiksynthese von SI-Schaltungen („speed independent“) verwendet werden. (SI-Schaltungen gelten als sehr robuste asynchrone Schaltungen.) Aus den STGs werden zwecks Logiksynthese Automaten abgeleitet werden, deren Zustandszahl aber oft prohibitiv groß werden kann. Durch sogenannte STG-Dekomposition wird die Logiksynthese einer komplexen Schaltung ermöglicht, was bislang aufgrund von Zustandsexplosion oft nicht möglich war. Dabei wird der Spezifikations-STG laut einer gegebenen Partition von Ausgangssignalen in viele kleinere Teilnetze dekomponiert, wobei zu jedem Partitionsblock ein Teilnetz – mit normalerweise signifikant kleinerem Zustandsraum im Vergleich zur Spezifikation – erzeugt wird. Zu jedem Teilnetz wird dann eine Teilschaltung (Komponente) mittels Logiksynthese generiert. Durch die Anwendung von STG-Dekomposition können jedoch Teilnetze erzeugt werden, die sogenannte irreduzible CSC-Konflikte aufweisen (d.h. zu diesen Teilnetzen kann keine SI-Schaltung erzeugt werden), obwohl die Spezifikation keine solchen Konflikte hatte. Diese Arbeit präsentiert einen neuen Ansatz, welcher die Entstehung solcher irreduziblen Konflikte vermeidet, und zwar durch die Einführung interner Kommunikation zwischen den (zu den Teilnetzen gehörenden) Schaltungskomponenten. Bisher werden STG-Dekompositionen total durchgeführt, d.h. pro resultierender Komponente wird ein Ausgangssignal erzeugt. Das führt gewöhnlich nicht zu optimalen Schaltungsimplementierungen. In dieser Arbeit werden Heuristiken zur Bestimmung gröberer Ausgabepartitionen (d.h. Partitionsblöcke mit mehreren Ausgangssignalen) vorgestellt, die zu kleineren Schaltungen führen. Die vorgestellten Algorithmen werden formal abgesichert und wurden in das bereits vorhandene Dekompositionswerkzeug DESIJ integriert. An praxisrelevanten Beispielen konnten die vorgestellten Verfahren erfolgreich erprobt werden. KW - Asynchrone Schaltung KW - Logiksynthese KW - Komplexitätsbewältigung KW - STG-Dekomposition KW - CSC KW - asynchronous circuit KW - logic synthesis KW - speed independence KW - STG decomposition KW - CSC Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59706 ER - TY - THES A1 - Hanisch, Florian T1 - Variational problems on supermanifolds T1 - Variationsprobleme auf Supermannigfaltigkeiten N2 - In this thesis, we discuss the formulation of variational problems on supermanifolds. Supermanifolds incorporate bosonic as well as fermionic degrees of freedom. Fermionic fields take values in the odd part of an appropriate Grassmann algebra and are thus showing an anticommutative behaviour. However, a systematic treatment of these Grassmann parameters requires a description of spaces as functors, e.g. from the category of Grassmann algberas into the category of sets (or topological spaces, manifolds). After an introduction to the general ideas of this approach, we use it to give a description of the resulting supermanifolds of fields/maps. We show that each map is uniquely characterized by a family of differential operators of appropriate order. Moreover, we demonstrate that each of this maps is uniquely characterized by its component fields, i.e. by the coefficients in a Taylor expansion w.r.t. the odd coordinates. In general, the component fields are only locally defined. We present a way how to circumvent this limitation. In fact, by enlarging the supermanifold in question, we show that it is possible to work with globally defined components. We eventually use this formalism to study variational problems. More precisely, we study a super version of the geodesic and a generalization of harmonic maps to supermanifolds. Equations of motion are derived from an energy functional and we show how to decompose them into components. Finally, in special cases, we can prove the existence of critical points by reducing the problem to equations from ordinary geometric analysis. After solving these component equations, it is possible to show that their solutions give rise to critical points in the functor spaces of fields. N2 - In dieser Dissertation wird die Formulierung von Variationsproblemen auf Supermannigfaltigkeiten diskutiert. Supermannigfaltigkeiten enthalten sowohl bosonische als auch fermionische Freiheitsgrade. Fermionische Felder nehmen Werte im ungeraden Teil einer Grassmannalgebra an, sie antikommutieren deshalb untereinander. Eine systematische Behandlung dieser Grassmann-Parameter erfordert jedoch die Beschreibung von Räumen durch Funktoren, z.B. von der Kategorie der Grassmannalgebren in diejenige der Mengen (der topologischen Räume, Mannigfaltigkeiten, ...). Nach einer Einführung in das allgemeine Konzept dieses Zugangs verwenden wir es um eine Beschreibung der resultierenden Supermannigfaltigkeit der Felder bzw. Abbildungen anzugeben. Wir zeigen, dass jede Abbildung eindeutig durch eine Familie von Differentialoperatoren geeigneter Ordnung charakterisiert wird. Darüber hinaus beweisen wir, dass jede solche Abbildung eineindeutig durch ihre Komponentenfelder, d.h. durch die Koeffizienten einer Taylorentwickelung bzgl. von ungeraden Koordinaten bestimmt ist. Im Allgemeinen sind Komponentenfelder nur lokal definiert. Wir stellen einen Weg vor, der diese Einschränkung umgeht: Durch das Vergrößern der betreffenden Supermannigfaltigkeit ist es immer möglich, mit globalen Koordinaten zu arbeiten. Schließlich wenden wir diesen Formalismus an, um Variationsprobleme zu untersuchen, genauer betrachten wir eine super-Version der Geodäte und eine Verallgemeinerung von harmonischen Abbildungen auf Supermannigfaltigkeiten. Bewegungsgleichungen werden von Energiefunktionalen abgeleitet und wir zeigen, wie sie sich in Komponenten zerlegen lassen. Schließlich kann in Spezialfällen die Existenz von kritischen Punkten gezeigt werden, indem das Problem auf Gleichungen der gewöhnlichen geometrischen Analysis reduziert wird. Es kann dann gezeigt werden, dass die Lösungen dieser Gleichungen sich zu kritischen Punkten im betreffenden Funktor-Raum der Felder zusammensetzt. KW - Supergeometrie KW - Variationsrechnung KW - Differentialoperatoren KW - Funktorgeometrie KW - supergeometry KW - variational calculus KW - differential operators KW - functor geometry Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59757 ER - TY - THES A1 - Federico, Stefania T1 - Synthetic peptides derived from decorin as building blocks for biomaterials based on supramolecular interactions T1 - Synthetische Peptide Basierend auf Decorin als Bausteine für Supramolekulare Biomaterialien N2 - In this work, the development of a new molecular building block, based on synthetic peptides derived from decorin, is presented. These peptides represent a promising basis for the design of polymer-based biomaterials that mimic the ECM on a molecular level and exploit specific biological recognition for technical applications. Multiple sequence alignments of the internal repeats of decorin that formed the inner and outer surface of the arch-shaped protein were used to develop consensus sequences. These sequences contained conserved sequence motifs that are likely to be related to structural and functional features of the protein. Peptides representative for the consensus sequences were synthesized by microwave-assisted solid phase peptide synthesis and purified by RP-HPLC, with purities higher than 95 mol%. After confirming the desired masses by MALDI-TOF-MS, the primary structure of each peptide was investigated by 1H and 2D NMR, from which a full assignment of the chemical shifts was obtained. The characterization of the peptides conformation in solution was performed by CD spectroscopy, which demonstrated that using TFE, the peptides from the outer surface of decorin show a high propensity to fold into helical structures as observed in the original protein. To the contrary, the peptides from the inner surface did not show propensity to form stable secondary structure. The investigation of the binding capability of the peptides to Collagen I was performed by surface plasmon resonance analyses, from which all but one of the peptides representing the inner surface of decorin showed binding affinity to collagen with values of dissociation constant between 2•10-7 M and 2.3•10-4 M. On the other hand, the peptides representative for the outer surface of decorin did not show any significant interaction to collagen. This information was then used to develop experimental demonstration for the binding capabilities of the peptides from the inner surface of decorin to collagen even when used in more complicated situations close to possible appications. With this purpose, the peptide (LRELHLNNN) which showed the highest binding affinity to collagen (2•10-7 M) was functionalized with an N-terminal triple bond in order to obtain a peptide dimer via copper(I)-catalyzed cycloaddition reaction with 4,4'-diazidostilbene-2,2'-disulfonic acid. Rheological measurements showed that the presence of the peptide dimer was able to enhance the elastic modulus (G') of a collagen gel from ~ 600 Pa (collagen alone) to ~ 2700 Pa (collagen and peptide dimer). Moreover, it was shown that the mechanical properties of a collagen gel can be tailored by using different molar ratios of peptide dimer respect to collagen. The same peptide, functionalized with the triple bond, was used to obtain a peptide-dye conjugate by coupling it with N-(5'-azidopentanoyl)-5-aminofluorescein. An aqueous solution (5 vol% methanol) of the peptide dye conjugate was injected into a collagen and a hyaluronic acid (HA) gel and images of fluorescence detection showed that the diffusion of the peptide was slower in the collagen gel compared to the HA gel. The third experimental demonstration was gained using the peptide (LSELRLHNN) which showed the lower binding affinity (2.3•10-4 M) to collagen. This peptide was grafted to hyaluronic acid via EDC-chemistry, with a degree of functionalization of 7 ± 2 mol% as calculated by 1H-NMR. The grafting was further confirmed by FTIR and TGA measurements, which showed that the onset of decomposition for the HA-g-peptide decreased by 10 °C compared to the native HA. Rheological measurements showed that the elastic modulus of a system based on collagen and HA-g-peptide increased by almost two order of magnitude (G' = 200 Pa) compared to a system based on collagen and HA (G' = 0.9 Pa). Overall, this study showed that the synthetic peptides, which were identified from decorin, can be applied as potential building blocks for biomimetic materials that function via biological recognition. N2 - In dieser Arbeit wird das Design, die Synthese und Analyse neuer molekularer Bausteine für Biomaterialien basierend auf synthetischen, von Decorin abgeleiteten Peptiden beschrieben. Diese Peptide sind deshalb als Baustein für polymer-basierte Biomaterialien von besonderem Interesse, da sie die extrazelluläre Matrix (ECM) auf molekularer Ebene nachempfinden und spezifische, biologische wichtige Interaktionen für technische Anwendungen nutzbar machen. Das Alignment multipler Sequenzen der internen Repeats von Decorin, die jeweils die innere bzw. äußere Seite des sichelförmigen Decorins bilden, wurde genutzt, um Konsensus-Sequenzen zu definieren. Diese Sequenzen beinhalten stark konservierte Sequenzmotive, die wahrscheinlich wichtig für Struktur und Funktion des Proteins sind. Ausgewählte Peptide, die repräsentativ für die Konsensus-Sequenzen sind, wurden dann mittels Mikrowellen unterstützter Festphasensynthese synthetisiert und mit RP-HPLC aufgereinigt, so dass Peptide mit Reinheiten ≥ 95 mol% erhalten wurden. Die Peptide wurden per MALDI-TOF-MS sowie 1D und 2D NMR Spektroskopie charakterisiert, wobei die Zuordnung der chemischen Verschiebungen zu einzelnen Protonen und Kohlenstoffen aus den 2D NMR Experimenten erfolgte. In Lösung wurden die Peptide zudem mit CD Spektroskopie untersucht, wobei gezeigt werden konnte, dass nur Peptide, die von der äußeren Seite des Decorins abgeleitet wurden, sich durch Zugabe von 2,2,2-Trifluorethanol zu α-Helices falten. Diese Faltung ist auch in der Röntgenstruktur bei den korrespondierenden Abschnitten zu finden. Im Gegensatz dazu zeigten Peptide, die von der inneren Seite des Decorins abgeleitet wurden, keine stabilen Sekundärstrukturen in Lösung (β-Faltblattstruktur in der Röntgenstruktur). Bindungsstudien der Peptide zu Kollagen I wurden mit Oberflächenplasmonenresonanz durchgeführt, wobei gezeigt werden konnte, dass alle bis auf ein Peptid, die von der innneren Seite abgeleitet wurden, an Kollagen mit Dissoziationskonstanten von 2•10-7 M bis 2.3•10-4 M binden, während Peptide, die für die äußere Seite von Decorin repräsentativ sind, keine Bindung an Kollagen I zeigten. Diese Information wurde genutzt, um experimentelle Demonstrationsobjekte dieser Interaktion in komplexeren, einer späteren Anwendung näheren Situation, zu entwickeln. Dazu wurde das Peptide LRELHLNNN, welches die stärkste Bindung zu Kollagen I zeigte (KD = 2•10-7 M), N-terminal mit einer Alkinbindung funktionalisiert, so dass durch Kupfer (I) katalysierte Reaktion mit 4,4'-Diazidostilben-2,2'-disulfonsäure ein Peptid-Dimer erhalten werden konnte. Rheologische Untersuchungen zeigten, dass durch Zugabe des Peptid-Dimers der Elastizitätsmodul G' von Kollagen-Gelen von ~ 600 Pa (nur Kollagen) auf ~ 2700 Pa (Kollagen und Peptide-Dimer) gesteigert werden konnte. Darüber hinaus konnte gezeigt werden, dass die Veränderung der mechanischen Eigenschaften der Gele durch Veränderung des Kollagen:Peptid-Dimer Verhältnisses angepasst werden konnten. Das gleiche, mit einer Alkin-Bindung funktionaliserte Peptid wurde dann zur Darstellung eines Peptid-Fluorescein Konjugats genutzt, indem es mit N-(5'-azidopentanoyl)-5-aminofluorescein umgesetzt wurde. Eine wässrige Lösung des Peptid-Farbstoff-Konjugats wurde dann in Kollagen- bzw. Hyaluronsäuregele injiziert. Die Diffusion des Peptid-Farbstoff-Konjugats war in Kollagengelen im Vergleich zu Hyaluronsäuregelen deutlich verlangsamt. Das dritte Demonstrationsobjekt wurde erhalten, indem das Peptid LSELRLHNN, welches die geringste Bindung an Kollagen zeigte (KD = 2.3•10-4 M), auf Hyaluronsäure (HA) gegrafted wurde. Die Reaktion wurde durch Carbodiimid-mediierte Kupplung erreicht, und ein Funktionalisierungsgrad von 7 ± 2 mol% wurde durch Integration der 1H-NMR Spektren bestimmt. Das erfolgreiche Grafting wurde durch FTIR- und TGA-Untersuchungen bestätigt. In letzteren wurde gezeigt, dass der thermische Abbau durch das Grafting bei etwas niedrigeren Temperaturen beginnt als der Abbau reiner Hyaluronsäure (ΔT = 10 °C). Rheologische Untersuchungen zeigten, dass ein System aus Kollagen und HA-g-Peptid ein um zwei Größenordnungen höheren Elastizitätsmodul G' hat (G' = 200 Pa) als Systeme, die aus einer physikalischen Mischung von Kollagen und HA bestehen (G' = 0.9 Pa). Zusammenfassend konnte gezeigt werden, dass die Peptide, die von Decorin abgeleitet wurden, als Kollagen-bindende Bausteine für biomimetische Materialien genutzt werden können. KW - Decorin KW - Peptide KW - Supramolekularen Wechselwirkungen KW - Kollagen KW - Physikalische Vernetzung KW - Decorin KW - Peptides KW - Supramolecular Interactions KW - Collagen KW - Physical Crosslinking Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59661 ER - TY - THES A1 - Kellermann, Thorsten T1 - Accurate numerical relativity simulations of non-vacuumspace-times in two dimensions and applications to critical collapse T1 - Exakte numerisch relativistische Simulationen der Nicht-Vakuum-Raum-Zeit in zwei Dimensionen und deren Anwendung zu Problemen des kritischen Kollaps N2 - This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse. N2 - Diese Arbeit legt seinen Schwerpunkt auf die Physik von Neutronensternen und deren Beschreibung mit Methoden der numerischen Relativitätstheorie. Im ersten Schritt wird eine neue numerische Umgebung, der Whisky2D Code entwickelt, dieser löst die relativistischen Gleichungen der Hydrodynamik in Axialymmetrie. Hierzu betrachten wir eine verbesserte Formulierung der sog. "flux conserved formulation" der Gleichungen. Im zweiten Teil wird der neue Code verwendet , um das kritische Verhalten zweier kollidierenden Neutronensternen zu untersuchen. In Anbetracht der Analogie, um Übergänge in der statistischen Physik Phase werden wir die Entwicklung der Entropie der Neutronensterne während des gesamten Prozesses betrachten. Ein besseres Verständnis der Evolution von thermodynamischen Größen, wie der Entropie in kritischer Prozess, sollte zu einem tieferen Verständnis der relativistischen Thermodynamik führen. Der Whisky2D Code, zur Lösung Gleichungen relativistischer Hydrodynamik wurde in einer „flux conserved form“ und in zylindrischen Koordinaten geschrieben. Hierdurch entstehen 1 / r singuläre Terme, wobei r der ist, die entsprechend behandelt werden müssen. In früheren Arbeiten, wird der Operator expandiert und die 1 / r spezifisch Therme auf die rechte Seite geschrieben, so dass die linke Seite eine Form annimmt, die identisch ist mit der kartesischen Formulierung. Wir nennen dies die Standard-Formulierung. Eine andere Möglichkeit ist, die Terme nicht zu expandieren, den und den 1/r Term in die Gleichung hinein zu ziehen. Wir nennen dies die Neue-Formulierung. Die neuen Gleichungen werden mit den gleichen Verfahren wie im kartesischen Fall gelöst. Aus mathematischer Sicht ist keine Unterschiede zwischen den beiden Formulierungen zu erwarten, erst die numerische Sicht zeigt die Unterschiede auf. Versuche zeigen, dass die Neue-Formulierung numerische Fehler um mehrere Größenordnungen reduziert. Der zweite Teil der Dissertation verwendet den neuen Code für die Untersuchung kritischer Phänomene in der allgemeinen Relativitätstheorie. Insbesondere betrachten wir die Kopf-auf-Kollision zweier Neutronensterne in einem Bereich des Parameter Raums, deren zwei mögliche Endzustände entweder einen neuen stabilen Neutronenstern oder ein Schwarzes Loch darstellen. Im Jahr 1993, betrachtete Choptuik Ein-Parameter-Familien von Lösungen, S [P], der Einstein-Klein-Gordon-Gleichung für ein masseloses Skalarfeld in sphärischer Symmetrie, so dass für jedes P> P ⋆, S[P] ein Schwarzes Loch enthalten ist und jedes P
2 and that the continuum AGN luminosity is better correlated with the NLR size than the [OIII] luminosity. These affects may account for the different NLR size-luminosity relations reported in previous studies. On the other hand, we do not detect extended NLRs around all QSOs, and demonstrate that the detection of extended NLRs goes along with radio emission. We employ emission line ratios as a diagnostic for the abundance of heavy elements in the gas, i.e. its metallicity, and find that the radial metallicity gradients are always flatter than in inactive disc-dominated galaxies. This can be interpreted as evidence for radial gas flows from the outskirts of these galaxies to the nucleus. Recent or ongoing galaxy interactions are likely responsible for this effect and may turn out to be a common prerequisite for QSO activity. The metallicity of bulge-dominated hosts are systematically lower than their disc-dominated counterparts, which we interpret as evidence for minor mergers, supported by our detailed study of the bulge-dominated host of the luminous QSO HE 1029-1401, or smooth gas accretion from the environment. In this line another new discovery is that HE 2158-0107 at z=0.218 is the most metal poor luminous QSO ever observed. Together with a large (30kpc) extended structure of low metallicity ionised gas, we propose smooth cold gas accretion as the most likely scenario. Theoretical studies suggested that this process is much more important at earlier epochs of the universe, so that HE 2158-0107 might be an ideal laboratory to study this mechanism of galaxy and BH growth at low redshift more detailed in the furture. N2 - Aktive Galaxienkerne (AGN) entstehen durch die Akkretion von Gas auf massive Schwarze Löcher, welche im Zentrum jeder Galaxie mit einer spherodialen Komponente vermutet werden. Die Leuchtkraft eines AGN kann die seiner gesamten Muttergalaxie um Größenordnungen übersteigen. In diesem Fall werden AGN oft als Quasi-Stellare Objekte (Quasare) bezeichnet. Spezielle Mechanismen müssen für das Auslösen dieser Kernaktivität in Galaxien verantwortlich sein. Verschiedene Prozesse wurden bereits identifiziert, aber der entscheidende Mechanismus wurde bisher noch nicht entdeckt. Die Wechselwirkung mit einem AGN könnte außerdem einen entscheidenden Einfluss auf die Entwicklung von Galaxien haben. Es ist noch unklar wie diese Wechselwirkung genau abläuft und ob es die Sternentstehung in Galaxien beeinflusst. In dieser Arbeit studieren wir die Eigenschaften des ausgedehnten ionisierten Gases in AGN-Muttergalaxien, um mögliche Wechselwirkungen zu untersuchen. Wir benutzen dazu eine Stichprobe von ~50 Quasaren bei geringer Rotverschiebung (z<0.3), die mit der neuartigen Technik der Integralfeld-Spektroskopie beobachtet wurden. Diese Technik kombiniert bildgebende und spektroskopische Verfahren. Wir können mit unserer Analyse zeigen, dass die spezifische Sternentstehungsrate in einigen Scheiben-dominierten AGN-Muttergalaxien vergleichbar mit denen von normalen Galaxien ohne Kernaktivität ist. Allerdings können wir in einigen AGN-Muttergalaxien keine Anzeichen von Sternentstehung feststellen. Ob Sternentstehung in diesen Galaxien momentan durch die Wechselwirkung mit dem AGN unterdrückt wird, ist daher nicht eindeutig. Hinweise auf Gasausflüsse liefert die Kinematik des ionisierten Gases für einige wenige Objekte, doch die Kinematik für die meisten AGN-Muttergalaxien kann allein durch das Wirken der Gravitation erklärt werden. Daraus schließen wir, dass der Einfluss von AGN auf ihre Muttergalaxien geringer sein könnte als theoretisch angenommen wird. Die [OIII] Emissionslinie ist die stärkste optische Linie für AGN-ionisiertes Gas und kann sich über eine Region von mehreren kpc vom Kern erstrecken, die als "Narrow-Line Region" (NLR) bezeichnet wird. Durch eine systematische Untersuchung der NLR-Ausdehnung können wir eine Beziehung zwischen NLR-Radius und AGN-Leuchtkraft bestimmen. Diese Relation ist konsistent mit einem konstanten Ionisationsparameter über die gesamte Ausdehnung der NLR. Frühere Studien mit dem Hubble Weltraumteleskop unterschätzten die Größe der NLR um mehr als einen Faktor 2. Andererseits können wir nicht für alle Quasare eine ausgedehnte NLR nachweisen, wobei eine NLR-Detektion bei einer höheren Radioleuchtkraft des Quasars wahrscheinlicher ist. Dies deutet auf eine Wechselwirkung eines Radio-Jets mit dem kernumgebenden Gas hin. Wir benutzen Emissionslinien des ionisierten Gases, um den Anteil von schweren Elementen im Gas, die so genannte Metallizität, zu bestimmen. Dabei finden wir, dass die radialen Metallizitätsgradienten in Scheiben-dominierten AGN-Muttergalaxien deutlich flacher sind als in vergleichbaren Galaxien ohne Kernaktivität, was wir als Anzeichen für radialen Gastransport vom Rand der Galaxien zum Kern interpretieren. Dies könnte durch kürzliche oder immer noch andauernde gravitative Wechselwirkungen zwischen Nachbargalaxien entstanden sein und stellt eventuell eine Voraussetzung für Kernaktivität dar. Sehr interessant ist unser Ergebnis, dass die ellptischen AGN-Muttergalaxien eine geringere Metallizität aufweisen als die Spiralgalaxien. Dies könnte z.B. durch das Verschmelzen mit kleinen Nachbargalaxien induziert werden, welche eine intrinsisch geringe Metallizität aufweisen. Am Beispiel der elliptischen Muttergalaxie des Quasars HE 1029-1401 können wir durch eine detaillierte Analyse des ionisierten Gases verschiedene Indizien für einen solchen Prozess nachweisen. Eine weiteres Resultat dieser Arbeit ist die Entdeckung eines leuchtkräftigen Quasars mit der geringsten Metallizität, die bisher für solche Objekte nachgewiesen werden konnte. Wir interpretieren die geringe Metallizität und die Ausdehnung des ionisierten Gases über 30kpc als deutliche Indizien für die Akkretion von intergalaktischem Gas. Dieser Prozess findet viel häufiger im frühen Universum statt. HE 2158-0107 könnte daher ein ideales Objekt sein, um diesen Prozess im nahen Universum detaillierter studieren zu können. KW - Quasare KW - Integralfeld-Spectroskopie KW - Galaxien KW - Interstellares Medium KW - Quasars KW - Integral field spectroscopy KW - Galaxies KW - Interstellar medium Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55556 ER - TY - THES A1 - Klinkusch, Stefan T1 - Simulations of laser-induced correlated many-electron dynamics in molecular systems T1 - Simulationen laserinduzierter korrelierter Vielelektronendynamik in molekularen Systemen N2 - In this thesis, simulations of laser-driven many-electron dynamics in molecules are presented, i.e., the interaction between molecules and an electromagnetic field is demonstrated. When a laser field is applied to a molecular system, a population of higher electronic states takes place as well as other processes, e.g. photoionization, which is described by an appropriate model. Also, a finite lifetime of an excited state can be described by such a model. In the second part, a method is postulated that is capable of describing electron correlation in a time-dependent scheme. This is done by introducing a single-electron entropy that is at least temporarily minimized in a further step. N2 - Im Rahmen dieser Doktorarbeit werden Simulationen lasergetriebener Vielelektronendynamik in Molekülen präsentiert, d.h., die Wechselwirkung zwischen Molekülen und einem elektromagnetischen Feld wird demonstriert. Bei Laseranregungen finden nicht nur elektronische Übergänge statt, sondern auch weitere Prozesse wie die Photoionisation, die mit einem geeigneten Modell beschrieben wird. Auch die endliche Lebensdauer angeregter Zustände kann mit einem solchen Modell beschrieben werden. Im zweiten Teil wird eine Methode postuliert, die fähig ist, die Elektronenkorrelation zeitabhängig zu beschreiben. Dies wird durch die Einführung einer Einelektronenentropie erreicht, die in einem weiteren Schritt zumindest kurzzeitig minimiert wird. KW - Elektronendynamik KW - Laserpulse KW - Photoionisation KW - Elektronenkorrelation KW - electron dynamics KW - laser pulses KW - photoionization KW - electron correlation Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55445 ER - TY - THES A1 - Olaka, Lydia Atieno T1 - Hydrology across scales : sensitivity of East African lakes to climate changes T1 - Sensitivität auf Ostafrikanischen Riftseen zu Klimawandel N2 - The lakes of the East African Rift System (EARS) have been intensively studied to better understand the influence of climate change on hydrological systems. The exceptional sensitivity of these rift lakes, however, is both a challenge and an opportunity when trying to reconstruct past climate changes from changes in the hydrological budget of lake basins on timescales 100 to 104 years. On one hand, differences in basin geometrics (shape, area, volume, depth), catchment rainfall distributions and varying erosion-deposition rates complicate regional interpretation of paleoclimate information from lacustrine sediment proxies. On the other hand, the sensitivity of rift lakes often provides paleoclimate records of excellent quality characterized by a high signal-to-noise ratio. This study aims at better understanding of the climate-proxy generating process in rift lakes by parameterizing the geomorphological and hydroclimatic conditions of a particular site providing a step towards the establishment of regional calibrations of transfer functions for climate reconstructions. The knowledge of the sensitivity of a lake basin to climate change furthermore is crucial for a better assessment of the probability of catastrophic changes in the future, which bear risks for landscapes, ecosystems, and organisms of all sorts, including humans. Part 1 of this thesis explores the effect of the morphology and the effective moisture of a lake catchment. The availability of digital elevation models (DEM) and gridded climate data sets facilitates the comparison of the morphological and hydroclimatic conditions of rift lakes. I used the hypsometric integral (HI) calculated from Shuttle Radar Topography Mission (SRTM) data to describe the morphology of ten lake basins in Kenya and Ethiopia. The aridity index (AI) describing the difference in the precipitation/evaporation balance within a catchment was used to compare the hydroclimatic of these basins. Correlating HI and AI with published Holocene lake-level variations revealed that lakes responding sensitively to relatively moderate climate change are typically graben shaped and characterized by a HI between 0.23-0.30, and relatively humid conditions with AI >1. These amplifier lakes, a term first introduced but not fully parameterized by Alayne Street-Perrott in the early 80s, are unexceptionally located in the crest of the Kenyan and Ethiopian domes. The non-amplifier lakes in the EARS either have lower HI 0.13-0.22 and higher AI (>1) or higher HI (0.31-0.37) and low AI (<1), reflecting pan-shaped morphologies with more arid hydroclimatic conditions. Part 2 of this work addresses the third important factor to be considered when using lake-level and proxy records to unravel past climate changes in the EARS: interbasin connectivity and groundwater flow through faulted and porous subsurface lithologies in a rift setting. First, I have compiled the available hydrogeological data including lithology, resistivity and water-well data for the adjacent Naivasha and Elmenteita-Nakuru basins in the Central Kenya Rift. Using this subsurface information and established records of lake-level decline at the last wet-dry climate transitions, i.e., the termination of the African Humid Period (AHP, 15 to 5 kyr BP), I used a linear decay model to estimate typical groundwater flow between the two basins. The results suggest a delayed response of the groundwater levels of ca. 5 kyrs if no recharge of groundwater occurs during the wet-dry transition, whereas the lag is 2-2.7 kyrs only using the modern recharge of ca. 0.52 m/yr. The estimated total groundwater flow from higher Lake Naivasha (1,880 m a.s.l. during the AHP) to Nakuru-Elmenteita (1,770 m) was 40 cubic kilometers. The unexpectedly large volume, more than half of the volume of the paleo-Lake Naivasha during the Early Holocene, emphasizes the importance of groundwater in hydrological modeling of paleo-lakes in rifts. Moreover, the subsurface connectivity of rift lakes also causes a significant lag time to the system introducing a nonlinear component to the system that has to be considered while interpreting paleo-lake records. Part 3 of this thesis investigated the modern intraseasonal precipitation variability within eleven lake basins discussed in the first section of the study excluding Lake Victoria and including Lake Tana. Remotely sensed rainfall estimates (RFE) from FEWS NET for 1996-2010, are used for the, March April May (MAM) July August September (JAS), October November (ON) and December January February (DJF). The seasonal precipitation are averaged and correlated with the prevailing regional and local climatic mechanisms. Results show high variability with Biennial to Triennial precipitation patterns. The spatial distribution of precipitation in JAS are linked to the onset and strength of the Congo Air Boundary (CAB) and Indian Summer Monsoon (ISM) dynamics. while in ON they are related to the strength of Positive ENSO and IOD phases This study describes the influence of graben morphologies, extreme climate constrasts within catchments and basins connectivity through faults and porous lithologies on rift lakes. Hence, it shows the importance of a careful characterization of a rift lake by these parameters prior to concluding from lake-level and proxy records to climate changes. Furthermore, this study highlights the exceptional sensitivity of rift lakes to relatively moderate climate change and its consequences for water availability to the biosphere including humans. N2 - Die Seen des Ostafrikanischen Riftsystems (EARS) wurden bereits intensiv untersucht, um den Einfluss des Klimawandels auf das hydrologische Systeme besser verstehen zu können. Dabei stellt die außergewöhnliche Sensitivität dieser Riftseen sowohl eine Herausforderung als auch eine Möglichkeit dar, um den historischen Klimawandel von dem hydrologischen Budget der Seebecken auf Zeitskalen von 10 bis 10000 Jahre abzuleiten. Auf der einen Seite verkomplizieren verschiedene Beckengeometrien (Form, Fläche, Volumen, Tiefe), unterschiedliche Niederschlagsverteilungen der einzelnen Zuflüsse und variierende Erosions- und Sedimentationsraten, die aus den Informationen von Seesedimenten generierten, regionalen Interpretationen des Paleoklimas. Andererseits ergibt sich aus der hohen Sensitivität der Riftseen eine exzellente Datenqualität, was sich in dem hohen Signal - Rausch-Verhältnis widerspiegelt. Das Ziel meiner Untersuchungen ist das verbesserte Verständlichkeit der Klimainformationen generierenden Prozesse in den Riftseen als Voraussetzung für weitere Klimarekonstruktion. Fortschritte gab es vor allem in der Entwicklung von regionalen Kalibrationen durch die Parametrisierung der geomorphologischen und hydroklimatischen Gegebenheiten einer wichtigen Lokalität, wodurch es jetzt möglich ist, von Sedimentfunden auf die Umgebungsbedingungen Rückschlüsse zu ziehen. Das Wissen um die Reaktion der Seebecken auf Klimaschwankungen ist unerlässlich für eine bessere Abschätzung der Wahrscheinlichkeit von katastrophalen Änderungen in der Zukunft:ein Szenario das sowohl für Umwelt, Ökosysteme und Organismen, einschließlich des Menschen, Risiken birgt. Im ersten Teil meiner Doktorarbeit untersuche ich den Effekt der Morphologie und der effektiven Feuchtigkeit auf das Einzugsgebiet eines Sees. Die Verfügbarkeit von digitalen Höhenmodellen (DEM) und gerasterten Klimadatensätzen ermöglicht den Vergleich von morphologischen und hydroklimatischen Bedingungen der Riftseen. Ich nutzte das hypsometrische Integral (HI), berechnet aus Daten der “Shuttle Radar Topography Mission (SRTM)”, um die Morphologie von zehn Seebecken in Kenia und Äthopien zu beschreiben. Der Dürreindex (AI), der die Differenz von Niederschlag zu Verdunstung innerhalb eines Einzugsgebietes beschreibt, wurde benutzt, um das Hydroklima dieser Becken zu vergleichen. Die Korrelation von hypsometrischem Integral und Dürreindex mit publizierten holozänen Seespiegelschwankungen zeigte, dass vor allem Seen mit kleiner Oberfläche und großer Tiefe (Grabenform), charakterisiert durch ein HI von 0.23-0.30 und feuchte Bedingungen mit einem AI > 1, empfindlich auf relativ moderate Klimaänderungen reagieren. Diese “verstärkenden” Seen (amplifier lakes), ein Begriff der von Alayne Street-Perrott in den Achzigerjahren eingeführt wurde aber bis heute nicht völlig quantitativ definiert ist, sind ohne Ausnahme in den tiefen Gräben der kenianischen und äthiopischen Dome zu finden. Seen innerhalb des EARS, die nicht derart empfindlich reagieren, haben entweder ein niedrigeres HI von 0.13-0.22 und einen höheren AI (>1) oder ein höherers HI (0.31-0.37) aber einen niedrigen AI (<1) und zeigen großflächige, flache Morphologien (Pfannenform) unter trockenen klimatischen Bedingungen. Der zweite Teil der Arbeit beschäftigt sich mit einem weiteren wichtigen Faktor innerhalb der Klimarekonstruktion, wenn Seespiegelschwankungen und indirekte Messungen (Proxies) betrachtet werden:den störungsbezogenen und porösen Gesteinsschichten geschuldeten Grundwasserverbindungen zwischen den Becken. Als erstes habe ich die vorhandenen hydrogeologischen Daten bestehend aus den Gesteinsformationen, deren Widerstandsfähigkeit und den wasserbezogenen Bohrdaten für die Seen Naivasha und Elementaita-Nakuru zusammengestellt. Mit diesen bereits etablierten Untergrunddaten, z.B. zum Seespiegelrückgang am letzten Übergang von feuchtem zum trockeneren Klima am Ende der afrikanischen Feuchtperiode (AHP) um 15000 bis 5000 Jahre vor heute, schätzte ich den typischen Grundwasserfluss zwischen den beiden benachbarten Becken mittels eines linearen Modells ab. Die Ergebnisse zeigen eine Zeitverzögerung der Grundwasserspiegelanpassung um ca. 5000 Jahre an, falls keine Auffüllung der Grundwasserzufuhr zum Ende der letzten Feuchtperiode eintrat. In heutiger Zeit, ist bedingt durch die Grundwassererzufuhr von ca. 0.52 m/Jahr, nur eine Zeitverzögerung um ca. 2000-2700 Jahre zu sehen. Der geschätzte totale Grundwasserfluss vom höher gelegenden Naivasha See (1880 m über dem Meeresspiegel zum Ende der AHP) zum Elementaita-Nakuru See (1770 m) betrug 40 km3. Dieses unerwartet große Volumen, mehr als die Hälfte des Volumens vom Naivasha See während des frühen Holozäns, verdeutlicht, dass das Grundwasser für die hydrologische Modellierung von Paleoseen in Riftgebieten unbedingt mit einbezogen werden muss. Darüber hinaus führt die Grundwasserverbindung dieser Riftseen zu einer Zeitverzögerung in deren Reaktionen, was eine nichtlineare Komponente darstellt und bei jeder Interpretation von Paleoseespiegeldaten beachtet werden muss. Der dritte Teil dieser Arbeit untersucht die intrasaisonale Niederschlagsvariabilität innerhalb von 11 Einzugsgebieten die im ersten Teil Arbeit vorgestellt wurden, mit Ausnahme des Viktoriasees, aber inklusive des Tanasees. Aus Satellitenbilddaten des FEWS NET der Jahre 1996-2010 wurden Niederschlagsabschätzungen für die Monatsreihen März-April-Mai (MAM), Juli-August-September (JAS), Oktober-November (ON) und Dezember-Januar-Februar (DJF) berechnet. Der jahreszeitliche Niederschlag wurde gemittelt und mit den dominierenden regionalen und lokalen Klimafaktoren korreliert. Die Ergebnisse zeigen eine deutliche zwei- bis dreijährige Niederschlagsvariabilität. Die räumliche Niederschlagsverteilung innerhalb des Ostafrikanische Rifts im JAS ist an die Ausbildung und Stärke der Kongoluftmassengrenze (CAB) und an die Dynamik des Indischen Sommermonsuns gekoppelt, während sie im ON an die Stärke der positiven ENSO und IOD Phasen gebunden ist. Diese Doktorarbeit beschreibt den Einfluss von Grabenmorphologien, extremen Klimakontrasten innerhalb der Zuflussgebiete und die unterirdischen Beckenverbindung durch Störungszonen und poröse Gesteinsschichten zwischen den Riftseen. Damit zeigt sie die Unerlässlichkeit einer genauen Charakterisierung von Riftseen durch morphologische und klimatische Parameter, bevor von Seespiegelschwankungen und indirekten Datensätzen auf Klimaänderungen geschlossen werden kann. Desweiteren stellt diese Arbeit die hohe Empfindsamkeit dieser Seen gegenüber relativ moderaten Klimaänderungen und deren Konsequenzen für die insgesamte Wasserverfügbarkeit heraus. KW - Ostafrikanisches Riftsystem KW - Klima KW - verstärkende Seen KW - Grundwasser KW - Skalierung KW - East African Rift System KW - Climate KW - Amplifier Lakes KW - Groundwater KW - Scaling Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55029 ER - TY - THES A1 - Gräff, Thomas T1 - Soil moisture dynamics and soil moisture controlled runoff processes at different spatial scales : from observation to modelling T1 - Bodenfeuchtedynamik und deren Einfluss auf Abflussprozesse in unterschiedlichen Skalen : von der Beobachtung zur Modellierung N2 - Soil moisture is a key state variable that controls runoff formation, infiltration and partitioning of radiation into latent and sensible heat. However, the experimental characterisation of near surface soil moisture patterns and their controls on runoff formation remains a challenge. This subject was one aspect of the BMBF-funded OPAQUE project (operational discharge and flooding predictions in head catchments). As part of that project the focus of this dissertation is on: (1) testing the methodology and feasibility of the Spatial TDR technology in producing soil moisture profiles along TDR probes, including an inversion technique of the recorded signal in heterogeneous field soils, (2) the analysis of spatial variability and temporal dynamics of soil moisture at the field scale including field experiments and hydrological modelling, (3) the application of models of different complexity for understanding soil moisture dynamics and its importance for runoff generation as well as for improving the prediction of runoff volumes. To fulfil objective 1, several laboratory experiments were conducted to understand the influence of probe rod geometry and heterogeneities in the sampling volume under different wetness conditions. This includes a detailed analysis on how these error sources affect retrieval of soil moisture profiles in soils. Concerning objective 2 a sampling strategy of two TDR clusters installed in the head water of the Wilde Weißeritz catchment (Eastern Ore Mountains, Germany) was used to investigate how well “the catchment state” can be characterised by means of distributed soil moisture data observed at the field scale. A grassland site and a forested site both located on gentle slopes were instrumented with two Spatial TDR clusters that consist of up to 39 TDR probes. Process understanding was gained by modelling the interaction of evapotranspiration and soil moisture with the hydrological process model CATFLOW. A field scale irrigation experiment was carried out to investigate near subsurface processes at the hillslope scale. The interactions of soil moisture and runoff formation were analysed using discharge data from three nested catchments: the Becherbach with a size of 2 km², the Rehefeld catchment (17 km²) and the superordinate Ammelsdorf catchment (49 km²). Statistical analyses including observations of pre-event runoff, soil moisture and different rainfall characteristics were employed to predict stream flow volume. On the different scales a strong correlation between the average soil moisture and the runoff coefficients of rainfall-runoff events could be found, which almost explains equivalent variability as the pre-event runoff. Furthermore, there was a strong correlation between surface soil moisture and subsurface wetness with a hysteretic behaviour between runoff soil moisture. To fulfil objective 3 these findings were used in a generalised linear model (GLM) analysis which combines state variables describing the catchments antecedent wetness and variables describing the meteorological forcing in order to predict event runoff coefficients. GLM results were compared to simulations with the catchment model WaSiM ETH. Hereby were the model results of the GLMs always better than the simulations with WaSiM ETH. The GLM analysis indicated that the proposed sampling strategy of clustering TDR probes in typical functional units is a promising technique to explore soil moisture controls on runoff generation and can be an important link between the scales. Long term monitoring of such sites could yield valuable information for flood warning and forecasting by identifying critical soil moisture conditions for the former and providing a better representation of the initial moisture conditions for the latter. N2 - Abflussentwicklung, Infiltration und die Umverteilung von Strahlung in latenten und sensiblen Wärmestrom werden maßgeblich durch die Bodenfeuchte der vadosen Zone gesteuert. Trotz allem, gibt s wenig Arbeiten die sich mit der experimentellen Charakterisierung der Bodenfeuchteverteilung und ihre Auswirkung auf die Abflussbildung beschäftigen. Der Fokus dieser Dissertation wurde darauf ausgerichtet: (1) die Methode des Spatial TDR und deren Anwendbarkeit einschließlich der Inversion des TDR Signals in heterogenen Böden zu prüfen, (2) die Analyse der räumlichen und zeitlichen Dynamik der Bodenfeuchte auf der Feldskala einschließlich Feldexperimenten und hydrologischer Modellierung, (3) der Aufbau verschiedener Modellanwendungen unterschiedlicher Komplexität um die Bodenfeuchtedynamiken und die Abflussentwicklung zu verstehen und die Vorhersage des Abflussvolumens zu verbessern. Um die Zielsetzung 1 zu erreichen, wurden verschiedene Laborversuche durchgeführt. Hierbei wurde der Einfluss der Sondenstabgeometrie und verschiedener Heterogenitäten im Messvolumen bei verschiedenen Feuchtegehalten untersucht. Dies beinhaltete eine detaillierte Analyse wie diese Fehlerquellen die Inversion des Bodenfeuchteprofils beeinflussen. Betreffend der Zielsetzung 2, wurden 2 TDR-Cluster in den Quellgebieten der Wilden Weißeritz installiert (Osterzgebirge) und untersucht, wie gut der Gebietszustand mit räumlich hochaufgelösten Bodenfeuchtedaten der Feldskala charakterisiert werden kann. Um die Interaktion zwischen Evapotranspiration und Bodenfeuchte zu untersuchen wurde das hydrologische Prozessmodell CATFLOW angewendet. Ein Beregnungsversuch wurde durchgeführt um die Zwischenabflussprozesse auf der Hangskala zu verstehen. Die Interaktion zwischen Bodenfeuchte und Abflussentwicklung wurde anhand von drei einander zugeordneten Einzugsgebieten analysiert. Statistische Analysen unter Berücksichtigung von Basisabfluss, Bodenvorfeuchte und verschiedenen Niederschlagscharakteristika wurden verwendet, um auf das Abflussvolumen zu schließen. Auf den verschiedenen Skalen konnte eine hohe Korrelation zwischen der mittleren Bodenfeuchte und dem Abflussbeiwert der Einzelereignisse festgestellt werden. Hierbei konnte die Bodenfeuchte genauso viel Variabilität erklären wie der Basisabfluss. Im Hinblick auf Zielsetzung 3 wurden “Generalised liner models” (GLM) genutzt. Dabei wurden Prädiktorvariablen die den Gebietszustand beschreiben und solche die die Meteorologische Randbedingungen beschreiben genutzt um den Abflussbeiwert zu schätzen. Die Ergebnisse der GLMs wurden mit Simulationsergebnissen des hydrologischen Gebietsmodells WaSiM ETH verglichen. Hierbei haben die GLMs eindeutig bessere Ergebnisse geliefert gegenüber den WaSiM Simulationen. Die GLM Analysen haben aufgezeigt, dass die verwendete Messstrategie mehrerer TDR-Cluster in typischen funktionalen Einheiten eine viel versprechende Methode ist, um den Einfluss der Bodenfeuchte auf die Abflussentwicklung zu verstehen und ein Bindeglied zwischen den Skalen darstellen zu können. Langzeitbeobachtungen solcher Standorte sind in der Lage wichtige Zusatzinformationen bei der Hochwasserwarnung und -vorhersage zu liefern durch die Identifizierung kritischer Gebietszustände für erstere und eine bessere Repräsentation der Vorfeuchte für letztere. KW - Bodenfeuchte KW - TDR KW - Heterogenität KW - Einzugsgebiet KW - Gebietszustand KW - Soil moisture KW - TDR KW - heterogeneity KW - catchment KW - runoff KW - catchment state Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54470 ER - TY - THES A1 - Schulze, Andreas T1 - Demographics of supermassive black holes T1 - Demgraphie supermassereicher Schwarzer Löcher N2 - Supermassive black holes are a fundamental component of the universe in general and of galaxies in particular. Almost every massive galaxy harbours a supermassive black hole (SMBH) in its center. Furthermore, there is a close connection between the growth of the SMBH and the evolution of its host galaxy, manifested in the relationship between the mass of the black hole and various properties of the galaxy's spheroid component, like its stellar velocity dispersion, luminosity or mass. Understanding this relationship and the growth of SMBHs is essential for our picture of galaxy formation and evolution. In this thesis, I make several contributions to improve our knowledge on the census of SMBHs and on the coevolution of black holes and galaxies. The first route I follow on this road is to obtain a complete census of the black hole population and its properties. Here, I focus particularly on active black holes, observable as Active Galactic Nuclei (AGN) or quasars. These are found in large surveys of the sky. In this thesis, I use one of these surveys, the Hamburg/ESO survey (HES), to study the AGN population in the local volume (z~0). The demographics of AGN are traditionally represented by the AGN luminosity function, the distribution function of AGN at a given luminosity. I determined the local (z<0.3) optical luminosity function of so-called type 1 AGN, based on the broad band B_J magnitudes and AGN broad Halpha emission line luminosities, free of contamination from the host galaxy. I combined this result with fainter data from the Sloan Digital Sky Survey (SDSS) and constructed the best current optical AGN luminosity function at z~0. The comparison of the luminosity function with higher redshifts supports the current notion of 'AGN downsizing', i.e. the space density of the most luminous AGN peaks at higher redshifts and the space density of less luminous AGN peaks at lower redshifts. However, the AGN luminosity function does not reveal the full picture of active black hole demographics. This requires knowledge of the physical quantities, foremost the black hole mass and the accretion rate of the black hole, and the respective distribution functions, the active black hole mass function and the Eddington ratio distribution function. I developed a method for an unbiased estimate of these two distribution functions, employing a maximum likelihood technique and fully account for the selection function. I used this method to determine the active black hole mass function and the Eddington ratio distribution function for the local universe from the HES. I found a wide intrinsic distribution of black hole accretion rates and black hole masses. The comparison of the local active black hole mass function with the local total black hole mass function reveals evidence for 'AGN downsizing', in the sense that in the local universe the most massive black holes are in a less active stage then lower mass black holes. The second route I follow is a study of redshift evolution in the black hole-galaxy relations. While theoretical models can in general explain the existence of these relations, their redshift evolution puts strong constraints on these models. Observational studies on the black hole-galaxy relations naturally suffer from selection effects. These can potentially bias the conclusions inferred from the observations, if they are not taken into account. I investigated the issue of selection effects on type 1 AGN samples in detail and discuss various sources of bias, e.g. an AGN luminosity bias, an active fraction bias and an AGN evolution bias. If the selection function of the observational sample and the underlying distribution functions are known, it is possible to correct for this bias. I present a fitting method to obtain an unbiased estimate of the intrinsic black hole-galaxy relations from samples that are affected by selection effects. Third, I try to improve our census of dormant black holes and the determination of their masses. One of the most important techniques to determine the black hole mass in quiescent galaxies is via stellar dynamical modeling. This method employs photometric and kinematic observations of the galaxy and infers the gravitational potential from the stellar orbits. This method can reveal the presence of the black hole and give its mass, if the sphere of the black hole's gravitational influence is spatially resolved. However, usually the presence of a dark matter halo is ignored in the dynamical modeling, potentially causing a bias on the determined black hole mass. I ran dynamical models for a sample of 12 galaxies, including a dark matter halo. For galaxies for which the black hole's sphere of influence is not well resolved, I found that the black hole mass is systematically underestimated when the dark matter halo is ignored, while there is almost no effect for galaxies with well resolved sphere of influence. N2 - Supermassereiche Schwarze Löcher sind ein fundamentaler Bestandteil unseres Universims im Allgemeinen, und von Galaxien im Besonderen. Fast jede massereiche Galaxie beherbergt ein supermassereiches Schwarzes Loch in seinem Zentrum. Außerdem existiert eine enge Beziehung zwischen dem Wachstum des Schwarzen Loches und der Entwicklung seiner umgebenden Galaxie. Diese zeigt sich besonders in der engen Beziehung zwischen der Masse eines Schwarzen Loches und den Eigenschaften der sphäroidalen Komponente der Galaxie, beispielsweise seiner stellaren Geschwindigkeitsdispersion, seiner Leuchtkraft und seiner Masse. Diese Beziehung erklären zu können, sowie das Wachstum von Schwarzen Löchern zu verstehen, liefert einen wichtigen Beitrag zu unserem Bild der Entstehung und Entwicklung von Galaxien. In dieser Arbeit steuere ich verschiedene Beiträge dazu bei unser Verständnis des Vorkommens Schwarzer Löcher und der Beziehung zu ihren Galaxien zu verbessern. Zunächst versuche ich ein vollständiges Bild der Anzahl und Eigenschaften Schwarzer Löcher zu erhalten. Dazu beschränke ich mich auf aktive Schwarze Löcher, wie man sie im Universum als Aktive Galaxienkerne (AGN) in großen Himmelsdurchmusterungen finden kann. Ich benutze eine solche Durchmusterung, das Hamburg/ESO Survey (HES), um die AGN Population im lokalen Universum zu studieren. Dazu habe ich die optische Leuchtkraftfunktion von AGN bestimmt. Diese habe ich mit anderen Ergebnissen leuchtschwächerer AGN kombiniert um die bisher beste AGN Leuchtkraftfunktion im lokalen Universum zu erhalten. Der Vergleich mit Ergebnissen bei höherer kosmischer Rotverschiebung bestätigt unser Bild des sogenannten "AGN downsizing". Dies sagt aus, dass leuchtkräftige AGN bei hoher Rotverschiebung am häufigsten vorkommen, während leuchtschwache AGN bei niedriger Rotverschiebung am häufigsten sind. Allerdings verrät uns die AGN Leuchtkraftfunktion allein noch nicht das ganze Bild der Demographie Schwarzer Löcher. Vielmehr sind wir an den zugrunde liegenden Eigenschaften, vor allem der Masse und der Akkretionsrate der Schwarzen Löcher, sowie deren statistischen Verteilungsfunktionen, interessiert. Ich habe eine Methode entwickelt um diese beiden Verteilungsfunktionen zu bestimmen, basierend auf der Maximum-Likelihood-Methode. Ich habe diese Methode benutzt um die aktive Massenfunktion Schwarzer Löcher, sowie die Verteilungsfunktion ihrer Akkretionsraten für das lokale Universum aus dem HES zu bestimmen. Sowohl die Akkretionsraten, als auch die Massen der Schwarzen Löcher zeigen intrinsisch eine breite Verteilung, im Gegensatz zur schmaleren beobachtbaren Verteilung. Der Vergleich der aktiven Massenfunktion mit der gesamten Massenfunktion Schwarzer Löcher zeigt ebenfalls Hinweise auf "AGN downsizing". Als nächstes habe ich mich mit Untersuchungen zur zeitlichen Entwicklung in den Beziehungen zwischen Schwarzem Loch und Galaxie beschäftigt. Diese kann helfen unser theoretisches Veständnis der physikalischen Vorgänge zu verbessern. Beobachtungen sind immer auch Auswahleffekten unterworfen. Diese können die Schlussfolgerungen aus den Beobachtungen zur Entwicklung in den Beziehungen beeinflussen, wenn sie nicht entsprechend berücksichtigt werden. Ich habe den Einfluss von Auswahleffekten auf AGN Stichproben im Detail untersucht, und verschiedende möchgliche Einflussquellen identifiziert, die die Beziehung verfälschen können. Wenn die Auswahlkriterien der Stichprobe, sowie die zugrunde liegenden Verteilungen bekannt sind, so ist es möglich für die Auswahleffekte zu korrigieren. Ich habe eine Methode entwickelt, mit der man die intrinsische Beziehung zwischem Schwarzem Loch und Galaxie aus den Beobachtungen rekonstruieren kann. Schließlich habe ich mich auch inaktiven Schwarzen Löchern und der Bestimmung ihrer Massen gewidmet. Eine der wichtigsten Methoden die Masse Schwarzer Löcher in normalen Galaxien zu bestimmen ist stellardynamische Modellierung. Diese Methode benutzt photometrische und kinematische Beobachtungen, und rekonstruiert daraus das Gravitationspotenzial aus der Analyse stellarer Orbits. Bisher wurde in diesen Modellen allerdings der Einfluss des Halos aus Dunkler Materie vernachlässigt. Dieser kann aber die Bestimmung der Masse des Schwarzen Loches beeinflussen. Ich habe 12 Galaxien mit Hilfe stellardynamischer Modellierung untersucht und dabei auch den Einfluss des Halos aus Dunkler Materie berücksichtigt. Für Galaxien bei denen der Einflussbereich des Schwarzen Loches nicht sehr gut räumlich aufgelöst war, wird die Masse des Schwarzen Loches systematisch unterschätzt, wenn der Dunkle Materie Halo nicht berücksichtigt wird. Auf der anderen Seite ist der Einfluss gering, wenn die Beobachtungen diesen Einflussbereich gut auflösen können. KW - Astrophysik KW - Quasare KW - Schwarze Löcher KW - AGN KW - Statistik KW - astrophysics KW - quasars KW - black holes KW - AGN KW - statistics Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54464 ER - TY - THES A1 - Popovic, Jelena T1 - Novel lithium iron phosphate materials for lithium-ion batteries T1 - Neuartige Lithium-Eisen-Phosphat-Materialien für Lithium-Ionen-Batterien N2 - Conventional energy sources are diminishing and non-renewable, take million years to form and cause environmental degradation. In the 21st century, we have to aim at achieving sustainable, environmentally friendly and cheap energy supply by employing renewable energy technologies associated with portable energy storage devices. Lithium-ion batteries can repeatedly generate clean energy from stored materials and convert reversely electric into chemical energy. The performance of lithium-ion batteries depends intimately on the properties of their materials. Presently used battery electrodes are expensive to be produced; they offer limited energy storage possibility and are unsafe to be used in larger dimensions restraining the diversity of application, especially in hybrid electric vehicles (HEVs) and electric vehicles (EVs). This thesis presents a major progress in the development of LiFePO4 as a cathode material for lithium-ion batteries. Using simple procedure, a completely novel morphology has been synthesized (mesocrystals of LiFePO4) and excellent electrochemical behavior was recorded (nanostructured LiFePO4). The newly developed reactions for synthesis of LiFePO4 are single-step processes and are taking place in an autoclave at significantly lower temperature (200 deg. C) compared to the conventional solid-state method (multi-step and up to 800 deg. C). The use of inexpensive environmentally benign precursors offers a green manufacturing approach for a large scale production. These newly developed experimental procedures can also be extended to other phospho-olivine materials, such as LiCoPO4 and LiMnPO4. The material with the best electrochemical behavior (nanostructured LiFePO4 with carbon coating) was able to delive a stable 94% of the theoretically known capacity. N2 - Konventionelle Energiequellen sind weder nachwachsend und daher nachhaltig nutzbar, noch weiterhin langfristig verfügbar. Sie benötigen Millionen von Jahren um gebildet zu werden und verursachen in ihrer Nutzung negative Umwelteinflüsse wie starke Treibhausgasemissionen. Im 21sten Jahrhundert ist es unser Ziel nachhaltige und umweltfreundliche, sowie möglichst preisgünstige Energiequellen zu erschließen und nutzen. Neuartige Technologien assoziiert mit transportablen Energiespeichersystemen spielen dabei in unserer mobilen Welt eine große Rolle. Li-Ionen Batterien sind in der Lage wiederholt Energie aus entsprechenden Prozessen nutzbar zu machen, indem sie reversibel chemische in elektrische Energie umwandeln. Die Leistung von Li-Ionen Batterien hängen sehr stark von den verwendeten Funktionsmaterialien ab. Aktuell verwendete Elektrodenmaterialien haben hohe Produktionskosten, verfügen über limitierte Energiespeichekapazitäten und sind teilweise gefährlich in der Nutzung für größere Bauteile. Dies beschränkt die Anwendungsmöglichkeiten der Technologie insbesondere im Gebiet der hybriden Fahrzeugantriebe. Die vorliegende Dissertation beschreibt bedeutende Fortschritte in der Entwicklung von LiFePO4 als Kathodenmaterial für Li-Ionen Batterien. Mithilfe einfacher Syntheseprozeduren konnten eine vollkommen neue Morphologie (mesokristallines LiFePo4) sowie ein nanostrukturiertes Material mit exzellenten elektrochemischen Eigenschaften hergestellt werden. Die neu entwickelten Verfahren zur Synthese von LiFePo4 sind einschrittig und bei signifikant niedrigeren Temperaturen im Vergleich zu konventionellen Methoden. Die Verwendung von preisgünstigen und umweltfreundlichen Ausgangsstoffen stellt einen grünen Herstellungsweg für die large scale Synthese dar. Mittels des neuen Synthesekonzepts konnte meso- und nanostrukturiertes LiFe PO4 generiert werden. Die Methode ist allerdings auch auf andere phospho-olivin Materialien (LiCoPO4, LiMnPO4) anwendbar. Batterietests der besten Materialien (nanostrukturiertes LiFePO4 mit Kohlenstoffnanobeschichtung) ergeben eine mögliche Energiespeicherung von 94%. KW - Li-Ionen-Akkus KW - Kathode KW - LiFePO4 KW - Mesokristalle KW - Nanopartikel KW - Li-ion batteries KW - cathode KW - LiFePO4 KW - mesocrystals KW - nanoparticles Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54591 ER - TY - THES A1 - Avila, Gastón T1 - Asymptotic staticity and tensor decompositions with fast decay conditions T1 - Asymptotisch statische Anfangsdaten und Tensor-Zerlegungen mit starken Abfallbedingungen N2 - Corvino, Corvino and Schoen, Chruściel and Delay have shown the existence of a large class of asymptotically flat vacuum initial data for Einstein's field equations which are static or stationary in a neighborhood of space-like infinity, yet quite general in the interior. The proof relies on some abstract, non-constructive arguments which makes it difficult to calculate such data numerically by using similar arguments. A quasilinear elliptic system of equations is presented of which we expect that it can be used to construct vacuum initial data which are asymptotically flat, time-reflection symmetric, and asymptotic to static data up to a prescribed order at space-like infinity. A perturbation argument is used to show the existence of solutions. It is valid when the order at which the solutions approach staticity is restricted to a certain range. Difficulties appear when trying to improve this result to show the existence of solutions that are asymptotically static at higher order. The problems arise from the lack of surjectivity of a certain operator. Some tensor decompositions in asymptotically flat manifolds exhibit some of the difficulties encountered above. The Helmholtz decomposition, which plays a role in the preparation of initial data for the Maxwell equations, is discussed as a model problem. A method to circumvent the difficulties that arise when fast decay rates are required is discussed. This is done in a way that opens the possibility to perform numerical computations. The insights from the analysis of the Helmholtz decomposition are applied to the York decomposition, which is related to that part of the quasilinear system which gives rise to the difficulties. For this decomposition analogous results are obtained. It turns out, however, that in this case the presence of symmetries of the underlying metric leads to certain complications. The question, whether the results obtained so far can be used again to show by a perturbation argument the existence of vacuum initial data which approach static solutions at infinity at any given order, thus remains open. The answer requires further analysis and perhaps new methods. N2 - Corvino, Corvino und Schoen als auch Chruściel und Delay haben die Existenz einer grossen Klasse asymptotisch flacher Anfangsdaten für Einsteins Vakuumfeldgleichungen gezeigt, die in einer Umgebung des raumartig Unendlichen statisch oder stationär aber im Inneren der Anfangshyperfläche sehr allgemein sind. Der Beweis beruht zum Teil auf abstrakten, nicht konstruktiven Argumenten, die Schwierigkeiten bereiten, wenn derartige Daten numerisch berechnet werden sollen. In der Arbeit wird ein quasilineares elliptisches Gleichungssystem vorgestellt, von dem wir annehmen, dass es geeignet ist, asymptotisch flache Vakuumanfangsdaten zu berechnen, die zeitreflektionssymmetrisch sind und im raumartig Unendlichen in einer vorgeschriebenen Ordnung asymptotisch zu statischen Daten sind. Mit einem Störungsargument wird ein Existenzsatz bewiesen, der gilt, solange die Ordnung, in welcher die Lösungen asymptotisch statische Lösungen approximieren, in einem gewissen eingeschränkten Bereich liegt. Versucht man, den Gültigkeitsbereich des Satzes zu erweitern, treten Schwierigkeiten auf. Diese hängen damit zusammen, dass ein gewisser Operator nicht mehr surjektiv ist. In einigen Tensorzerlegungen auf asymptotisch flachen Räumen treten ähnliche Probleme auf, wie die oben erwähnten. Die Helmholtzzerlegung, die bei der Bereitstellung von Anfangsdaten für die Maxwellgleichungen eine Rolle spielt, wird als ein Modellfall diskutiert. Es wird eine Methode angegeben, die es erlaubt, die Schwierigkeiten zu umgehen, die auftreten, wenn ein schnelles Abfallverhalten des gesuchten Vektorfeldes im raumartig Unendlichen gefordert wird. Diese Methode gestattet es, solche Felder auch numerisch zu berechnen. Die Einsichten aus der Analyse der Helmholtzzerlegung werden dann auf die Yorkzerlegung angewandt, die in den Teil des quasilinearen Systems eingeht, der Anlass zu den genannten Schwierigkeiten gibt. Für diese Zerlegung ergeben sich analoge Resultate. Es treten allerdings Schwierigkeiten auf, wenn die zu Grunde liegende Metrik Symmetrien aufweist. Die Frage, ob die Ergebnisse, die soweit erhalten wurden, in einem Störungsargument verwendet werden können um die Existenz von Vakuumdaten zu zeigen, die im räumlich Unendlichen in jeder Ordnung statische Daten approximieren, bleibt daher offen. Die Antwort erfordert eine weitergehende Untersuchung und möglicherweise auch neue Methoden. KW - Einsteins Feldgleichungen KW - Zwangsgleichungen KW - Tensor-Zerlegungen KW - raumartige Unendliche KW - elliptisches Gleichungssystem KW - Einstein's field equations KW - constraint equations KW - tensor decompositions KW - space-like infinity KW - elliptic systems Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-54046 ER - TY - GEN A1 - Donner, Stefanie A1 - Rößler, Dirk A1 - Krüger, Frank A1 - Ghods, Abdolreza A1 - Strecker, Manfred T1 - Source mechanisms of the 2004 Baladeh (Iran) earthquake sequence from Iranian broadband and short-period data and seismotectonic implications N2 - The northward movement and collision of the Arabian plate with Eurasia generates compressive stresses and resulting shortening in Iran. Within the Alborz Mountains, North Iran, a complex and not well understood system of strike-slip and thrust faults accomodates a fundamental part of the NNE-SSW oriented shortening. On 28th of May 2004 the Mw 6.3 Baladeh earthquake hit the north-central Alborz Mountains. It is one of the rare and large events in this region in modern time and thus a seldom chance to study earthquake mechanisms and the local ongoing deformation processes. It also demonstrated the high vulnerability of this densily populated region. KW - Momententensoren KW - Inversion KW - Baladeh KW - Iran KW - moment tensors KW - inversion KW - Baladeh KW - Iran Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53982 ER - TY - BOOK A1 - Abedjan, Ziawasch A1 - Naumann, Felix T1 - Advancing the discovery of unique column combinations N2 - Unique column combinations of a relational database table are sets of columns that contain only unique values. Discovering such combinations is a fundamental research problem and has many different data management and knowledge discovery applications. Existing discovery algorithms are either brute force or have a high memory load and can thus be applied only to small datasets or samples. In this paper, the wellknown GORDIAN algorithm and "Apriori-based" algorithms are compared and analyzed for further optimization. We greatly improve the Apriori algorithms through efficient candidate generation and statistics-based pruning methods. A hybrid solution HCAGORDIAN combines the advantages of GORDIAN and our new algorithm HCA, and it significantly outperforms all previous work in many situations. N2 - Unique-Spaltenkombinationen sind Spaltenkombinationen einer Datenbanktabelle, die nur einzigartige Werte beinhalten. Das Finden von Unique-Spaltenkombinationen spielt sowohl eine wichtige Rolle im Bereich der Grundlagenforschung von Informationssystemen als auch in Anwendungsgebieten wie dem Datenmanagement und der Erkenntnisgewinnung aus Datenbeständen. Vorhandene Algorithmen, die dieses Problem angehen, sind entweder Brute-Force oder benötigen zu viel Hauptspeicher. Deshalb können diese Algorithmen nur auf kleine Datenmengen angewendet werden. In dieser Arbeit werden der bekannte GORDIAN-Algorithmus und Apriori-basierte Algorithmen zum Zwecke weiterer Optimierung analysiert. Wir verbessern die Apriori Algorithmen durch eine effiziente Kandidatengenerierung und Heuristikbasierten Kandidatenfilter. Eine Hybride Lösung, HCA-GORDIAN, kombiniert die Vorteile von GORDIAN und unserem neuen Algorithmus HCA, welche die bisherigen Algorithmen hinsichtlich der Effizienz in vielen Situationen übertrifft. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 51 KW - Apriori KW - eindeutig KW - funktionale Abhängigkeit KW - Schlüsselentdeckung KW - Data Profiling KW - apriori KW - unique KW - functional dependency KW - key discovery KW - data profiling Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53564 SN - 978-3-86956-148-6 SN - 1613-5652 SN - 2191-1665 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Winck, Flavia Vischi T1 - Nuclear proteomics and transcription factor profiling in Chlamydomonas reinhardtii T1 - Nukleare Proteomics und Transkriptionsfaktoren : Profiling in Chlamydomonas reinhardtii N2 - The transcriptional regulation of the cellular mechanisms involves many different components and different levels of control which together contribute to fine tune the response of cells to different environmental stimuli. In some responses, diverse signaling pathways can be controlled simultaneously. One of the most important cellular processes that seem to possess multiple levels of regulation is photosynthesis. A model organism for studying photosynthesis-related processes is the unicellular green algae Chlamydomonas reinhardtii, due to advantages related to culturing, genetic manipulation and availability of genome sequence. In the present study, we were interested in understanding the regulatory mechanisms underlying photosynthesis-related processes. To achieve this goal different molecular approaches were followed. In order to indentify protein transcriptional regulators we optimized a method for isolation of nuclei and performed nuclear proteome analysis using shotgun proteomics. This analysis permitted us to improve the genome annotation previously published and to discover conserved and enriched protein motifs among the nuclear proteins. In another approach, a quantitative RT-PCR platform was established for the analysis of gene expression of predicted transcription factor (TF) and other transcriptional regulator (TR) coding genes by transcript profiling. The gene expression profiles for more than one hundred genes were monitored in time series experiments under conditions of changes in light intensity (200 µE m-2 s-1 to 700 µE m-2 s-1), and changes in concentration of carbon dioxide (5% CO2 to 0.04% CO2). The results indicate that many TF and TR genes are regulated in both environmental conditions and groups of co-regulated genes were found. Our findings also suggest that some genes can be common intermediates of light and carbon responsive regulatory pathways. These approaches together gave us new insights about the regulation of photosynthesis and revealed new candidate regulatory genes, helping to decipher the gene regulatory networks in Chlamydomonas. Further experimental studies are necessary to clarify the function of the candidate regulatory genes and to elucidate how cells coordinately regulate the assimilation of carbon and light responses. N2 - Pflanzen nutzen das Sonnenlicht um Substanzen, sogenannte Kohlenhydrate, zu synthetisieren. Diese können anschließend als Energielieferant für das eigene Wachstum genutzt werden. Der aufbauende Prozess wird als Photosynthese bezeichnet. Ein wichtiges Anliegen ist deshalb zu verstehen, wie Pflanzen äußere Einflüsse wahrnehmen und die Photosynthese dementsprechend regulieren. Ihre Zellen tragen diese Informationen in den Genen. Die Pflanzen nutzen aber in der Regel nicht alle ihre Gene gleichzeitig, die sie zur Anpassung an Umwelteinflüsse besitzen. Zu meist wird nur eine Teilfraktion der gesamten Information benötigt. Wir wollten der Frage nachgehen, welche Gene die Zellen für welche Situation regulieren. Im Zellkern gibt es Proteine, sogenannte Transkriptionsfaktoren, die spezifische Gene finden können und deren Transkription modulieren. Wenn ein Gen gebraucht wird, wird seine Information in andere Moleküle übersetzt (transkribiert), sogenannte Transkripte. Die Information dieser Transkripte wird benutzt um Proteine, Makromoleküle aus Aminsäuren, zu synthetisieren. Aus der Transkription eines Gens kann eine große Zahl des Transkripts entstehen. Es ist wahrscheinlich, dass ein Gen, dass gerade gebraucht wird, mehr Transkriptmoleküle hat als andere Gene. Da die Transkriptionsfaktoren mit der Transkription der Gene interferieren können, entwickelten wir in der vorliegenden Arbeit Strategien zur Identifikation dieser im Zellkern zu findenden Proteine mittels eines „Proteomics“-Ansatzes. Wir entwickelten weiterhin eine Strategie zur Identififikation von Transkripten Transkriptionsfaktor-codierender Gene in der Zelle und in welche Menge sie vorkommen. Dieser Ansatz wird als „Transcript-Profiling“ bezeichnet. Wir fanden Zellkern-lokalisierte Proteine, die als Signalmoleküle funktionieren könnten und Transkripte, die bei unterschiedlichen Umweltbedingungen in der Zelle vorhanden waren. Wir benutzten, die oben genannten Ansätze um die einzellige Grünalge Chlamydomonas zu untersuchen. Die Informationen, die wir erhielten, halfen zu verstehen welche Transkriptionsfaktoren notwendig sind, damit Chlamydomonas bei unterschiedlichen Umweltbedingungen, wie z.B. unterschiedliche Lichtintensitäten und unterschiedlicher Konzentration von Kohlenstoffdioxid, überlebt. KW - Proteomics KW - Transkriptionsfaktoren KW - Pflanzen KW - Chlamydomonas KW - Transcriptomics KW - Proteomics KW - Transcription factors KW - Plants KW - Chlamydomonas KW - Transcriptomics Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53909 ER - TY - THES A1 - Kartal, Önder T1 - The role of interfacial and 'entropic' enzymes in transitory starch degradation : a mathematical modeling approach T1 - Zur Aufklärung der Rolle grenzflächenaktiver und "entropischer" Enzyme beim Abbau transitorischer Stärke auf Grundlage mathematischer Modelle N2 - Plants and some unicellular algae store carbon in the form of transitory starch on a diurnal basis. The turnover of this glucose polymer is tightly regulated and timely synthesis as well as mobilization is essential to provide energy for heterotrophic growth. Especially for starch degradation, novel enzymes and mechanisms have been proposed recently. However, the catalytic properties of these enzymes and their coordination with metabolic regulation are still to be discovered. This thesis develops theoretical methods in order to interpret and analyze enzymes and their role in starch degradation. In the first part, a novel description of interfacial enzyme catalysis is proposed. Since the initial steps of starch degradation involve reactions at the starch-stroma interface it is necessary to have a framework which allows the derivation of interfacial enzyme rate laws. A cornerstone of the method is the introduction of the available area function - a concept from surface physics - to describe the adsorption step in the catalytic cycle. The method is applied to derive rate laws for two hydrolases, the Beta-amylase (BAM3) and the Isoamylase (DBE/ISA3), as well as to the Glucan, water dikinase (GWD) and a Phosphoglucan phosphatase (DSP/SEX4). The second part uses the interfacial rate laws to formulate a kinetic model of starch degradation. It aims at reproducing the stimulatory effect of reversible phosphorylation by GWD and DSP on the breakdown of the granule. The model can describe the dynamics of interfacial properties during degradation and suggests that interfacial amylopectin side-chains undergo spontaneous helix-coil transitions. Reversible phosphorylation has a synergistic effect on glucan release especially in the early phase dropping off during degradation. Based on the model, the hypothesis is formulated that interfacial phosphorylation is important for the rapid switch from starch synthesis to starch degradation. The third part takes a broader perspective on carbohydrate-active enzymes (CAZymes) but is motivated by the organization of the downstream pathway of starch breakdown. This comprises Alpha-1,4-glucanotransferases (DPE1 and DPE2) and Alpha-glucan-phosphorylases (Pho or PHS) both in the stroma and in the cytosol. CAZymes accept many different substrates and catalyze numerous reactions and therefore cannot be characterized in classical enzymological terms. A concise characterization is provided by conceptually linking statistical thermodynamics and polymer biochemistry. Each reactant is interpreted as an energy level, transitions between which are constrained by the enzymatic mechanisms. Combinations of in vitro assays of polymer-active CAZymes essential for carbon metabolism in plants confirmed the dominance of entropic gradients. The principle of entropy maximization provides a generalization of the equilibrium constant. Stochastic simulations confirm the results and suggest that randomization of metabolites in the cytosolic pool of soluble heteroglycans (SHG) may contribute to a robust integration of fluctuating carbon fluxes coming from chloroplasts. N2 - Stärke hat eine herausragende Bedeutung für die menschliche Ernährung. Sie ist ein komplexes, wasserunlösliches Glucosepolymer und dient - als eine der wichtigsten Speicherformen von Kohlenhydraten in Pflanzen - der Aufrechterhaltung des Energiestoffwechsels. Unterschiedliche Organe enthalten Stärke. In Knollen und Samen wird die sogenannte Speicherstärke über lange Zeiträume auf- und abgebaut. Die im Allgemeinen weniger bekannte transitorische Stärke in Blättern und einigen einzelligen Algen wird in einem täglichen Rhythmus umgesetzt: Sie wird während der Photosynthese aufgebaut und in der Nacht abgebaut. Experimentelle Studien haben nachgewiesen, dass die Fähigkeit der Pflanze, den Abbau transitorischer Stärke zu regeln, essentiell ist, um während der Nacht das Wachstum der Pflanze zu gewährleisten. Da die Geschwindigkeit von biochemischen Reaktionen über Enzyme reguliert wird, ist die Aufklärung ihrer Funktion im Stoffwechsel eine notwendige Voraussetzung, um den komplexen Prozess des Wachstums zu erklären. Die vorliegende Arbeit stellt einen Versuch dar, die Funktion von Enzymen beim Stärkeabbau anhand von mathematischen Modellen und Computersimulationen besser zu verstehen. Dieser Ansatz erlaubt es, Eigenschaften des Systems durch Abstraktion anhand eines idealisierten Abbildes herzuleiten. Die mathematisch notwendigen Folgerungen dienen der Aufstellung von Hypothesen, die wiederum mit experimentellen Resultaten konfrontiert werden können. Stoffwechselsysteme sind komplexe Untersuchungsobjekte, bei denen eine rein qualitative Argumentation schnell an Grenzen gerät, wo mathematische Methoden die Möglichkeit von Aussagen noch zulassen. Der erste Teil der Arbeit entwickelt einen theoretischen Rahmen, um Gleichungen für die Geschwindigkeit oberflächenaktiver Enzyme herzuleiten. Dies ist notwendig, da die ersten Reaktionen, die dem Stärkeabbau zugeordnet werden, an ihrer Oberfläche stattfinden. Die Methode wird auf vier essentielle Enzyme angewandt: zwei abbauende Enzyme (Beta-Amylase und Isoamylase) und zwei den Abbau unterstützende Enzyme (Alpha-Glucan,Wasser-Dikinase und Phosphoglucan Phosphatase). Der zweite Teil entwickelt ein kinetisches Modell des Stärkeabbaus unter Verwendung der hergeleiteten Ratengleichungen. Das Modell bildet die Dynamik des Systems realistisch ab und legt nahe, dass ein spontaner Phasenübergang an der Oberfläche von geordneten zu weniger geordneten Zuständen stattfindet. Ferner wird die Hypothese aufgestellt, dass die reversible Modifikation der Oberfläche durch Enzyme besonders in der Anfangsphase des Abbaus einen synergetischen Effekt hat, d.h. den Abbau enorm beschleunigt. Dies könnte beim schnellen Umschalten von Stärkeaufbau zu Stärkeabbau regulatorisch relevant sein. Im letzten Teil werden kohlenhydrataktive Enzyme betrachtet, die in der löslichen Phase die Produkte des Stärkeabbaus weiterverarbeiten. Da diese sogenannten Transferasen auch in vielen anderen Organismen und Stoffwechselwegen vorkommen, wird ein allgemeiner Standpunkt eingenommen. Anhand von Methoden aus der statistischen Physik wird theoretisch wie experimentell nachgewiesen, dass diese Enzyme spontan die Entropie innerhalb des Stoffwechselsystems erhöhen. Diese Neigung, "Unordnung" zu schaffen, wird vom Organismus aber paradoxerweise ausgenutzt, um die Weiterverarbeitung von Kohlenhydraten im Stärkestoffwechsel zu stabilisieren. Dieser Mechanismus eröffnet einen neuen Blick auf energie- und entropiegetriebene Prozesse in Zellen. KW - Enzymkinetik KW - Enzymadsorption KW - Disproportionierungsenzym KW - Polysaccharide KW - Statistische Physik KW - Enzyme kinetics KW - Enzyme adsorption KW - Disproportionating Enzyme KW - Polysaccharides KW - Statistical Physics Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53947 ER - TY - THES A1 - Kittner, Madeleine T1 - Folding and aggregation of amyloid peptides T1 - Faltung und Aggregation von Amyloidpeptiden N2 - Aggregation of the Amyloid β (Aβ) peptide to amyloid fibrils is associated with the outbreak of Alzheimer’s disease. Early aggregation intermediates in form of soluble oligomers are of special interest as they are believed to be the major toxic components in the process. These oligomers are of disordered and transient nature. Therefore, their detailed molecular structure is difficult to access experimentally and often remains unknown. In the present work extensive, fully atomistic replica exchange molecular dynamics simulations were performed to study the preaggregated, monomer states and early aggregation intermediates (dimers, trimers) of Aβ(25-35) and Aβ(10-35)-NH2 in aqueous solution. The folding and aggregation of Aβ(25-35) were studied at neutral pH and 293 K. Aβ(25-35) monomers mainly adopt β-hairpin conformations characterized by a β-turn formed by residues G29 and A30, and a β-sheet between residues N27–K28 and I31–I32 in equilibrium with coiled conformations. The β-hairpin conformations served as initial configurations to model spontaneous aggregation of Aβ(25-35). As expected, within the Aβ(25-35) dimer and trimer ensembles many different poorly populated conformations appear. Nevertheless, we were able to distinguish between disordered and fibril-like oligomers. Whereas disordered oligomers are rather compact with few intermolecular hydrogen bonds (HBs), fibril-like oligomers are characterized by the formation of large intermolecular β-sheets. In most of the fibril-like dimers and trimers individual peptides are fully extended forming in- or out-of-register antiparallel β-sheets. A small amount of fibril-like trimers contained V-shaped peptides forming parallel β-sheets. The dimensions of extended and V-shaped oligomers correspond well to the diameters of two distinct morphologies found for Aβ(25-35) fibrils. The transition from disordered to fibril-like Aβ(25-35) dimers is unfavorable but driven by energy. The lower energy of fibril-like dimers arises from favorable intermolecular HBs and other electrostatic interactions which compete with a loss in entropy. Approximately 25 % of the entropic cost correspond to configurational entropy. The rest relates to solvent entropy, presumably caused by hydrophobic and electrostatic effects. In contrast to the transition towards fibril-like dimers the first step of aggregation is driven by entropy. Here, we compared structural and thermodynamic properties of the individual monomer, dimer and trimer ensembles to gain qualitative information about the aggregation process. The β-hairpin conformation observed for monomers is successively dissolved in dimer and trimer ensembles while instead intermolecular β-sheets are formed. As expected upon aggregation the configurational entropy decreases. Additionally, the solvent accessible surface area (SASA), especially the hydrophobic SASA, decreases yielding a favorable solvation free energy which overcompensates the loss in configurational entropy. In summary, the hydrophobic effect, possibly combined with electrostatic effects, yields an increase in solvent entropy which is believed to be one major driving force towards aggregation. Spontaneous folding of the Aβ(10-35)-NH2 monomer was modeled using two force fields, GROMOS96 43a1 and OPLS/AA, and compared to primary NMR data collected at pH 5.6 and 283 K taken from the literature. Unexpectedly, the two force fields yielded significantly different main conformations. Comparison between experimental and calculated nuclear Overhauser effect (NOE) distances is not sufficient to distinguish between the different force fields. Additionally, the comparison with scalar coupling constants suggest that the chosen protonation in both simulations corresponds to a pH lower than in the experiment. Based on this analysis we were unable to determine which force field yields a better description of this system. Dimerization of Aβ(10-35)-NH2 was studied at neutral pH and 300 K. Dimer conformations arrange in many distinct, poorly populated and rather complex alignments or interlocking patterns which are rather stabilized by side chain interactions than by specific intermolecular hydrogen bonds. Similar to Aβ(25-35) dimers, transition towards β-sheet-rich, fibril-like Aβ(10-35) dimers is driven by energy competing with a loss in entropy. Here, transition is mediated by favorable peptide-solvent and solvent-solvent interactions mainly arising from electrostatic interactions. N2 - Die Aggregation des Amyloid β (Aβ) Peptids zu Amyloidfibrillen wird mit dem Ausbruch der Alzheimer Krankheit in Verbindung gebracht. Die toxische Wirkung auf Zellen wird vor allem den zeitigen Intermediaten in Form von löslichen Oligomeren zugeschrieben. Aufgrund deren ungeordneter und flüchtiger Natur kann die molekulare Struktur solcher zeitigen Oligomere oft experimentell nicht aufgelöst werden. In der vorliegenden Arbeit wurden aufwendige atomistische Replica-Exchange-Molekulardynamik-Simulationen durchgeführt, um die molekulare Struktur von Monomeren und Oligomeren der Fragmente Aβ(25-35) und Aβ(10-35)-NH2 in Wasser zu untersuchen. Die Faltung und Aggregation von Aβ(25-35) wurde bei neutralem pH und 293 K untersucht. Monomere dieses Fragments bilden hauptsächlich β-Haarnadelkonformationen im Gleichgewicht mit Knäulstrukturen. Innerhalb der β-Haarnadelkonformationen bilden die Residuen G29 und A30 einen β-turn, während N27–K28 and I31–I32 ein β-Faltblatt bilden. Diese β-Haarnadelkonformationen bildeten den Ausgangspunkt zur Modellierung spontaner Aggregation. Wie zu erwarten, bilden sich eine Vielzahl verschiedener, gering besetzter Dimer- und Trimerkonformationen. Mit Hilfe einer gröberen Einteilung können diese in ungeordnete und fibrillähnliche Oligomere unterteilt werden. Ungeordnete Oligomere bilden kompakte Strukturen, die nur durch wenige intermolekulare Wasserstoffbrückenbindungen (HBB) stabilisiert sind. Typisch für fibrillähnliche Oligomere ist hingegen die Ausbildung großer intermolekularer β-Faltblätter. In vielen dieser Oligomere finden wir antiparallele, in- oder out-of-register β-Faltblätter gebildet durch vollständig ausgestreckte Peptide. Ein kleiner Teil der fibrillähnlichen Trimere bildet parallele, V-förmige β-Faltblätter. Die Ausdehnungen ausgestreckter und V-förmiger Oligomere entspricht in etwa den Durchmessern von zwei verschiedenen, experimentell gefundenen Fibrillmorphologien für Aβ(25-35). Die Umwandlung von ungeordneten zu fibrillähnlichen Aβ(25-35) Dimeren ist energetisch begünstigt, läuft aber nicht freiwillig ab. Fibrillähnliche Dimere haben eine geringere Energie aufgrund günstiger Peptidwechselwirkungen (HBB, Salzbrücken), welche durch den Verlust an Entropie kompensiert wird. Etwa 25 % entsprechen dem Verlust an Konfigurationsentropie. Der restliche Anteil wird einem Verlust an Lösungsmittelentropie aufgrund von hydrophoben und elektrostatischen Effekten zugesprochen. Im Gegensatz zur Umwandlung in fibrillähnliche Dimere, ist die Assoziation von Monomeren oder Oligomeren entropisch begünstigt. Beim Vergleich thermodynamischer Eigenschaften der Monomer-, Dimer- und Trimersysteme zeigt sich im Verlauf der Aggregation, wie erwartet, eine Abnahme der Konfigurationsentropie. Zusätzlich nimmt die dem Lösungsmittel zugängliche Oberfläche (SASA), insbesondere die hydrophobe SASA, ab. In Verbindung damit beobachten wir eine Abnahme der freien Solvatisierungsenergie, welche den Verlust an Konfigurationsentropie kompensiert. Mit anderen Worten, der hydrophobe Effekt in Kombination mit elektrostatischen Wechselwirkungen führt zu einem Ansteigen der Lösungsmittelentropie und begünstigt damit die Aggegation. Die spontane Faltung des Aβ(10-35)-NH2 Monomers wurde für zwei verschiedene Proteinkraftfelder, GROMOS96 43a1 und OPLS/AA, untersucht und mit primären NMR-Daten aus der Literatur, gemessen bei pH 5.6 und 283 K, verglichen. Beide Kraftfelder generieren unterschiedliche Hauptkonformationen. Der Vergleich zwischen experimentellen und berechneten Kern-Overhauser-Effekt (NOE) Abständen ist nicht ausreichend, um zwischen beiden Kraftfeldern zu unterscheiden. Der Vergleich mit Kopplungskonstanten aus Experiment und Simulation zeigt, dass beide Simulationen einem pH-Wert geringer als 5.6 ensprechen. Basierend auf den bisherigen Ergebnissen können wir nicht entscheiden, welches Kraftfeld eine bessere Beschreibung für dieses System liefert. Die Dimerisierung von Aβ(10-35)-NH2 wurde bei neutralem pH und 300 K untersucht. Wir finden eine Vielzahl verschiedener, gering besetzter Dimerstrukturen, welche eher durch Seitenkettenkontakte als durch spezifische HBB stabilisiert sind. Wie bei den Aβ(25-35) Dimeren, ist die Umwandlung zu β-Faltblattreichen, fibrillähnlichen Aβ(10-35) Dimeren energetisch begünstigt, konkurriert aber mit einem Entropieverlust. Die Umwandlung wird in diesem Fall durch elektrostatische Wechselwirkungen zwischen Peptid und Lösungsmittel und innerhalb des Lösungsmittels bestimmt. KW - Amyloid beta KW - Proteinaggregation KW - Alzheimer KW - Molekulardynamik-Simulation KW - Thermodynamische Stabilität KW - amyloid beta KW - protein aggregation KW - Alzheimer KW - molecular dynamics simulation KW - thermodynamic stability Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53570 ER - TY - RPRT A1 - Reilich, Julia T1 - Returns to education and smoking BT - evidence from Germany N2 - Looking at smoking-behavior it can be shown that there are differences concerning the time-preference-rate. Therefore this has an effect on the optimal schooling decision in the way that we appear a lower average human capital level for smokers. According to a higher time-preference-rate additionally we suppose a higher return to education for smokers who go further on education. With our empirical findings we can confirm the presumptions. We use interactions-terms to regress the average rate of return with IV. Therefore we obtain that smokers have a significantly higher average return to education than non-smokers. T3 - Volkswirtschaftliche Diskussionsbeiträge - 103 Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53883 ER - TY - GEN A1 - Busch, Jan Philip A1 - Meißner, Tobias A1 - Potthoff, Annegret A1 - Oswald, Sascha T1 - Plating of nano zero-valent iron (nZVI) on activated carbon : a fast delivery method of iron for source remediation? N2 - The use of nano zerovalent iron (nZVI) for environmental remediation is a promising new technique for in situ remediation. Due to its high surface area and high reactivity, nZVI is able to dechlorinate organic contaminants and render them harmless. Limited mobility, due to fast aggregation and sedimentation of nZVI, limits the capability for source and plume remediation. Carbo-Iron is a newly developed material consisting of activated carbon particles (d50 = 0,8 µm) that are plated with nZVI particles. These particles combine the mobility of activated carbon and the reactivity of nZVI. This paper presents the first results of the transport experiments. N2 - Der Einsatz von elementarem Nanoeisen ist eine vielversprechende Technik zur Sanierung von Altlastenschadensfällen. Aufgrund der hohen Oberfläche und der hohen Reaktivität kannn ZVI chlororganische Schadstoffe dechlorieren und zu harmlosen Substanzen umwandeln. Der Einsatz von Nanoeisen zur Quellen- und Fahnensanierung wird jedoch durch mangelnde Mobilität im Boden im eingeschränkt. Carbo-Iron ist ein neu entwickeltes Material, das aus Aktivkohlepartikeln (d50 = 0,8 µm) und nZVI besteht. Diese Partikel kombinieren die Mobilit ät von Aktivkohle mit der Reaktivität von nZVI. Dieser Artikel beschreibt erste Ergebnisse von Transportuntersuchungen. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - paper 165 KW - Carbo-Iron KW - Nanoeisen KW - nZVI KW - Grundwassersanierung KW - Carbo-Iron KW - nano zero-valent iron KW - nZVI KW - remediation Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53792 ER - TY - THES A1 - Bierbaum, Veronika T1 - Chemomechanical coupling and motor cycles of the molecular motor myosin V T1 - Chemomechanische Kopplung und Motorzyklen für den molekularen Motor Myosin V N2 - In the living cell, the organization of the complex internal structure relies to a large extent on molecular motors. Molecular motors are proteins that are able to convert chemical energy from the hydrolysis of adenosine triphosphate (ATP) into mechanical work. Being about 10 to 100 nanometers in size, the molecules act on a length scale, for which thermal collisions have a considerable impact onto their motion. In this way, they constitute paradigmatic examples of thermodynamic machines out of equilibrium. This study develops a theoretical description for the energy conversion by the molecular motor myosin V, using many different aspects of theoretical physics. Myosin V has been studied extensively in both bulk and single molecule experiments. Its stepping velocity has been characterized as a function of external control parameters such as nucleotide concentration and applied forces. In addition, numerous kinetic rates involved in the enzymatic reaction of the molecule have been determined. For forces that exceed the stall force of the motor, myosin V exhibits a 'ratcheting' behaviour: For loads in the direction of forward stepping, the velocity depends on the concentration of ATP, while for backward loads there is no such influence. Based on the chemical states of the motor, we construct a general network theory that incorporates experimental observations about the stepping behaviour of myosin V. The motor's motion is captured through the network description supplemented by a Markov process to describe the motor dynamics. This approach has the advantage of directly addressing the chemical kinetics of the molecule, and treating the mechanical and chemical processes on equal grounds. We utilize constraints arising from nonequilibrium thermodynamics to determine motor parameters and demonstrate that the motor behaviour is governed by several chemomechanical motor cycles. In addition, we investigate the functional dependence of stepping rates on force by deducing the motor's response to external loads via an appropriate Fokker-Planck equation. For substall forces, the dominant pathway of the motor network is profoundly different from the one for superstall forces, which leads to a stepping behaviour that is in agreement with the experimental observations. The extension of our analysis to Markov processes with absorbing boundaries allows for the calculation of the motor's dwell time distributions. These reveal aspects of the coordination of the motor's heads and contain direct information about the backsteps of the motor. Our theory provides a unified description for the myosin V motor as studied in single motor experiments. N2 - Die hier vorgelegte Arbeit entwickelt unter Verwendung vieler verschiedener Aspekte der statistischen Physik eine Theorie der chemomechanischen Kopplung für den Energieumsatz des molekularen Motors Myosin V. Das Myosin V ist sowohl in chemokinetischen wie in Einzelmolekülexperimenten grundlegend untersucht worden. Seine Schrittgeschwindigkeit ist in Abhängigkeit verschiedener externer Parameter, wie der Nukleotidkonzentration und einer äußeren Kraft, experimentell bestimmt. Darüber hinaus ist eine große Anzahl verschiedener chemokinetischer Raten, die an der enzymatischen Reaktion des Moleküls beteiligt sind, quantitativ erfasst. Unter der Wirkung externer Kräfte, die seine Anhaltekraft überschreiten, verhält sich der Motor wie eine Ratsche: Für Kräfte, die entlang der Schrittbewegung des Motors wirken, hängt seine Geschwindigkeit von der ATP-Konzentration ab, für rückwärts angreifende Kräfte jedoch ist die Bewegung des Motors unabhängig von ATP. Auf der Grundlage der chemischen Zustände des Motors wird eine Netzwerktheorie aufgebaut, die die experimentellen Beobachtungen des Schrittverhaltens für Myosin V einschließt. Diese Netzwerkbeschreibung dient als Grundlage für einen Markovprozess, der die Dynamik des Motors beschreibt. Die Verwendung diskreter Zustände bietet den Vorteil der direkten Erfassung der chemischen Kinetik des Moleküls. Darüber hinaus werden chemische und mechanische Eigenschaften des Motors in gleichem Maße im Modell berücksichtigt. Durch die Erfassung der Enzymkinetik mittels eines stochastischen Prozesses lässt sich die Motordynamik mit Hilfe des stationären Zustands der Netzwerkdarstellung beschreiben. Um diesen zu bestimmen, verwenden wir eine graphentheoretische Methode, die auf Kirchhoff zurückgreift. Wir zeigen in Einklang mit den Gesetzen der Thermodynamik für Nichtgleichgewichtssysteme, dass das Schrittverhalten des Motors von mehreren chemomechanischen Zyklen beeinflusst wird. Weiterhin untersuchen wir das funktionale Verhalten mechanischer Schrittraten in Abhängigkeit der äußeren Kraft unter Verwendung einer geeigneten Fokker-Planck-Gleichung. Hierfür wird auf die Theorie einer kontinuierlichen Beschreibung von molekularen Methoden zurückgegriffen. Wir berechnen Größen wie die mittlere Schrittgeschwindigkeit, das Verhältnis von Vorwärts- und Rückwärtsschritten, und die Lauflänge des Motors in Abhängigkeit einer äußeren angreifenden Kraft sowie der Nukleotidkonzentration, und vergleichen diese mit experimentellen Daten. Für Kräfte, die kleiner als die Anhaltekraft des Motors sind, unterscheidet sich der chemomechanische Zyklus grundlegend von demjenigen, der für große Kräfte dominiert. Diese Eigenschaft resultiert in einem Schrittverhalten, das mit den experimentellen Beobachtungen übereinstimmt. Es ermöglicht weiterhin die Zerlegung des Netzwerks in einzelne Zyklen, die die Bewegung des Motors für verschiedene Bereiche externer Kräfte erfassen. Durch die Erweiterung unseres Modells auf Markovprozesse mit absorbierenden Zuständen können so die Wartezeitenverteilungen für einzelne Zyklen des Motors analytisch berechnet werden. Sie erteilen Aufschluss über die Koordination des Motors und enthalten zudem direkte Informationen über seine Rückwärtsschritte, die experimentell nicht erfasst sind. Für das gesamte Netzwerk werden die Wartezeitenverteilungen mit Hilfe eines Gillespie-Algorithmus bestimmt. Unsere Theorie liefert eine einheitliche Beschreibung der Eigenschaften von Myosin V, die in Einzelmolekülexperimenten erfasst werden können. KW - statistische Physik KW - Markov-Prozesse KW - molekulare Motoren KW - statistical physics KW - markov processes KW - molecular motors Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53614 ER - TY - THES A1 - Weiß, Jan T1 - Synthesis and self-assembly of multiple thermoresponsive amphiphilic block copolymers T1 - Synthese und Selbstorganisation von mehrfach thermisch schaltbaren amphiphilen Blockcopolymeren N2 - In the present thesis, the self-assembly of multi thermoresponsive block copolymers in dilute aqueous solution was investigated by a combination of turbidimetry, dynamic light scattering, TEM measurements, NMR as well as fluorescence spectroscopy. The successive conversion of such block copolymers from a hydrophilic into a hydrophobic state includes intermediate amphiphilic states with a variable hydrophilic-to-lipophilic balance. As a result, the self-organization is not following an all-or-none principle but a multistep aggregation in dilute solution was observed. The synthesis of double thermoresponsive diblock copolymers as well as triple thermoresponsive triblock copolymers was realized using twofold-TMS labeled RAFT agents which provide direct information about the average molar mass as well as residual end group functionality from a routine proton NMR spectrum. First a set of double thermosensitive diblock copolymers poly(N-n-propylacrylamide)-b-poly(N-ethylacrylamide) was synthesized which differed only in the relative size of the two blocks. Depending on the relative block lengths, different aggregation pathways were found. Furthermore, the complementary TMS-labeled end groups served as NMR-probes for the self-assembly of these diblock copolymers in dilute solution. Reversible, temperature sensitive peak splitting of the TMS-signals in NMR spectroscopy was indicative for the formation of mixed star-/flower-like micelles in some cases. Moreover, triple thermoresponsive triblock copolymers from poly(N-n-propylacrylamide) (A), poly(methoxydiethylene glycol acrylate) (B) and poly(N-ethylacrylamide) (C) were obtained from sequential RAFT polymerization in all possible block sequences (ABC, BAC, ACB). Their self-organization behavior in dilute aqueous solution was found to be rather complex and dependent on the positioning of the different blocks within the terpolymers. Especially the localization of the low-LCST block (A) had a large influence on the aggregation behavior. Above the first cloud point, aggregates were only observed when the A block was located at one terminus. Once placed in the middle, unimolecular micelles were observed which showed aggregation only above the second phase transition temperature of the B block. Carrier abilities of such triple thermosensitive triblock copolymers tested in fluorescence spectroscopy, using the solvatochromic dye Nile Red, suggested that the hydrophobic probe is less efficiently incorporated by the polymer with the BAC sequence as compared to ABC or ACB polymers above the first phase transition temperature. In addition, due to the problem of increasing loss of end group functionality during the subsequent polymerization steps, a novel concept for the one-step synthesis of multi thermoresponsive block copolymers was developed. This allowed to synthesize double thermoresponsive di- and triblock copolymers in a single polymerization step. The copolymerization of different N-substituted maleimides with a thermosensitive styrene derivative (4-vinylbenzyl methoxytetrakis(oxyethylene) ether) led to alternating copolymers with variable LCST. Consequently, an excess of this styrene-based monomer allowed the synthesis of double thermoresponsive tapered block copolymers in a single polymerization step. N2 - Die Selbstorganisation von mehrfach thermisch schaltbaren Blockcopolymeren in verdünnter wässriger Lösung wurde mittels Trübungsphotometer, dynamischer Lichtstreuung, TEM Messungen, NMR sowie Fluoreszenzspektroskopie untersucht. Die schrittweise Überführung eines hydrophilen in ein hydrophobes Blockcopolymer beinhaltet ein oder mehr amphiphile Zwischenstufen mit einstellbarem hydrophilen zu lipophilen Anteil (HLB). Dies führt dazu, dass die Selbstorganisation solcher Polymere in Lösung nicht nur einem Alles-oder-nichts-Prinzip folgt sondern ein mehrstufiges Aggregationsverhalten beobachtet wird. Die Synthese von doppelt thermisch schaltbaren Diblockcopolymeren und dreifach thermisch schaltbaren Triblockcopolymeren wurde durch sequenzielle RAFT Polymerisation realisiert. Dazu wurden zweifach TMS-markierte RAFT Agentien verwendet, welche die Bestimmung der molaren Masse sowie der verbliebenen Endgruppenfunktionalität direkt aus einem Protonen NMR Spektrum erlauben. Mit diesen RAFT Agentien wurde zunächst eine Serie von doppelt thermisch schaltbaren Diblockcopolymeren aus Poly(N-n-propylacrylamid)-b-Poly(N-ethylacrylamid), welche sich lediglich durch die relativen Blocklängen unterscheiden, hergestellt. In Abhängigkeit von der relativen Blocklänge wurde ein unterschiedliches Aggregationsverhalten der Diblockcopolymere in verdünnter wässriger Lösung beobachtet. Des Weiteren wirken die komplementär TMS-markierten Endgruppen als NMR-Sonden während der schrittweisen Aggregation dieser Polymere. Reversible, temperaturabhängige Peakaufspaltung der TMS-Signale in der NMR Spektroskopie spricht für eine Aggregation in gemischte stern-/blumenartige Mizellen, in denen ein Teil der hydrophoben Endgruppen in den hyrophoben Kern zurückfaltet. Obendrein wurden dreifach thermisch schaltbare Triblockcopolymere aus Poly(N-n-propylacrylamid) (A), Poly(methoxydiethylen glycol acrylat) (B) und Poly(N-ethylacrylamid) (C) in allen möglichen Blocksequenzen (ABC, BAC, ACB) durch schrittweisen Aufbau mittels RAFT Polymerisation erhalten. Das Aggregationsverhalten dieser Polymere in verdünnter wässriger Lösung war relativ komplex und hing stark von der Position der einzelnen Blöcke in den Triblockcopolymeren ab. Besonders die Position des Blocks mit der niedrigsten LCST (A) war ausschlaggebend für die resultierenden Aggregate. So wurde oberhalb der ersten Phasenübergangstemperatur nur Aggregation der Triblockcopolymere beobachtet, wenn der A Block an einem der beiden Enden der Polymere lokalisiert war. Wurde der A Block hingegen in der Mitte der Polymere positioniert, entstanden unimere Mizellen zwischen der ersten und zweiten Phasenübergangstemperatur, welche erst aggregierten, nachdem der zweite Block (B) seinen Phasenübergang durchlief. Die Transportereigenschaften dieser Triblockcopolymere wurden mittels Fluoreszenzspektroskopie getestet. Dazu wurde die Einlagerung eines hydrophoben, solvatochromen Fluoreszenzfarbstoffes, Nilrot, in Abhängigkeit der Temperatur untersucht. Im Gegensatz zu den Polymeren mit der Blocksequenz ABC oder ACB, zeigten die Polymere mit der Sequenz BAC eine verminderte Aufnahmefähigkeit des hydrophoben Farbstoffes oberhalb des ersten Phasenübergangs, was auf die fehlende Aggregation und die damit verbundenen relativ kleinen hydrophoben Domänen der unimolekularen Mizellen zwischen der ersten und zweiten Phasenübergangstemperatur zurückzuführen ist. Aufgrund des zunehmenden Verlustes von funktionellen Endgruppen während der RAFT Synthese von Triblockcopolymeren wurde ein neuartiges Konzept zur Einschrittsynthese von mehrfach schaltbaren Blockcopolymeren entwickelt. Dieses erlaubt die Synthese von mehrfach schaltbaren Diblock- und Triblockcopoylmeren in einem einzelnen Reaktionsschritt. Die Copolymeriation von verschiedenen N-substituierten Maleimiden mit einem thermisch schaltbaren Styrolderivat (4-Vinylbenzylmethoxytetrakis(oxyethylene) ether) ergab alternierende Copolymere mit variabler LCST. Die Verwendung eines Überschusses dieses styrolbasierten Monomers erlaubt ferner die Synthese von Gradientenblockcopolymeren in einem einzelnen Polymerisationsschritt. KW - Selbstorganisation KW - Blockcopolymer KW - RAFT KW - temperaturschaltbar KW - Mizelle KW - self-assembly KW - block copolymer KW - RAFT KW - thermoresponsive KW - micelle Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53360 ER - TY - THES A1 - Bergner, André T1 - Synchronization in complex systems with multiple time scales T1 - Synchronisation in komplexen Systemen mit mehreren Zeitskalen N2 - In the present work synchronization phenomena in complex dynamical systems exhibiting multiple time scales have been analyzed. Multiple time scales can be active in different manners. Three different systems have been analyzed with different methods from data analysis. The first system studied is a large heterogenous network of bursting neurons, that is a system with two predominant time scales, the fast firing of action potentials (spikes) and the burst of repetitive spikes followed by a quiescent phase. This system has been integrated numerically and analyzed with methods based on recurrence in phase space. An interesting result are the different transitions to synchrony found in the two distinct time scales. Moreover, an anomalous synchronization effect can be observed in the fast time scale, i.e. there is range of the coupling strength where desynchronization occurs. The second system analyzed, numerically as well as experimentally, is a pair of coupled CO₂ lasers in a chaotic bursting regime. This system is interesting due to its similarity with epidemic models. We explain the bursts by different time scales generated from unstable periodic orbits embedded in the chaotic attractor and perform a synchronization analysis of these different orbits utilizing the continuous wavelet transform. We find a diverse route to synchrony of these different observed time scales. The last system studied is a small network motif of limit cycle oscillators. Precisely, we have studied a hub motif, which serves as elementary building block for scale-free networks, a type of network found in many real world applications. These hubs are of special importance for communication and information transfer in complex networks. Here, a detailed study on the mechanism of synchronization in oscillatory networks with a broad frequency distribution has been carried out. In particular, we find a remote synchronization of nodes in the network which are not directly coupled. We also explain the responsible mechanism and its limitations and constraints. Further we derive an analytic expression for it and show that information transmission in pure phase oscillators, such as the Kuramoto type, is limited. In addition to the numerical and analytic analysis an experiment consisting of electrical circuits has been designed. The obtained results confirm the former findings. N2 - In der vorliegenden Arbeit wurden Synchronisationsphänomene in komplexen Systemen mit mehreren Zeitskalen untersucht. Es gibt mehrere Möglichkeiten wie diese verschiedenen Zeitskalen vorkommen können. Drei verschiedene Systeme, jedes mit einer anderen Art von zeitlicher Multiskalität, wurden mit unterschiedlichen Methoden der Datenanalyse untersucht. Das erste untersuchte System ist ein ausgedehntes heterogenes Netzwerk von Neuronen mit zwei dominanten Zeitskalen, zum einen die schnelle Folge von Aktionspotenzialen und zum anderen einer abwechselnden Folge von einer Phase von Aktionspotenzialen und einer Ruhephase. Dieses System wurde numerisch integriert und mit Methoden der Phasenraumrekurrenz untersucht. Ein interessantes Ergebnis ist der unterschiedliche Übergang zur Synchronisation der Neuronen auf den beiden verschiedenen Zeitskalen. Des weiteren kann auf der schnellen Zeitskala eine anomale Synchronisation beobachtet werden, d.h. es gibt einen Bereich der Kopplungsstärke in dem es zu einer Desynchronisation kommt. Als zweites wurde, sowohl numerisch als auch experimentell, ein System von gekoppelten CO₂ Lasern untersucht, welche in einem chaotischen bursting Modus arbeiten. Dieses System ist auch durch seine Äquivalenz zu Epidemiemodellen interessant. Wir erklären die Bursts durch unterschiedliche Zeitskalen, welche durch in den chaotischen Attraktor eingebettete instabile periodische Orbits generiert werden. Wir führen eine Synchronisationsanalyse mit Hilfe der kontinuierlichen Wavelettransformation durch und finden einen unterschiedlichen Übergang zur Synchronisation auf den unterschiedlichen Zeitskalen. Das dritte analysierte System ist ein Netzwerkmotiv von Grenzzyklusoszillatoren. Genauer handelt es sich um ein Nabenmotiv, welches einen elementaren Grundbaustein von skalenfreien Netzwerken darstellt, das sind Netzwerke die eine bedeutende Rolle in vielen realen Anwendungen spielen. Diese Naben sind von besonderer Bedeutung für die Kommunikation und den Informationstransport in komplexen Netzwerken. Hierbei wurde eine detaillierte Untersuchung des Synchronisationsmechanismus in oszillatorischen Netzwerken mit einer breiten Frequenzverteilung durchgeführt. Insbesondere beobachten wir eine Fernsynchronisation von Netzwerkknoten, die nur indirekt über andere Oszillatoren miteinander gekoppelt sind. Wir erklären den zu Grunde liegenden Mechanismus und zeigen dessen Grenzen und Bedingungen auf. Des weiteren leiten wir einen analytischen Ausdruck für den Mechanismus her und zeigen, dass eine Informationsübertragung in reinen Phasenoszillatoren, wie beispielsweise vom Kuramototyp, eingeschränkt ist. Diese Ergebnisse konnten wir durch Experimente mit elektrischen Schaltkreisen bestätigen. KW - Komplexe Systeme KW - Synchronisation KW - Nichtlineare Dynamik KW - Datenanalyse KW - complex systems KW - synchronization KW - nonlinear dynamics KW - data analysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53407 ER - TY - THES A1 - Winkler, Michael T1 - Thinning and turbulence in aqueous films N2 - This thesis covers the topic ”Thinning and Turbulence in Aqueous Films”. Experimental studies in two-dimensional systems gained an increasing amount of attention during the last decade. Thin liquid films serve as paradigms of atmospheric convection, thermal convection in the Earth’s mantle or turbulence in magnetohydrodynamics. Recent research on colloids, interfaces and nanofluids lead to advances in the developtment of micro-mixers (lab-on-a-chip devices). In this project a detailed description of a thin film experiment with focus on the particular surface forces is presented. The impact of turbulence on the thinning of liquid films which are oriented parallel to the gravitational force is studied. An experimental setup was developed which permits the capturing of thin film interference patterns under controlled surface and atmospheric conditions. The measurement setup also serves as a prototype of a mixer on the basis of thermally induced turbulence in liquid thin films with thicknesses in the nanometer range. The convection is realized by placing a cooled copper rod in the center of the film. The temperature gradient between the rod and the atmosphere results in a density gradient in the liquid film, so that different buoyancies generate turbulence. In the work at hand the thermally driven convection is characterized by a newly developed algorithm, named Cluster Imaging Velocimetry (CIV). This routine determines the flow relevant vector fields (velocity and deformation). On the basis of these insights the flow in the experiment was investigated with respect to its mixing properties. The mixing characteristics were compared to theoretical models and mixing efficiency of the flow scheme calculated. The gravitationally driven thinning of the liquid film was analyzed under the influence of turbulence. Strong shear forces lead to the generation of ultra-thin domains which consist of Newton black film. Due to the exponential expansion of the thin areas and the efficient mixing, this two-phase flow rapidly turns into the convection of only ultra-thin film. This turbulence driven transition was observed and quantified for the first time. The existence of stable convection in liquid nanofilms was proven for the first time in the context of this work. N2 - Diese Diplomarbeit behandelt das Thema ”Dünnung und Turbulenz in wässrigen Filmen”. Experimente in zweidimensionalen Systemen erfuhren in den vergangenen Jahren zunehmend an Aufmerksamkeit. Dünne Flüssigkeitsschichten dienen als Modell für atmosphärische Konvektion, thermische Konvektion im Erdmantel oder Turbulenz in der Magnetohydrodynamik. Aktuelle Forschung im Bereich der Kolloide, Grenzflächen und Nanofluidik führt zu Fortschritten in der Entwicklung von Mikromixern (”lab-on-a-chip”). In diesem Projekt wird eine detaillierte Beschreibung eines Dünnfilmexperiments mit Fokus auf die besonderen Oberflächenkräfte vorgestellt. Die Auswirkung der Turbulenz auf die Dünnung von parallel zur Gravitationskraft orientierten Flüssigkeitsschichten wurde untersucht. Es wurde ein Experiment entwickelt, welches die Aufnahme von Dünnschichtinterferenzmustern unter kontrollierten Oberflächenbedingungen und Atmosphäre erlaubt. Der Messaufbau dient auch als Prototyp eines Mixers auf Basis von thermisch induzierter Turbulenz in Flüssigkeitsfilmen mit Dicken im Nanometerbereich. Die Konvektion wird durch das Platzieren eines gekühlten Kupferstabs in der Mitte des Films realisiert. Der Temperaturgradient zwischen Stab und äußerer Atmosphäre resultiert in einem Dichtegradienten in dem flüssigen Film, sodass durch unterschiedliche Auftriebskräfte Turbulenz erzeugt wird. In der vorliegenden Arbeit ist die thermisch getriebenen Konvektion an Hand eines neu entwickelten Verfahrens (Cluster Imaging Velocimetry - CIV) zur Ermittlung des strömungsrelevanten Vektorfelder (Geschwindigkeit und Deformation) charakterisiert worden. Auf Basis dieser Erkenntnisse wurde die im Experiment vorherrschende Strömung in Hinsicht auf ihre Mischungseigenschaften im Vergleich zu theoretischen Modellen untersucht und die Mischungseffizienz berechnet. Die gravitationsgetriebene Ausdünnung der Flüssigkeitsschicht unter Einfluss der Turbulenz wurde analysiert. Durch starke Scherkräfte kommt es lokal zur Bildung ultradünner Domänen bestehend aus ”Newton black film”. Diese Zweiphasenströmung geht durch das exponentielle Ausdehnen der dünnen Bereiche und die effiziente Mischung sehr schnell in eine Konvektion von ausschließlich ultradünnem Film im Gleichgewichtszustand über. Dieser turbulenzgetriebene Übergang wurde zum ersten Mal beobachtet und quantifiziert. Die Existenz stabiler Konvektion in flüssigen Nanofilmen ist zum ersten Mal im Rahmen dieser Arbeit belegt worden. KW - wässrige Filme KW - Nanofluid KW - Mischung KW - Konvektion KW - Dünnung KW - Thin Film KW - Nanofluid KW - Mixing KW - Convection KW - Rapid thinning Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53107 ER - TY - BOOK A1 - Neuhaus, Christian A1 - Polze, Andreas A1 - Chowdhuryy, Mohammad M. R. T1 - Survey on healthcare IT systems : standards, regulations and security N2 - IT systems for healthcare are a complex and exciting field. One the one hand, there is a vast number of improvements and work alleviations that computers can bring to everyday healthcare. Some ways of treatment, diagnoses and organisational tasks were even made possible by computer usage in the first place. On the other hand, there are many factors that encumber computer usage and make development of IT systems for healthcare a challenging, sometimes even frustrating task. These factors are not solely technology-related, but just as well social or economical conditions. This report describes some of the idiosyncrasies of IT systems in the healthcare domain, with a special focus on legal regulations, standards and security. N2 - IT Systeme für Medizin und Gesundheitswesen sind ein komplexes und spannendes Feld. Auf der einen Seite stehen eine Vielzahl an Verbesserungen und Arbeitserleichterungen, die Computer zum medizinischen Alltag beitragen können. Einige Behandlungen, Diagnoseverfahren und organisatorische Aufgaben wurden durch Computer überhaupt erst möglich. Auf der anderen Seite gibt es eine Vielzahl an Fakturen, die Computerbenutzung im Gesundheitswesen erschweren und ihre Entwicklung zu einer herausfordernden, sogar frustrierenden Aufgabe machen können. Diese Faktoren sind nicht ausschließlich technischer Natur, sondern auch auf soziale und ökonomische Gegebenheiten zurückzuführen. Dieser Report beschreibt einige Besondenderheiten von IT Systemen im Gesundheitswesen, mit speziellem Fokus auf gesetzliche Rahmenbedingungen, Standards und Sicherheit. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 45 KW - EPA KW - Elektronische Patientenakte KW - Sicherheit KW - Privacy KW - Standards KW - Gesetze KW - EHR KW - electronic health record KW - security KW - privacy KW - standards KW - law Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51463 SN - 978-3-86956-128-8 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Feinberg, Anat T1 - Peter W. Marx, Ein theatralisches Zeitalter : Bürgerliche Selbstinszenierungen um 1900 / [rezensiert von] Anat Feinberg JF - PaRDeS : Zeitschrift der Vereinigung für Jüdische Studien e.V. N2 - rezensiertes Werk: Marx, Peter W.:Ein theatralisches Zeitalter : Bürgerliche Selbstinszenierungen um 1900. - Tübingen [u.a.] : A. Francke, 2008. - 429 S. ISBN 978-3-772-08220-7 Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53550 SN - 1614-6492 SN - 1862-7684 IS - 17 SP - 284 EP - 285 ER - TY - JOUR A1 - Lewy, Mordechay T1 - Corporeality in Jewish Thought and Art JF - PaRDeS : Zeitschrift der Vereinigung für Jüdische Studien e.V. N2 - The essay compares the dichotomous concepts of corporeality and spirituality in Judaism and Christianity. Through the ages, deviations from normative principles of beliefs could be discerned in both religions. These can be attributed either to the somewhat confrontational interaction between Jews and Christians in the Medieval urban environment or to the impact of Hellenic civilization on both monotheistic religions. Out of this dynamic impact emerged Christian art with a predilection to expressed corporeality, whereas Jewish religiosity found its artistic expression in a spiritual noniconographical mode. A genuine Jewish art and iconography could develop only after a certain degree of assimilation and secularization. Marc Chagall was the first protagonist of a mature expression of Jewish iconography. N2 - Im Essay werden Körperlichkeit und Spiritualität als dichotomes Begriffspaar im Judentum (und Islam) gegenüber dem Christentum verglichen. Im Geschichtsverlauf wurden bei beiden Religionen Abweichungen von den sogenannten normativen Glaubenssätzen festgestellt. Diese können sowohl auf gegenseitige Beeinflussung (Anpassung durch Konfrontation im Mittelalter zwischen Judentum und Christentum) wie auch auf externe Akkulturationsprozesse (Hellenisierungsprozess im antiken Judentum) zurückgeführt werden. Es entsteht ein dynamisches Wechselspiel, wobei in der christlichen Kunst eine allmähliche Verkörperlichung stattfindet, während sich die jüdische Religiosität und der Kunstausdruck auf eine Vergeistigung festlegen. Eine eigenständige jüdische Kunstsprache und Ikonographie konnte allerdings erst nach einem gewissen Assimilationsgrad und Säkularisierungsprozess entstehen. Bei Marc Chagall hatte sie ihre erste Reife erreicht. Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53319 SN - 1614-6492 SN - 1862-7684 IS - 17 SP - 209 EP - 223 ER - TY - JOUR A1 - Albeck-Gidron, Rachel T1 - The Holocaust as a Changing Presence in Yoel Hoffmann’s Texts JF - PaRDeS : Zeitschrift der Vereinigung für Jüdische Studien e.V. N2 - Yoel Hoffmann is an Israeli writer born in 1937 in Brasov (Kronstadt), Romania. Brought up in a German-speaking family, already in his first book, Sefer Yosef (1989), he conveys the voice of German-speaking immigrants in Israel (the “Katschen” story, 1986) and that of the East European Jewish community in Berlin in the late 1930s, on the verge of the Second World War. His works are crammed with characters of Jews from Germany gripped by the memory of the language they abandoned following their emigration to Palestine in the 1930s. The classic one is the character of Bernhard, in the eponymous work. The current article focuses on the representation and elaboration of Hoffmann’s unique creation, in a language influenced by his deep identification with Zen Buddhism on the one hand, and his attraction to the modernist, Western style of stream of consciousness on the other. In central sections of his works, Hoffman presents his entire literary corpus as a type of explicit, allusive, or secret Holocaust literature, and invites his readers and his critics to decode the allusions and expose the secret in this theme, a surprising statement in relation to Hoffmann’s work and its analysis so far. Hoffmann represents the Holocaust as a collective Israeli trauma for which his literary fiction creates a special catalogue of representative characters. In the creation of a catalogue, and particularly one that simultaneously classifies and individualizes, Hoffmann’s project resembles the monumental 1920s cataloguing project by the celebrated German photographer August Sander (Menschen des 20. Jahrhunderts). Hoffmann included photographs from this project in his works, and even chose some of them for the covers of his books. The article examines the implicit relationships between these two creative artists as conferring a meaning so far not considered in the research of the Holocaust theme in Yoel Hoffmann’s writings. N2 - Yoel Hoffmann ist ein israelischer Autor, der 1937 in Brasov (Kronstadt), Rumänien geboren wurde. Er wuchs in einer deutschsprachigen Familie auf. Bereits in seinem ersten Buch Sefer Yosef (1989) verleiht er den deutschsprachigen Immigranten in Israel (die „Katschen”-Geschichte, 1986) und der osteuropäisch-jüdischen Gemeinschaft im Berlin der späten 1930er Jahre vor Ausbruch des Zweiten Weltkriegs eine Stimme. Sein Werk ist mit jüdischen Protagonisten aus Deutschland gespickt, die von der Erinnerung an die Sprache erfasst sind, von der sie sich seit ihrer Emigration nach Palästina in den 1930er Jahren zu lösen versuchen. Ein klassisches Beispiel hierfür ist die Figur des Bernhard in Hoffmanns gleichnamigem Werk. Der folgende Artikel fokussiert die Darstellungsweise und Ausarbeitung von Hoffmanns einzigartigem Werk, dessen Sprache einerseits durch seine tiefe Identifikation mit dem Zen Buddhismus und andererseits durch einen den Autor anziehenden, modernistischen westlichen Stil des Bewusstseinsstroms beeinflusst wurde. In zentralen Teilen seines Werkes stellt Hoffmann seinen gesamten literarischen Textkorpus als einen Typus der expliziten, anspielenden oder aber verborgenen Holocaust-Literatur dar. Er lädt seine Leserschaft und seine Kritiker dazu ein, seine Anspielungen zu dechiffrieren und das Geheimnis seiner Themen aufzudecken. Dies ist eine überraschende Aussage in Bezug auf Hoffmanns Werk und dessen bisherige Analyse. Der Autor stellt den Holocaust als ein kollektives israelisches Trauma dar, für das seine literarische Fiktion einen speziellen Katalog repräsentativer Charaktere erstellt hat. Bei der Erstellung dieses Katalogs, dies insbesondere da er zeitgleich klassifiziert und individualisiert, ähnelt Hoffmanns Projekt dem monumentalen Katalogisierungsprojekt der 1920er Jahre, das von dem gefeierten deutschen Fotografen August Sander (Menschen des 20. Jahrhunderts) durchgeführt wurde. Hoffmann bezieht Fotografien aus Sanders Projekt in sein Werk ein und verwendet sogar einige der Abbildungen für die Titelseite seiner Bücher. Der Artikel behandelt die implizite Beziehung zwischen diesen beiden kreativen Künstlern und lässt diesem Aspekt eine Bedeutung zuteil werden, die bislang in der Forschung über Holocaust Themen in Yoel Hoffmanns schriftstellerischem Werk keinen Niederschlag fand. Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53307 SN - 1614-6492 SN - 1862-7684 IS - 17 SP - 175 EP - 207 ER - TY - JOUR A1 - Baraldi, Luca T1 - Immobile Tremor BT - The Immobility of the Ghetto and the Human Vitality JF - PaRDeS : Zeitschrift der Vereinigung für Jüdische Studien e.V. N2 - The threshold between the XVth and the XVIth Century represents a historical period during which, both for Christians and for Jews, the geopolitical sceneries and the interior horizons radically change. The modified reality provokes new forms of expectation and the need of new historical interpretations. Ferrara, within this scenery, can be considered, as other Italian cases, as a paradigmatic example, a narrow space where phenomena of spiritual and cultural Jewish rebirth can take shape. The permeability between Christian artistic and cultural world and Jewish intellectual production determines a prosperous context, further strengthened by the introduction of Jewish typography and by a growing claim and restoration of social elective dignity among the Jews of the Este Duchy. After the transfer of the capital city from Ferrara to Modena, the indirect effects of this intellectual resurgence are deeply transformed on a social level, and allows us to catch the persistence of important forms of communication between Christians and Jews in everyday life. The introduction of the Inquisition provides us, through the production of the judicial archive, with the most important instrument to understand social dynamics, which allows us to comprehend a new potential interpretation key for the reality of the ghetto and the choice of its erection. The urban division is nothing else but a new attempt to separate the invisible spaces of the thought. The effective efficacy of the physical separation shows several weak points, which persist during the entire life of the ghetto, since 1638 until 1789. N2 - Die Schwelle zwischen dem 15. und 16. Jahrhundert stellt eine historische Periode dar, in der sich die geopolitische Landschaft und das innere Blickfeld sowohl für Christen als auch für Juden radikal änderten. Die veränderten Gegebenheiten lösten andere Erwartungen und das Bedürfnis nach neuen historischen Interpretationen aus. In diesem Kontext kann Ferrara, wie auch andere italienische Städte, als ein paradigmatisches Beispiel angesehen werden, als ein begrenzter Raum, in dem das spirituelle und kulturelle Wiederaufleben innerhalb der jüdischen Gesellschaft Gestalt annehmen konnte. Die Durchlässigkeit zwischen der künstlerischen und kulturellen christlichen Welt und jüdisch-intellektuellen Erzeugnissen bedingte ein gedeihendes Umfeld, das zudem durch die Einführung einer jüdischen Typographie und durch wachsende Ansprüche der Juden im Herzogtum der Este bestärkt wurde. Die indirekten Einflüsse auf dieses intellektuelle Wiederaufleben wirkten sich nach der Verlegung der Hauptstadt von Ferrara nach Modena tiefgreifend auf einer sozialen Ebene aus. Sie erlauben uns, das Fortdauern wichtiger Kommunikationsmuster zwischen Christen und Juden im Alltag zu erfassen. Das Einsetzen der Inquisition bietet uns mittels juristischer Archive die wichtigsten Instrumente, um soziale Dynamiken zu verstehen. Diese erlauben uns, neue denkbare Interpretationen als Schlüssel für die Gegebenheiten im Ghetto und für die Gründe seiner Errichtung in Betracht zu ziehen. Die städtische Trennungslinie ist nichts anderes als ein weiterer Versuch, die unsichtbaren Räume der Gedankenwelten voneinander abzugrenzen. Die nachhaltige Wirksamkeit der räumlichen Trennung weist einige Schwachpunkte auf, die während der gesamten Existenzphase des Ghettos von 1638 bis 1789 bestehen blieben. Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53255 SN - 1614-6492 SN - 1862-7684 IS - 17 SP - 71 EP - 95 ER - TY - THES A1 - Kubo, Shiori T1 - Nanostructured carbohydrate-derived carbonaceous materials T1 - Nanostrukturierte kohlenstoffbasierte Materialien aus Kohlenhydraten N2 - Nanoporous carbon materials are widely used in industry as adsorbents or catalyst supports, whilst becoming increasingly critical to the developing fields of energy storage / generation or separation technologies. In this thesis, the combined use of carbohydrate hydrothermal carbonisation (HTC) and templating strategies is demonstrated as an efficient route to nanostructured carbonaceous materials. HTC is an aqueous-phase, low-temperature (e.g. 130 – 200 °C) carbonisation, which proceeds via dehydration / poly-condensation of carbon precursors (e.g. carbohydrates and their derivatives), allowing facile access to highly functional carbonaceous materials. Whilst possessing utile, modifiable surface functional groups (e.g. -OH and -C=O-containing moieties), materials synthesised via HTC typically present limited accessible surface area or pore volume. Therefore, this thesis focuses on the development of fabrication routes to HTC materials which present enhanced textural properties and well-defined porosity. In the first discussed synthesis, a combined hard templating / HTC route was investigated using a range of sacrificial inorganic templates (e.g. mesoporous silica beads and macroporous alumina membranes (AAO)). Via pore impregnation of mesoporous silica beads with a biomass-derived carbon source (e.g. 2-furaldehyde) and subsequent HTC at 180 oC, an inorganic / carbonaceous hybrid material was produced. Removal of the template component by acid etching revealed the replication of the silica into mesoporous carbonaceous spheres (particle size ~ 5 μm), representing the inverse morphological structure of the original inorganic body. Surface analysis (e.g. FTIR) indicated a material decorated with hydrophilic (oxygenated) functional groups. Further thermal treatment at increasingly elevated temperatures (e.g. at 350, 550, 750 oC) under inert atmosphere allowed manipulation of functionalities from polar hydrophilic to increasingly non-polar / hydrophobic structural motifs (e.g. extension of the aromatic / pseudo-graphitic nature), thus demonstrating a process capable of simultaneous control of nanostructure and surface / bulk chemistry. As an extension of this approach, carbonaceous tubular nanostructures with controlled surface functionality were synthesised by the nanocasting of uniform, linear macropores of an AAO template (~ 200 nm). In this example, material porosity could be controlled, showing increasingly microporous tube wall features as post carbonisation temperature increased. Additionally, by taking advantage of modifiable surface groups, the introduction of useful polymeric moieties (i.e. grafting of thermoresponsive poly(N-isopropylacrylamide)) was also demonstrated, potentially enabling application of these interesting tubular structures in the fields of biotechnology (e.g. enzyme immobilization) and medicine (e.g. as drug micro-containers). Complimentary to these hard templating routes, a combined HTC / soft templating route for the direct synthesis of ordered porous carbonaceous materials was also developed. After selection of structural directing agents and optimisation of synthesis composition, the F127 triblock copolymer (i.e. ethylene oxide (EO)106 propylene oxide (PO)70 ethylene oxide (EO)106) / D-Fructose system was extensively studied. D-Fructose was found to be a useful carbon precursor as the HTC process could be performed at 130 oC, thus allowing access to stable micellular phase. Thermolytic template removal from the synthesised ordered copolymer / carbon composite yielded functional cuboctahedron single crystalline-like particles (~ 5 μm) with well ordered pore structure of a near perfect cubic Im3m symmetry. N2 sorption analysis revealed a predominantly microporous carbonaceous material (i.e. Type I isotherm, SBET = 257 m2g-1, 79 % microporosity) possessing a pore size of ca. 0.9 nm. The addition of a simple pore swelling additive (e.g. trimethylbenzene (TMB)) to this system was found to direct pore size into the mesopore size domain (i.e. Type IV isotherm, SBET = 116 m2g-1, 60 % mesoporosity) generating pore size of ca. 4 nm. It is proposed that in both cases as HTC proceeds to generate a polyfuran-like network, the organised block copolymer micellular phase is essentially “templated”, either via hydrogen bonding between hydrophilic poly(EO) moiety and the carbohydrate or via hydrophobic interaction between hydrophobic poly(PO) moiety and forming polyfuran-like network, whilst the additive TMB presumably interact with poly(PO) moieties, thus swelling the hydrophobic region expanding the micelle template size further into the mesopore range. N2 - Nanoporöse kohlenstoffbasierte Materialien sind in der Industrie als Adsorbentien und Katalysatorträger weit verbreitet und gewinnen im aufstrebenden Bereich der Energiespeicherung/erzeugung und für Trennverfahren an wachsender Bedeutung. In der vorliegenden Arbeit wird gezeigt, dass die Kombination aus hydrothermaler Karbonisierung von Zuckern (HTC) mit Templatierungsstrategien einen effizienten Weg zu nanostrukturierten kohlenstoffbasierten Materialien darstellt. HTC ist ein in Wasser und bei niedrigen Temperaturen (130 - 200 °C) durchgeführter Karbonisierungsprozess, bei dem Zucker und deren Derivate einen einfachen Zugang zu hochfunktionalisierten Materialien erlauben. Obwohl diese sauerstoffhaltige Funktionalitäten auf der Oberfläche besitzen, an welche andere chemische Gruppen gebunden werden könnten, was die Verwendung für Trennverfahren und in der verzögerten Wirkstofffreisetzung ermöglichen sollte, ist die mittels HTC hergestellte Kohle für solche Anwendungen nicht porös genug. Das Ziel dieser Arbeit ist es daher, Methoden zu entwickeln, um wohldefinierte Poren in solchen Materialien zu erzeugen. Hierbei führte unter anderem der Einsatz von anorganischen formgebenden mesoporösen Silikapartikeln und makroporösen Aluminiumoxid-Membranen zum Erfolg. Durch Zugabe einer Kohlenstoffquelle (z. B. 2-Furfural), HTC und anschließender Entfernung des Templats konnten poröse kohlenstoffbasierte Partikel und röhrenförmige Nanostrukturen hergestellt werden. Gleichzeitig konnte durch eine zusätzliche Nachbehandlung bei hoher Temperatur (350-750 °C) auch noch die Oberflächenfunktionalität hin zu aromatischen Systemen verschoben werden. Analog zur Formgebung durch anorganische Template konnte mit sog. Soft-Templaten, z. B. PEO-PPO-PEO Blockcopolymeren, eine funktionelle poröse Struktur induziert werden. Hierbei machte man sich die Ausbildung geordneter Mizellen mit der Kohlenstoffquelle D-Fructose zu Nutze. Das erhaltene Material wies hochgeordnete Mikroporen mit einem Durchmesser von ca. 0,9 nm auf. Dieser konnte desweiteren durch Zugabe von Quell-Additiven (z. B. Trimethylbenzol) auf 4 nm in den mesoporösen Bereich vergrößert werden. Zusammenfassend lässt sich sagen, dass beide untersuchten Synthesewege nanostrukturierte kohlenstoffbasierte Materialien mit vielfältiger Oberflächenchemie liefern, und das mittels einer bei relativ niedriger Temperatur in Wasser ablaufenden Reaktion und einer billigen, nachhaltigen Kohlenstoffquelle. Die so hergestellten Produkte eröffnen vielseitige Anwendungsmöglichkeiten, z. B. zur Molekültrennung in der Flüssigchromatographie, in der Energiespeicherung als Anodenmaterial in Li-Ionen Akkus oder Superkondensatoren, oder als Trägermaterial für die gezielte Pharmakotherapie. KW - Nanostruktur KW - Kohlenstoff KW - Kohlenhydrate KW - Templating KW - hydrothermale Carbonisierung KW - Nanostructure KW - Carbon KW - Carbohydrate KW - Templating KW - Hydrothermal carbonisation Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53157 ER - TY - THES A1 - Tan, Irene T1 - Towards greener stationary phases : thermoresponsive and carbonaceous chromatographic supports T1 - Zu grüner Separation : thermoresponsive und kohlenstoffhaltige chromatographische Trägermaterialien N2 - Polymers which are sensitive towards external physical, chemical and electrical stimuli are termed as ‘intelligent materials’ and are widely used in medical and engineering applications. Presently, polymers which can undergo a physical change when heat is applied at a certain temperature (cloud point) in water are well-studied for this property in areas of separation chemistry, gene and drug delivery and as surface modifiers. One example of such a polymer is the poly (N-isopropylacrylamide) PNIPAAM, where it is dissolved well in water below 32 oC, while by increasing the temperature further leads to its precipitation. In this work, an alternative polymer poly (2-(2-methoxy ethoxy)ethyl methacrylate-co- oligo(ethylene glycol) methacrylate) (P(MEO2MA-co-OEGMA)) is studied due to its biocompatibility and the ability to vary its cloud points in water. When a layer of temperature responsive polymer was attached to a single continuous porous piece of silica-based material known as a monolith, the thermoresponsive characteristic was transferred to the column surfaces. The hybrid material was demonstrated to act as a simple temperature ‘switch’ in the separation of a mixture of five steroids under water. Different analytes were observed to be separated under varying column temperatures. Furthermore, more complex biochemical compounds such as proteins were also tested for separation. The importance of this work is attributed to separation processes utilizing environmentally friendly conditions, since harsh chemical environments conventionally used to resolve biocompounds could cause their biological activities to be rendered inactive. N2 - Polymere, welche empfindlich gegenüber externen physikalischen, chemischen und elektrischen Einflüssen sind, werden „intelligente Materialien“ genannt. Diese werden weitverbreitet in medizinischen und technischen Anwendungen eingesetzt. Auf diesem Gebiet ausführlich erforschte Materialien sind Polymere, welche durch Hitze bei einer bestimmten Temperatur (Trübungspunkt) eine physikalische Veränderung eingehen können, genannt thermoresponsive Polymere. Eingesetzt werden diese z.B. in chromatographischen Trennverfahren, in Gen- und Wirkstofftransport Vorgängen und zur Oberflächenmodifikation. Ein Beispiel für so ein Polymer ist das poly(N-isopropylacrylamide) PNIPAAM, welches unter 32 °C in Wasser gelöst vorliegt und mit Erhöhung der Temperatur als Niederschlag ausfällt. In dieser Arbeit wurde ein alternatives Polymer, das poly(2-(2-methoxyethoxy)ethylmethacrylate-co-oligo(ethyleneglycol) methacrylate) (P(MEO2MA-co-OEGMA)), untersucht, in Bezug auf Biokompatibilität und der Änderung des Trübungspunktes in Wasser. Wenn eine Schicht eines temperaturempfindlichen Polymers auf einen Monolithen (einteiliger, poröser und auf Silika-basierendes Material) aufgebracht wird, werden die thermoresponsiven Eigenschaften auf die Oberfläche dieses Monolithen übertragen. Der Monolith dient hier als Säule in einer HPLC-Anlage. Es wurde gezeigt, dass das Hybrid-Material als einfacher „Temperaturschalter“ in der Trennung von fünf verschiedenen Steroiden in Wasser agieren kann. Untersucht wurde die Separation verschiedener Analyten mit dem Variieren der Säulentemperatur. Zusätzlich wurden mehr komplexe biochemische Stoffe, wie Proteine, getestet. Die Bedeutung dieser Arbeit ist zurückzuführen auf Separationsprozesse, welche umweltfreundlichen Bedingungen nutzen, da die rauen chemischen Bedingungen in konventionellen Separationsprozessen die biologische Inaktivität der Verbindungen zur Folge haben können. Der zweite Teil der Arbeit beschäftigte sich mit der Entwicklung eines alternativen Trägermaterials als Ersatz zu den Silika-basierende Trennungssäulen. Kohlenstoffmaterialien sind aufgrund ihrer ausgezeichneten mechanischen Härte und chemischen Stabilität eine vielversprechend Alternative. Die Synthese von Kohlenstoffkugeln als Trägermaterial kann als „grüner“ Prozess in meiner Arbeit angesehen werden, da milde Synthesebedingungen in purem Wasser verwendet wurden. Die Leistungsfähigkeit des Materials wurde mit einer Serie von Separationsreaktionen gezeigt. KW - thermoresponsive KW - poly(N-isopropylacrylamide) KW - oligo(ethyleneglycol) KW - Monolith KW - Chromatographie KW - thermoresponsive KW - poly(N-isopropyl acrylamide) KW - oligo(ethylene glycol) KW - monolith KW - chromatography Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53130 ER - TY - THES A1 - Kluth, Stephan T1 - Quantitative modeling and analysis with FMC-QE T1 - Quantitative Modellierung und Analyse mit FMC-QE N2 - The modeling and evaluation calculus FMC-QE, the Fundamental Modeling Concepts for Quanti-tative Evaluation [1], extends the Fundamental Modeling Concepts (FMC) for performance modeling and prediction. In this new methodology, the hierarchical service requests are in the main focus, because they are the origin of every service provisioning process. Similar to physics, these service requests are a tuple of value and unit, which enables hierarchical service request transformations at the hierarchical borders and therefore the hierarchical modeling. Through reducing the model complexity of the models by decomposing the system in different hierarchical views, the distinction between operational and control states and the calculation of the performance values on the assumption of the steady state, FMC-QE has a scalable applica-bility on complex systems. According to FMC, the system is modeled in a 3-dimensional hierarchical representation space, where system performance parameters are described in three arbitrarily fine-grained hierarchi-cal bipartite diagrams. The hierarchical service request structures are modeled in Entity Relationship Diagrams. The static server structures, divided into logical and real servers, are de-scribed as Block Diagrams. The dynamic behavior and the control structures are specified as Petri Nets, more precisely Colored Time Augmented Petri Nets. From the structures and pa-rameters of the performance model, a hierarchical set of equations is derived. The calculation of the performance values is done on the assumption of stationary processes and is based on fundamental laws of the performance analysis: Little's Law and the Forced Traffic Flow Law. Little's Law is used within the different hierarchical levels (horizontal) and the Forced Traffic Flow Law is the key to the dependencies among the hierarchical levels (vertical). This calculation is suitable for complex models and allows a fast (re-)calculation of different performance scenarios in order to support development and configuration decisions. Within the Research Group Zorn at the Hasso Plattner Institute, the work is embedded in a broader research in the development of FMC-QE. While this work is concentrated on the theoretical background, description and definition of the methodology as well as the extension and validation of the applicability, other topics are in the development of an FMC-QE modeling and evaluation tool and the usage of FMC-QE in the design of an adaptive transport layer in order to fulfill Quality of Service and Service Level Agreements in volatile service based environments. This thesis contains a state-of-the-art, the description of FMC-QE as well as extensions of FMC-QE in representative general models and case studies. In the state-of-the-art part of the thesis in chapter 2, an overview on existing Queueing Theory and Time Augmented Petri Net models and other quantitative modeling and evaluation languages and methodologies is given. Also other hierarchical quantitative modeling frameworks will be considered. The description of FMC-QE in chapter 3 consists of a summary of the foundations of FMC-QE, basic definitions, the graphical notations, the FMC-QE Calculus and the modeling of open queueing networks as an introductory example. The extensions of FMC-QE in chapter 4 consist of the integration of the summation method in order to support the handling of closed networks and the modeling of multiclass and semaphore scenarios. Furthermore, FMC-QE is compared to other performance modeling and evaluation approaches. In the case study part in chapter 5, proof-of-concept examples, like the modeling of a service based search portal, a service based SAP NetWeaver application and the Axis2 Web service framework will be provided. Finally, conclusions are given by a summary of contributions and an outlook on future work in chapter 6. [1] Werner Zorn. FMC-QE - A New Approach in Quantitative Modeling. In Hamid R. Arabnia, editor, Procee-dings of the International Conference on Modeling, Simulation and Visualization Methods (MSV 2007) within WorldComp ’07, pages 280 – 287, Las Vegas, NV, USA, June 2007. CSREA Press. ISBN 1-60132-029-9. N2 - FMC-QE (Fundamental Modeling Concepts for Quantitative Evaluation [1]) ist eine auf FMC, den Fundamental Modeling Concepts, basierende Methodik zur Modellierung des Leistungsverhaltens von Systemen mit einem dazugehörenden Kalkül zur Erstellung von Leistungsvorhersagen wie Antwortzeiten und Durchsatz. In dieser neuen Methodik steht die Modellierung der hierarchischen Bedienanforderungen im Mittelpunkt, da sie der Ursprung aller dienstbasierenden Systeme sind. Wie in der Physik sind in FMC-QE die Bedienanforderungen Tupel aus Wert und Einheit, um Auftragstransformationen an Hierarchiegrenzen zu ermöglichen. Da die Komplexität durch eine Dekomposition in mehreren Sichten und in verschiedene hierarchische Schichten, die Unterscheidung von Operations- und Kontrollzuständen, sowie dazugehörige Berechungen unter Annahme der Stationarität reduziert wird, skaliert die Anwendbarkeit von FMC-QE auf komplexe Systeme. Gemäß FMC wird das zu modellierende System in einem 3-dimensionalen hierarchischen Beschreibungsraum dargestellt. Die quantitativen Kenngrößen der Systeme werden in drei beliebig frei-granularen hierarchischen bi-partiten Graphen beschrieben. Die hierarchische Struktur der Bedienanforderungen wird in Entity Relationship Diagrammen beschrieben. Die statischen Bedienerstrukturen, unterteilt in logische und reale Bediener, sind in Aufbaudiagrammen erläutert. Außerdem werden Petri Netze, genauer Farbige Zeit-behaftete Petri Netze, dazu verwendet, die dynamischen Abläufe, sowie die Kontrollflüsse im System zu beschreiben. Anschließend wird eine Menge von hierarchischen Gleichungen von der Struktur und den Parametern des Modells abgeleitet. Diese Gleichungen, die auf dem stationären Zustand des Systems beruhen, basieren auf den beiden Fundamental Gesetzen der Leistungsanalyse, dem Gesetz von Little und dem Verkehrsflussgesetz. Das Gesetz von Little definiert hierbei Beziehungen innerhalb einer hierarchischen Schicht (horizontal) und das Verkehrsflussgesetz wiederum Beziehungen zwischen hierarchischen Schichten (vertikal). Die Berechungen erlauben Leistungsvorhersagen für komplexe Systeme durch eine effiziente Berechnung von Leistungsgrößen für eine große Auswahl von System- und Lastkonfigurationen. Innerhalb der Forschungsgruppe von Prof. Dr.-Ing Werner Zorn am Hasso Plattner Institut an der Universität Potsdam ist die vorliegende Arbeit in einen größeren Forschungskontext im Bereich FMC-QE eingebettet. Während hier ein Fokus auf dem theoretischen Hintergrund, der Beschreibung und der Definition der Methodik als auch der Anwendbarkeit und Erweiterung gelegt wurde, sind andere Arbeiten auf dem Gebiet der Entwicklung einer Anwendung zur Modellierung und Evaluierung von Systemen mit FMC-QE bzw. der Verwendung von FMC-QE zur Entwicklung einer adaptiven Transportschicht zur Einhaltung von Dienstgüten (Quality of Service) und Dienstvereinbarungen (Service Level Agreements) in volatilen dienstbasierten Systemen beheimatet. Diese Arbeit umfasst einen Einblick in den Stand der Technik, die Beschreibung von FMC-QE sowie die Weiterentwicklung von FMC-QE in repräsentativen allgemeinen Modellen und Fallstudien. Das Kapitel 2: Stand der Technik gibt einen Überblick über die Warteschlangentheorie, Zeit-behaftete Petri Netze, weitere Leistungsbeschreibungs- und Leistungsvorhersagungstechniken sowie die Verwendung von Hierarchien in Leistungsbeschreibungstechniken. Die Beschreibung von FMC-QE in Kapitel 3 enthält die Erläuterung der Grundlagen von FMC-QE, die Beschreibung einiger Grundannahmen, der graphischen Notation, dem mathematischen Modell und einem erläuternden Beispiel. In Kapitel 4: Erweiterungen von FMC-QE wird die Behandlung weiterer allgemeiner Modelle, wie die Modellklasse von geschlossenen Netzen, Synchronisierung und Mehrklassen-Modelle beschrieben. Außerdem wird FMC-QE mit dem Stand der Technik verglichen. In Kapitel 5 werden Machbarkeitsstudien beschrieben. Schließlich werden in Kapitel 6 eine Zusammenfassung und ein Ausblick gegeben. [1] Werner Zorn. FMC-QE - A New Approach in Quantitative Modeling. In Hamid R. Arabnia, editor, Proceedings of the International Conference on Modeling, Simulation and Visualization Methods (MSV 2007) within WorldComp ’07, 280 – 287, Las Vegas, NV, USA, Juni 2007. CSREA Press. ISBN 1-60132-029-9. KW - FMC-QE KW - Quantitative Modellierung KW - Leistungsvorhersage KW - Warteschlangentheorie KW - Zeitbehaftete Petri Netze KW - FMC-QE KW - Quantitative Modeling KW - Performance Prediction KW - Queuing Theory KW - Time Augmented Petri Nets Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52987 ER - TY - THES A1 - Samereier, Matthias T1 - Functional analyses of microtubule and centrosome-associated proteins in Dictyostelium discoideum T1 - Funktionelle Analyse von Mikrotubuli- und Centrosom-assoziierten Proteinen in Dictyostelium discoideum N2 - Understanding the role of microtubule-associated proteins is the key to understand the complex mechanisms regulating microtubule dynamics. This study employs the model system Dictyostelium discoideum to elucidate the role of the microtubule-associated protein TACC (Transforming acidic coiled-coil) in promoting microtubule growth and stability. Dictyostelium TACC was localized at the centrosome throughout the entire cell cycle. The protein was also detected at microtubule plus ends, however, unexpectedly only during interphase but not during mitosis. The same cell cycle-dependent localization pattern was observed for CP224, the Dictyostelium XMAP215 homologue. These ubiquitous MAPs have been found to interact with TACC proteins directly and are known to act as microtubule polymerases and nucleators. This work shows for the first time in vivo that both a TACC and XMAP215 family protein can differentially localize to microtubule plus ends during interphase and mitosis. RNAi knockdown mutants revealed that TACC promotes microtubule growth during interphase and is essential for proper formation of astral microtubules in mitosis. In many organisms, impaired microtubule stability upon TACC depletion was explained by the failure to efficiently recruit the TACC-binding XMAP215 protein to centrosomes or spindle poles. By contrast, fluorescence recovery after photobleaching (FRAP) analyses conducted in this study demonstrate that in Dictyostelium recruitment of CP224 to centrosomes or spindle poles is not perturbed in the absence of TACC. Instead, CP224 could no longer be detected at the tips of microtubules in TACC mutant cells. This finding demonstrates for the first time in vivo that a TACC protein is essential for the association of an XMAP215 protein with microtubule plus ends. The GFP-TACC strains generated in this work also turned out to be a valuable tool to study the unusual microtubule dynamics in Dictyostelium. Here, microtubules exhibit a high degree of lateral bending movements but, in contrast most other organisms, they do not obviously undergo any growth or shrinkage events during interphase. Despite of that they are affected by microtubuledepolymerizing drugs such as thiabendazole or nocodazol which are thought to act solely on dynamic microtubules. Employing 5D-fluorescence live cell microscopy and FRAP analyses this study suggests Dictyostelium microtubules to be dynamic only in the periphery, while they are stable at the centrosome. In the recent years, the identification of yet unknown components of the Dictyostelium centrosome has made tremendous progress. A proteomic approach previously conducted by our group disclosed several uncharacterized candidate proteins, which remained to be verified as genuine centrosomal components. The second part of this study focuses on the investigation of three such candidate proteins, Cenp68, CP103 and the putative spindle assembly checkpoint protein Mad1. While a GFP-CP103 fusion protein could clearly be localized to isolated centrosomes that are free of microtubules, Cenp68 and Mad1 were found to associate with the centromeres and kinetochores, respectively. The investigation of Cenp68 included the generation of a polyclonal anti-Cenp68 antibody, the screening for interacting proteins and the generation of knockout mutants which, however, did not display any obvious phenotype. Yet, Cenp68 has turned out as a very useful marker to study centromere dynamics during the entire cell cycle. During mitosis, GFP-Mad1 localization strongly resembled the behavior of other Mad1 proteins, suggesting the existence of a yet uncharacterized spindle assembly checkpoint in Dictyostelium. N2 - Die Kenntnis der Funktion von Mikrotubuli-assoziierenden Proteinen (MAPs) ist von grundlegender Bedeutung für das Verständnis der Mikrotubuli-Dynamik und deren Regulation. Im Rahmen dieser Arbeit wurde die Rolle des Mikrotubuli-assoziierenden Proteins TACC (Transforming acidic coiled-coil), welches in vielen Organismen an der Stabilisierung und dem Wachstum von Mikrotubuli beteiligt ist, im Modellorganismus Dictyostelium discoideum untersucht. Das Dictyostelium TACC Protein konnte während des gesamten Zellzyklus am Centrosom nachgewiesen werden. Darüber hinaus wurde es an den Mikrotubuli-Plus-Enden vorgefunden, überraschenderweise jedoch ausschließlich während der Interphase. Die gleiche Zellzyklusabhängige Lokalisation wurde für CP224 beobachtet, einem Homologen der XMAP215 Proteine in Dictyostelium. Diese ubiquitären MAPs sind konservierte, direkte Interaktionspartner der TACC Proteine und spielen eine zentrale Rolle bei der Nukleation und der Polymerisation von Mikrotubuli. Durch diese Arbeit konnte erstmals in vivo gezeigt werden, dass TACC und XMAP215 Proteine während der Interphase und Mitose unterschiedlich stark mit Mikrotubuli-Plus-Enden assoziiert sein können. Durch Untersuchungen an Knockdown-Mutanten wurde ersichtlich, dass Dictyostelium TACC eine Rolle beim Mikrotubuli-Wachstum während der Interphase spielt und über weite Strecken der Mitose essentiell für die Ausbildung von astralen Mikrotubuli ist. In anderen Organismen konnte als Ursache instabiler Mikrotubuli in TACC Mutanten häufig unzureichendes Rekrutieren des jeweiligen XMAP215 Proteins an das Centrosom ausgemacht werden. Um entsprechende Auswirkungen auf die Lokalisation von CP224 durch den Knockdown von TACC in Dictyostelium zu untersuchen, wurden Fluorescence Recovery after Photobleaching (FRAP) Experimente durchgeführt. Diese ergaben, dass CP224 auch in Abwesenheit von TACC in vollem Umfang an die Centrosomen und Spindelpole rekrutiert wird. Anders als im Wildtyp, konnte in TACC Mutanten allerdings kein CP224 an den Mikrotubuli-Plus-Enden nachgewiesen werden. Somit konnte erstmals in vivo gezeigt werden, dass ein TACC Protein essentiell für die Assoziation eines XMAP215 Proteins mit den Mikrotubuli-Plus-Enden ist. Im Laufe der genannten Experimente stellte sich heraus, dass sich die GFP-TACC Stämme aufgrund ihrer markierten Plus-Enden sehr gut für Untersuchungen zur ungewöhnlichen Mikrotubuli-Dynamik in Dictyostelium eignen. Zwar weisen Mikrotubuli hier über die gesamte Länge ausgeprägte Krümmungs- und Seitwärtsbewegungen auf, es können jedoch im Vergleich zu anderen Organismen während der Interphase kaum Wachstums- oder Verkürzungsvorgänge beobachtet werden. Dennoch können Dictyostelium Mikrotubuli unter Verwendung von Agenzien wie Thiabendazol oder Nocodazol, welche ausschließlich auf dynamische Mikrotubuli wirken, signifikant verkürzt werden. Durch FRAP Experimente und Einsatz von 5D Fluoreszenz-Mikroskopie an lebenden Zellen konnte in dieser Arbeit erstmalig nachgewiesen werden, dass Dictyostelium Mikrotubuli nur in der Zellperipherie, nicht aber im pericentrosomalen Bereich dynamisch sind. Die Identifikation bislang unbekannter Bestandteile des Dictyostelium Centrosoms erfuhr in den vergangenen Jahren große Fortschritte. Ein von unserer Gruppe durchgeführter Proteomics-Ansatz brachte eine Vielzahl potentiell centrosomaler Proteine zu Tage, von welchen bereits viele am Centrosom nachgewiesen werden konnten. Der zweite Teil dieser Arbeit befasst sich mit der Charakterisierung dreier noch unbekannter Proteine aus dem Proteomics-Ansatz, Cenp68, CP103 und dem Dictyostelium Homologen des Spindle Assembly Checkpunkt Proteins Mad1. Hierbei zeigte sich, dass lediglich CP103 Bestandteil isolierter, Mikrotubuli-freier Centrosomen ist, während Cenp68 an die Centromere und Mad1 an die Kinetochoren lokalisieren. Die Charakterisierung von Cenp68 umfasste außerdem die Herstellung eines polyklonalen anti-Cenp68 Antikörpers, das Suchen nach Interaktionspartnern und die Erzeugung eines Cenp68 Knockout-Stammes. Letzterer wies jedoch keinen offensichtlichen Phänotyp auf. Das Verhalten des Dictyostelium Mad1 Proteins während der Mitose stimmte in großen Teilen mit dem anderer Mad1 Proteine überein, was auf die Existenz eines bislang unerforschten Spindle Assembly Chekpunkts in Dictyostelium hinweisen könnte. KW - Dictyostelium KW - Mikrotubuli KW - TACC KW - Centrosom KW - Centromere KW - Dictyostelium KW - Microtubules KW - TACC KW - Centrosome KW - Centromeres Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52835 ER - TY - BOOK A1 - Smirnov, Sergey A1 - Zamani Farahani, Armin A1 - Weske, Mathias T1 - State propagation in abstracted business processes N2 - Business process models are abstractions of concrete operational procedures that occur in the daily business of organizations. To cope with the complexity of these models, business process model abstraction has been introduced recently. Its goal is to derive from a detailed process model several abstract models that provide a high-level understanding of the process. While techniques for constructing abstract models are reported in the literature, little is known about the relationships between process instances and abstract models. In this paper we show how the state of an abstract activity can be calculated from the states of related, detailed process activities as they happen. The approach uses activity state propagation. With state uniqueness and state transition correctness we introduce formal properties that improve the understanding of state propagation. Algorithms to check these properties are devised. Finally, we use behavioral profiles to identify and classify behavioral inconsistencies in abstract process models that might occur, once activity state propagation is used. N2 - Geschäftsprozessmodelle sind Abstraktionen konkreter operationaler Vorgänge, die im täglichen Geschäftsablauf von Organisationen auftreten. Um die Komplexität solcher Modelle zu bewältigen, wurde die Geschäftsprozessmodelabstraktion eingeführt. Ziel ist dabei, von einem detaillierten Prozessmodel mehrere abstrakte Modelle abzuleiten, um so auf einer höheren Abstraktionsstufe ein Verständnis für den Prozess zu bekommen. Während viel in der Literatur über Techniken zur Konstruktion abstrakter Modelle berichtet wurde, ist wenig über die Beziehungen zwischen Prozessinstanzen und abstrakten Modellen bekannt. In dieser Arbeit zeigen wir, wie der Zustand einer abstrakten Aktivität aus den Zuständen ihrer entsprechenden detaillierten Prozessaktivitäten zur Laufzeit berechnet werden kann. Der Ansatz basiert dabei auf der Übertragung des Aktivitätszustands. Mit der Zustandseindeutigkeit und der Korrektheit der Zustandstransitionen führen wir formale Kriterien ein, die das Verständnis der Zustandsübertragung erleichtern. Zudem sind Algorithmen entwickelt worden, um diese Kriterien zu überprüfen. Außerdem nutzen wir Verhaltensprofile um Inkonsistenzen im Verhalten abstrakter Prozessmodelle zu identifizieren und zu klassifizieren, die auftreten können, wenn die Aktivitätszustände gemäß den Regeln abgebildet werden. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 47 KW - Abstraktion von Geschäftsprozessmodellen KW - Prozessinstanz KW - Propagation von Aktivitätsinstanzzuständen KW - business process model abstraction KW - process instance KW - activity instance state propagation Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51480 SN - 978-3-86956-130-1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Haupt, Michael A1 - Marr, Stefan A1 - Hirschfeld, Robert T1 - CSOM/PL : a virtual machine product line N2 - CSOM/PL is a software product line (SPL) derived from applying multi-dimensional separation of concerns (MDSOC) techniques to the domain of high-level language virtual machine (VM) implementations. For CSOM/PL, we modularised CSOM, a Smalltalk VM implemented in C, using VMADL (virtual machine architecture description language). Several features of the original CSOM were encapsulated in VMADL modules and composed in various combinations. In an evaluation of our approach, we show that applying MDSOC and SPL principles to a domain as complex as that of VMs is not only feasible but beneficial, as it improves understandability, maintainability, and configurability of VM implementations without harming performance. N2 - CSOM/PL ist eine Softwareproduktfamilie (software product line, SPL), die erstellt wurde, indem Techniken der mehrdimensionalen Belangtrennung (multi-dimensional separation of concerns, MDSOC) auf die Domäne der virtuellen Maschinen (VM) für höhere Programmiersprachen angewendet wurden. Dazu wurde CSOM, eine in C implementierte Smalltalk-VM, mittels VMADL (virtual machine architecture description language) in Module zerlegt. Etliche Eigenschaften von CSOM wurden in VMADL-Module gekapselt und auf unterschiedliche Weisen komponiert. Die Auswertung des Ansatzes zeigt, dass die Anwendung von MDSOC- und SPL-Prinzipien auf die komplexe VM-Domäne nicht nur machbar ist, sondern darüber hinaus auch Vorteile mit sich bringt, da die Verständlichkeit, Wartbarkeit und Konfigurierbarkeit von VM-Implementierungen ohne Beeinträchtigung der Ausführungsgeschwindigkeit verbessert werden. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 48 KW - Virtuelle Maschinen KW - Architektur KW - Softwareproduktlinien KW - mehrdimensionale Belangtrennung KW - Virtual machines KW - architecture KW - software product lines KW - multi-dimensional separation of concerns Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52332 SN - 978-3-86956-134-9 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Schumacher, Soeren T1 - Saccharide recognition : boronic acids as receptors in polymeric networks T1 - Zuckererkennung in polymeren Netzwerken mittels Boronsäuren als Rezeptoren N2 - In this thesis entitled “Saccharide Recognition - Boronic acids as Receptors in Polymeric Networks” different aspects of boronic acid synthesis, their analysis and incorporation or attachment to different polymeric networks and characterisation thereof were investigated. The following key aspects were considered: • Provision of a variety of different characterised arylboronic acids and benzoboroxoles • Attachment of certain derivatives to nanoparticles and the characterisation of saccharide binding by means of isothermal titration calorimetry and displacement assay (ARS) to enhance the association constant to saccharides at pH 7.4 • Enhancement of selectivity in polymeric systems by means of molecular imprinting using fructose as template and a polymerisable benzoboroxole as functional monomer for the recognition at pH 7.4 (Joined by a diploma thesis of F. Grüneberger) • Development of biomimetic saccharide structures and the development of saccharide (especially glucose and fructose) binding MIPs by using these structures as template molecules. In the first part of the thesis different arylboronic acid derivatives were synthesised and their binding to glucose or fructose was investigated by means of isothermal titration calorimetry (ITC). It could be derived, which is in parallel to the literature, that derivatives bearing a methylhydroxyl-group in ortho-position to the boron (benzoboroxole) exhibit in most cases a two-fold higher association constant compared to the corresponding phenylboronic acid derivative. To gain a deeper understanding NMR spectroscopy and mass spectrometry with the benzoboroxole and glucose or fructose was performed. It could be shown that the exchange rate in terms of NMR time scale is quite slow since in titration experiments new peaks appeared. Via mass spectrometry of a mixture between benzoboroxole and glucose or fructose, different binding stoichiometries could be detected showing that the binding of saccharides is comparable with their binding to phenylboronic acid. In addition, the use of Alizarin Red S as an electrochemical reporter was described for the first time to monitor the saccharide binding to arylboronic acids not only with spectroscopy. Here, the redox behaviour and the displacement were recorded by cyclic voltammograms. In the second part different applications of boronic acids in polymeric networks were investigated. The attachment of benzoboroxoles to nanoparticles was investigated and monitored by means of isothermal titration calorimetry and a colourimetric assay with Alizarin Red S as the report dye. The investigations by isothermal titration calorimetry compared the fructose binding of arylboronic acids and benzoboroxoles coupled to these nanoparticles and “free” in solution. It could be shown that the attached derivatives showed a higher binding constant due to an increasing entropy term. This states for possible multivalent binding combined with a higher water release. Since ITC could not characterise the binding of glucose to these nanoparticles due to experimental restrictions the glucose binding at pH 7.4 was shown with ARS. Here, the displacement of ARS by fructose and also glucose could be followed and consequently these nanoparticles can be used for saccharide determination. Within this investigation also the temperature stability of these nanoparticles was examined and after normal sterilisation procedures (121°C, 20 min.) the binding behaviour was still unchanged. To target the selectivity of the used polymeric networks, molecular imprinting was used as a technique for creating artificial binding pockets on a molecular scale. As functional monomer 3-methacrylamidobenzoboroxole was introduced for the recognition of fructose. In comparison to polymers prepared with vinylphenylboronic acid the benzoboroxole containing polymer had a stronger binding at pH 7.4 which was shown for the first time. In addition, another imprinted polymer was synthesised especially for the recognition of glucose and fructose employing biomimetic saccharide analogues as template molecule. The advantage to use the saccharide analogues is the defined template-functional monomer complex during the polymerisation which is not the case, for example, for glucose-boronic acid interaction. The biomimetic character was proven through structural superimposition of crystal structures of the analogues with already described crystal structures of boronic acid esters of glucose and fructose. A molecularly imprinted polymer was synthesised with vinylphenylboronic acid as the functional monomer to show that both glucose and fructose are able to bind to the polymer which was predicted by the structural similarity of the analogues. The major scientific contributions of this thesis are • the determination of binding constants for some, not yet reported saccharide – boronic acid / benzoboroxole pairs, • the use of ARS as electrochemical reporter for saccharide detection, • the thermodynamic characterisation of a saccharide binding nanoparticle system containing benzoboroxole and functioning at pH 7.4, • the use of a polymerisable benzoboroxole as functional monomer for saccharide recognition in neutral, aqueous environments • and the synthesis and utilisation of biomimetic saccharide analogues as template molecules especially for the development of a glucose binding MIP. N2 - Die vorliegende Arbeit beschäftigte sich mit der Synthese verschiedener Boronsäurederivate und deren Charakterisierung und Anbindung oder Einbau in polymeren Netzwerken. Die synthetisierten Polymere werden charakterisiert bezüglich ihrer Morphologie und besonders hinsichtlich ihrer Saccharidbindung. Im Wesentlichen wurden die folgenden Aspekte bearbeitet: • Bereitstellung einer Reihe von verschiedenen Arylboronsäuren und Benzoboroxolderivaten • Modifizierung von Nanopartikeln mit verschiedenen Derivaten aus der Bibliothek mit dem Ziel die Bindingkonstanten zu Monosacchariden bei pH 7.4. zu erhöhen. Dabei werden isothermale Titrationskalorimetrie und ein spektroskopischer Verdrängungsassay (Alizarin Rot S) zum Bindungsnachweis verwendet. • Erhöhung der Selektivität von Polymeren mittels molekularen Prägens von Fruktose als Matrizenmolekül. Durch den Einsatz eines polymerisierbaren Benzoboroxolderivatives konnte die Anbindung bei pH 7.4 stattfinden (Dieser Teil der Arbeit wurde durch eine Diplomarbeit von F. Grüneberger unterstützt). • Entwicklung von biomimetischen saccharidanalogen Strukturen, die als Matrizenmoleküle während des molekularen Prägens eingesetzt werden, um ein Polymer für die Anbindung von Monosacchariden wie etwa Fruktose oder Glukose zu generieren. Im ersten Teil der Arbeit wurde die Synthese und Charakterisierung von verschiedenen Boronsäurederivaten beschrieben. Die Charakterisierung der Bindungskonstanten wurde mittels isothermaler Titrationskalorimetrie durchgeführt. Dabei konnte im Einklang mit der Literatur gezeigt werden, dass Derivative, die zusätzlich mit einer Methylhydroxygruppe in ortho-Position zum Bor (Benzoboroxol) derivatisiert sind, eine meist zweifach höhere Bindungskonstante als gleich substituierte Arylboronsäurederivate aufweisen. Durch 1H-NMR-Spektroskopie und Massenspektrometrie mit Benzoboroxol und Glukose oder Fruktose konnten die Bindung weiter charakterisiert werden. Dabei zeigten die Ergebnisse der 1H-NMR-Spektroskopie, dass die Bindung bezogen auf NMR-Zeitskalen recht langsam stattfindet, da es zu einer Verbreiterung der Peaks kommt. Die Ergebnisse der Massenspektrometrie zeigen, dass hinsichtlich der Stöchiometrie der Binding verschiedene Komplexe möglich sind, was in ähnlicher Weise für Phenylboronsäure schon gezeigt wurde. Zusätzlich wurde in diesem Teil der Arbeit wurde die Elektrochemie von Alizarin Rot S untersucht, um den Farbstoff, der spektroskopisch schon für den Bindungsnachweis zwischen einem Boronsäurederivat und verschiedenen Zuckern beschrieben ist, auch elektrochemisch zu nutzen. Im zweiten Teil der Arbeit wurden verschiedene Anwendungen von den charakterisierten Boronsäuren in polymeren Netzwerken beschrieben. Dabei wurde zunächst ein Polystyrollatex mit Benzoboroxol modifiziert und die Bindung von Glukose oder Fruktose mittels isothermaler Titrationskalorimetrie und einem spektroskopischen Farbassay untersucht. Die Untersuchungen mittels isothermaler Titrationskalorimetrie (ITC) wurden vergleichend zu frei in Lösung befindlichem Benzoboroxol durchgeführt. Es wurde eine höhere Bindungskonstante für die modifizierten Nanopartikel ermittelt, was auf die Erhöhung der Entropie im System zurückzuführen ist. Dies kann durch eine mutivalente Bindung und einer einhergehenden erhöhten Wasserfreisetzung erklärt werden. Da es nicht möglich war, die Glukosebindung mittels ITC zu verfolgen, wurde zusätzlich ein spektroskopischer Assay bei pH 7.4. durchgeführt. Bei diesem wird die Bindung von Fruktose oder Glukose durch Freisetzung von Alizarin Rot S verfolgt. In diesem Zusammenhang konnte auch gezeigt werden, dass die Nanopartikel nach Sterilisation bei 121°C für 20 Minuten eine vergleichbare Bindung des Farbstoffes zeigen, was die Temperaturstabilität der Partikel unterstreicht. Da in diesem System die Bindung von Zuckern abhängig von der Affinität der Zucker zu den Boronsäuren bestimmt wird, wurden molekular geprägte Polymere synthetisiert, die eine Selektivität für bestimmte Zucker zeigen. Als Funktionsmonomer wurde 3-Methacrylamidobenzboroxol verwendet. Im Vergleich zu Polymeren, die mit 3-Vinylphenylboronsäure als literaturbekanntes Funktionsmonomer synthetisiert worden sind, zeigt sich bei pH 7.4 eine höhere Bindung von Fruktose an Benzoboroxolpolymere. In einem anderen geprägten Polymer wurden biomimetische (zuckeranaloge) Substanzen als Matrizenmolekül verwendet. Der Vorteil dieser Substanz ist die Bildung eines definierten Boronsäureesters, der als Templat-Funktionsmonomerkomplexes einpolymerisiert wird. Im Gegensatz dazu weist beispielsweise ein Boronsäureester der Glukose keine definierte Struktur auf. Der biomimetische Charakter wurde durch strukturelle Überlagerung mit schon publizierten Kristallstrukturen von Boronsäureestern von Glukose und Fruktose gezeigt. Das zugehörige molekular geprägte Polymer wurde mit Vinylphenylboronsäure synthetisiert und zeigt eine Bindung von Glukose und Fruktose, was durch die Strukturüberlagerungen vorhergesagt wurde. Zusammenfassend sind die wesentlichen wissenschaftlichen Ergebnisse: • Bindungskostanten von neuen Zucker-Benzoboroxolpaaren, • Eignung von ARS als elektrochemische Nachweissubstanz der Saccharidbindung • Die thermodynamische Charakterisierung der Bindung von Fruktose oder Glukose an Nanopartikel, die Benzoboroxol - modifziert sind und so bei pH 7.4 Zucker binden können • Einsatz von Benzoboroxol als Funktionsmonomer • die Synthese und Nutzung von biomimetischen zuckeranalogen Matrizenmolekülen für die Entwicklung von molekular geprägten Polymeren für die Glukosebindung. KW - Zuckererkennung KW - Glucose KW - physiolgischer pH KW - Boronsäure KW - Benzoboroxol KW - Saccharide Recognition KW - Glucose KW - physiological pH KW - boronic acid KW - benzoboroxole Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52869 ER - TY - THES A1 - Wischnewski, Juliane T1 - Reconstructing climate variability on the Tibetan Plateau : comparing aquatic and terrestrial signals T1 - Klimarekonstruktionen auf dem Tibet Plateau : aquatische und terrestrische Signale im Vergleich N2 - Spatial and temporal temperature and moisture patterns across the Tibetan Plateau are very complex. The onset and magnitude of the Holocene climate optimum in the Asian monsoon realm, in particular, is a subject of considerable debate as this time period is often used as an analogue for recent global warming. In the light of contradictory inferences regarding past climate and environmental change on the Tibetan Plateau, I have attempted to explain mismatches in the timing and magnitude of change. Therefore, I analysed the temporal variation of fossil pollen and diatom spectra and the geochemical record from palaeo-ecological records covering different time scales (late Quaternary and the last 200 years) from two core regions in the NE and SE Tibetan Plateau. For interpretation purposes I combined my data with other available palaeo-ecological data to set up corresponding aquatic and terrestrial proxy data sets of two lake pairs and two sets of sites. I focused on the direct comparison of proxies representing lacustrine response to climate signals (e.g., diatoms, ostracods, geochemical record) and proxies representing changes in the terrestrial environment (i.e., terrestrial pollen), in order to asses whether the lake and its catchments respond at similar times and magnitudes to environmental changes. Therefore, I introduced the established numerical technique procrustes rotation as a new approach in palaeoecology to quantitatively compare raw data of any two sedimentary records of interest in order to assess their degree of concordance. Focusing on the late Quaternary, sediment cores from two lakes (Kuhai Lake 35.3°N; 99.2°E; 4150 m asl; and Koucha Lake 34.0°N; 97.2°E; 4540 m asl) on the semi-arid northeastern Tibetan Plateau were analysed to identify post-glacial vegetation and environmental changes, and to investigate the responses of lake ecosystems to such changes. Based on the pollen record, five major vegetation and climate changes could be identified: (1) A shift from alpine desert to alpine steppe indicates a change from cold, dry conditions to warmer and more moist conditions at 14.8 cal. ka BP, (2) alpine steppe with tundra elements points to conditions of higher effective moisture and a stepwise warming climate at 13.6 cal. ka BP, (3) the appearance of high-alpine meadow vegetation indicates a further change towards increased moisture, but with colder temperatures, at 7.0 cal. ka BP, (4) the reoccurrence of alpine steppe with desert elements suggests a return to a significantly colder and drier phase at 6.3 cal. ka BP, and (5) the establishment of alpine steppe-meadow vegetation indicates a change back to relatively moist conditions at 2.2 cal. ka BP. To place the reconstructed climate inferences from the NE Tibetan Plateau into the context of Holocene moisture evolution across the Tibetan Plateau, I applied a five-scale moisture index and average link clustering to all available continuous pollen and non-pollen palaeoclimate records from the Tibetan Plateau, in an attempt to detect coherent regional and temporal patterns of moisture evolution on the Plateau. However, no common temporal or spatial pattern of moisture evolution during the Holocene could be detected, which can be assigned to the complex responses of different proxies to environmental changes in an already very heterogeneous mountain landscape, where minor differences in elevation can result in marked variations in microenvironments. Focusing on the past 200 years, I analysed the sedimentary records (LC6 Lake 29.5°N, 94.3°E, 4132 m asl; and Wuxu Lake 29.9°N, 101.1°E, 3705 m asl) from the southeastern Tibetan Plateau. I found that despite presumed significant temperature increases over that period, pollen and diatom records from the SE Tibetan Plateau reveal only very subtle changes throughout their profiles. The compositional species turnover investigated over the last 200 years appears relatively low in comparison to the species reorganisations during the Holocene. The results indicate that climatically induced ecological thresholds are not yet crossed, but that human activity has an increasing influence, particularly on the terrestrial ecosystem. Forest clearances and reforestation have not caused forest decline in our study area, but a conversion of natural forests to semi-natural secondary forests. The results from the numerical proxy comparison of the two sets of two pairs of Tibetan lakes indicate that the use of different proxies and the work with palaeo-ecological records from different lake types can cause deviant stories of inferred change. Irrespective of the timescale (Holocene or last 200 years) or region (SE or NE Tibetan Plateau) analysed, the agreement in terms of the direction, timing, and magnitude of change between the corresponding terrestrial data sets is generally better than the match between the corresponding lacustrine data sets, suggesting that lacustrine proxies may partly be influenced by in-lake or local catchment processes whereas the terrestrial proxy reflects a more regional climatic signal. The current disaccord on coherent temporal and spatial climate patterns on the Tibetan Plateau can partly be ascribed to the complexity of proxy response and lake systems on the Tibetan Plateau. Therefore, a multi-proxy, multi-site approach is important in order to gain a reliable climate interpretation for the complex mountain landscape of the Tibetan Plateau. N2 - Die räumlichen und zeitlichen Temperatur- und Feuchtigkeitsmuster auf dem Tibet-Plateau sind sehr komplex. Im Einzugsbereich der asiatischen Monsune sind insbesondere der Beginn und das Ausmaß des Klimaoptimums während des Holozäns von wissenschaftlichem Interesse, da diese Periode oft als Analogie für die derzeitige globale Klimaerwärmung herangezogen wird. In Hinblick auf sich teilweise widersprechende Paläoklima- und Umweltrekonstruktionen für das Tibet-Plateau, ist es mein Ziel, die bestehenden Unstimmigkeiten bezüglich des Zeitpunktes und des Ausmaßes des Umweltwandels zu erklären. Dafür wurden von mir zeitliche Variationen fossiler Pollen- und Diatomeenspektren und geochemische Untersuchungen an Seesedimenten unterschiedlicher Zeitskalen (Spätquartär und die letzten 200 Jahre) aus zwei Kernregionen auf dem NO und SO Tibet-Plateau analysiert. Zur Unterstützung der Interpretation wurden die hier erhobenen Daten mit bereits vorhandenen paläoökologischen Aufzeichnungen der Lokalitäten kombiniert, um Datensätze der entsprechenden aquatischen und terrestrischen Proxy-Daten (Stellvertreterdaten) zweier Seenpaare aus den beiden Regionen gegenüberstellen zu können. Hierbei konzentrierte ich mich auf den direkten Vergleich von Proxies, die die Seenentwicklung reflektieren (z.B. Diatomeen, Ostracoden, geochemische Eigenschaften), mit Proxies, die Veränderungen der terrestrischen Umgebung des Sees beschreiben (terrestrische Pollen). Durch diesen Vergleich lässt sich beurteilen, ob Veränderungen im See selbst mit Umweltveränderungen in dem jeweiligen Einzugsgebiet zeitlich übereinstimmen. Dafür habe ich die bereits etablierte numerische Methode Procrustes-Rotation als neuen Ansatz in der Paläoökologie eingeführt. Damit ist ein quantitativer Vergleich von Rohdaten zweier beliebiger sedimentärer Datensätze möglich, um den Grad der Übereinstimmung zu prüfen. Um die in dieser Arbeit rekonstruierten Umwelt- und Klimaereignisse des nordöstlichen Tibet-Plateaus in einen größeren Zusammenhang hinsichtlich holozäner Klimaentwicklung des gesamten Plateaus setzen zu können, und um schlüssige zeitliche und räumliche Klimatrends auf dem Plateau erkennen zu können, habe ich auf alle vorhandenen Paläoklimadatensätze einen Fünf-Skalen Feuchtigkeitsindex und eine Clusteranalyse angewandt. Es konnten jedoch keine einheitlichen zeitlichen und räumlichen Trends der holozänen Klimaentwicklung nachgewiesen werden, was meiner Analyse entsprechend, auf die komplexen Reaktionen verschiedener Proxies auf Umweltveränderungen in einer ohnehin sehr heterogen Berglandschaft, zurückgeführt werden kann. Die Ergebnisse des numerischen Proxy-Vergleichs beider Seenpaare zeigen, dass die Verwendung von verschiedenen Proxies und die Arbeit mit paläo-ökologischen Datensätzen unterschiedlicher See-Typen zu abweichenden Klimaableitungen führen können. Unabhängig vom untersuchten Zeitraum (Holozän oder die letzten 200 Jahren) oder der Region (SO oder NO Tibet-Plateau), ist die Übereinstimmung zweier Datensätze hinsichtlich der Richtung, des Zeitpunktes und des Ausmaßes der abgeleiteten Paläo-Umweltverhältnisse in der Regel zwischen den entsprechenden terrestrischen Datensätzen besser als zwischen den entsprechenden lakustrinen Datensätzen. Die derzeitige Uneinigkeit über stimmige zeitliche und räumliche Klimatrends auf dem Tibet-Plateau kann daher teilweise der Komplexität der verschieden Proxies und ihrer individuellen Empfindlichkeiten gegenüber Umweltveränderungen sowie der unterschiedlichen Reaktionsweise verschiedenartiger See-Systeme auf dem Plateau zugeschrieben werden. Meine Ergebnisse zeigen, dass ein „Multi-Proxy-Multi-Site-Ansatz“ für zuverlässige Paläoklimaableitungen für das Tibet-Plateau von zentraler Bedeutung ist. KW - Tibet Plateau KW - Holozän KW - Pollen KW - Diatomeen KW - Prokrustes Analyse KW - Tibetan Plateau KW - Holocene KW - Pollen KW - Diatoms KW - Procrustes rotation analysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52453 ER - TY - THES A1 - Kopetzki, Daniel T1 - Exploring hydrothermal reactions : from prebiotic synthesis to green chemistry T1 - Hydrothermalreaktionen : von präbiotischer Synthese zu nachhaltiger Chemie N2 - In this thesis chemical reactions under hydrothermal conditions were explored, whereby emphasis was put on green chemistry. Water at high temperature and pressure acts as a benign solvent. Motivation to work under hydrothermal conditions was well-founded in the tunability of physicochemical properties with temperature, e.g. of dielectric constant, density or ion product, which often resulted in surprising reactivity. Another cornerstone was the implementation of the principles of green chemistry. Besides the use of water as solvent, this included the employment of a sustainable feedstock and the sensible use of resources by minimizing waste and harmful intermediates and additives. To evaluate the feasibility of hydrothermal conditions for chemical synthesis, exemplary reactions were performed. These were carried out in a continuous flow reactor, allowing for precise control of reaction conditions and kinetics measurements. In most experiments a temperature of 200 °C in combination with a pressure of 100 bar was chosen. In some cases the temperature was even raised to 300 °C. Water in this subcritical range can also be found in nature at hydrothermal vents on the ocean floor. On the primitive earth, environments with such conditions were however present in larger numbers. Therefore we tested whether biologically important carbohydrates could be formed at high temperature from the simple, probably prebiotic precursor formaldehyde. Indeed, this formose reaction could be carried out successfully, although the yield was lower compared to the counterpart reaction under ambient conditions. However, striking differences regarding selectivity and necessary catalysts were observed. At moderate temperatures bases and catalytically active cations like Ca2+ are necessary and the main products are hexoses and pentoses, which accumulate due to their higher stability. In contrast, in high-temperature water no catalyst was necessary but a slightly alkaline solution was sufficient. Hexoses were only formed in negligible amounts, whereas pentoses and the shorter carbohydrates accounted for the major fraction. Amongst the pentoses there was some preference for the formation of ribose. Even deoxy sugars could be detected in traces. The observation that catalysts can be avoided was successfully transferred to another reaction. In a green chemistry approach platform chemicals must be produced from sustainable resources. Carbohydrates can for instance be employed as a basis. They can be transformed to levulinic acid and formic acid, which can both react via a transfer hydrogenation to the green solvent and biofuel gamma-valerolactone. This second reaction usually requires catalysis by Ru or Pd, which are neither sustainable nor low-priced. Under hydrothermal conditions these heavy metals could be avoided and replaced by cheap salts, taking advantage of the temperature dependence of the acid dissociation constant. Simple sulfate was recognized as a temperature switchable base. With this additive high yield could be achieved by simultaneous prevention of waste. In contrast to conventional bases, which create salt upon neutralization, a temperature switchable base becomes neutral again when cooled down and thus can be reused. This adds another sustainable feature to the high atom economy of the presented hydrothermal synthesis. In a last study complex decomposition pathways of biomass were investigated. Gas chromatography in conjunction with mass spectroscopy has proven to be a powerful tool for the identification of unknowns. It was observed that several acids were formed when carbohydrates were treated with bases at high temperature. This procedure was also applied to digest wood. Afterwards it was possible to fermentate the solution and a good yield of methane was obtained. This has to be regarded in the light of the fact that wood practically cannot be used as a feedstock in a biogas factory. Thus the hydrothermal pretreatment is an efficient means to employ such materials as well. Also the reaction network of the hydrothermal decomposition of glycine was investigated using isotope-labeled compounds as comparison for the unambiguous identification of unknowns. This refined analysis allowed the identification of several new molecules and pathways, not yet described in literature. In summary several advantages could be taken from synthesis in high-temperature water. Many catalysts, absolutely necessary under ambient conditions, could either be completely avoided or replaced by cheap, sustainable alternatives. In this respect water is not only a green solvent, but helps to prevent waste and preserves resources. N2 - In dieser Arbeit wurden chemische Reaktionen unter Hydrothermalbedingungen untersucht. Darunter versteht man Wasser als Reaktionsmedium, welches eine Temperatur über 100 °C aufweist. Der flüssige Zustand wird dabei durch erhöhten Druck aufrecht erhalten. Typischerweise wurden die Reaktionen bei 200 °C und einem Druck von 100 bar durchgeführt, also dem 100-fachen des Normaldrucks. Dieses System kann man auch mit einem Dampfdrucktopf vergleichen, wobei durch die erhöhten Temperaturen chemische Reaktionen sehr schnell ablaufen und überraschende Reaktivität auftritt. Die Motivation, Wasser als Lösemittel zu benutzen, ist auch in seiner Umweltfreundlichkeit gegenüber klassischen organischen Lösemitteln begründet. Da solche Hydrothermalbedingungen auf der frühen Erde häufiger anzutreffen waren, wurde untersucht, ob wichtige Biomoleküle bei solch hoher Temperatur gebildet werden können. In der Tat konnten Zucker aus der sehr einfachen Verbindung Formaldehyd synthetisiert werden. Hierzu war lediglich eine leicht basische Lösung nötig und keine der bei moderaten Temperaturen essentiellen Katalysatoren. Zucker stellen zudem den größten Teil der pflanzlichen Biomasse dar und können daher als Grundlage für eine nachhaltige Chemie dienen. Sie können relativ einfach zu Lävulin- und Ameisensäure umgesetzt werden. Aus diesen wiederum kann die wichtige Basischemikalie gamma-Valerolacton hergestellt werden. Der Schlüsselschritt, die Reduktion von Lävulinsäure, erforderte bisher die Zuhilfenahme seltener Edelmetalle wie Ruthenium. Es konnte nun gezeigt werden, dass unter Hydrothermalbedingungen diese Rolle von einfachen Salzen, z. B. Natriumsulfat, übernommen werden kann. Hierbei macht man sich zunutze, dass sie nur bei hoher Temperatur basisch wirken, nicht aber wenn die Lösung wieder abgekühlt ist. Neben Kohlenhydraten besteht Biomasse auch aus Aminosäuren, von denen Glycin die einfachste darstellt. Unter Abspaltung von CO2 können aus ihnen synthetisch wichtige Amine hergestellt werden. Diese Reaktion findet unter Hydrothermalbedingungen statt, daneben treten jedoch noch andere Produkte auf. Unbekannte Verbindungen wurden mittels Massenspektroskopie identifiziert, wobei die Masse des Moleküls und bestimmter Molekülfragmente bestimmt wurde. Dies erlaubte es, bisher noch unbekannte Reaktionswege aufzuklären. Zusammenfassend lässt sich sagen, dass Wasser unter Hydrothermalbedingungen eine interessante Alternative zu organischen Lösemitteln darstellt. Desweiteren können bestimmte Katalysatoren, die bei moderaten Temperaturen nötig sind, entweder vollständig eingespart oder ersetzt werden. In dieser Hinsicht ist Wasser nicht nur ein umweltfreundliches Lösemittel, sondern trägt dazu bei, Abfall zu vermeiden und Ressourcen zu schonen. KW - hydrothermal KW - Formose KW - Valerolacton KW - Lävulinsäure KW - hydrothermal KW - formose KW - valerolactone KW - levulinic acid Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52581 ER - TY - THES A1 - Böhme, Dimo T1 - EU-Russia energy relations: What chance for solutions? : A focus on the natural gas sector T1 - Energiebeziehungen EU-Russland : Welche Lösungen sind möglich? N2 - Public debate about energy relations between the EU and Russia is distorted. These distortions present considerable obstacles to the development of true partnership. At the core of the conflict is a struggle for resource rents between energy producing, energy consuming and transit countries. Supposed secondary aspects, however, are also of great importance. They comprise of geopolitics, market access, economic development and state sovereignty. The European Union, having engaged in energy market liberalisation, faces a widening gap between declining domestic resources and continuously growing energy demand. Diverse interests inside the EU prevent the definition of a coherent and respected energy policy. Russia, for its part, is no longer willing to subsidise its neighbouring economies by cheap energy exports. The Russian government engages in assertive policies pursuing Russian interests. In so far, it opts for a different globalisation approach, refusing the role of mere energy exporter. In view of the intensifying struggle for global resources, Russia, with its large energy potential, appears to be a very favourable option for European energy supplies, if not the best one. However, several outcomes of the strategic game between the two partners can be imagined. Engaging in non-cooperative strategies will in the end leave all stakeholders worse-off. The European Union should therefore concentrate on securing its partnership with Russia instead of damaging it. Stable cooperation would need the acceptance that the partner may pursue his own goals, which might be different from one’s own interests. The question is, how can a sustainable compromise be found? This thesis finds that a mix of continued dialogue, a tit for tat approach bolstered by an international institutional framework and increased integration efforts appears as a preferable solution. N2 - Die öffentliche Debatte über die Energiebeziehungen Russlands und der EU ist verzerrt. Diese Verzerrungen verhindern die Entwicklung einer wirklichen Energiepartnerschaft. Kern des Konflikts ist ein Kampf um Rohstoffrenten zwischen Energie produzierenden, Energie konsumierenden und Transitstaaten. Dabei sind scheinbar nebensächliche Aspekte wie geopolitische Überlegungen, Marktzutrittsbedingungen, wirtschaftliche Entwicklung und staatliche Souveränität, die kaum Beachtung finden, von umso größerer Bedeutung. Die EU, die ihre Energiemärkte liberalisiert, sieht sich einer wachsenden Lücke zwischen abnehmenden eigenen Ressourcen und stetig steigender Energienachfrage gegenüber. Vielfältige Interessen innerhalb der Union verhindern die Definition einer kohärenten und allgemein akzeptierten Energiepolitik. Russland seinerseits ist nicht länger gewillt, die Volkswirtschaften seiner Nachbarstaaten mit billigen Energieexporten zu subventionieren. Die russische Regierung verfolgt russische Interessen, und tut dies durchaus mit Nachdruck. Insofern, als dass sie für Russland selbst mehr als die Rolle eines bloßen Energieexporteurs wünscht, verfolgt sie auch eine eigene Herangehensweise an die Globalisierung. Vor dem Hintergrund des zunehmenden globalen Wettstreits um Ressourcen erscheint Russland mit seinem großen Energiepotential als sehr vorteilhafte, wenn nicht sogar die beste Option für die europäische Energieversorgung. In einem solchen strategischen Spiel der beiden Partner sind grundsätzlich verschiedene Ergebnisse vorstellbar. Wählen beide nichtkooperative Strategien, so verlieren letztlich alle Beteiligten. Die EU sollte sich deshalb darauf konzentrieren, ihre Partnerschaft mit Russland zu intensivieren, anstatt sie zu beschädigen. Eine verlässliche Kooperation setzt dabei die Akzeptanz voraus, dass der Partner seine eigenen Ziele verfolgt, die durchaus verschieden von EU-Interessen sein können. Die Frage ist, wie ein dauerhaft tragfähiger Kompromiss gefunden werden kann. Diese Arbeit argumentiert im Sinne einer Kombination aus fortgeführtem Dialog, einer tit-for-tat Strategie, die von einem internationalen institutionellen Rahmenwerk begleitet wird sowie verstärkten Integrationsbemühungen. KW - EU KW - Russland KW - Energie KW - Gas KW - Kooperation KW - Rohstoffe KW - EU KW - Russia KW - energy KW - gas KW - cooperation KW - resources Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50210 SN - 978-3-86956-120-2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Reusser, Dominik Edwin T1 - Combining smart model diagnostics and effective data collection for snow catchments T1 - Zeitlich aufgelöste Modelldiagnose und kosteneffektive Messungen für Schneeeinzugsgebiete N2 - Complete protection against flood risks by structural measures is impossible. Therefore flood prediction is important for flood risk management. Good explanatory power of flood models requires a meaningful representation of bio-physical processes. Therefore great interest exists to improve the process representation. Progress in hydrological process understanding is achieved through a learning cycle including critical assessment of an existing model for a given catchment as a first step. The assessment will highlight deficiencies of the model, from which useful additional data requirements are derived, giving a guideline for new measurements. These new measurements may in turn lead to improved process concepts. The improved process concepts are finally summarized in an updated hydrological model. In this thesis I demonstrate such a learning cycle, focusing on the advancement of model evaluation methods and more cost effective measurements. For a successful model evaluation, I propose that three questions should be answered: 1) when is a model reproducing observations in a satisfactory way? 2) If model results deviate, of what nature is the difference? And 3) what are most likely the relevant model components affecting these differences? To answer the first two questions, I developed a new method to assess the temporal dynamics of model performance (or TIGER - TIme series of Grouped Errors). This method is powerful in highlighting recurrent patterns of insufficient model behaviour for long simulation periods. I answered the third question with the analysis of the temporal dynamics of parameter sensitivity (TEDPAS). For calculating TEDPAS, an efficient method for sensitivity analysis is necessary. I used such an efficient method called Fourier Amplitude Sensitivity Test, which has a smart sampling scheme. Combining the two methods TIGER and TEDPAS provided a powerful tool for model assessment. With WaSiM-ETH applied to the Weisseritz catchment as a case study, I found insufficient process descriptions for the snow dynamics and for the recession during dry periods in late summer and fall. Focusing on snow dynamics, reasons for poor model performance can either be a poor representation of snow processes in the model, or poor data on snow cover, or both. To obtain an improved data set on snow cover, time series of snow height and temperatures were collected with a cost efficient method based on temperature measurements on multiple levels at each location. An algorithm was developed to simultaneously estimate snow height and cold content from these measurements. Both, snow height and cold content are relevant quantities for spring flood forecasting. Spatial variability was observed at the local and the catchment scale with an adjusted sampling design. At the local scale, samples were collected on two perpendicular transects of 60 m length and analysed with geostatistical methods. The range determined from fitted theoretical variograms was within the range of the sampling design for 80% of the plots. No patterns were found, that would explain the random variability and spatial correlation at the local scale. At the watershed scale, locations of the extensive field campaign were selected according to a stratified sample design to capture the combined effects of elevation, aspect and land use. The snow height is mainly affected by the plot elevation. The expected influence of aspect and land use was not observed. To better understand the deficiencies of the snow module in WaSiM-ETH, the same approach, a simple degree day model was checked for its capability to reproduce the data. The degree day model was capable to explain the temporal variability for plots with a continuous snow pack over the entire snow season, if parameters were estimated for single plots. However, processes described in the simple model are not sufficient to represent multiple accumulation-melt-cycles, as observed for the lower catchment. Thus, the combined spatio-temporal variability at the watershed scale is not captured by the model. Further tests on improved concepts for the representation of snow dynamics at the Weißeritz are required. From the data I suggest to include at least rain on snow and redistribution by wind as additional processes to better describe spatio-temporal variability. Alternatively an energy balance snow model could be tested. Overall, the proposed learning cycle is a useful framework for targeted model improvement. The advanced model diagnostics is valuable to identify model deficiencies and to guide field measurements. The additional data collected throughout this work helps to get a deepened understanding of the processes in the Weisseritz catchment. N2 - Modelle zur Hochwasservorhersage und –warnung basieren auf einer bio-physikalisch Repräsentation der relevanten hydrologischen Prozesse. Eine Verbesserungen der Beschreibung dieser Prozesse kann zuverlässigere Vorhersagen ermöglichen. Dazu wird die Benutzung eines Lernzykluses bestehend aus einer kritische Beurteilung eines existierenden Modells, der Erhebung zusätzlicher Daten, der Bildung eines vertieften Verständnis und einer Überarbeitung des Modells vorgeschlagen. In dieser Arbeit wird ein solcher Lernzyklus aufgegriffen, wobei der Schwerpunkt auf einer verbesserten Modellanalyse und kosteneffizientere Messungen liegt. Für eine erfolgreiche Modellbeurteilung sind drei Fragen zu beantworten: 1) Wann reproduziert ein Modell die beobachteten Werte in einer zufriedenstellenden Weise (nicht)? 2) Wie lassen sich die Abweichungen charakterisieren? und 3) welches sind die Modellkomponenten, die diese Abweichungen bedingen? Um die ersten beiden Fragen zu beantworten, wird eine neue Methode zur Beurteilung des zeitlichen Verlaufs der Modellgüte vorgestellt. Eine wichtige Stärke ist, dass wiederholende Muster ungenügender Modellgüte auch für lange Simulationsläufe einfach identifiziert werden können. Die dritte Frage wird durch die Analyse des zeitlichen Verlaufs der Parametersensitivität beantwortet. Eine Kombination der beiden Methoden zur Beantwortung aller drei Fragen stellt ein umfangreiches Werkzeug für die Analyse hydrologischer Modelle zur Verfügung. Als Fallstudie wurde WaSiM-ETH verwendet, um das Einzugsgebiet der wilden Weißeritz zu modellieren. Die Modellanalyse von WaSiM-ETH hat ergeben, dass die Schneedynamik und die Rezession während trockener Perioden im Spätsommer und Herbst, für eine Beschreibung der Prozesse an der Weißeritz nicht geeignet sind. Die Erhebung zusätzlicher Daten zum besseren Verständnis der Schneedynamik bildet den nächste Schritt im Lernzyklus. Daten über Schneetemperaturen und Schneehöhen wurden mit Hilfe eines neuen, preisgünstigen Verfahrens erhoben. Dazu wurde die Temperatur an jedem Standort mit unterschiedlichen Abständen zum Boden gemessen und mit einem neuen Algorithmus in Schneehöhe und Kältegehalt umgerechnet. Die Schneehöhe und Kältegehalt sind wichtige Größen für die Vorhersage von Frühjahrshochwassern. Die räumliche Variabilität der Schneedecke auf der Einzugsgebietsskala wurde entsprechend der Landnutzung, der Höhenzone und der Ausrichtung stratifiziert untersucht, wobei lediglich der Einfluss der Höhe nachgewiesen werden konnte, während Ausrichtung und Landnutzung keinen statistisch signifikanten Einfluss hatten. Um die Defizite des WaSiM-ETH Schneemodules für die Beschreibung der Prozesse im Weißeritzeinzugsgebiets besser zu verstehen, wurde der gleiche konzeptionelle Ansatz als eigenständiges, kleines Modell benutzt, um die Dynamik in den Schneedaten zu reproduzieren. Während dieses Grad-Tag-Modell in der Lage war, den zeitlichen Verlauf für Flächen mit einer kontinuierlichen Schneedecke zu reproduzieren, konnte die Dynamik für Flächen mit mehreren Akkumulations- und Schmelzzyklen im unteren Einzugsgebiet vom Modell nicht abgebildet werden. Vorschläge zur Verbesserung des Modells werden in der Arbeit gemacht. Zusammenfassend hat sich das Lernzyklus-Konzept als nützlich erwiesen, um gezielt an einer Modellverbesserung zu arbeiten. Die differenzierte Modelldiagnose ist wertvoll, um Defizite im Modellkonzept zu identifizieren. Die während dieser Studie erhobenen Daten sind geeignet, um ein verbessertes Verständnis der Schnee-Prozesse an der Weißeritz zu erlangen. KW - Hydrologie KW - Modellierung KW - Modell Diagnose KW - Schnee KW - Sensitivitätsanalyse KW - hydrology KW - modelling KW - model diagnostics KW - snow KW - sensitivity analysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52574 ER - TY - BOOK ED - Meinel, Christoph ED - Plattner, Hasso ED - Döllner, Jürgen Roland Friedrich ED - Weske, Mathias ED - Polze, Andreas ED - Hirschfeld, Robert ED - Naumann, Felix ED - Giese, Holger T1 - Proceedings of the 5th Ph.D. Retreat of the HPI Research School on Service-oriented Systems Engineering T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 46 Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51472 SN - 978-3-86956-129-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Naaf, Tobias T1 - Floristic homogenization and impoverishment : herb layer changes over two decades in deciduous forest patches of the Weser-Elbe region (NW Germany) T1 - Floristische Homogenisierung und Verarmung : Krautschichtveränderungen über 20 Jahre in Laubwaldfragmenten des Elbe-Weser-Dreiecks (NW-Dtl.) N2 - Human-induced alterations of the environment are causing biotic changes worldwide, including the extinction of species and a mixing of once disparate floras and faunas. One type of biological communities that is expected to be particularly affected by environmental alterations are herb layer plant communities of fragmented forests such as those in the west European lowlands. However, our knowledge about current changes in species diversity and composition in these communities is limited due to a lack of adequate long-term studies. In this thesis, I resurveyed the herb layer communities of ancient forest patches in the Weser-Elbe region (NW Germany) after two decades using 175 semi-permanent plots. The general objectives were (i) to quantify changes in plant species diversity considering also between-community (β) and functional diversity, (ii) to determine shifts in species composition in terms of species’ niche breadth and functional traits and (iii) to find indications on the most likely environmental drivers for the observed changes. These objectives were pursued with four independent research papers (Chapters 1-4) whose results were brought together in a General Discussion. Alpha diversity (species richness) increased by almost four species on average, whereas β diversity tended to decrease (Chapter 1). The latter is interpreted as a beginning floristic homogenization. The observed changes were primarily the result of a spread of native habitat generalists that are able to tolerate broad pH and moisture ranges. The changes in α and β diversity were only significant when species abundances were neglected (Chapters 1 and 2), demonstrating that the diversity changes resulted mainly from gains and losses of low-abundance species. This study is one of the first studies in temperate Europe that demonstrates floristic homogenization of forest plant communities at a larger than local scale. The diversity changes found at the taxonomic level did not result in similar changes at the functional level (Chapter 2). The likely reason is that these communities are functionally “buffered”. Single communities involve most of the functional diversity of the regional pool, i.e., they are already functionally rich, while they are functionally redundant among each other, i.e., they are already homogeneous. Independent of taxonomic homogenization, the abundance of 30 species decreased significantly (Chapter 4). These species included 12 ancient forest species (i.e., species closely tied to forest patches with a habitat continuity > 200 years) and seven species listed on the Red List of endangered plant species in NW Germany. If these decreases continue over the next decades, local extinctions may result. This biotic impoverishment would seriously conflict with regional conservation goals. Community assembly mechanisms changed at the local level particularly at sites that experienced disturbance by forest management activities between the sampling periods (Chapter 3). Disturbance altered community assembly mechanisms in two ways: (i) it relaxed environmental filters and allowed the coexistence of different reproduction strategies, as reflected by a higher diversity of reproductive traits at the time of the resurvey, and (ii) it enhanced light availability and tightened competitive filters. These limited the functional diversity with respect to canopy height and selected for taller species. Thirty-one winner and 30 loser species, which had significantly increased or decreased in abundance, respectively, were characterized by various functional traits and ecological performances to find indications on the most likely environmental drivers for the observed floristic changes (Chapter 4). Winner species had higher seed longevity, flowered later in the season and had more often an oceanic distribution compared to loser species. Loser species tended to have a higher specific leaf area, to be more susceptible to deer browsing and to have a performance optimum at higher soil pH values compared to winner species. Multiple logistic regression analyses indicated that disturbances due to forest management interventions were the primary cause of the species shifts. As one of the first European resurvey studies, this study provides indications that an enhanced browsing pressure due to increased deer densities and increasingly warmer winters are important drivers. The study failed to demonstrate that eutrophication and acidification due to atmospheric deposition substantially drive herb layer changes. The restriction of the sample to the most base-rich sites in the region is discussed as a likely reason. Furthermore, the decline of several ancient forest species is discussed as an indication that the forest patches are still paying off their “extinction debt”, i.e., exhibit a delayed response to forest fragmentation. N2 - Umweltveränderungen beeinträchtigen weltweit die Artenvielfalt. Die Lebensgemeinschaften fragmentierter Lebensräume gelten als besonders anfällig für Veränderungen. In dieser Arbeit wurden Untersuchungen an Krautschichtgemeinschaften historisch alter Waldfragmente im Elbe-Weser-Dreieck nach zwei Jahrzehnten wiederholt. Ziel war es anhand von 175 semi-permanenten Aufnahmeflächen (i) die Veränderungen der Pflanzenartendiversität zu quantifizieren, (ii) Artenverschiebungen in Bezug auf Nischenbreite und funktionale Merkmale festzustellen und (iii) Hinweise auf die verantwortlichen Umweltveränderungen zu finden. Die α-Diversität (Artenzahl) stieg durchschnittlich um vier Arten an. Die β-Diversität (Artenturnover zwischen den Flächen) nahm tendenziell ab. Letzteres wird als Beginn einer floristischen Homogenisierung interpretiert. Diese Studie ist eine der ersten im gemäßigten Europa, die eine floristische Homogenisierung von Waldpflanzengemeinschaften auf einer größeren als der lokalen Ebene aufzeigt. Die Diversitätsveränderungen auf taxonomischer Ebene führten nicht zu ähnlichen Veränderungen auf funktionaler Ebene. Bereits einzelne Gemeinschaften wiesen den Großteil der funktionalen Vielfalt des regionalen Artenpools, also ein Maximum an funktionaler Diversität auf. Gleichzeitig waren sie untereinander funktional redundant, also bereits homogen. Die mit der beginnenden taxonomischen Homogenisierung verbundene floristische Verarmung wird als gering eingestuft, da die Homogenisierung primär das Ergebnis der Zuwanderung häufig vorkommender Standortgeneralisten war. Unabhängig von der Homogenisierung gingen 30 Arten signifikant in ihrer Abundanz zurück, darunter 12 an historisch alte Wälder gebundene Arten sowie sieben Rote-Liste-Arten. Ein weiterer Rückgang oder ein lokales Aussterben dieser Arten stünde im Widerspruch zu regionalen Naturschutzzielen. Nullmodelltests und der Vergleich funktionaler und taxonomischer Diversitätskomponenten lassen auf regionaler Ebene auf eine zeitliche Konstanz der grundlegenden Mechanismen der Artenvergesellschaftung schließen. Auf der lokalen Ebene veränderten sich die Vergesellschaftungsmechanismen erheblich, insbesondere auf forstwirtschaftlich gestörten Standorten. Einerseits ermöglichte dort eine Abschwächung der Umweltfilter die Koexistenz von Arten mit unterschiedlichen Reproduktionsstrategien. Andererseits führte die erhöhte Lichtverfügbarkeit zu einer Verstärkung der Konkurrenzfilter und einer Selektion hochwüchsiger Arten. Gewinner- und Verliererarten wurden anhand funktionaler Merkmale und ihres ökologischen Verhaltens charakterisiert, um Hinweise auf die verantwortlichen Umweltveränderungen zu finden. Gewinnerarten wiesen eine höhere Langlebigkeit der Samen auf, blühten später in der Vegetationsperiode und hatten öfter eine ozeanische Verbreitung. Verliererarten hatten eine höhere spezifische Blattfläche, einen höheren Attraktivitätswert als Wildäsung und ein ökologisches Optimum bei höheren pH-Werten. Logistische Regressionsanalysen zeigen, dass Störung durch forstwirtschaftliche Eingriffe hauptverantwortlich für die Artenverschiebungen war. Zusätzlich liefert diese Wiederholungsstudie als eine der ersten in Europa Hinweise darauf, dass ein erhöhter Äsungsdruck sowie zunehmend mildere Winter entscheidende Einflussfaktoren darstellen. Der Rückgang mehrerer an historisch alte Wälder gebundener Arten wird als Anzeichen für eine verspätete Reaktion auf die Waldfragmentierung diskutiert. KW - Beta-Diversität KW - Funktionelle Diversität KW - Globaler Wandel KW - Langzeitveränderung KW - Wiederholungsstudie KW - beta diversity KW - functional diversity KW - global change KW - long-term change KW - resurvey Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52446 ER -