Refine
Has Fulltext
- yes (110) (remove)
Year of publication
- 2011 (110) (remove)
Document Type
- Doctoral Thesis (110) (remove)
Keywords
- Dictyostelium (3)
- Holocene (3)
- Holozän (3)
- Klimawandel (3)
- Nanopartikel (3)
- Selbstorganisation (3)
- climate change (3)
- nanoparticles (3)
- self-assembly (3)
- Antwortmengenprogrammierung (2)
Institute
- Institut für Chemie (19)
- Institut für Physik und Astronomie (19)
- Institut für Biochemie und Biologie (18)
- Institut für Geowissenschaften (14)
- Extern (10)
- Institut für Informatik und Computational Science (10)
- Wirtschaftswissenschaften (9)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (7)
- Department Linguistik (4)
- Department Psychologie (4)
- Institut für Ernährungswissenschaft (3)
- Sozialwissenschaften (3)
- Institut für Umweltwissenschaften und Geographie (2)
- Department Sport- und Gesundheitswissenschaften (1)
- Institut für Mathematik (1)
- Institut für Philosophie (1)
- Strukturbereich Kognitionswissenschaften (1)
In this work new fluorinated and non-fluorinated mono- and bifunctional trithiocarbonates of the structure Z-C(=S)-S-R and Z-C(=S)-S-R-S-C(=S)-Z were synthesized for the use as chain transfer agents (CTAs) in the RAFT-process. All newly synthesized CTAs were tested for their efficiency to moderate the free radical polymerization process by polymerizing styrene (M3). Besides characterization of the homopolymers by GPC measurements, end- group analysis of the synthesized block copolymers via 1H-, 19F-NMR, and in some cases also UV-vis spectroscopy, were performed attaching suitable fluorinated moieties to the Z- and/or R-groups of the CTAs. Symmetric triblock copolymers of type BAB and non-symmetric fluorine end- capped polymers were accessible using the RAFT process in just two or one polymerization step. In particular, the RAFT-process enabled the controlled polymerization of hydrophilic monomers such as N-isopropylacrylamide (NIPAM) (M1) as well as N-acryloylpyrrolidine (NAP) (M2) for the A-blocks and of the hydrophobic monomers styrene (M3), 2-fluorostyrene (M4), 3-fluorostyrene (M5), 4-fluorostyrene (M6) and 2,3,4,5,6-pentafluorostyrene (M7) for the B-blocks. The properties of the BAB-triblock copolymers were investigated in dilute, concentrated and highly concentrated aqueous solutions using DLS, turbidimetry, 1H- and 19F-NMR, rheology, determination of the CMC, foam height- and surface tension measurements and microscopy. Furthermore, their ability to stabilize emulsions and microemulsions and the wetting behaviour of their aqueous solutions on different substrates was investigated. The behaviour of the fluorine end-functionalized polymers to form micelles was studied applying DLS measurements in diluted organic solution. All investigated BAB-triblock copolymers were able to form micelles and show surface activity at room temperature in dilute aqueous solution. The aqueous solutions displayed moderate foam formation. With different types and concentrations of oils, the formation of emulsions could be detected using a light microscope. A boosting effect in microemulsions could not be found adding BAB-triblock copolymers. At elevated polymer concentrations, the formation of hydrogels was proved applying rheology measurements.
Lamine bilden zusammen mit laminassoziierten Proteinen die nukleäre Lamina. Diese ist notwendig für die mechanische Stabilität von Zellen, die Organisation des Chromatins, der Genexpression, dem Fortgang des Zellzyklus und der Zellmigration. Die vielfältigen Funktionen der Lamine werden durch die Pathogenese von Laminopathien belegt. Zu diesen Erkrankungen, welche ihre Ursache in Mutationen innerhalb der laminkodierenden Gene, oder der Gene laminassoziierter bzw. laminprozessierender Proteine haben, zählen unter anderem das „Hutchinson-Gilford Progerie Syndrom“, die „Emery-Dreifuss“ Muskeldystrophie und die dilatierte Kardiomyopathie. Trotz der fundamentalen Bedeutung der Lamine, wurden diese bisher nur in Metazoen und nicht in einzelligen Organismen detektiert. Der amöbide Organismus Dictyostelium discoideum ist ein haploider Eukaryot, der häufig als Modellorganismus in den verschiedensten Bereichen der Zellbiologie eingesetzt wird. Mit der Entdeckung von NE81, einem Protein das mit der inneren Kernhülle von Dictyostelium discoideum assoziiert ist, wurde erstmals ein Protein identifiziert, dass man aufgrund seiner Eigenschaften als laminähnliches Protein in einem niederen Eukaryoten bezeichnen kann. Diese Merkmale umfassen die Existenz lamintypischer Sequenzen, wie die CDK1-Phosphorylierungsstelle, direkt gefolgt von einer zentralen „Rod“-Domäne, sowie eine typische NLS und die hoch konservierte CaaX-Box. Für die Etablierung des NE81 als „primitives“ Lamin, wurden im Rahmen dieser Arbeit verschiedene Experimente durchgeführt, die strukturelle und funktionelle Gemeinsamkeiten zu den Laminen in anderen Organismen aufzeigen konnten. Die Herstellung eines polyklonalen Antikörpers ermöglichte die Verifizierung der subzellulären Lokalisation des NE81 durch Elektronenmikroskopie und gab Einblicke in das Verhalten des endogenen Proteins innerhalb des Zellzyklus. Mit der Generierung von NE81-Nullmutanten konnte demonstriert werden, dass NE81 eine wichtige Rolle bei der nukleären Integrität und der Chromatinorganisation von Zellen spielt. Des Weiteren führte die Expression von zwei CaaX-Box deletierten NE81 - Varianten dazu, den Einfluss des Proteins auf die mechanische Stabilität der Zellen nachweisen zu können. Auch die Bedeutung der hochkonservierten CaaX-Box für die Lokalisation des Proteins wurde durch die erhaltenen Ergebnisse deutlich. Mit der Durchführung von FRAP-Experimente konnte außerdem die strukturgebende Funktion von NE81 innerhalb des Zellkerns bekräftigt werden. Zusätzlich wurde im Rahmen dieser Arbeit damit begonnen, den Einfluss der Isoprenylcysteincarboxylmethyltransferase auf die Lokalisation des Proteins aufzuklären. Die Entdeckung eines laminähnlichen Proteins in einem einzelligen Organismus, der an der Schwelle zu den Metazoen steht, ist für die evolutionäre Betrachtung der Entwicklung der sozialen Amöbe und für die Erforschung der molekularen Basis von Laminopathien in einem einfachen Modellorganismus sehr interessant. Die Arbeit mit Dictyostelium discoideum könnte daher Wege aufzeigen, dass Studium der Laminopathien am Tiermodell drastisch zu reduzieren. In den letzten Jahren hat die Erforschung unbekannter Bestandteile des Centrosoms in Dictyostelium discoideum große Fortschritte gemacht. Eine zu diesem Zwecke von unserer Arbeitsgruppe durchgeführte Proteomstudie, führte zur Identifizierung weiterer, potentiell centrosomaler Kandidatenproteine. Der zweite Teil dieser Arbeit beschäftigt sich mit der Charakterisierung eines solchen Kandidatenproteins, dem CP75. Es konnte gezeigt werden, dass CP75 einen echten, centrosomalen Bestandteil darstellt, der mikrotubuli-unabhängig mit der Core Struktur des Zellorganells assoziiert ist. Weiterhin wurde deutlich, dass die Lokalisation am Centrosom in Abhängigkeit vom Zellzyklus erfolgt und CP75 vermutlich mit CP39, einem weiteren centrosomalen Core Protein, interagiert.
Nanoporous carbon materials are widely used in industry as adsorbents or catalyst supports, whilst becoming increasingly critical to the developing fields of energy storage / generation or separation technologies. In this thesis, the combined use of carbohydrate hydrothermal carbonisation (HTC) and templating strategies is demonstrated as an efficient route to nanostructured carbonaceous materials. HTC is an aqueous-phase, low-temperature (e.g. 130 – 200 °C) carbonisation, which proceeds via dehydration / poly-condensation of carbon precursors (e.g. carbohydrates and their derivatives), allowing facile access to highly functional carbonaceous materials. Whilst possessing utile, modifiable surface functional groups (e.g. -OH and -C=O-containing moieties), materials synthesised via HTC typically present limited accessible surface area or pore volume. Therefore, this thesis focuses on the development of fabrication routes to HTC materials which present enhanced textural properties and well-defined porosity. In the first discussed synthesis, a combined hard templating / HTC route was investigated using a range of sacrificial inorganic templates (e.g. mesoporous silica beads and macroporous alumina membranes (AAO)). Via pore impregnation of mesoporous silica beads with a biomass-derived carbon source (e.g. 2-furaldehyde) and subsequent HTC at 180 oC, an inorganic / carbonaceous hybrid material was produced. Removal of the template component by acid etching revealed the replication of the silica into mesoporous carbonaceous spheres (particle size ~ 5 μm), representing the inverse morphological structure of the original inorganic body. Surface analysis (e.g. FTIR) indicated a material decorated with hydrophilic (oxygenated) functional groups. Further thermal treatment at increasingly elevated temperatures (e.g. at 350, 550, 750 oC) under inert atmosphere allowed manipulation of functionalities from polar hydrophilic to increasingly non-polar / hydrophobic structural motifs (e.g. extension of the aromatic / pseudo-graphitic nature), thus demonstrating a process capable of simultaneous control of nanostructure and surface / bulk chemistry. As an extension of this approach, carbonaceous tubular nanostructures with controlled surface functionality were synthesised by the nanocasting of uniform, linear macropores of an AAO template (~ 200 nm). In this example, material porosity could be controlled, showing increasingly microporous tube wall features as post carbonisation temperature increased. Additionally, by taking advantage of modifiable surface groups, the introduction of useful polymeric moieties (i.e. grafting of thermoresponsive poly(N-isopropylacrylamide)) was also demonstrated, potentially enabling application of these interesting tubular structures in the fields of biotechnology (e.g. enzyme immobilization) and medicine (e.g. as drug micro-containers). Complimentary to these hard templating routes, a combined HTC / soft templating route for the direct synthesis of ordered porous carbonaceous materials was also developed. After selection of structural directing agents and optimisation of synthesis composition, the F127 triblock copolymer (i.e. ethylene oxide (EO)106 propylene oxide (PO)70 ethylene oxide (EO)106) / D-Fructose system was extensively studied. D-Fructose was found to be a useful carbon precursor as the HTC process could be performed at 130 oC, thus allowing access to stable micellular phase. Thermolytic template removal from the synthesised ordered copolymer / carbon composite yielded functional cuboctahedron single crystalline-like particles (~ 5 μm) with well ordered pore structure of a near perfect cubic Im3m symmetry. N2 sorption analysis revealed a predominantly microporous carbonaceous material (i.e. Type I isotherm, SBET = 257 m2g-1, 79 % microporosity) possessing a pore size of ca. 0.9 nm. The addition of a simple pore swelling additive (e.g. trimethylbenzene (TMB)) to this system was found to direct pore size into the mesopore size domain (i.e. Type IV isotherm, SBET = 116 m2g-1, 60 % mesoporosity) generating pore size of ca. 4 nm. It is proposed that in both cases as HTC proceeds to generate a polyfuran-like network, the organised block copolymer micellular phase is essentially “templated”, either via hydrogen bonding between hydrophilic poly(EO) moiety and the carbohydrate or via hydrophobic interaction between hydrophobic poly(PO) moiety and forming polyfuran-like network, whilst the additive TMB presumably interact with poly(PO) moieties, thus swelling the hydrophobic region expanding the micelle template size further into the mesopore range.
Sediment records of three European lakes were investigated in order to reconstruct the regional climate development during the Lateglacial and Holocene, to investigate the response of local ecosystems to climatic fluctuations and human impact and to relate regional peculiarities of past climate development to climatic changes on a larger spatial scale. The Lake Hańcza (NE Poland) sediment record was studied with a focus on reconstructing the early Holocene climate development and identifying possible differences to Western Europe. Following the initial Holocene climatic improvement, a further climatic improvement occurred between 10 000 and 9000 cal. a BP. Apparently, relatively cold and dry climate conditions persisted in NE Poland during the first ca. 1500 years of the Holocene, most likely due to a specific regional atmospheric circulation pattern. Prevailing anticyclonic circulation linked to a high-pressure cell above the remaining Scandinavian Ice Sheet (SIS) might have blocked the eastward propagation of warm and moist Westerlies and thus attenuated the early Holocene climatic amelioration in this region until the final decay of the SIS, a pattern different from climate development in Western Europe. The Lateglacial sediment record of Lake Mondsee (Upper Austria) was investigated in order to study the regional climate development and the environmental response to rapid climatic fluctuations. While the temperature rise and environmental response at the onset of the Holocene took place quasi-synchronously, major leads and lags in proxy responses characterize the onset of the Lateglacial Interstadial. In particular, the spread of coniferous woodlands and the reduction of detrital flux lagged the initial Lateglacial warming by ca. 500–750 years. Major cooling at the onset of the Younger Dryas took place synchronously with a change in vegetation, while the increase of detrital matter flux was delayed by about 150–300 years. Complex proxy responses are also detected for short-term Lateglacial climatic fluctuations. In summary, periods of abrupt climatic changes are characterized by complex and temporally variable proxy responses, mainly controlled by ecosystem inertia and the environmental preconditions. A second study on the Lake Mondsee sediment record focused on two small-scale climate deteriorations around 8200 and 9100 cal. a BP, which have been triggered by freshwater discharges to the North Atlantic, causing a shutdown of the Atlantic meridional overturning circulation (MOC). Combining microscopic varve counting and AMS 14C dating yielded a precise duration estimate (ca. 150 years) and absolute dating of the 8.2 ka cold event, both being in good agreement with results from other palaeoclimate records. Moreover, a sudden temperature overshoot after the 8.2 ka cold event was identified, also seen in other proxy records around the North Atlantic. This was most likely caused by enhanced resumption of the MOC, which also initiated substantial shifts of oceanic and atmospheric front systems. Although there is also evidence from other proxy records for pronounced recovery of the MOC and atmospheric circulation changes after the 9.1 ka cold event, no temperature overshoot is seen in the Lake Mondsee record, indicating the complex behaviour of the global climate system. The Holocene sediment record of Lake Iseo (northern Italy) was studied to shed light on regional earthquake activity and the influence of climate variability and anthropogenic impact on catchment erosion and detrital flux into the lake. Frequent small-scale detrital layers within the sediments reflect allochthonous sediment supply by extreme surface runoff events. During the early to mid-Holocene, increased detrital flux coincides with periods of cold and wet climate conditions, thus apparently being mainly controlled by climate variability. In contrast, intervals of high detrital flux during the late Holocene partly also correlate with phases of increased human impact, reflecting the complex influences on catchment erosion processes. Five large-scale event layers within the sediments, which are composed of mass-wasting deposits and turbidites, are supposed to have been triggered by strong local earthquakes. While the uppermost of these event layers is assigned to a documented adjacent earthquake in AD 1222, the four other layers are supposed to be related to previously undocumented prehistorical earthquakes.
Die neuen Anforderungen an Schulleitungen im Zuge gesellschaftlicher, schulpolitischer und schulinterner Entwicklungen sind erheblich (Huber, 2008). Diese in der Literatur breit geteilte Einschätzung schlägt sich bislang nicht ausreichend in Forschungsaktivitäten zur Gesundheit schulischer Führungskräfte nieder – im Unterschied zu der ausgiebigen Forschung zur Lehrergesundheit, die für die Lehrer durchgängig eine kritische Gesundheitslage feststellt. Besondere Aufmerksamkeit erzielte dabei die Potsdamer Lehrerstudie (Schaarschmidt, 2004). Sie belegte unter anderem auch die Einflussmöglichkeiten der Schulleitung auf die Lehrergesundheit. Die vorliegende Arbeit verfolgt zwei Ziele: Erstens wird die aktuelle Schulleitungsforschung um empirische Daten zur gesundheitlichen Situation von n = 484 Schulleitungen aus Brandenburg und Baden-Württemberg ergänzt. Zweitens wird die Bedeutung der Schulleitung für die Lehrergesundheit näher untersucht, indem empirische Daten aus Führungsfeedbackverfahren mit n = 12 Schulleitungen und n = 332 Lehrern in Baden-Württemberg und Hessen herangezogen werden. Das diagnostische Verfahren AVEM (“Arbeitsbezogenes Verhaltens- und Erlebensmuster“, Schaarschmidt & Fischer, 1996/2003) dient als methodische Grundlage. Es erhebt Selbsteinschätzungen zum arbeitsbezogenen Verhalten und Erleben und weist auf mögliche Risiken im Sinne psychischer oder psychosomatischer Gefährdung hin. Das Instrument erfasst mit 66 Items 11 Dimensionen (z.B. Distanzierungsfähigkeit). Auf diese Weise ist es möglich, die befragte Person einem von vier arbeitsbezogenen Verhaltens- und Erlebensmustern zuzuordnen: Muster G (Gesundheitsideal), Muster S (Schonungstendenz gegenüber beruflichen Anforderungen), Risikomuster A (überhöhtes Engagement), Risikomuster B (Resignation). Zudem werden Fragen zu schulischer Führung eingesetzt, die sich aus vorhandenen Fragebögen speisen. Mit Hilfe einer exploratorischen Faktorenanalyse können sechs Faktoren identifiziert werden: Persönliche emotionale Wertschätzung und Fürsorge, optimistische Zukunftsorientierung, konstruktives Management des Schulbetriebs, Förderung von Weiterbildung und pädagogischem Diskurs, Präsenz/Ansprechbarkeit und Partizipationsorientierung. Zu der ersten Fragestellung zeigt sich für die befragten Schulleitungen im Mittel ein gesundheitlich recht positives Bild – gerade im Kontrast zu den befragten Lehrern. Für die befragten Schulleitungen wird eine signifikant günstigere AVEM-Musterkonstellation festgestellt: Der Anteil des Musters G ist bei den Schulleitungen deutlich höher, der Anteil des Musters B deutlich niedriger und der Anteil des Musters A in etwa gleich groß. Die AVEM-Ergebnisse schlagen sich bei den befragten Schulleitungen in unmittelbaren Gesundheitsindikatoren nieder. Für bestimmte Untergruppen herrscht allerdings ein gesundheitlich vergleichsweise kritisches Bild vor, nämlich tendenziell für Schulleitungen in Brandenburg, für weibliche Schulleitungen und Schulleitungen an Grund- und Förderschulen. Eine hohe Unterrichtsverpflichtung ist mit einem größeren Anteil an Risikomustern verbunden. Ein hohes Maß an erlebter Autonomie – insbesondere im sozial-interaktiven Bereich mit den Lehrern (d.h. bei Auswahl, Einstellung und Beurteilung von Lehrern sowie bei der innerschulischen Arbeitsorganisation und kollegialen Zusammenarbeit) – geht dagegen mit jeweils günstigeren AVEM-Musterkonstellationen einher. Zur Beantwortung der zweiten Fragestellung wird eine methodisch anspruchsvolle Mehrebenenanalyse durchgeführt, die die hierarchische Anordnung der Daten angemessen behandelt. Für die wahrgenommene soziale Unterstützung durch die Schulleitung wird dabei eine negative Beziehung zur subjektiven Bedeutsamkeit der Arbeit und der Verausgabungsbereitschaft der befragten Lehrer gefunden. Hingegen ergibt sich ein positiver Zusammenhang zwischen der erlebten Förderung von Weiterbildung und pädagogischem Diskurs und dem Erfolgserleben der befragten Lehrer. Ebenso hängt die wahrgenommene Führung durch die Schulleitung in ihrer Gesamtheit in positiver Weise mit der Lebenszufriedenheit der befragten Lehrer zusammen. Es sei betont, dass ausschließlich Effekte nachgewiesen werden, die auf die individuelle Ebene der Lehrer zurückgehen, d.h. es scheint – was den Zusammenhang zwischen erlebter Führung und Lehrergesundheit angeht – auf die subjektive Wahrnehmung des Führungsverhaltens der Schulleitung durch den/die jeweilige(n) Lehrer/in anzukommen. Eine erste theoretische Skizze zu wesentlichen Determinanten von Schulleitungsgesundheit wird vorgeschlagen. Empfehlungen für die Schulleitungspraxis umfassen die Reduzierung der Unterrichtsverpflichtung, die Erweiterung von Autonomie im sozial-interaktiven Bereich mit den Lehrern und die systematische Etablierung von Mitarbeitergesprächen zur Ausgestaltung individueller Führungsbeziehungen zwischen Schulleitungen und Lehrern.
Im Mittelpunkt dieser Arbeit stehen virtuelle 3D-Stadtmodelle, die Objekte, Phänomene und Prozesse in urbanen Räumen in digitaler Form repräsentieren. Sie haben sich zu einem Kernthema von Geoinformationssystemen entwickelt und bilden einen zentralen Bestandteil geovirtueller 3D-Welten. Virtuelle 3D-Stadtmodelle finden nicht nur Verwendung als Mittel für Experten in Bereichen wie Stadtplanung, Funknetzplanung, oder Lärmanalyse, sondern auch für allgemeine Nutzer, die realitätsnah dargestellte virtuelle Städte in Bereichen wie Bürgerbeteiligung, Tourismus oder Unterhaltung nutzen und z. B. in Anwendungen wie GoogleEarth eine räumliche Umgebung intuitiv erkunden und durch eigene 3D-Modelle oder zusätzliche Informationen erweitern. Die Erzeugung und Darstellung virtueller 3D-Stadtmodelle besteht aus einer Vielzahl von Prozessschritten, von denen in der vorliegenden Arbeit zwei näher betrachtet werden: Texturierung und Visualisierung. Im Bereich der Texturierung werden Konzepte und Verfahren zur automatischen Ableitung von Fototexturen aus georeferenzierten Schrägluftbildern sowie zur Speicherung oberflächengebundener Daten in virtuellen 3D-Stadtmodellen entwickelt. Im Bereich der Visualisierung werden Konzepte und Verfahren für die multiperspektivische Darstellung sowie für die hochqualitative Darstellung nichtlinearer Projektionen virtueller 3D-Stadtmodelle in interaktiven Systemen vorgestellt. Die automatische Ableitung von Fototexturen aus georeferenzierten Schrägluftbildern ermöglicht die Veredelung vorliegender virtueller 3D-Stadtmodelle. Schrägluftbilder bieten sich zur Texturierung an, da sie einen Großteil der Oberflächen einer Stadt, insbesondere Gebäudefassaden, mit hoher Redundanz erfassen. Das Verfahren extrahiert aus dem verfügbaren Bildmaterial alle Ansichten einer Oberfläche und fügt diese pixelpräzise zu einer Textur zusammen. Durch Anwendung auf alle Oberflächen wird das virtuelle 3D-Stadtmodell flächendeckend texturiert. Der beschriebene Ansatz wurde am Beispiel des offiziellen Berliner 3D-Stadtmodells sowie der in GoogleEarth integrierten Innenstadt von München erprobt. Die Speicherung oberflächengebundener Daten, zu denen auch Texturen zählen, wurde im Kontext von CityGML, einem international standardisierten Datenmodell und Austauschformat für virtuelle 3D-Stadtmodelle, untersucht. Es wird ein Datenmodell auf Basis computergrafischer Konzepte entworfen und in den CityGML-Standard integriert. Dieses Datenmodell richtet sich dabei an praktischen Anwendungsfällen aus und lässt sich domänenübergreifend verwenden. Die interaktive multiperspektivische Darstellung virtueller 3D-Stadtmodelle ergänzt die gewohnte perspektivische Darstellung nahtlos um eine zweite Perspektive mit dem Ziel, den Informationsgehalt der Darstellung zu erhöhen. Diese Art der Darstellung ist durch die Panoramakarten von H. C. Berann inspiriert; Hauptproblem ist die Übertragung des multiperspektivischen Prinzips auf ein interaktives System. Die Arbeit stellt eine technische Umsetzung dieser Darstellung für 3D-Grafikhardware vor und demonstriert die Erweiterung von Vogel- und Fußgängerperspektive. Die hochqualitative Darstellung nichtlinearer Projektionen beschreibt deren Umsetzung auf 3D-Grafikhardware, wobei neben der Bildwiederholrate die Bildqualität das wesentliche Entwicklungskriterium ist. Insbesondere erlauben die beiden vorgestellten Verfahren, dynamische Geometrieverfeinerung und stückweise perspektivische Projektionen, die uneingeschränkte Nutzung aller hardwareseitig verfügbaren, qualitätssteigernden Funktionen wie z.~B. Bildraumgradienten oder anisotroper Texturfilterung. Beide Verfahren sind generisch und unterstützen verschiedene Projektionstypen. Sie ermöglichen die anpassungsfreie Verwendung gängiger computergrafischer Effekte wie Stilisierungsverfahren oder prozeduraler Texturen für nichtlineare Projektionen bei optimaler Bildqualität. Die vorliegende Arbeit beschreibt wesentliche Technologien für die Verarbeitung virtueller 3D-Stadtmodelle: Zum einen lassen sich mit den Ergebnissen der Arbeit Texturen für virtuelle 3D-Stadtmodelle automatisiert herstellen und als eigenständige Attribute in das virtuelle 3D-Stadtmodell einfügen. Somit trägt diese Arbeit dazu bei, die Herstellung und Fortführung texturierter virtueller 3D-Stadtmodelle zu verbessern. Zum anderen zeigt die Arbeit Varianten und technische Lösungen für neuartige Projektionstypen für virtueller 3D-Stadtmodelle in interaktiven Visualisierungen. Solche nichtlinearen Projektionen stellen Schlüsselbausteine dar, um neuartige Benutzungsschnittstellen für und Interaktionsformen mit virtuellen 3D-Stadtmodellen zu ermöglichen, insbesondere für mobile Geräte und immersive Umgebungen.
Die Wahrnehmung von Geschmacksempfindungen beruht auf dem Zusammenspiel verschiedener Sinneseindrücke wie Schmecken, Riechen und Tasten. Diese Komplexität der gustatorischen Wahrnehmung erschwert die Beantwortung der Frage wie Geschmacksinformationen vom Mund ins Gehirn weitergeleitet, prozessiert und kodiert werden. Die Analysen zur neuronalen Prozessierung von Geschmacksinformationen erfolgten zumeist mit Bitterstimuli am Mausmodell. Zwar ist bekannt, dass das Genom der Maus für 35 funktionelle Bitterrezeptoren kodiert, jedoch war nur für zwei unter ihnen ein Ligand ermittelt worden. Um eine bessere Grundlage für tierexperimentelle Arbeiten zu schaffen, wurden 16 der 35 Bitterrezeptoren der Maus heterolog in HEK293T-Zellen exprimiert und in Calcium-Imaging-Experimenten funktionell charakterisiert. Die Daten belegen, dass das Funktionsspektrum der Bitterrezeptoren der Maus im Vergleich zum Menschen enger ist und widerlegen damit die Aussage, dass humane und murine orthologe Rezeptoren durch das gleiche Ligandenspektrum angesprochen werden. Die Interpretation von tierexperimentellen Daten und die Übertragbarkeit auf den Menschen werden folglich nicht nur durch die Komplexität des Geschmacks, sondern auch durch Speziesunterschiede verkompliziert. Die Komplexität des Geschmacks beruht u. a. auf der Tatsache, dass Geschmacksstoffe selten isoliert auftreten und daher eine Vielzahl an Informationen kodiert werden muss. Um solche geschmacksstoffassoziierten Stimuli in der Analyse der gustatorischen Kommunikationsbahnen auszuschließen, sollten Opsine, die durch Licht spezifischer Wellenlänge angeregt werden können, für die selektive Ersetzung von Geschmacksrezeptoren genutzt werden. Um die Funktionalität dieser angestrebten Knockout-Knockin-Modelle zu evaluieren, die eine Kopplung von Opsinen mit dem geschmacksspezifischen G-Protein Gustducin voraussetzte, wurden Oozyten vom Krallenfrosch Xenopus laevis mit dem Zwei-Elektroden-Spannungsklemm-Verfahren hinsichtlich dieser Interaktion analysiert. Der positiven Bewertung dieser Kopplung folgte die Erzeugung von drei Mauslinien, die in der kodierenden Region eines spezifischen Geschmacksrezeptors (Tas1r1, Tas1r2, Tas2r114) Photorezeptoren exprimierten. Durch RT-PCR-, In-situ-Hybridisierungs- und immunhistochemische Experimente konnte der erfolgreiche Knockout der Rezeptorgene und der Knockin der Opsine belegt werden. Der Nachweis der Funktionalität der Opsine im gustatorischen System wird Gegenstand zukünftiger Analysen sein. Bei erfolgreichem Beleg der Lichtempfindlichkeit von Geschmacksrezeptorzellen dieser Mausmodelle wäre ein System geschaffen, dass es ermöglichen würde, gustatorische neuronale Netzwerke und Hirnareale zu identifizieren, die auf einen reinen geschmacks- und qualitätsspezifischen Stimulus zurückzuführen wären.
Um Extremereignisse in der Dynamik des indischen Sommermonsuns (ISM) in der geologischen Vergangenheit zu identifizieren, schlage ich einen neuartigen Ansatz basierend auf der Quantifikation von Fluktuationen in einem nichtlinearen Ähnlichkeitsmaß vor. Dieser reagiert empfindlich auf Zeitabschnitte mit deutlichen Veränderungen in der dynamischen Komplexität kurzer Zeitreihen. Ein mathematischer Zusammenhang zwischen dem neuen Maß und dynamischen Invarianten des zugrundeliegenden Systems wie fraktalen Dimensionen und Lyapunovexponenten wird analytisch hergeleitet. Weiterhin entwickle ich einen statistischen Test zur Schätzung der Signifikanz der so identifizierten dynamischen Übergänge. Die Stärken der Methode werden durch die Aufdeckung von Bifurkationsstrukturen in paradigmatischen Modellsystemen nachgewiesen, wobei im Vergleich zu den traditionellen Lyapunovexponenten eine Identifikation komplexerer dynamischer Übergänge möglich ist. Wir wenden die neu entwickelte Methode zur Analyse realer Messdaten an, um ausgeprägte dynamische Veränderungen auf Zeitskalen von Jahrtausenden in Klimaproxydaten des südasiatischen Sommermonsunsystems während des Pleistozäns aufzuspüren. Dabei zeigt sich, dass viele dieser Übergänge durch den externen Einfluss der veränderlichen Sonneneinstrahlung, sowie durch dem Klimasystem interne Einflussfaktoren auf das Monsunsystem (Eiszeitzyklen der nördlichen Hemisphäre und Einsatz der tropischenWalkerzirkulation) induziert werden. Trotz seiner Anwendbarkeit auf allgemeine Zeitreihen ist der diskutierte Ansatz besonders zur Untersuchung von kurzen Paläoklimazeitreihen geeignet. Die während des ISM über dem indischen Subkontinent fallenden Niederschläge treten, bedingt durch die zugrundeliegende Dynamik der atmosphärischen Zirkulation und topographische Einflüsse, in äußerst komplexen, raumzeitlichen Mustern auf. Ich stelle eine detaillierte Analyse der Sommermonsunniederschläge über der indischen Halbinsel vor, die auf Ereignissynchronisation (ES) beruht, einem Maß für die nichtlineare Korrelation von Punktprozessen wie Niederschlagsereignissen. Mit hierarchischen Clusteringalgorithmen identifiziere ich zunächst Regionen mit besonders kohärenten oder homogenen Monsunniederschlägen. Dabei können auch die Zeitverzögerungsmuster von Regenereignissen rekonstruiert werden. Darüber hinaus führe ich weitere Analysen auf Basis der Theorie komplexer Netzwerke durch. Diese Studien ermöglichen wertvolle Einsichten in räumliche Organisation, Skalen und Strukturen von starken Niederschlagsereignissen oberhalb der 90% und 94% Perzentilen während des ISM (Juni bis September). Weiterhin untersuche ich den Einfluss von verschiedenen, kritischen synoptischen Systemen der Atmosphäre sowie der steilen Topographie des Himalayas auf diese Niederschlagsmuster. Die vorgestellte Methode ist nicht nur geeignet, die Struktur extremer Niederschlagsereignisse zu visualisieren, sondern kann darüber hinaus über der Region atmosphärische Transportwege von Wasserdampf und Feuchtigkeitssenken auf dekadischen Skalen identifizieren.Weiterhin wird ein einfaches, auf komplexen Netzwerken basierendes Verfahren zur Entschlüsselung der räumlichen Feinstruktur und Zeitentwicklung von Monsunniederschlagsextremen während der vergangenen 60 Jahre vorgestellt.
Die Progressive Supranukleäre Blickparese (PSP) ist eine sporadisch auftretende neurodegenerative Erkrankung im Rahmen der atypischen Parkinson-Syndrome (APS), die im frühen Verlauf häufig mit dem Idiopathischen Parkinson-Syndrom (IPS) verwechselt wird. Dabei ist die Dysarthrie als eine erworbene, zentral bedingte sprechmotorische Störung ein häufiges und früh auftretendes Symptom bei PSP. Bislang spricht man von einer eher unspezifischen „gemischten“ Dysarthrie aus hypokinetischen, spastischen und auch ataktischen Komponenten. Im Rahmen einer explorativen Querschnittsstudie am „Fachkrankenhaus für Bewegungsstörungen und Parkinson“ Beelitz-Heilstätten in Kooperation mit der „Entwicklungsgruppe Klinische Neuropsychologie“ München (EKN) sowie der „Interdisziplinären Ambulanz für Bewegungsstörungen“ am Klinikum München-Großhadern wurden 50 Patienten dahingehend untersucht, ob sich für die Progressive Supranukleäre Blickparese (PSP) eine spezielle, frühzeitig zu diagnostizierende und differentialdiagnostisch relevante Dysarthrie beschreiben ließe. In diesem Zusammenhang soll geklärt werden, ob es sich um phänotypische Ausprägungen im Rahmen eines Störungsspektrums handelt oder ob sich differenzierbare Subtypen der Krankheit, insbesondere ein „klassischer“ PSP-Typ (PSP-RS) und ein „atypischer“ PSP-Typ (PSP-P), auch im Bereich der Dysarthrie zeigen. Im Rahmen der Untersuchungen wurde der Schweregrad der Erkrankung mittels der „PSP-sensitiven Ratingskala (PSPRS)“ gemessen. Die Dysarthriediagnostik erfolgte anhand der „Bogenhausener Dysarthrieskalen (BoDyS)“ zur Beschreibung der Art und Ausprägung der Dysarthrie bei PSP. Die Verständlichkeit wurde mithilfe des „Münchner Verständlichkeits-Profils (MVP)" sowie eines weiteren Transkriptionsverfahrens ermittelt, wobei Ausschnitte aus den Tests zum Lesen und Nachsprechen der BoDyS zugrunde lagen. Weiterhin erfolgte eine Einschätzung der Natürlichkeit des Sprechens. Die Ergebnisse hinsichtlich des Einflusses von Natürlichkeit und Verständlichkeit des Sprechens auf den Schweregrad der Dysarthrie zeigten, dass dieser modalitätenübergreifend mit beiden Schweregradaspekten korreliert, wenngleich es offenbar die Natürlichkeit des Sprechens ist, die bei PSP bereits frühzeitig beeinträchtigt ist und somit als das entscheidende differentialdiagnostische Kriterium zur Differenzierung zwischen beiden PSP-Subtypen zu beurteilen ist, möglicherweise auch gegenüber anderen Parkinson-Syndromen. Anhand statistisch valider Ergebnisse konnten spezifische Störungsmerkmale der Dysarthrie extrahiert werden, die eine signifikante Trennung von PSP-RS und PSP-P ermöglichen: eine leise und behaucht-heisere Stimme sowie ein verlangsamtes Sprechtempo und Hypernasalität. Damit können für die hier fokussierten Subtypen der PSP zwei unterschiedliche Dysarthrietypen postuliert werden. Danach wird dem Subtyp PSP-RS eine spastisch betonte Dysarthrie mit ausgeprägter Verlangsamung des Sprechtempos zugeordnet, dem Subtyp PSP-P hingegen eine hypokinetische Dysarthrie mit behaucht-heiserer Hypophonie. Desweiteren konnte ein „Dysarthrie-Schwellenwert“ als Zusatzkriterium für eine zeitliche Differenzierung beider PSP-Subtypen ermittelt werden. Anhand der Daten zeigte sich die Dysarthrie bei dem Subtyp PSP-RS gleich zu Beginn der Erkrankung, jedoch spätestens 24 Monate danach. Hingegen konnte die Dysarthrie beim Subtyp PSP-P frühestens 24 Monate nach Erkrankungsbeginn festgestellt werden. Die Daten dieser Studie verdeutlichen, dass der Frage nach einer subtypenspezifischen Ausprägung der Dysarthrie bei PSP eine Längsschnittsstudie folgen sollte, um die ermittelten Ergebnisse zu konsolidieren.
Die Natur unterliegt ständigen Veränderungen und befindet sich nur vermeintlich in einem Gleichgewicht. Umweltparameter wie Temperatur, Luftfeuchtigkeit oder Sonneneinstrahlung schwanken auf einer Zeitskala von Sekunden bis Jahrmillionen und beinhalten teils beträchtliche Unterschiede. Mit diesen Umweltveränderungen müssen sich Arten als Teil eines Ökosystems auseinandersetzen. Für Ökologen ist interessant, wie sich individuelle Reaktionen auf die Umweltveränderungen im dynamischen Verhalten einer ganzen Population bemerkbar machen und ob deren Verhalten vorhersagbar ist. Der Demografie einer Population kommt hierbei eine entscheidende Rolle zu, da sie das Resultat von Wachstums- und Sterbeprozessen darstellt. Eben jene Prozesse werden von der Umwelt maßgeblich beeinflusst. Doch wie genau beeinflussen Umweltveränderungen das Verhalten ganzer Populationen? Wie sieht das vorübergehende, transiente Verhalten aus? Als Resultat von Umwelteinflüssen bilden sich in Populationen sogenannte Kohorten, hinsichtlich der Zahl an Individuen überproportional stark vertretene Alters- oder Größenklassen. Sterben z.B. aufgrund eines außergewöhnlich harten Winters, die alten und jungen Individuen einer Population, so besteht diese anschließend hauptsächlich aus Individuen mittleren Alters. Sie wurde sozusagen synchronisiert. Eine solche Populationen neigt zu regelmäßigen Schwankungen (Oszillationen) in ihrer Dichte, da die sich abwechselnden Phasen der individuellen Entwicklung und der Reproduktion nun von einem Großteil der Individuen synchron durchschritten werden. D.h., mal wächst die Population und mal nimmt sie entsprechend der Sterblichkeit ab. In Experimenten mit Phytoplankton-Populationen konnte ich zeigen, dass dieses oszillierende Verhalten mit dem in der Physik gebräuchlichen Konzept der Synchronisation beschrieben werden kann. Synchrones Verhalten ist eines der verbreitetsten Phänomene in der Natur und kann z.B. in synchron schwingenden Brücken, als auch bei der Erzeugung von Lasern oder in Form von rhythmischem Applaus auf einem Konzert beobachtet werden. Wie stark die Schwankungen sind, hängt dabei sowohl von der Stärke der Umweltveränderung als auch vom demografischen Zustand der Population vor der Veränderung ab. Zwei Populationen, die sich in verschiedenen Habitaten aufhalten, können zwar gleich stark von einer Umweltveränderung beeinflusst werden. Die Reaktionen im anschließenden Verhalten können jedoch äußerst unterschiedlich ausfallen, wenn sich die Populationen zuvor in stark unterschiedlichen demografischen Zuständen befanden. Darüber hinaus treten bestimmte, für das Verhalten einer Population relevante Mechanismen überhaupt erst in Erscheinung, wenn sich die Umweltbedingungen ändern. So fiel in Experimenten beispielsweise die Populationsdichte um rund 50 Prozent ab nachdem sich die Ressourcenverfügbarkeit verdoppelte. Der Grund für dieses gegenintuitive Verhalten konnte mit der erhöhten Aufnahme von Ressourcen erklärt werden. Damit verbessert eine Algenzelle zwar die eigene Konstitution, jedoch verzögert sich dadurch die auch die Reproduktion und die Populationsdichte nimmt gemäß ihrer Verluste bzw. Sterblichkeit ab. Zwei oder mehr räumlich getrennte Populationen können darüber hinaus durch Umwelteinflüsse synchronisiert werden. Dies wird als Moran-Effekt bezeichnet. Angenommen auf zwei weit voneinander entfernten Inseln lebt jeweils eine Population. Zwischen beiden findet kein Austausch statt – und doch zeigt sich beim Vergleich ihrer Zeitreihen eine große Ähnlichkeit. Das überregionale Klima synchronisiert hierbei die lokalen Umwelteinflüsse. Diese wiederum bestimmen das Verhalten der jeweiligen Population. Der Moran-Effekt besagt nun, dass die Ähnlichkeit zwischen den Populationen jener zwischen den Umwelteinflüssen entspricht, oder geringer ist. Meine Ergebnisse bestätigen dies und zeigen darüber hinaus, dass sich die Populationen sogar ähnlicher sein können als die Umwelteinflüsse, wenn man von unterschiedlich stark schwankenden Einflüssen ausgeht.
Service-oriented Architectures (SOA) facilitate the provision and orchestration of business services to enable a faster adoption to changing business demands. Web Services provide a technical foundation to implement this paradigm on the basis of XML-messaging. However, the enhanced flexibility of message-based systems comes along with new threats and risks. To face these issues, a variety of security mechanisms and approaches is supported by the Web Service specifications. The usage of these security mechanisms and protocols is configured by stating security requirements in security policies. However, security policy languages for SOA are complex and difficult to create due to the expressiveness of these languages. To facilitate and simplify the creation of security policies, this thesis presents a model-driven approach that enables the generation of complex security policies on the basis of simple security intentions. SOA architects can specify these intentions in system design models and are not required to deal with complex technical security concepts. The approach introduced in this thesis enables the enhancement of any system design modelling languages – for example FMC or BPMN – with security modelling elements. The syntax, semantics, and notion of these elements is defined by our security modelling language SecureSOA. The metamodel of this language provides extension points to enable the integration into system design modelling languages. In particular, this thesis demonstrates the enhancement of FMC block diagrams with SecureSOA. To enable the model-driven generation of security policies, a domain-independent policy model is introduced in this thesis. This model provides an abstraction layer for security policies. Mappings are used to perform the transformation from our model to security policy languages. However, expert knowledge is required to generate instances of this model on the basis of simple security intentions. Appropriate security mechanisms, protocols and options must be chosen and combined to fulfil these security intentions. In this thesis, a formalised system of security patterns is used to represent this knowledge and to enable an automated transformation process. Moreover, a domain-specific language is introduced to state security patterns in an accessible way. On the basis of this language, a system of security configuration patterns is provided to transform security intentions related to data protection and identity management. The formal semantics of the security pattern language enable the verification of the transformation process introduced in this thesis and prove the correctness of the pattern application. Finally, our SOA Security LAB is presented that demonstrates the application of our model-driven approach to facilitate a dynamic creation, configuration, and execution of secure Web Service-based composed applications.
Der Begriff Gesundheit wurde von der WHO definiert als „nicht nur die Abwesenheit von Krankheit, sondern, positiv als Naturrecht formuliert, vollständiges körperliches, seelisches und soziales Wohlbefinden“. Deswegen hat die WHO mit dem Gesundheitsministerium in Syrien das Programm „Gesunde Dörfer“ seit 1996 gestaltet. Es zielt darauf, den wirtschaftlichen, sozialen und gesundheitlichen Zustand der Landbevölkerung zu verbessern, insbesondere soll es den großen Unterschied zwischen Stadt und Land vermindern. Das Projekt stellt sich die Aufgabe, den Einfluss des Programms auf Wirtschafts- und Gesundheitsparameter im Vergleich mit anderen Kontrolledörfern zu analysieren. Hierzu werden Umfragedaten in Syrien ausgewertet. Die Auswertung der Befragung in der vorliegenden Arbeit zeigte, dass das Programm seine Ziele bezüglich der Verbesserung der Gesundheits- und Lebensqualität erreicht Erfolgreich war das Programm „Gesunde Dörfer“ auch, mit Ausnahme der nördlichen und östlichen Region, in der Verringerung der Anzahl arbeitender Kinder, in der Förderung der Frauen eine Beschäftigung aufzunehmen bzw. ein Studium zu absolvieren sowie in der Reduzierung der Analphabetenrate.
It is well documented that transcriptionally coordinated genes tend to be functionally related, and that such relationships may be conserved across different species, and even kingdoms. (Ihmels et al., 2004). Such relationships was initially utilized to reveal functional gene modules in yeast and mammals (Ihmels et al., 2004), and to explore orthologous gene functions between different species and kingdoms (Stuart et al., 2003; Bergmann et al., 2004). Model organisms, such as Arabidopsis, are readily used in basic research due to resource availability and relative speed of data acquisition. A major goal is to transfer the acquired knowledge from these model organisms to species that are of greater importance to our society. However, due to large gene families in plants, the identification of functional equivalents of well characterized Arabidopsis genes in other plants is a non-trivial task, which often returns erroneous or inconclusive results. In this thesis, concepts of utilizing co-expression networks to help infer (i) gene function, (ii) organization of biological processes and (iii) knowledge transfer between species are introduced. An often overlooked fact by bioinformaticians is that a bioinformatic method is as useful as its accessibility. Therefore, majority of the work presented in this thesis was directed on developing freely available, user-friendly web-tools accessible for any biologist.
The inspiral and merger of two black holes is among the most exciting and extreme events in our universe. Being one of the loudest sources of gravitational waves, they provide a unique dynamical probe of strong-field general relativity and a fertile ground for the observation of fundamental physics. While the detection of gravitational waves alone will allow us to observe our universe through an entirely new window, combining the information obtained from both gravitational wave and electro-magnetic observations will allow us to gain even greater insight in some of the most exciting astrophysical phenomena. In addition, binary black-hole mergers serve as an intriguing tool to study the geometry of space-time itself. In this dissertation we study the merger process of binary black-holes in a variety of conditions. Our results show that asymmetries in the curvature distribution on the common apparent horizon are correlated to the linear momentum acquired by the merger remnant. We propose useful tools for the analysis of black holes in the dynamical and isolated horizon frameworks and shed light on how the final merger of apparent horizons proceeds after a common horizon has already formed. We connect mathematical theorems with data obtained from numerical simulations and provide a first glimpse on the behavior of these surfaces in situations not accessible to analytical tools. We study electro-magnetic counterparts of super-massive binary black-hole mergers with fully 3D general relativistic simulations of binary black-holes immersed both in a uniform magnetic field in vacuum and in a tenuous plasma. We find that while a direct detection of merger signatures with current electro-magnetic telescopes is unlikely, secondary emission, either by altering the accretion rate of the circumbinary disk or by synchrotron radiation from accelerated charges, may be detectable. We propose a novel approach to measure the electro-magnetic radiation in these simulations and find a non-collimated emission that dominates over the collimated one appearing in the form of dual jets associated with each of the black holes. Finally, we provide an optimized gravitational wave detection pipeline using phenomenological waveforms for signals from compact binary coalescence and show that by including spin effects in the waveform templates, the detection efficiency is drastically improved as well as the bias on recovered source parameters reduced. On the whole, this disseration provides evidence that a multi-messenger approach to binary black-hole merger observations provides an exciting prospect to understand these sources and, ultimately, our universe.
Bildverarbeitungsanwendungen stellen besondere Ansprüche an das ausführende Rechensystem. Einerseits ist eine hohe Rechenleistung erforderlich. Andererseits ist eine hohe Flexibilität von Vorteil, da die Entwicklung tendentiell ein experimenteller und interaktiver Prozess ist. Für neue Anwendungen tendieren Entwickler dazu, eine Rechenarchitektur zu wählen, die sie gut kennen, anstatt eine Architektur einzusetzen, die am besten zur Anwendung passt. Bildverarbeitungsalgorithmen sind inhärent parallel, doch herkömmliche bildverarbeitende eingebettete Systeme basieren meist auf sequentiell arbeitenden Prozessoren. Im Gegensatz zu dieser "Unstimmigkeit" können hocheffiziente Systeme aus einer gezielten Synergie aus Software- und Hardwarekomponenten aufgebaut werden. Die Konstruktion solcher System ist jedoch komplex und viele Lösungen, wie zum Beispiel grobgranulare Architekturen oder anwendungsspezifische Programmiersprachen, sind oft zu akademisch für einen Einsatz in der Wirtschaft. Die vorliegende Arbeit soll ein Beitrag dazu leisten, die Komplexität von Hardware-Software-Systemen zu reduzieren und damit die Entwicklung hochperformanter on-Chip-Systeme im Bereich Bildverarbeitung zu vereinfachen und wirtschaftlicher zu machen. Dabei wurde Wert darauf gelegt, den Aufwand für Einarbeitung, Entwicklung als auch Erweiterungen gering zu halten. Es wurde ein Entwurfsfluss konzipiert und umgesetzt, welcher es dem Softwareentwickler ermöglicht, Berechnungen durch Hardwarekomponenten zu beschleunigen und das zu Grunde liegende eingebettete System komplett zu prototypisieren. Hierbei werden komplexe Bildverarbeitungsanwendungen betrachtet, welche ein Betriebssystem erfordern, wie zum Beispiel verteilte Kamerasensornetzwerke. Die eingesetzte Software basiert auf Linux und der Bildverarbeitungsbibliothek OpenCV. Die Verteilung der Berechnungen auf Software- und Hardwarekomponenten und die daraus resultierende Ablaufplanung und Generierung der Rechenarchitektur erfolgt automatisch. Mittels einer auf der Antwortmengenprogrammierung basierten Entwurfsraumexploration ergeben sich Vorteile bei der Modellierung und Erweiterung. Die Systemsoftware wird mit OpenEmbedded/Bitbake synthetisiert und die erzeugten on-Chip-Architekturen auf FPGAs realisiert.
Human-induced alterations of the environment are causing biotic changes worldwide, including the extinction of species and a mixing of once disparate floras and faunas. One type of biological communities that is expected to be particularly affected by environmental alterations are herb layer plant communities of fragmented forests such as those in the west European lowlands. However, our knowledge about current changes in species diversity and composition in these communities is limited due to a lack of adequate long-term studies. In this thesis, I resurveyed the herb layer communities of ancient forest patches in the Weser-Elbe region (NW Germany) after two decades using 175 semi-permanent plots. The general objectives were (i) to quantify changes in plant species diversity considering also between-community (β) and functional diversity, (ii) to determine shifts in species composition in terms of species’ niche breadth and functional traits and (iii) to find indications on the most likely environmental drivers for the observed changes. These objectives were pursued with four independent research papers (Chapters 1-4) whose results were brought together in a General Discussion. Alpha diversity (species richness) increased by almost four species on average, whereas β diversity tended to decrease (Chapter 1). The latter is interpreted as a beginning floristic homogenization. The observed changes were primarily the result of a spread of native habitat generalists that are able to tolerate broad pH and moisture ranges. The changes in α and β diversity were only significant when species abundances were neglected (Chapters 1 and 2), demonstrating that the diversity changes resulted mainly from gains and losses of low-abundance species. This study is one of the first studies in temperate Europe that demonstrates floristic homogenization of forest plant communities at a larger than local scale. The diversity changes found at the taxonomic level did not result in similar changes at the functional level (Chapter 2). The likely reason is that these communities are functionally “buffered”. Single communities involve most of the functional diversity of the regional pool, i.e., they are already functionally rich, while they are functionally redundant among each other, i.e., they are already homogeneous. Independent of taxonomic homogenization, the abundance of 30 species decreased significantly (Chapter 4). These species included 12 ancient forest species (i.e., species closely tied to forest patches with a habitat continuity > 200 years) and seven species listed on the Red List of endangered plant species in NW Germany. If these decreases continue over the next decades, local extinctions may result. This biotic impoverishment would seriously conflict with regional conservation goals. Community assembly mechanisms changed at the local level particularly at sites that experienced disturbance by forest management activities between the sampling periods (Chapter 3). Disturbance altered community assembly mechanisms in two ways: (i) it relaxed environmental filters and allowed the coexistence of different reproduction strategies, as reflected by a higher diversity of reproductive traits at the time of the resurvey, and (ii) it enhanced light availability and tightened competitive filters. These limited the functional diversity with respect to canopy height and selected for taller species. Thirty-one winner and 30 loser species, which had significantly increased or decreased in abundance, respectively, were characterized by various functional traits and ecological performances to find indications on the most likely environmental drivers for the observed floristic changes (Chapter 4). Winner species had higher seed longevity, flowered later in the season and had more often an oceanic distribution compared to loser species. Loser species tended to have a higher specific leaf area, to be more susceptible to deer browsing and to have a performance optimum at higher soil pH values compared to winner species. Multiple logistic regression analyses indicated that disturbances due to forest management interventions were the primary cause of the species shifts. As one of the first European resurvey studies, this study provides indications that an enhanced browsing pressure due to increased deer densities and increasingly warmer winters are important drivers. The study failed to demonstrate that eutrophication and acidification due to atmospheric deposition substantially drive herb layer changes. The restriction of the sample to the most base-rich sites in the region is discussed as a likely reason. Furthermore, the decline of several ancient forest species is discussed as an indication that the forest patches are still paying off their “extinction debt”, i.e., exhibit a delayed response to forest fragmentation.
Entsprechend der Zielstellung wurden zunächst verschiedene Varianten der Kompostierung von Holzsubstanz getestet, um eine optimale Technologie, die auch für Entwicklungsländer realisierbar ist, herauszufinden. Hierzu sind in Pflanztöpfe Holzspäne (Woodchips) von zwei verschieden Holzarten (Laub- und Nadelholz) gefüllt und mit verschiedenen natürlichen Stickstoffquellen gemischt worden. Diese Ansätze wurden regelmäßig mit Kompostwasser appliziert. Nach vier Wochen sind zwei verschiedene Wurmarten (Dendrobaena veneta und Eisenia fetida) hinzugegeben worden. Die Feuchthaltung erfolgte ab diesem Zeitpunkt durch Frischwasser. Die qualitativ beste Versuchsvariante ist im nächsten Schritt mit weiteren natürlichen Stickstoffquellen, die in Entwicklungsländern zur Verfügung gestellt werden könnten, getestet worden. Von allen Kompostvarianten sind im Labor eine Vielzahl von bodenphysikalischen (z.B. Dichte, Wasserhaltekapazität) und bodenchemischen Zustandsgrößen (z.B. Elektrische Leitfähigkeit, Totalgehalte biophiler Elemente, Bodenreaktion, organische Substanzgehalte, Kationenaustauschkapazität) bestimmt worden. Die Wiederum qualitativ beste Mischung ist in einer weiteren Versuchsreihe in verschiedenen Mengenverhältnissen mit tertiärerem Abraumsand des Braunkohlebergbaus gemischt worden. In diese Versuchsmischungen wurde die Grasmischung RSM 7.2.1 eingesät und regelmäßig bewässert sowie die Wuchshöhe gemessen. Nach 42 Tagen wurden das Gras geerntet und die biometrischen Parameter, die Nährstoffgehalte (pflanzenverfügbare Fraktionen), die Bodenreaktion, die effektive bzw. potentielle Kationenaustauschkapazität sowie die Pufferkapazitäten der Mischsubstrate bestimmt. Die nächsten Versuchsvarianten sind als Feldversuche in der Niederlausitz durchgeführt worden. Für ihre Realisierung wurde als weiterer Zuschlagsstoff Arkadolith® zugemischt. Die Plotflächen sind sowohl auf Abraumsanden des Tertiärs als auch Quartärs angelegt worden. In jeweils eine Subvariante ist RSM 7.2.1, in die andere eine autochthone Grasmischung eingesät worden. Diese Experimente wurden nach 6 Monaten beendet, die Bestimmung aller Parameter erfolgte in gleicher Weise wie bei den Gewächshausversuchen. Auf Basis aller Versuchsreihen konnten die besten Kompostqualitäten und ihre optimalen Herstellungsvarianten ermittelt werden. Eine weitere Aufgabe war es zu untersuchen, wie im Vergleich zur Verbrennung von Holzmasse die CO2-Emission in die Atmosphäre durch Holzkompostierung verringert werden kann. Hierzu wurde während der verschiedenen Kompostierungsvarianten die CO2-Freisetzung gemessen. Im Vergleich dazu ist jeweils die gleiche Masse an Holzsubstanz verbrannt worden. Die Ergebnisse zeigten, dass im Vergleich zu der thermischen Verwertung von Holsubstanz die CO2-Emission bis zu 50 % verringert werden kann. Dem Boden kann darüber hinaus energiereiche organische Substanz zugeführt werden, die eine Entwicklung der Bodenorganismen ermöglicht. Ein weiteres Experiment zielte darauf ab, die Stabilität der Holzkomposte zu bestimmen. Darüber hinaus sollte untersucht werden, ob durch die Zufuhr von pyrogenem Kohlenstoff eine Vergrößerung der Stabilität zu erreichen ist. Diese Untersuchungen wurden mit Hilfe der Thermogravimetrie vorgenommen. Alle wichtigen Kompostierungsvarianten sind sowohl mit verschiedenen Zusatzmengen als auch ohne Zusatz von pyrogenem Kohlenstoff vermessen worden. Als Vergleichssubstanz diente der Oberboden eines Niedermoorgleys, der naturgemäß einen relativ hohen Anteil an organischer Substanz aufweist. Die Ergebnisse zeigten, dass im Bereich niedriger Temperaturen die Wasserbindung im Naturboden fester ist. In der Fraktion der oxidierbaren organischen Substanz, im mittleren Temperaturbereich gemessen, ist die natürliche Bodensubstanz ebenfalls stabiler, was auf eine intensivere Bindung zwischen den organischen und anorganischen Bestandteilen, also auf stabilere organisch-mineralische Komplexe, schlussfolgern lässt. Im Bereich höherer Temperaturen (T> 550° C) waren im Naturboden keine nennenswerten organischen Bestandteile mehr nachweisbar. Hingegen wiesen die Kompostvarianten einen hohen Anteil stabiler Fraktionen, vor allem aromatische Verbindungen, auf. Diese Aussagen erscheinen vor allem für die praktische Anwendung der Holzkomposte in Hinblick auf ihre Langzeitwirkung bedeutsam. Der Zusatz von pyrogenem Kohlenstoff zeigte keine zusätzliche Stabilisierungswirkung.
Die öffentliche Verwaltung setzt seit mehreren Jahren E-Government-Anwendungssysteme ein, um ihre Verwaltungsprozesse intensiver mit moderner Informationstechnik zu unterstützen. Da die öffentliche Verwaltung in ihrem Handeln in besonderem Maße an Recht und Gesetz gebunden ist verstärkt und verbreitet sich der Zusammenhang zwischen den Gesetzen und Rechtsvorschriften einerseits und der zur Aufgabenunterstützung eingesetzten Informationstechnik andererseits. Aus Sicht der Softwaretechnik handelt es sich bei diesem Zusammenhang um eine spezielle Form der Verfolgbarkeit von Anforderungen (engl. Traceability), die so genannte Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (Pre-Requirements Specification Traceability, kurz Pre-RS Traceability), da sie Aspekte betrifft, die relevant sind, bevor die Anforderungen in eine Spezifikation eingeflossen sind (Ursprünge von Anforderungen). Der Ansatz dieser Arbeit leistet einen Beitrag zur Verfolgbarkeit im Vorfeld der Anforderungsspezifikation von E-Government-Anwendungssystemen. Er kombiniert dazu aktuelle Entwicklungen und Standards (insbesondere des World Wide Web Consortium und der Object Management Group) aus den Bereichen Verfolgbarkeit von Anforderungen, Semantic Web, Ontologiesprachen und modellgetriebener Softwareentwicklung. Der Lösungsansatz umfasst eine spezielle Ontologie des Verwaltungshandeln, die mit den Techniken, Methoden und Werkzeugen des Semantic Web eingesetzt wird, um in Texten von Rechtsvorschriften relevante Ursprünge von Anforderungen durch Annotationen mit einer definierten Semantik zu versehen. Darauf aufbauend wird das Ontology Definition Metamodel (ODM) verwendet, um die Annotationen als spezielle Individuen einer Ontologie auf Elemente der Unified Modeling Language (UML) abzubilden. Dadurch entsteht ein neuer Modelltyp Pre-Requirements Model (PRM), der das Vorfeld der Anforderungsspezifikation formalisiert. Modelle diesen Typs können auch verwendet werden, um Aspekte zu formalisieren die sich nicht oder nicht vollständig aus dem Text der Rechtsvorschrift ergeben. Weiterhin bietet das Modell die Möglichkeit zum Anschluss an die modellgetriebene Softwareentwicklung. In der Arbeit wird deshalb eine Erweiterung der Model Driven Architecture (MDA) vorgeschlagen. Zusätzlich zu den etablierten Modelltypen Computation Independent Model (CIM), Platform Independent Model (PIM) und Platform Specific Model (PSM) könnte der Einsatz des PRM Vorteile für die Verfolgbarkeit bringen. Wird die MDA mit dem PRM auf das Vorfeld der Anforderungsspezifikation ausgeweitet, kann eine Transformation des PRM in ein CIM als initiale Anforderungsspezifikation erfolgen, indem der MOF Query View Transformation Standard (QVT) eingesetzt wird. Als Teil des QVT-Standards ist die Aufzeichnung von Verfolgbarkeitsinformationen bei Modelltransformationen verbindlich. Um die semantische Lücke zwischen PRM und CIM zu überbrücken, erfolgt analog zum Einsatz des Plattformmodells (PM) in der PIM nach PSM Transformation der Einsatz spezieller Hilfsmodelle. Es kommen dafür die im Projekt "E-LoGo" an der Universität Potsdam entwickelten Referenzmodelle zum Einsatz. Durch die Aufzeichnung der Abbildung annotierter Textelemente auf Elemente im PRM und der Transformation der Elemente des PRM in Elemente des CIM kann durchgängige Verfolgbarkeit im Vorfeld der Anforderungsspezifikation erreicht werden. Der Ansatz basiert auf einer so genannten Verfolgbarkeitsdokumentation in Form verlinkter Hypertextdokumente, die mittels XSL-Stylesheet erzeugt wurden und eine Verbindung zur graphischen Darstellung des Diagramms (z. B. Anwendungsfall-, Klassendiagramm der UML) haben. Der Ansatz unterstützt die horizontale Verfolgbarkeit zwischen Elementen unterschiedlicher Modelle vorwärts- und rückwärtsgerichtet umfassend. Er bietet außerdem vertikale Verfolgbarkeit, die Elemente des gleichen Modells und verschiedener Modellversionen in Beziehung setzt. Über den offensichtlichen Nutzen einer durchgängigen Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (z. B. Analyse der Auswirkungen einer Gesetzesänderung, Berücksichtigung des vollständigen Kontextes einer Anforderung bei ihrer Priorisierung) hinausgehend, bietet diese Arbeit eine erste Ansatzmöglichkeit für eine Feedback-Schleife im Prozess der Gesetzgebung. Stehen beispielsweise mehrere gleichwertige Gestaltungsoptionen eines Gesetzes zur Auswahl, können die Auswirkungen jeder Option analysiert und der Aufwand ihrer Umsetzung in E-Government-Anwendungen als Auswahlkriterium berücksichtigt werden. Die am 16. März 2011 in Kraft getretene Änderung des NKRG schreibt eine solche Analyse des so genannten „Erfüllungsaufwands“ für Teilbereiche des Verwaltungshandelns bereits heute verbindlich vor. Für diese Analyse kann die vorliegende Arbeit einen Ansatz bieten, um zu fundierten Aussagen über den Änderungsaufwand eingesetzter E-Government-Anwendungssysteme zu kommen.
The lakes of the East African Rift System (EARS) have been intensively studied to better understand the influence of climate change on hydrological systems. The exceptional sensitivity of these rift lakes, however, is both a challenge and an opportunity when trying to reconstruct past climate changes from changes in the hydrological budget of lake basins on timescales 100 to 104 years. On one hand, differences in basin geometrics (shape, area, volume, depth), catchment rainfall distributions and varying erosion-deposition rates complicate regional interpretation of paleoclimate information from lacustrine sediment proxies. On the other hand, the sensitivity of rift lakes often provides paleoclimate records of excellent quality characterized by a high signal-to-noise ratio. This study aims at better understanding of the climate-proxy generating process in rift lakes by parameterizing the geomorphological and hydroclimatic conditions of a particular site providing a step towards the establishment of regional calibrations of transfer functions for climate reconstructions. The knowledge of the sensitivity of a lake basin to climate change furthermore is crucial for a better assessment of the probability of catastrophic changes in the future, which bear risks for landscapes, ecosystems, and organisms of all sorts, including humans. Part 1 of this thesis explores the effect of the morphology and the effective moisture of a lake catchment. The availability of digital elevation models (DEM) and gridded climate data sets facilitates the comparison of the morphological and hydroclimatic conditions of rift lakes. I used the hypsometric integral (HI) calculated from Shuttle Radar Topography Mission (SRTM) data to describe the morphology of ten lake basins in Kenya and Ethiopia. The aridity index (AI) describing the difference in the precipitation/evaporation balance within a catchment was used to compare the hydroclimatic of these basins. Correlating HI and AI with published Holocene lake-level variations revealed that lakes responding sensitively to relatively moderate climate change are typically graben shaped and characterized by a HI between 0.23-0.30, and relatively humid conditions with AI >1. These amplifier lakes, a term first introduced but not fully parameterized by Alayne Street-Perrott in the early 80s, are unexceptionally located in the crest of the Kenyan and Ethiopian domes. The non-amplifier lakes in the EARS either have lower HI 0.13-0.22 and higher AI (>1) or higher HI (0.31-0.37) and low AI (<1), reflecting pan-shaped morphologies with more arid hydroclimatic conditions. Part 2 of this work addresses the third important factor to be considered when using lake-level and proxy records to unravel past climate changes in the EARS: interbasin connectivity and groundwater flow through faulted and porous subsurface lithologies in a rift setting. First, I have compiled the available hydrogeological data including lithology, resistivity and water-well data for the adjacent Naivasha and Elmenteita-Nakuru basins in the Central Kenya Rift. Using this subsurface information and established records of lake-level decline at the last wet-dry climate transitions, i.e., the termination of the African Humid Period (AHP, 15 to 5 kyr BP), I used a linear decay model to estimate typical groundwater flow between the two basins. The results suggest a delayed response of the groundwater levels of ca. 5 kyrs if no recharge of groundwater occurs during the wet-dry transition, whereas the lag is 2-2.7 kyrs only using the modern recharge of ca. 0.52 m/yr. The estimated total groundwater flow from higher Lake Naivasha (1,880 m a.s.l. during the AHP) to Nakuru-Elmenteita (1,770 m) was 40 cubic kilometers. The unexpectedly large volume, more than half of the volume of the paleo-Lake Naivasha during the Early Holocene, emphasizes the importance of groundwater in hydrological modeling of paleo-lakes in rifts. Moreover, the subsurface connectivity of rift lakes also causes a significant lag time to the system introducing a nonlinear component to the system that has to be considered while interpreting paleo-lake records. Part 3 of this thesis investigated the modern intraseasonal precipitation variability within eleven lake basins discussed in the first section of the study excluding Lake Victoria and including Lake Tana. Remotely sensed rainfall estimates (RFE) from FEWS NET for 1996-2010, are used for the, March April May (MAM) July August September (JAS), October November (ON) and December January February (DJF). The seasonal precipitation are averaged and correlated with the prevailing regional and local climatic mechanisms. Results show high variability with Biennial to Triennial precipitation patterns. The spatial distribution of precipitation in JAS are linked to the onset and strength of the Congo Air Boundary (CAB) and Indian Summer Monsoon (ISM) dynamics. while in ON they are related to the strength of Positive ENSO and IOD phases This study describes the influence of graben morphologies, extreme climate constrasts within catchments and basins connectivity through faults and porous lithologies on rift lakes. Hence, it shows the importance of a careful characterization of a rift lake by these parameters prior to concluding from lake-level and proxy records to climate changes. Furthermore, this study highlights the exceptional sensitivity of rift lakes to relatively moderate climate change and its consequences for water availability to the biosphere including humans.
After the collapse of the Soviet Union the former member states have started the transformation process. The transformation process from planned to market economy includes not only the adaptation of the economy to the new market rules but also the profound social and political transformation. For this reason such processes present huge challenges to affected societies. The transformational recession in Georgia was significantly enhanced by the civil war and by ethnic conflicts in Abkhazia and South Ossetia. During the ethnic conflicts and civil war the business and technical infrastructure were damaged and most of them were completely destroyed. Poverty and political instability were predominated. The trade relations with the member countries of Council of Mutual Economic Assistance (Comecon) were aborted. Moreover, the conflict in South Ossetia hampered the power supply from Russia and a conflict in Abkhazia, the production and trade with tea and citruses, which were major trade commodities at that time. In the beginning of 90-ies, Georgian government with the assistance of international organizations, such as International Monetary Fund and World Bank started to elaborate political and economical reforms. The reforms included several aspects, such as the transfer of public assets to private through privatization, the liberalization of domestic market and trade and the creation of market-oriented institutions. Because of lack in implementation neither economical nor political transformation has been achieved. For instance, by the begin of market oriented reforms the awareness of policy makers about the importance of entrepreneurship, in particular small and medium ones for the economy was low. The absence of previous experience prevented the elaboration of appropriate policy instruments and methods for the development of competitive market economy. The stimulation of private sector has been generally neglected. This had a severe affect on political, social and economical problems, which still hampers the development of middle class in Georgia. The presented research indicates that productive entrepreneurship is a driving force of an economy. The entrepreneurial activities on the one hand facilitate the resource allocation and on the other through the development of new products and services urge the competition. Furthermore, they contribute to technological improvements through innovation, create jobs and thus boost the economic and social development of a particular region or country. However, it is important that the legal and institutional framework is appropriately settled. Unlike mature market economies, Georgia is not characterized by well-developed sector of small and medium sized businesses. Most existing SMEs are operating in local markets and predominantly in the shadow economy. It is also noteworthy that small business in Georgia belongs to so called “mom and pop” rather than to innovative, growth oriented businesses. They are mostly engaged in trade and craft. In addition of poor performance, the business activity of SMEs is very centralized. The vast majority of them are operating in the capital Tbilisi. The poor performance of small and medium businesses in Georgia and their negligence by the market forces is among others due to the armed conflicts and state failure. As in the beginning of transformation process, down to the present day, the state fails to provide necessary conditions, such as rule of law, the protection of property rights and competition, transparent and uncorrupted public administration. The result is the weak middle class. The weak middle class by itself has a negative impact on economic development and democratization process in Georgia.
Von der Natur geschaffene Polymere faszinieren Polymerforscher durch ihre spezielle auf eine bestimmte Aufgabe ausgerichtete Funktionalität. Diese ergibt sich aus ihrer Bausteinabfolge uber die Ausbildung von Uberstrukturen. Dazu zählen zum Beispiel Proteine (Eiweiße), aus deren Gestalt sich wichtige Eigenschaften ergeben. Diese Struktureigenschaftsbeziehung gilt ebenso für funktionelle synthetische Makromoleküle. Demzufolge kann die Kontrolle der Monomersequenz in Polymeren bedeutend für die resultierende Form des Polymermoleküls sein. Obwohl die Synthese von synthetischen Polymeren mit der Komplexität und der Größe von Proteinen in absehbarer Zeit wahrscheinlich nicht gelingen wird, können wir von der Natur lernen, um neuartige Polymermaterialien mit definierten Strukturen (Sequenzen) zu synthetisieren. Deshalb ist die Entwicklung neuer und besserer Techniken zur Strukturkontrolle von großem Interesse für die Synthese von Makromolekülen, die perfekt auf ihre Funktion zugeschnitten sind. Im Gegensatz zu der Anzahl fortgeschrittener Synthesestrategien zum Design aus- gefallener Polymerarchitekturen – wie zum Beispiel Sterne oder baumartige Polymere (Dendrimere) – gibt es vergleichsweise wenig Ansätze zur echten Sequenzkontrolle in synthetischen Polymeren. Diese Arbeit stellt zwei unterschiedliche Techniken vor, mit denen die Monomersequenz innerhalb eines Polymers kontrolliert werden kann. Gerade bei den großtechnisch bedeutsamen radikalischen Polymerisationen ist die Sequenzkontrolle schwierig, weil die chemischen Bausteine (Monomere) sehr reaktiv sind. Im ersten Teil dieser Arbeit werden die Eigenschaften zweier Monomere (Styrol und N-substituiertes Maleinimid) geschickt ausgenutzt, um in eine Styrolkette definierte und lokal scharf abgegrenzte Funktionssequenzen einzubauen. Uber eine kontrollierte radikalische Polymerisationsmethode (ATRP) wurden in einer Ein-Topf-Synthese über das N-substituierte Maleinimid chemische Funktionen an einer beliebigen Stelle der Polystyrolkette eingebaut. Es gelang ebenfalls, vier unterschiedliche Funktionen in einer vorgegebenen Sequenz in die Polymerkette einzubauen. Diese Technik wurde an zwanzig verschiedenen N-substituierten Maleinimiden getestet, die meisten konnten erfolgreich in die Polymerkette integriert werden. In dem zweiten in dieser Arbeit vorgestellten Ansatz zur Sequenzkontrolle, wurde der schrittweise Aufbau eines Oligomers aus hydrophoben und hydrophilen Segmenten (ω-Alkin-Carbonsäure bzw. α-Amin-ω-Azid-Oligoethylenglycol) an einem löslichen Polymerträger durchgeführt. Das Oligomer konnte durch die geschickte Auswahl der Verknüpfungsreaktionen ohne Schutzgruppenstrategie synthetisiert werden. Der lösliche Polymerträger aus Polystyrol wurde mittels ATRP selbst synthetisiert. Dazu wurde ein Startreagenz (Initiator) entwickelt, das in der Mitte einen säurelabilen Linker, auf der einen Seite die initiierende Einheit und auf der anderen die Ankergruppe für die Anbindung des ersten Segments trägt. Der lösliche Polymerträger ermöglichte einerseits die schrittweise Synthese in Lösung. Andererseits konnten überschüssige Reagenzien und Nebenprodukte zwischen den Reaktionsschritten durch Fällung in einem Nicht-Lösungsmittel einfach abgetrennt werden. Der Linker ermöglichte die Abtrennung des Oligomers aus jeweils drei hydrophoben und hydrophilen Einheiten nach der Synthese.
In dieser Arbeit wird das regionale Klimamodell HIRHAM mit einer horizontalen Auflösung von 50 km und 19 vertikalen Schichten erstmals auf den asiatischen Kontinent angewendet, um die indische Monsunzirkulation unter rezenten und paläoklimatischen Bedingungen zu simulieren. Das Integrationsgebiet des Modells erstreckt sich von etwa 0ºN - 50ºN und 42ºE - 110ºE und bedeckt dabei sowohl die hohe Topographie des Himalajas und Tibet Plateaus als auch den nördlichen Indischen Ozean. Das Ziel besteht in der Beschreibung der regionalen Kopplung zwischen der Monsunzirkulation und den orographischen sowie diabatischen Antriebsmechanismen. Eine 44-jährige Modellsimulation von 1958-2001, die am seitlichen und unteren Rand von ECMWF Reanalysen (ERA40) angetrieben wird, bildet die Grundlage für die Validierung der Modellergebnisse mit Beobachtungen auf der Basis von Stations- und Gitterdatensätzen. Der Fokus liegt dabei auf der atmosphärischen Zirkulation, der Temperatur und dem Niederschlag im Sommer- und Wintermonsun, wobei die Qualität des Modells sowohl in Bezug zur langfristigen und dekadischen Klimatologie als auch zur interannuellen Variabilität evaluiert wird. Im Zusammenhang mit einer realistischen Reproduktion der Modelltopographie kann für die Muster der Zirkulation und Temperatur eine gute Übereinstimmung zwischen Modell und Daten nachgewiesen werden. Der simulierte Niederschlag zeigt eine bessere Übereinstimmung mit einem hoch aufgelösten Gitterdatensatz über der Landoberfläche Zentralindiens und in den Hochgebirgsregionen, der den Vorteil des Regionalmodells gegenüber der antreibenden Reanalyse hervorhebt. In verschiedenen Fall- und Sensitivitätsstudien werden die wesentlichen Antriebsfaktoren des indischen Monsuns (Meeresoberflächentemperaturen, Stärke des winterlichen Sibirischen Hochs und Anomalien der Bodenfeuchte) untersucht. Die Ergebnisse machen deutlich, dass die Simulation dieser Mechanismen auch mit einem Regionalmodell sehr schwierig ist, da die Komplexität des Monsunsystems hochgradig nichtlinear ist und die vor allem subgridskalig wirkenden Prozesse im Modell noch nicht ausreichend parametrisiert und verstanden sind. Ein paläoklimatisches Experiment für eine 44-jährige Zeitscheibe im mittleren Holozän (etwa 6000 Jahre vor heute), die am Rand von einer globalen ECHAM5 Simulation angetrieben wird, zeigt markante Veränderungen in der Intensität des Monsuns durch die unterschiedliche solare Einstrahlung, die wiederum Einflüsse auf die SST, die Zirkulation und damit auf die Niederschlagsmuster hat.
Conventional energy sources are diminishing and non-renewable, take million years to form and cause environmental degradation. In the 21st century, we have to aim at achieving sustainable, environmentally friendly and cheap energy supply by employing renewable energy technologies associated with portable energy storage devices. Lithium-ion batteries can repeatedly generate clean energy from stored materials and convert reversely electric into chemical energy. The performance of lithium-ion batteries depends intimately on the properties of their materials. Presently used battery electrodes are expensive to be produced; they offer limited energy storage possibility and are unsafe to be used in larger dimensions restraining the diversity of application, especially in hybrid electric vehicles (HEVs) and electric vehicles (EVs). This thesis presents a major progress in the development of LiFePO4 as a cathode material for lithium-ion batteries. Using simple procedure, a completely novel morphology has been synthesized (mesocrystals of LiFePO4) and excellent electrochemical behavior was recorded (nanostructured LiFePO4). The newly developed reactions for synthesis of LiFePO4 are single-step processes and are taking place in an autoclave at significantly lower temperature (200 deg. C) compared to the conventional solid-state method (multi-step and up to 800 deg. C). The use of inexpensive environmentally benign precursors offers a green manufacturing approach for a large scale production. These newly developed experimental procedures can also be extended to other phospho-olivine materials, such as LiCoPO4 and LiMnPO4. The material with the best electrochemical behavior (nanostructured LiFePO4 with carbon coating) was able to delive a stable 94% of the theoretically known capacity.
The complete consumption of the oceanic domain of a tectonic plate by subduction into the upper mantle results in continent subduction, although continental crust is typically of lower density than the upper mantle. Thus, the sites of former oceanic domains (named suture zones) are generally decorated with stratigraphic sequences deposited along continental passive margins that were metamorphosed under low-grade, high-pressure conditions, i.e., low temperature/depth ratios (< 15°C/km) with respect to geothermal gradients in tectonically stable regions. Throughout the Mesozoic and Cenozoic (i.e., since ca. 250 Ma), the Mediterranean realm was shaped by the closure of the Tethyan Ocean, which likely consisted in numerous oceanic domains and microcontinents. However, the exact number and position of Tethyan oceans and continents (i.e., the Tethyan palaeogeography) remains debated. This is particularly the case of Western and Central Anatolia, where a continental fragment was accreted to the southern composite margin of the Eurasia sometime between the Late Cretaceous and the early Cenozoic. The most frontal part of this microcontinent experienced subduction-related metamorphism around 85-80 Ma, and collision-related metamorphism affected more external parts around 35 Ma. This unsually-long period between subduction- and collision-related metamorphisms (ca. 50 Ma) in units ascribed to the same continental edge constitutes a crucial issue to address in order to unravel how Anatolia was assembled. The Afyon Zone is a tectono-sedimentary unit exposed south and structurally below the front high-pressure belt. It is composed of a Mesozoic sedimentary sequence deposited on top of a Precambrian to Palaeozoic continental substratum, which can be traced from Northwestern to southern Central Anatolia, along a possible Tethyan suture. Whereas the Afyon Zone was defined as a low-pressure metamorphic unit, high-pressure minerals (mainly Fe-Mg-carpholite in metasediments) were recently reported from its central part. These findings shattered previous conceptions on the tectono-metamorphic evolution of the Afyon Zone in particular, and of the entire region in general, and shed light on the necessity to revise the regional extent of subduction-related metamorphism by re-inspecting the petrology of poorly-studied metasediments. In this purpose, I re-evaluated the metamorphic evolution of the entire Afyon Zone starting from field observations. Low-grade, high-pressure mineral assemblages (Fe-Mg-carpholite and glaucophane) are reported throughout the unit. Well-preserved carpholite-chloritoid assemblages are useful to improve our understanding of mineral relations and transitions in the FeO-MgO-Al2O3-SiO2-H2O system during rocks’ travel down to depth (prograde metamorphism). Inspection of petrographic textures, minute variations in mineral composition and Mg-Fe distribution among carpholite-chloritoid assemblages documents multistage mineral growth, accompanied by a progressive enrichment in Mg, and strong element partitioning. Using an updated database of mineral thermodynamic properties, I modelled the pressure and temperature conditions that are consistent with textural and chemical observations. Carpholite-bearing assemblages in the Afyon Zone account for a temperature increase from 280 to 380°C between 0.9 and 1.1 GPa (equivalent to a depth of 30-35 km). In order to further constrain regional geodynamics, first radiometric ages were determined in close association with pressure-temperature estimates for the Afyon Zone, as well as two other tectono-sedimentary units from the same continental passive margin (the Ören and Kurudere-Nebiler Units from SW Anatolia). For age determination, I employed 40Ar-39Ar geochronology on white mica in carpholite-bearing rocks. For thermobarometry, a multi-equilibrium approach was used based on quartz-chlorite-mica and quartz-chlorite-chloritoid associations formed at the expense of carpholite-bearing assemblages, i.e., during the exhumation from the subduction zone. This combination allows deciphering the significance of the calculated radiometric ages in terms of metamorphic conditions. Results show that the Afyon Zone and the Ören Unit represent a latest Cretaceous high-pressure metamorphic belt, and the Kurudere-Nebiler Unit was affected by subduction-related metamorphism around 45 Ma and cooled down after collision-related metamorphism around 26 Ma. The results provided in the present thesis and from the literature allow better understanding continental amalgamation in Western Anatolia. It is shown that at least two distinct oceanic branches, whereas only one was previously considered, have closed during continuous north-dipping subduction between 92 and 45 Ma. Between 85-80 and 70-65 Ma, a narrow continental domain (including the Afyon Zone) was buried into a subduction zone within the northern oceanic strand. Parts of the subducted continent crust were exhumed while the upper oceanic plate was transported southwards. Subduction of underlying lithosphere persisted, leading to the closure of the southern oceanic branch and to subduct the front of a second continental domain (including the Kurudere-Nebiler Unit). This followed by a continental collisional stage characterized by the cease of subduction, crustal thicknening and the detachment of the subducting oceanic slab from the accreted continent lithosphere. The present study supports that in the late Mesozoic the East Mediterranean realm had a complex tectonic configuration similar to present Southeast Asia or the Caribbean, with multiple, coexisting oceanic basins, microcontinents and subduction zones.
Complete protection against flood risks by structural measures is impossible. Therefore flood prediction is important for flood risk management. Good explanatory power of flood models requires a meaningful representation of bio-physical processes. Therefore great interest exists to improve the process representation. Progress in hydrological process understanding is achieved through a learning cycle including critical assessment of an existing model for a given catchment as a first step. The assessment will highlight deficiencies of the model, from which useful additional data requirements are derived, giving a guideline for new measurements. These new measurements may in turn lead to improved process concepts. The improved process concepts are finally summarized in an updated hydrological model. In this thesis I demonstrate such a learning cycle, focusing on the advancement of model evaluation methods and more cost effective measurements. For a successful model evaluation, I propose that three questions should be answered: 1) when is a model reproducing observations in a satisfactory way? 2) If model results deviate, of what nature is the difference? And 3) what are most likely the relevant model components affecting these differences? To answer the first two questions, I developed a new method to assess the temporal dynamics of model performance (or TIGER - TIme series of Grouped Errors). This method is powerful in highlighting recurrent patterns of insufficient model behaviour for long simulation periods. I answered the third question with the analysis of the temporal dynamics of parameter sensitivity (TEDPAS). For calculating TEDPAS, an efficient method for sensitivity analysis is necessary. I used such an efficient method called Fourier Amplitude Sensitivity Test, which has a smart sampling scheme. Combining the two methods TIGER and TEDPAS provided a powerful tool for model assessment. With WaSiM-ETH applied to the Weisseritz catchment as a case study, I found insufficient process descriptions for the snow dynamics and for the recession during dry periods in late summer and fall. Focusing on snow dynamics, reasons for poor model performance can either be a poor representation of snow processes in the model, or poor data on snow cover, or both. To obtain an improved data set on snow cover, time series of snow height and temperatures were collected with a cost efficient method based on temperature measurements on multiple levels at each location. An algorithm was developed to simultaneously estimate snow height and cold content from these measurements. Both, snow height and cold content are relevant quantities for spring flood forecasting. Spatial variability was observed at the local and the catchment scale with an adjusted sampling design. At the local scale, samples were collected on two perpendicular transects of 60 m length and analysed with geostatistical methods. The range determined from fitted theoretical variograms was within the range of the sampling design for 80% of the plots. No patterns were found, that would explain the random variability and spatial correlation at the local scale. At the watershed scale, locations of the extensive field campaign were selected according to a stratified sample design to capture the combined effects of elevation, aspect and land use. The snow height is mainly affected by the plot elevation. The expected influence of aspect and land use was not observed. To better understand the deficiencies of the snow module in WaSiM-ETH, the same approach, a simple degree day model was checked for its capability to reproduce the data. The degree day model was capable to explain the temporal variability for plots with a continuous snow pack over the entire snow season, if parameters were estimated for single plots. However, processes described in the simple model are not sufficient to represent multiple accumulation-melt-cycles, as observed for the lower catchment. Thus, the combined spatio-temporal variability at the watershed scale is not captured by the model. Further tests on improved concepts for the representation of snow dynamics at the Weißeritz are required. From the data I suggest to include at least rain on snow and redistribution by wind as additional processes to better describe spatio-temporal variability. Alternatively an energy balance snow model could be tested. Overall, the proposed learning cycle is a useful framework for targeted model improvement. The advanced model diagnostics is valuable to identify model deficiencies and to guide field measurements. The additional data collected throughout this work helps to get a deepened understanding of the processes in the Weisseritz catchment.
Salty taste has evolved to maintain electrolyte homeostasis, serving as a detector for salt containing food. In rodents, salty taste involves at least two transduction mechanisms. One is sensitive to the drug amiloride and specific for Na+, involving epithelial sodium channel (ENaC). A second rodent transduction pathway, which is triggered by various cations, is amiloride insensitive and not almost understood to date. Studies in primates showed amiloride-sensitive as well as amiloride-insensitive gustatory responses to NaCl, implying a role of both salt taste transduction pathways in humans. However, sensory studies in humans point to largely amiloride-insensitive sodium taste perception. An involvement of ENaC in human sodium taste perception was not shown, so far. In this study, ENaC subunit protein and mRNA could be localized to human taste bud cells (TBC). Thus, basolateral αβγ-ENaC ion channels are likely in TBC of circumvallate papillae, possibly mediating basolateral sodium entry. Similarly, basolateral βγ-ENaC might play a role in fungiform TBC. Strikingly, δ-ENaC subunit was confined to taste bud pores of both papillae, likely mediating gustatory sodium entry in TBC, either apical or paracellular via tight junctions. However, regional separation of δ-ENaC and βγ-ENaC in fungiform and circumvallate TBC indicate the presence of unknown interaction partner necessary to assemble into functional ion channels. However, screening of a macaque taste tissue cDNA library did neither reveal polypeptides assembling into a functional cation channel by interaction with δ-ENaC or βγ-ENaC nor ENaC independent salt taste receptor candidates. Thus, ENaC subunits are likely involved in human taste transduction, while exact composition and identity of an amiloride (in)sensitive salt taste receptors remain unclear. Localization of δ-ENaC in human taste pores strongly suggests a role in human taste transduction. In contrast, δ-ENaC is classified as pseudogene Scnn1d in mouse. However, no experimental detected sequences are annotated, while evidences for parts of Scnn1d derived mRNAs exist. In order to elucidate if Scnn1d is possibly involved in rodent salt taste perception, Scnn1d was evaluated in this study to clarify if Scnn1d is a gene or a transcribed pseudogene in mice. Comparative mapping of human SCNN1D to mouse chromosome 4 revealed complete Scnn1d sequence as well as its pseudogenization by Mus specific endogenous retroviruses. Moreover, tissue specific transcription of unitary Scnn1d pseudogene was found in mouse vallate papillae, kidney and testis and led to identification of nine Scnn1d transcripts. In vitro translation experiments showed that Scnn1d transcripts are coding competent for short polypeptides, possibly present in vivo. However, no sodium channel like function or sodium channel modulating activity was evident for Scnn1d transcripts and/or derived polypeptides. Thus, an involvement of mouse δ-ENaC in sodium taste transduction is unlikely and points to species specific differences in salt taste transduction mechanisms.
Cognitive psychology is traditionally interested in the interaction of perception, cognition, and behavioral control. Investigating eye movements in reading constitutes a field of research in which the processes and interactions of these subsystems can be studied in a well-defined environment. Thereby, the following questions are pursued: How much information is visually perceived during a fixation, how is processing achieved and temporally coordinated from visual letter encoding to final sentence comprehension, and how do such processes reflect on behavior such as the control of the eyes’ movements during reading. Various theoretical models have been proposed to account for the specific eye-movement behavior in reading (for a review see Reichle, Rayner, & Pollatsek, 2003). Some models are based on the idea of shifting attention serially from one word to the next within the sentence whereas others propose distributed attention allocating processing resources to more than one word at a time. As attention is assumed to drive word recognition processes one major difference between these models is that word processing must either occur in strict serial order, or that word processing is achieved in parallel. In spite of this crucial difference in the time course of word processing, both model classes perform well on explaining many of the benchmark effects in reading. In fact, there seems to be not much empirical evidence that challenges the models to a point at which their basic assumptions could be falsified. One issue often perceived as being decisive in the debate on serial and parallel word processing is how not-yet-fixated words to the right of fixation affect eye movements. Specifically, evidence is discussed as to what spatial extent such parafoveal words are previewed and how this influences current and subsequent word processing. Four experiments investigated parafoveal processing close to the spatial limits of the perceptual span. The present work aims to go beyond mere existence proofs of previewing words at such spatial distances. Introducing a manipulation that dissociates the sources of long-range preview effects, benefits and costs of parafoveal processing can be investigated in a single analysis and the differing impact is tracked across a three-word target region. In addition, the same manipulation evaluates the role of oculomotor error as the cause of non-local distributed effects. In this respect, the results contribute to a better understanding of the time course of word processing inside the perceptual span and attention allocation during reading.
The Greenland Ice Sheet (GIS) contains enough water volume to raise global sea level by over 7 meters. It is a relic of past glacial climates that could be strongly affected by a warming world. Several studies have been performed to investigate the sensitivity of the ice sheet to changes in climate, but large uncertainties in its long-term response still exist. In this thesis, a new approach has been developed and applied to modeling the GIS response to climate change. The advantages compared to previous approaches are (i) that it can be applied over a wide range of climatic scenarios (both in the deep past and the future), (ii) that it includes the relevant feedback processes between the climate and the ice sheet and (iii) that it is highly computationally efficient, allowing simulations over very long timescales. The new regional energy-moisture balance model (REMBO) has been developed to model the climate and surface mass balance over Greenland and it represents an improvement compared to conventional approaches in modeling present-day conditions. Furthermore, the evolution of the GIS has been simulated over the last glacial cycle using an ensemble of model versions. The model performance has been validated against field observations of the present-day climate and surface mass balance, as well as paleo information from ice cores. The GIS contribution to sea level rise during the last interglacial is estimated to be between 0.5-4.1 m, consistent with previous estimates. The ensemble of model versions has been constrained to those that are consistent with the data, and a range of valid parameter values has been defined, allowing quantification of the uncertainty and sensitivity of the modeling approach. Using the constrained model ensemble, the sensitivity of the GIS to long-term climate change was investigated. It was found that the GIS exhibits hysteresis behavior (i.e., it is multi-stable under certain conditions), and that a temperature threshold exists above which the ice sheet transitions to an essentially ice-free state. The threshold in the global temperature is estimated to be in the range of 1.3-2.3°C above preindustrial conditions, significantly lower than previously believed. The timescale of total melt scales non-linearly with the overshoot above the temperature threshold, such that a 2°C anomaly causes the ice sheet to melt in ca. 50,000 years, but an anomaly of 6°C will melt the ice sheet in less than 4,000 years. The meltback of the ice sheet was found to become irreversible after a fraction of the ice sheet is already lost – but this level of irreversibility also depends on the temperature anomaly.
Diese Forschungsarbeit widmet sich der Analyse von Stimmungen und Erwartungen im System der Märkte mit Dynamic Partial Least Squares (DPLS) Modellen. Die Analyse komplexer Systeme mit umfangreichen Datensätzen und die Erkennung relevanter Muster erfordern die Verwendung moderner statistischer Verfahren. DPLS-Modelle, eine Variante der Strukturgleichungs-modelle mit Latenten Variablen, werden methodisch erweitert, um mehrere zeitliche Verzögerungsstufen gleichzeitig modellieren zu können. Die ökonometrischen Modelle versuchen, zahlreiche latente Einflussfaktoren und ihre verdeckten Beziehungen zu identifizieren. Als Daten werden rund 80 Indikatoren verwendet von Januar 1991 bis Juni 2010, um Stimmungen, Erwartungen und wirtschaftlich relevanten Größen zu operationalisieren und die Zusammenhänge detailliert zu untersuchen. Die Modellergebnisse zeigen, dass Stimmungen, also die Einschätzung der aktuellen wirtschaftlichen Lage, deutlich mit wirtschaftlichen Größen zusammenhängen, unter anderem mit Investitionen, Auftragseingängen oder Aktienmarktentwicklungen. Die Erwartungen, also die Einschätzung der zukünftigen Entwicklung, bieten eine mittlere bis schwache Prognosekraft für sechs bis maximal achtzehn Monate in die Zukunft. Für kürzere Zeiträume von sechs Monaten sind Stimmungen und Erwartungen die besten verfügbaren Prognosevariablen. Die Analyse der Modellabweichungen erlaubt Rückschlüsse auf wirtschaftstheoretische Konzepte, wie Rationalität der Erwartungen. Auffällig sind scheinbare Phasen der systematischen Über- und Unterbewertungen der aktuellen Situation oder zukünftigen Entwicklung, insbesondere vor und nach Krisensituationen. Die Ergebnisse dieser Arbeit geben somit einen erweiterten Einblick in die empirischen Zusammenhänge subjektiver Einschätzungen mit realen wirtschaftlichen Größen.
Functional analyses of microtubule and centrosome-associated proteins in Dictyostelium discoideum
(2011)
Understanding the role of microtubule-associated proteins is the key to understand the complex mechanisms regulating microtubule dynamics. This study employs the model system Dictyostelium discoideum to elucidate the role of the microtubule-associated protein TACC (Transforming acidic coiled-coil) in promoting microtubule growth and stability. Dictyostelium TACC was localized at the centrosome throughout the entire cell cycle. The protein was also detected at microtubule plus ends, however, unexpectedly only during interphase but not during mitosis. The same cell cycle-dependent localization pattern was observed for CP224, the Dictyostelium XMAP215 homologue. These ubiquitous MAPs have been found to interact with TACC proteins directly and are known to act as microtubule polymerases and nucleators. This work shows for the first time in vivo that both a TACC and XMAP215 family protein can differentially localize to microtubule plus ends during interphase and mitosis. RNAi knockdown mutants revealed that TACC promotes microtubule growth during interphase and is essential for proper formation of astral microtubules in mitosis. In many organisms, impaired microtubule stability upon TACC depletion was explained by the failure to efficiently recruit the TACC-binding XMAP215 protein to centrosomes or spindle poles. By contrast, fluorescence recovery after photobleaching (FRAP) analyses conducted in this study demonstrate that in Dictyostelium recruitment of CP224 to centrosomes or spindle poles is not perturbed in the absence of TACC. Instead, CP224 could no longer be detected at the tips of microtubules in TACC mutant cells. This finding demonstrates for the first time in vivo that a TACC protein is essential for the association of an XMAP215 protein with microtubule plus ends. The GFP-TACC strains generated in this work also turned out to be a valuable tool to study the unusual microtubule dynamics in Dictyostelium. Here, microtubules exhibit a high degree of lateral bending movements but, in contrast most other organisms, they do not obviously undergo any growth or shrinkage events during interphase. Despite of that they are affected by microtubuledepolymerizing drugs such as thiabendazole or nocodazol which are thought to act solely on dynamic microtubules. Employing 5D-fluorescence live cell microscopy and FRAP analyses this study suggests Dictyostelium microtubules to be dynamic only in the periphery, while they are stable at the centrosome. In the recent years, the identification of yet unknown components of the Dictyostelium centrosome has made tremendous progress. A proteomic approach previously conducted by our group disclosed several uncharacterized candidate proteins, which remained to be verified as genuine centrosomal components. The second part of this study focuses on the investigation of three such candidate proteins, Cenp68, CP103 and the putative spindle assembly checkpoint protein Mad1. While a GFP-CP103 fusion protein could clearly be localized to isolated centrosomes that are free of microtubules, Cenp68 and Mad1 were found to associate with the centromeres and kinetochores, respectively. The investigation of Cenp68 included the generation of a polyclonal anti-Cenp68 antibody, the screening for interacting proteins and the generation of knockout mutants which, however, did not display any obvious phenotype. Yet, Cenp68 has turned out as a very useful marker to study centromere dynamics during the entire cell cycle. During mitosis, GFP-Mad1 localization strongly resembled the behavior of other Mad1 proteins, suggesting the existence of a yet uncharacterized spindle assembly checkpoint in Dictyostelium.
Mechanistische und kinetische Untersuchungen von komplexen zellulären Prozessen in situ sind in den vergangenen Jahren durch den Einsatz photoaktivierbarer Biomoleküle, sogenannter caged Verbindungen, möglich geworden. Bei den caged Verbindungen handelt es sich um photolabile inaktive Derivate von biologisch aktiven Molekülen, aus denen durch ultraviolettes Licht mit Hilfe einer photochemischen Reaktion die natürliche, biologisch aktive Substanz schnell freigesetzt werden kann. Im Rahmen der vorliegenden Arbeit wurden caged Verbindungen von den Neurotransmittern Octopamin und Dopamin, dem Octopamin-Antagonist Epinastin, den Proteinsyntheseinhibitoren Emetin und Anisomycin, dem Protonophor CCCP und dem Riechstoff Bourgeonal hergestellt. Zur Synthese dieser caged Verbindungen wurden sowohl bekannte als auch verschiedene im Rahmen dieser Arbeit neu entwickelte photolabile Schutzgruppen mit einem (Cumarin-4-yl)methyl- bzw. einem 2-Nitrobenzyl-Gerüst eingesetzt. Entsprechende Syntheseverfahren wurden erarbeitet. Anschließend erfolgte eine umfassende physikalisch-chemische sowie photochemische Charakterisierung der erhaltenen caged Verbindungen. Dabei wurde besonders auf gute Löslichkeit in Wasser bei physiologischer Ionenstärke, schnelle und effiziente Photoreaktivität, hohe Extinktion bei Wellenlängen von 350-430 nm und gute solvolytische Stabilität bei geringer Toxizität der freigesetzten Schutzgruppe geachtet. Ein Schwerpunkt bei der photochemischen Charakterisierung bildeten die Untersuchungen zur Quantifizierung der 2-Photonen-Anregung, uncaging action cross-sections, der Cumarinylmethyl-caged Verbindungen, aufgrund ihrer Bedeutung für die Photofreisetzung von Biomolekülen, da die gleichzeitige Absorption von 2 IR-Photonen eine höhere dreidimensionale Auflösung und eine wesentlich tiefere Gewebepenetration erlaubt. Mit Hilfe von Kooperationspartnern wurden zeitaufgelösten Fluoreszenz- und IR-Messungen an verschiedenen (Cumarin-4-yl)methoxycarbonyl-caged Modellverbindungen durchgeführt, mit denen die Geschwindigkeitskonstanten k1 und kdecarb des Photolysemechanismus ermittelt wurde. Am Ende folgten die Anwendungserprobungen ausgewählter caged Verbindungen in einem Translationsassay bzw. in Zelluntersuchungen.
Darmkrebs ist die zweithäufigste malignombedingte Todesursache in den westlichen Industrieländern. Durch eine frühzeitige Diagnose besteht jedoch eine hohe Chance auf Heilung. Der Goldstandard zur Darmkrebsfrüherkennung ist gegenwärtig die Koloskopie. Eine Darmspiegelung ist jedoch invasiv und mit Unannehmlichkeiten für den Patienten verbunden. Die Akzeptanz in der Bevölkerung ist daher gering. Ziel des BMBF- Projektes „Entwicklung eines nichtinvasiven Nachweissystems zur Früherkennung von humanem Darmkrebs“, in dessen Rahmen diese Arbeit entstand, ist die Bereitstellung eines nichtinvasiven Nachweisverfahrens zur Darmkrebsfrüherkennung. Der Nachweis soll über die Detektion von aus neoplastischen Zellen stammender DNA in Stuhl erfolgen. Die Entartung dieser Zellen beruht auf Veränderungen im Erbgut, welches unter anderem Mutationen sind. Im ersten Teil des BMBF-Projektes wurde ein Set von Mutationen zusammengestellt, welches eine hohe Sensitivität für Vorstufen von Darmkrebs aufweist. Ziel dieser Arbeit war es, eine Nachweismethode für die zuvor identifizierten Punktmutationen zu entwickeln. Das Nachweisverfahren musste dabei unempfindlich gegen einen hohen Hintergrund nichtmutierter DNA sein, da im Stuhl geringe Mengen DNA aus neoplastischen Zellen bei einem hohen Hintergrund von DNA aus gesunden Zellen vorliegen. Hierzu wurden Plasmidmodellsysteme für die aus dem Marker-Set stammenden Genfragmente BRAF und dessen Mutante V600E, CTNNB1 und T41I, T41A, S45P und K-ras G12C hergestellt. Mit Hilfe dieser Plasmidmodellsysteme wurde dann das Nachweissystem entwickelt. Der entscheidende Schritt für die Detektion von Punktmutationen bei hohem Wildtypüberschuss ist eine vorhergehende Anreicherung. In der vorliegenden Arbeit wurde dazu die Methode der LNA-clamp-PCR (locked nucleic acid) etabliert. Die Bewertung der erzielten Anreicherung erfolgte über das relative Detektionslimit. Zur Bestimmung des Detektionslimits wurde die Schmelzkurvenanalyse von Hybridisierungssonden eingesetzt; diese wurde im Rahmen dieser Arbeit für die drei oben genannten Genfragmente und ihre Mutanten entwickelt. Die LNA-clamp-PCR wird in Anwesenheit eines LNA-Blockers durchgeführt. Das Nukleotidanalogon LNA weist im Vergleich zu DNA eine erhöhte Affinität zu komplementären DNA-Strängen auf. Gleichzeitig kommt es bei Anwesenheit einer Basenfehlpaarung zu einer größeren Destabilisierung der Bindung. Als Blocker werden kurze LNA-DNA-Hybridoligonukleotide eingesetzt, die den mutierten Sequenzbereich überspannen und selbst der Wildtypsequenz entsprechen. Durch Bindung an die Wildtypsequenz wird deren Amplifikation während der PCR verhindert (clamp = arretieren, festklemmen). Der Blocker selbst wird dabei nicht verlängert. Der Blocker bindet unter optimalen Bedingungen jedoch nicht an die mutierte Sequenz. Die Mutante wird daher ungehindert amplifiziert und somit gegenüber dem Wildtyp-Fragment angereichert. Die Position des Blockers kann im Bindungsbereich eines der Primer sein und hier dessen Hybridisierung an dem Wildtyp-Fragment verhindern oder zwischen den beiden Primern liegen und so die Synthese durch die Polymerase inhibieren. Die Anwendbarkeit beider Systeme wurde in dieser Arbeit gezeigt. Die LNA-clamp-PCR mit Primerblocker wurde für BRAF etabliert. Es wurde ein Detektionslimit von mindestens 1:100 erzielt. Die LNA-clamp-PCR mit Amplifikationsblocker wurde erfolgreich für BRAF, K-ras und CTNNB1: T41I, T41A mit einem Detektionslimit von 1:1000 bis 1:10 000 entwickelt. In Stuhlproben liegt DNA aus neoplastischen Zellen nach Literaturangaben zu einem Anteil von 1% bis 0,1% vor. Die LNA-clamp-PCR weist also mit Amplifikationsblockern ein ausreichend hohes Detektionslimit für die Analyse von Stuhlproben auf. Durch die erfolgreiche Etablierung der Methode auf drei verschiedenen Genfragmenten und vier unterschiedlichen Punktmutationen konnte deren universelle Einsetzbarkeit gezeigt werden. Für die Ausweitung der LNA-clamp-PCR auf die übrigen Mutationen des Marker-Sets wurden Richtlinien ausgearbeitet und die Blockereffizienz als Kennzahl eingeführt. Die LNA-clamp-PCR ist ein schnelles, kostengünstiges Verfahren, welches einen geringen Arbeitsaufwand erfordert und wenig fehleranfällig ist. Sie ist somit ein geeignetes Anreicherungsverfahren für Punktmutationen in einem diagnostischen System zur Darmkrebsfrüherkennung. Darüber hinaus kann die LNA-clamp-PCR auch in anderen Bereichen, in denen die Detektion von Punktmutationen in einem hohen Wildtyphintergrund erforderlich ist, eingesetzt werden.
The Casimir-Polder interaction between a single neutral atom and a nearby surface, arising from the (quantum and thermal) fluctuations of the electromagnetic field, is a cornerstone of cavity quantum electrodynamics (cQED), and theoretically well established. Recently, Bose-Einstein condensates (BECs) of ultracold atoms have been used to test the predictions of cQED. The purpose of the present thesis is to upgrade single-atom cQED with the many-body theory needed to describe trapped atomic BECs. Tools and methods are developed in a second-quantized picture that treats atom and photon fields on the same footing. We formulate a diagrammatic expansion using correlation functions for both the electromagnetic field and the atomic system. The formalism is applied to investigate, for BECs trapped near surfaces, dispersion interactions of the van der Waals-Casimir-Polder type, and the Bosonic stimulation in spontaneous decay of excited atomic states. We also discuss a phononic Casimir effect, which arises from the quantum fluctuations in an interacting BEC.
Supermassive black holes are a fundamental component of the universe in general and of galaxies in particular. Almost every massive galaxy harbours a supermassive black hole (SMBH) in its center. Furthermore, there is a close connection between the growth of the SMBH and the evolution of its host galaxy, manifested in the relationship between the mass of the black hole and various properties of the galaxy's spheroid component, like its stellar velocity dispersion, luminosity or mass. Understanding this relationship and the growth of SMBHs is essential for our picture of galaxy formation and evolution. In this thesis, I make several contributions to improve our knowledge on the census of SMBHs and on the coevolution of black holes and galaxies. The first route I follow on this road is to obtain a complete census of the black hole population and its properties. Here, I focus particularly on active black holes, observable as Active Galactic Nuclei (AGN) or quasars. These are found in large surveys of the sky. In this thesis, I use one of these surveys, the Hamburg/ESO survey (HES), to study the AGN population in the local volume (z~0). The demographics of AGN are traditionally represented by the AGN luminosity function, the distribution function of AGN at a given luminosity. I determined the local (z<0.3) optical luminosity function of so-called type 1 AGN, based on the broad band B_J magnitudes and AGN broad Halpha emission line luminosities, free of contamination from the host galaxy. I combined this result with fainter data from the Sloan Digital Sky Survey (SDSS) and constructed the best current optical AGN luminosity function at z~0. The comparison of the luminosity function with higher redshifts supports the current notion of 'AGN downsizing', i.e. the space density of the most luminous AGN peaks at higher redshifts and the space density of less luminous AGN peaks at lower redshifts. However, the AGN luminosity function does not reveal the full picture of active black hole demographics. This requires knowledge of the physical quantities, foremost the black hole mass and the accretion rate of the black hole, and the respective distribution functions, the active black hole mass function and the Eddington ratio distribution function. I developed a method for an unbiased estimate of these two distribution functions, employing a maximum likelihood technique and fully account for the selection function. I used this method to determine the active black hole mass function and the Eddington ratio distribution function for the local universe from the HES. I found a wide intrinsic distribution of black hole accretion rates and black hole masses. The comparison of the local active black hole mass function with the local total black hole mass function reveals evidence for 'AGN downsizing', in the sense that in the local universe the most massive black holes are in a less active stage then lower mass black holes. The second route I follow is a study of redshift evolution in the black hole-galaxy relations. While theoretical models can in general explain the existence of these relations, their redshift evolution puts strong constraints on these models. Observational studies on the black hole-galaxy relations naturally suffer from selection effects. These can potentially bias the conclusions inferred from the observations, if they are not taken into account. I investigated the issue of selection effects on type 1 AGN samples in detail and discuss various sources of bias, e.g. an AGN luminosity bias, an active fraction bias and an AGN evolution bias. If the selection function of the observational sample and the underlying distribution functions are known, it is possible to correct for this bias. I present a fitting method to obtain an unbiased estimate of the intrinsic black hole-galaxy relations from samples that are affected by selection effects. Third, I try to improve our census of dormant black holes and the determination of their masses. One of the most important techniques to determine the black hole mass in quiescent galaxies is via stellar dynamical modeling. This method employs photometric and kinematic observations of the galaxy and infers the gravitational potential from the stellar orbits. This method can reveal the presence of the black hole and give its mass, if the sphere of the black hole's gravitational influence is spatially resolved. However, usually the presence of a dark matter halo is ignored in the dynamical modeling, potentially causing a bias on the determined black hole mass. I ran dynamical models for a sample of 12 galaxies, including a dark matter halo. For galaxies for which the black hole's sphere of influence is not well resolved, I found that the black hole mass is systematically underestimated when the dark matter halo is ignored, while there is almost no effect for galaxies with well resolved sphere of influence.
In this thesis entitled “Saccharide Recognition - Boronic acids as Receptors in Polymeric Networks” different aspects of boronic acid synthesis, their analysis and incorporation or attachment to different polymeric networks and characterisation thereof were investigated. The following key aspects were considered: • Provision of a variety of different characterised arylboronic acids and benzoboroxoles • Attachment of certain derivatives to nanoparticles and the characterisation of saccharide binding by means of isothermal titration calorimetry and displacement assay (ARS) to enhance the association constant to saccharides at pH 7.4 • Enhancement of selectivity in polymeric systems by means of molecular imprinting using fructose as template and a polymerisable benzoboroxole as functional monomer for the recognition at pH 7.4 (Joined by a diploma thesis of F. Grüneberger) • Development of biomimetic saccharide structures and the development of saccharide (especially glucose and fructose) binding MIPs by using these structures as template molecules. In the first part of the thesis different arylboronic acid derivatives were synthesised and their binding to glucose or fructose was investigated by means of isothermal titration calorimetry (ITC). It could be derived, which is in parallel to the literature, that derivatives bearing a methylhydroxyl-group in ortho-position to the boron (benzoboroxole) exhibit in most cases a two-fold higher association constant compared to the corresponding phenylboronic acid derivative. To gain a deeper understanding NMR spectroscopy and mass spectrometry with the benzoboroxole and glucose or fructose was performed. It could be shown that the exchange rate in terms of NMR time scale is quite slow since in titration experiments new peaks appeared. Via mass spectrometry of a mixture between benzoboroxole and glucose or fructose, different binding stoichiometries could be detected showing that the binding of saccharides is comparable with their binding to phenylboronic acid. In addition, the use of Alizarin Red S as an electrochemical reporter was described for the first time to monitor the saccharide binding to arylboronic acids not only with spectroscopy. Here, the redox behaviour and the displacement were recorded by cyclic voltammograms. In the second part different applications of boronic acids in polymeric networks were investigated. The attachment of benzoboroxoles to nanoparticles was investigated and monitored by means of isothermal titration calorimetry and a colourimetric assay with Alizarin Red S as the report dye. The investigations by isothermal titration calorimetry compared the fructose binding of arylboronic acids and benzoboroxoles coupled to these nanoparticles and “free” in solution. It could be shown that the attached derivatives showed a higher binding constant due to an increasing entropy term. This states for possible multivalent binding combined with a higher water release. Since ITC could not characterise the binding of glucose to these nanoparticles due to experimental restrictions the glucose binding at pH 7.4 was shown with ARS. Here, the displacement of ARS by fructose and also glucose could be followed and consequently these nanoparticles can be used for saccharide determination. Within this investigation also the temperature stability of these nanoparticles was examined and after normal sterilisation procedures (121°C, 20 min.) the binding behaviour was still unchanged. To target the selectivity of the used polymeric networks, molecular imprinting was used as a technique for creating artificial binding pockets on a molecular scale. As functional monomer 3-methacrylamidobenzoboroxole was introduced for the recognition of fructose. In comparison to polymers prepared with vinylphenylboronic acid the benzoboroxole containing polymer had a stronger binding at pH 7.4 which was shown for the first time. In addition, another imprinted polymer was synthesised especially for the recognition of glucose and fructose employing biomimetic saccharide analogues as template molecule. The advantage to use the saccharide analogues is the defined template-functional monomer complex during the polymerisation which is not the case, for example, for glucose-boronic acid interaction. The biomimetic character was proven through structural superimposition of crystal structures of the analogues with already described crystal structures of boronic acid esters of glucose and fructose. A molecularly imprinted polymer was synthesised with vinylphenylboronic acid as the functional monomer to show that both glucose and fructose are able to bind to the polymer which was predicted by the structural similarity of the analogues. The major scientific contributions of this thesis are • the determination of binding constants for some, not yet reported saccharide – boronic acid / benzoboroxole pairs, • the use of ARS as electrochemical reporter for saccharide detection, • the thermodynamic characterisation of a saccharide binding nanoparticle system containing benzoboroxole and functioning at pH 7.4, • the use of a polymerisable benzoboroxole as functional monomer for saccharide recognition in neutral, aqueous environments • and the synthesis and utilisation of biomimetic saccharide analogues as template molecules especially for the development of a glucose binding MIP.
A phagocyte-specific Irf8 gene enhancer establishes early conventional dendritic cell commitment
(2011)
Haematopoietic development is a complex process that is strictly hierarchically organized. Here, the phagocyte lineages are a very heterogeneous cell compartment with specialized functions in innate immunity and induction of adaptive immune responses. Their generation from a common precursor must be tightly controlled. Interference within lineage formation programs for example by mutation or change in expression levels of transcription factors (TF) is causative to leukaemia. However, the molecular mechanisms driving specification into distinct phagocytes remain poorly understood. In the present study I identify the transcription factor Interferon Regulatory Factor 8 (IRF8) as the specification factor of dendritic cell (DC) commitment in early phagocyte precursors. Employing an IRF8 reporter mouse, I showed the distinct Irf8 expression in haematopoietic lineage diversification and isolated a novel bone marrow resident progenitor which selectively differentiates into CD8α+ conventional dendritic cells (cDCs) in vivo. This progenitor strictly depends on Irf8 expression to properly establish its transcriptional DC program while suppressing a lineage-inappropriate neutrophile program. Moreover, I demonstrated that Irf8 expression during this cDC commitment-step depends on a newly discovered myeloid-specific cis-enhancer which is controlled by the haematopoietic transcription factors PU.1 and RUNX1. Interference with their binding leads to abrogation of Irf8 expression, subsequently to disturbed cell fate decisions, demonstrating the importance of these factors for proper phagocyte cell development. Collectively, these data delineate a transcriptional program establishing cDC fate choice with IRF8 in its center.
Mathematical modeling of biological phenomena has experienced increasing interest since new high-throughput technologies give access to growing amounts of molecular data. These modeling approaches are especially able to test hypotheses which are not yet experimentally accessible or guide an experimental setup. One particular attempt investigates the evolutionary dynamics responsible for today's composition of organisms. Computer simulations either propose an evolutionary mechanism and thus reproduce a recent finding or rebuild an evolutionary process in order to learn about its mechanism. The quest for evolutionary fingerprints in metabolic and gene-coexpression networks is the central topic of this cumulative thesis based on four published articles. An understanding of the actual origin of life will probably remain an insoluble problem. However, one can argue that after a first simple metabolism has evolved, the further evolution of metabolism occurred in parallel with the evolution of the sequences of the catalyzing enzymes. Indications of such a coevolution can be found when correlating the change in sequence between two enzymes with their distance on the metabolic network which is obtained from the KEGG database. We observe that there exists a small but significant correlation primarily on nearest neighbors. This indicates that enzymes catalyzing subsequent reactions tend to be descended from the same precursor. Since this correlation is relatively small one can at least assume that, if new enzymes are no "genetic children" of the previous enzymes, they certainly be descended from any of the already existing ones. Following this hypothesis, we introduce a model of enzyme-pathway coevolution. By iteratively adding enzymes, this model explores the metabolic network in a manner similar to diffusion. With implementation of an Gillespie-like algorithm we are able to introduce a tunable parameter that controls the weight of sequence similarity when choosing a new enzyme. Furthermore, this method also defines a time difference between successive evolutionary innovations in terms of a new enzyme. Overall, these simulations generate putative time-courses of the evolutionary walk on the metabolic network. By a time-series analysis, we find that the acquisition of new enzymes appears in bursts which are pronounced when the influence of the sequence similarity is higher. This behavior strongly resembles punctuated equilibrium which denotes the observation that new species tend to appear in bursts as well rather than in a gradual manner. Thus, our model helps to establish a better understanding of punctuated equilibrium giving a potential description at molecular level. From the time-courses we also extract a tentative order of new enzymes, metabolites, and even organisms. The consistence of this order with previous findings provides evidence for the validity of our approach. While the sequence of a gene is actually subject to mutations, its expression profile might also indirectly change through the evolutionary events in the cellular interplay. Gene coexpression data is simply accessible by microarray experiments and commonly illustrated using coexpression networks where genes are nodes and get linked once they show a significant coexpression. Since the large number of genes makes an illustration of the entire coexpression network difficult, clustering helps to show the network on a metalevel. Various clustering techniques already exist. However, we introduce a novel one which maintains control of the cluster sizes and thus assures proper visual inspection. An application of the method on Arabidopsis thaliana reveals that genes causing a severe phenotype often show a functional uniqueness in their network vicinity. This leads to 20 genes of so far unknown phenotype which are however suggested to be essential for plant growth. Of these, six indeed provoke such a severe phenotype, shown by mutant analysis. By an inspection of the degree distribution of the A.thaliana coexpression network, we identified two characteristics. The distribution deviates from the frequently observed power-law by a sharp truncation which follows after an over-representation of highly connected nodes. For a better understanding, we developed an evolutionary model which mimics the growth of a coexpression network by gene duplication which underlies a strong selection criterion, and slight mutational changes in the expression profile. Despite the simplicity of our assumption, we can reproduce the observed properties in A.thaliana as well as in E.coli and S.cerevisiae. The over-representation of high-degree nodes could be identified with mutually well connected genes of similar functional families: zinc fingers (PF00096), flagella, and ribosomes respectively. In conclusion, these four manuscripts demonstrate the usefulness of mathematical models and statistical tools as a source of new biological insight. While the clustering approach of gene coexpression data leads to the phenotypic characterization of so far unknown genes and thus supports genome annotation, our model approaches offer explanations for observed properties of the coexpression network and furthermore substantiate punctuated equilibrium as an evolutionary process by a deeper understanding of an underlying molecular mechanism.
Eumelanin ist ein Fluorophor mit teilweise recht ungewöhnlichen spektralen Eigenschaften. Unter anderem konnten in früheren Veröffentlichungen Unterschiede zwischen dem 1- und 2-photonen-angeregtem Fluoreszenzspektrum beobachtet werden, weshalb im nichtlinearen Anregungsfall ein schrittweiser Anregungsprozess vermutet wurde. Um diese und weitere optische Eigenschaften des Eumelanins besser zu verstehen, wurden in der vorliegenden Arbeit vielfältige messmethodische Ansätze der linearen und nichtlinearen Optik an synthetischem Eumelanin in 0,1M NaOH verfolgt. Aus den Ergebnissen wurde ein Modell abgeleitet, welches die beobachteten photonischen Eigenschaften konsistent beschreibt. In diesem kaskadierten Zustandsmodell (Kaskaden-Modell) wird die aufgenommene Photonenenergie schrittweise von Anregungszuständen hoher Übergangsenergien zu Anregungszuständen niedrigerer Übergangsenergien transferiert. Messungen der transienten Absorption ergaben dominante Anteile mit kurzen Lebensdauern im ps-Bereich und ließen damit auf eine hohe Relaxationsgeschwindigkeit entlang der Kaskade schließen. Durch Untersuchung der nichtlinear angeregten Fluoreszenz von verschieden großen Eumelanin-Aggregaten konnte gezeigt werden, dass Unterschiede zwischen dem linear und nichtlinear angeregten Fluoreszenzspektrum nicht nur durch einen schrittweisen Anregungsprozess bei nichtlinearer Anregung sondern auch durch Unterschiede in den Verhältnissen der Quantenausbeuten zwischen kleinen und großen Aggregaten beim Wechsel von linearer zu nichtlinearer Anregung begründet sein können. Durch Bestimmung des Anregungswirkungsquerschnitts und der Anregungspulsdauer-Abhängigkeit der nichtlinear angeregten Fluoreszenz von Eumelanin konnte jedoch ein schrittweiser 2-Photonen-Anregungsprozess über einen Zwischenzustand mit Lebendsdauern im ps-Bereich nachgewiesen werden.
Dryland vulnerability : typical patterns and dynamics in support of vulnerability reduction efforts
(2011)
The pronounced constraints on ecosystem functioning and human livelihoods in drylands are frequently exacerbated by natural and socio-economic stresses, including weather extremes and inequitable trade conditions. Therefore, a better understanding of the relation between these stresses and the socio-ecological systems is important for advancing dryland development. The concept of vulnerability as applied in this dissertation describes this relation as encompassing the exposure to climate, market and other stresses as well as the sensitivity of the systems to these stresses and their capacity to adapt. With regard to the interest in improving environmental and living conditions in drylands, this dissertation aims at a meaningful generalisation of heterogeneous vulnerability situations. A pattern recognition approach based on clustering revealed typical vulnerability-creating mechanisms at global and local scales. One study presents the first analysis of dryland vulnerability with global coverage at a sub-national resolution. The cluster analysis resulted in seven typical patterns of vulnerability according to quantitative indication of poverty, water stress, soil degradation, natural agro-constraints and isolation. Independent case studies served to validate the identified patterns and to prove the transferability of vulnerability-reducing approaches. Due to their worldwide coverage, the global results allow the evaluation of a specific system’s vulnerability in its wider context, even in poorly-documented areas. Moreover, climate vulnerability of smallholders was investigated with regard to their food security in the Peruvian Altiplano. Four typical groups of households were identified in this local dryland context using indicators for harvest failure risk, agricultural resources, education and non-agricultural income. An elaborate validation relying on independently acquired information demonstrated the clear correlation between weather-related damages and the identified clusters. It also showed that household-specific causes of vulnerability were consistent with the mechanisms implied by the corresponding patterns. The synthesis of the local study provides valuable insights into the tailoring of interventions that reflect the heterogeneity within the social group of smallholders. The conditions necessary to identify typical vulnerability patterns were summarised in five methodological steps. They aim to motivate and to facilitate the application of the selected pattern recognition approach in future vulnerability analyses. The five steps outline the elicitation of relevant cause-effect hypotheses and the quantitative indication of mechanisms as well as an evaluation of robustness, a validation and a ranking of the identified patterns. The precise definition of the hypotheses is essential to appropriately quantify the basic processes as well as to consistently interpret, validate and rank the clusters. In particular, the five steps reflect scale-dependent opportunities, such as the outcome-oriented aspect of validation in the local study. Furthermore, the clusters identified in Northeast Brazil were assessed in the light of important endogenous processes in the smallholder systems which dominate this region. In order to capture these processes, a qualitative dynamic model was developed using generalised rules of labour allocation, yield extraction, budget constitution and the dynamics of natural and technological resources. The model resulted in a cyclic trajectory encompassing four states with differing degree of criticality. The joint assessment revealed aggravating conditions in major parts of the study region due to the overuse of natural resources and the potential for impoverishment. The changes in vulnerability-creating mechanisms identified in Northeast Brazil are well-suited to informing local adjustments to large-scale intervention programmes, such as “Avança Brasil”. Overall, the categorisation of a limited number of typical patterns and dynamics presents an efficient approach to improving our understanding of dryland vulnerability. Appropriate decision-making for sustainable dryland development through vulnerability reduction can be significantly enhanced by pattern-specific entry points combined with insights into changing hotspots of vulnerability and the transferability of successful adaptation strategies.
Business process models are used within a range of organizational initiatives, where every stakeholder has a unique perspective on a process and demands the respective model. As a consequence, multiple process models capturing the very same business process coexist. Keeping such models in sync is a challenge within an ever changing business environment: once a process is changed, all its models have to be updated. Due to a large number of models and their complex relations, model maintenance becomes error-prone and expensive. Against this background, business process model abstraction emerged as an operation reducing the number of stored process models and facilitating model management. Business process model abstraction is an operation preserving essential process properties and leaving out insignificant details in order to retain information relevant for a particular purpose. Process model abstraction has been addressed by several researchers. The focus of their studies has been on particular use cases and model transformations supporting these use cases. This thesis systematically approaches the problem of business process model abstraction shaping the outcome into a framework. We investigate the current industry demand in abstraction summarizing it in a catalog of business process model abstraction use cases. The thesis focuses on one prominent use case where the user demands a model with coarse-grained activities and overall process ordering constraints. We develop model transformations that support this use case starting with the transformations based on process model structure analysis. Further, abstraction methods considering the semantics of process model elements are investigated. First, we suggest how semantically related activities can be discovered in process models-a barely researched challenge. The thesis validates the designed abstraction methods against sets of industrial process models and discusses the method implementation aspects. Second, we develop a novel model transformation, which combined with the related activity discovery allows flexible non-hierarchical abstraction. In this way this thesis advocates novel model transformations that facilitate business process model management and provides the foundations for innovative tool support.
Does it have to be trees? : Data-driven dependency parsing with incomplete and noisy training data
(2011)
We present a novel approach to training data-driven dependency parsers on incomplete annotations. Our parsers are simple modifications of two well-known dependency parsers, the transition-based Malt parser and the graph-based MST parser. While previous work on parsing with incomplete data has typically couched the task in frameworks of unsupervised or semi-supervised machine learning, we essentially treat it as a supervised problem. In particular, we propose what we call agnostic parsers which hide all fragmentation in the training data from their supervised components. We present experimental results with training data that was obtained by means of annotation projection. Annotation projection is a resource-lean technique which allows us to transfer annotations from one language to another within a parallel corpus. However, the output tends to be noisy and incomplete due to cross-lingual non-parallelism and error-prone word alignments. This makes the projected annotations a suitable test bed for our fragment parsers. Our results show that (i) dependency parsers trained on large amounts of projected annotations achieve higher accuracy than the direct projections, and that (ii) our agnostic fragment parsers perform roughly on a par with the original parsers which are trained only on strictly filtered, complete trees. Finally, (iii) when our fragment parsers are trained on artificially fragmented but otherwise gold standard dependencies, the performance loss is moderate even with up to 50% of all edges removed.
Diese von der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität Potsdam angenommene Dissertation thematisiert die Selbstorganisation von Migranten in eigenen Sportvereinen und auf anderen Ebenen des Vereinssports. Sie beruht auf den Ergebnissen eines vom Bundesinstitut für Sportwissenschaft geförderten Forschungsprojekts der Universität Potsdam. Mit mehreren hundert Migrantensportvereinen in ganz Deutschland stellt der Sport einen der wichtigsten Gesellschaftsbereiche für die Selbstorganisation von Zuwanderern dar. Doch obwohl sich Migranten in der Bundesrepublik schon seit den 1960er Jahren in eigenen Sportvereinen zusammenschließen, ist das Thema zuvor noch nicht umfassend untersucht worden. Um diese Forschungslücke zu schließen, stellt die Arbeit Basisinformationen über verschiedene Organisationsformen, typische Entstehungszusammenhänge, spezifische Problemfelder sowie wiederkehrende Konfliktmuster bereit und präsentiert darauf aufbauende Annahmen über die Wirkungen der sportbezogenen Selbstorganisation auf das Verhältnis von Einheimischen und Zuwanderern im Sport, auf die allgemeinen interethnischen Beziehungen und auf den gesamtgesellschaftlichen Integrationsprozess. Daran anknüpfend werden mögliche Konsequenzen aufgezeigt, die die verschiedenen Akteure des Sportsystems aus den dargestellten Forschungsbefunden ziehen können. Die Arbeit basiert auf den Befunden einer in den Jahren 2006 bis 2009 durchgeführten empirischen Untersuchung, in der verschiedene qualitative Methoden eingesetzt wurden, um das Forschungsfeld explorativ, ergebnisoffen und in einer möglichst weiten Perspektive zu beleuchten. In erster Linie bestand diese Feldstudie in einer Interviewreihe, für die 25 Vertreter von Migrantensportvereinen sowie 15 Feldexperten aus verschiedenen Berufsgruppen und Organisationen in Leitfaden-Interviews befragt wurden. Ergänzt wurde die Interviewstudie durch eine Zeitungsanalyse, für die sieben Tages- und Wochenzeitungen nach Artikeln zum Thema durchsucht wurden, sowie gezielte Feldbeobachtungen, etwa beim Besuch von Fußballspielen, bei Versammlungen und Festen sowie in Vereinsheimen. Darüber hinaus wurde eine umfangreiche Internetrecherche durchgeführt, bei der vor allem die Webseiten von über 65 Migrantensportvereinen in Augenschein genommen wurden. In allen Untersuchungsteilen war das Vorgehen des Verfassers stark an der Grounded-Theory-Methode orientiert. Die so gewonnenen Forschungsergebnisse deuten darauf hin, dass eigenständige Migrantensportvereine, die als vorherrschende Form der sportbezogenen Selbstorganisation von Zuwanderern im Mittelpunkt der Arbeit stehen, aus komplexen gesellschaftlichen Inklusions-, Schließungs- sowie Segmentationsprozessen resultieren und interindividuell unterschiedliche Beteiligungsmotive ihrer Mitglieder aufnehmen. Sie stellen typischerweise multifunktionale Hybridorganisationen dar und erbringen für die beteiligten Migranten und deren lokale Gemeinschaften spezifische Integrations-, Repräsentations- und Solidarleistungen, durch die sie sich signifikant von deutschen Sportvereinen und Migrantenorganisationen in anderen Sektoren abheben. Zugleich unterscheiden sich die Migrantensportvereine untereinander hinsichtlich Vereinstätigkeit, Selbstverständnis und Konfliktbeteiligung sehr stark. Ihre Rückwirkung auf den Vereinssport als organisationales Feld, auf die interethnischen Beziehungen in anderen Gesellschaftsbereichen und auf den gesamtgesellschaftlichen Integrationsprozess ist den präsentierten Forschungsergebnissen zufolge gleichfalls sehr ambivalent. Einerseits erbringen Migrantenvereine nicht nur die gleichen gemeinnützigen Leistungen im Bereich der sozialen Integration wie andere Sportvereine auch, sondern entfalten darüber hinaus, indem sie die Integrationsfähigkeit ihrer Mitglieder erhöhen und Personen in den organisierten Sport einbeziehen, die sonst gar keinem Sportverein beitreten würden, spezifische Integrationswirkungen, die andere Sportvereine nicht aufweisen. Andererseits erhöht die Selbstorganisation von Migranten in eigenen Sportvereinen soziale Distanzen und Spannungen zwischen Einheimischen und Zuwanderern, zumal Migrantensportvereine vor allem an den manchmal gewaltvollen Konflikten im Amateurfußball überproportional häufig beteiligt sind. Darüber hinaus stellt ein relativ kleiner Teil der Migrantensportvereine wegen Organisationsdefiziten eine ernste Belastung für die Tätigkeit der Sportverbände dar. Pauschalisierende Negativbewertungen der Vereine werden vom Verfasser jedoch als ungerechtfertigt und nicht sachangemessen zurückgewiesen.
Soft nanocomposites with enhanced electromechanical response for dielectric elastomer actuators
(2011)
Electromechanical transducers based on elastomer capacitors are presently considered for many soft actuation applications, due to their large reversible deformation in response to electric field induced electrostatic pressure. The high operating voltage of such devices is currently a large drawback, hindering their use in applications such as biomedical devices and biomimetic robots, however, they could be improved with a careful design of their material properties. The main targets for improving their properties are increasing the relative permittivity of the active material, while maintaining high electric breakdown strength and low stiffness, which would lead to enhanced electrostatic storage ability and hence, reduced operating voltage. Improvement of the functional properties is possible through the use of nanocomposites. These exploit the high surface-to-volume ratio of the nanoscale filler, resulting in large effects on macroscale properties. This thesis explores several strategies for nanomaterials design. The resulting nanocomposites are fully characterized with respect to their electrical and mechanical properties, by use of dielectric spectroscopy, tensile mechanical analysis, and electric breakdown tests. First, nanocomposites consisting of high permittivity rutile TiO2 nanoparticles dispersed in thermoplastic block copolymer SEBS (poly-styrene-coethylene-co-butylene-co-styrene) are shown to exhibit permittivity increases of up to 3.7 times, leading to 5.6 times improvement in electrostatic energy density, but with a trade-off in mechanical properties (an 8-fold increase in stiffness). The variation in both electrical and mechanical properties still allows for electromechanical improvement, such that a 27 % reduction of the electric field is found compared to the pure elastomer. Second, it is shown that the use of nanofiller conductive particles (carbon black (CB)) can lead to a strong increase of relative permittivity through percolation, however, with detrimental side effects. These are due to localized enhancement of the electric field within the composite, which leads to sharp reductions in electric field strength. Hence, the increase in permittivity does not make up for the reduction in breakdown strength in relation to stored electrical energy, which may prohibit their practical use. Third, a completely new approach for increasing the relative permittivity and electrostatic energy density of a polymer based on 'molecular composites' is presented, relying on chemically grafting soft π-conjugated macromolecules to a flexible elastomer backbone. Polarization caused by charge displacement along the conjugated backbone is found to induce a large and controlled permittivity enhancement (470 % over the elastomer matrix), while chemical bonding, encapsulates the PANI chains manifesting in hardly any reduction in electric breakdown strength, and hence resulting in a large increase in stored electrostatic energy. This is shown to lead to an improvement in the sensitivity of the measured electromechanical response (83 % reduction of the driving electric field) as well as in the maximum actuation strain (250 %). These results represent a large step forward in the understanding of the strategies which can be employed to obtain high permittivity polymer materials with practical use for electro-elastomer actuation.
Towards greener stationary phases : thermoresponsive and carbonaceous chromatographic supports
(2011)
Polymers which are sensitive towards external physical, chemical and electrical stimuli are termed as ‘intelligent materials’ and are widely used in medical and engineering applications. Presently, polymers which can undergo a physical change when heat is applied at a certain temperature (cloud point) in water are well-studied for this property in areas of separation chemistry, gene and drug delivery and as surface modifiers. One example of such a polymer is the poly (N-isopropylacrylamide) PNIPAAM, where it is dissolved well in water below 32 oC, while by increasing the temperature further leads to its precipitation. In this work, an alternative polymer poly (2-(2-methoxy ethoxy)ethyl methacrylate-co- oligo(ethylene glycol) methacrylate) (P(MEO2MA-co-OEGMA)) is studied due to its biocompatibility and the ability to vary its cloud points in water. When a layer of temperature responsive polymer was attached to a single continuous porous piece of silica-based material known as a monolith, the thermoresponsive characteristic was transferred to the column surfaces. The hybrid material was demonstrated to act as a simple temperature ‘switch’ in the separation of a mixture of five steroids under water. Different analytes were observed to be separated under varying column temperatures. Furthermore, more complex biochemical compounds such as proteins were also tested for separation. The importance of this work is attributed to separation processes utilizing environmentally friendly conditions, since harsh chemical environments conventionally used to resolve biocompounds could cause their biological activities to be rendered inactive.
The creation of complex polymer structures has been one of the major research topics over the last couple of decades. This work deals with the synthesis of (block co-)polymers, the creation of complex and stimuli-responsive aggregates by self-assembly, and the cross-linking of these structures. Also the higher-order self-assembly of the aggregates is investigated. The formation of poly-2-oxazoline based micelles in aqueous solution and their simultaneous functionalization and cross-linking using thiol-yne chemistry is e.g. presented. By introducing pH responsive thiols in the core of the micelles the influence of charged groups in the core of micelles on the entire structure can be studied. The charging of these groups leads to a swelling of the core and a decrease in the local concentration of the corona forming block (poly(2-ethyl-2-oxazoline)). This decrease in concentration yields a shift in the cloud point temperature to higher temperatures for this Type I thermoresponsive polymer. When the swelling of the core is prohibited, e.g. by the introduction of sufficient amounts of salt, this behavior disappears. Similar structures can be prepared using complex coacervate core micelles (C3Ms) built through the interaction of weakly acidic and basic polymer blocks. The advantage of these structures is that two different stabilizing blocks can be incorporated, which allows for more diverse and complex structures and behavior of the micelles. Using block copolymers with either a polyanionic or a polycationic block C3Ms could be created with a corona which contains two different soluble nonionic polymers, which either have a mixed corona or a Janus type corona, depending on the polymers that were chosen. Using NHS and EDC the micelles could easily be cross-linked by the formation of amide bonds in the core of the micelles. The higher-order self-assembly behavior of these core cross-linked complex coacervate core micelles (C5Ms) was studied. Due to the cross-linking the micelles are stabilized towards changes in pH and ionic strength, but polymer chains are also no longer able to rearrange. For C5Ms with a mixed corona likely network structures were formed upon the collapse of the thermoresponsive poly(N-isopropylacrylamide) (PNIPAAm), whereas for Janus type C5Ms well defined spherical aggregates of micelles could be obtained, depending on the pH of the solution. Furthermore it could be shown that Janus micelles can adsorb onto inorganic nanoparticles such as colloidal silica (through a selective interaction between PEO and the silica surface) or gold nanoparticles (by the binding of thiol end-groups). Asymmetric aggregates were also formed using the streptavidin-biotin binding motive. This is achieved by using three out of the four binding sites of streptavidin for the binding of one three-arm star polymer, end-functionalized with biotin groups. A homopolymer with one biotin end-group can be used to occupy the last position. This binding of two different polymers makes it possible to create asymmetric complexes. This phase separation is theoretically independent of the kind of polymer since the structure of the protein is the driving force, not the intrinsic phase separation between polymers. Besides Janus structures also specific cross-linking can be achieved by using other mixing ratios.
Biology has made great progress in identifying and measuring the building blocks of life. The availability of high-throughput methods in molecular biology has dramatically accelerated the growth of biological knowledge for various organisms. The advancements in genomic, proteomic and metabolomic technologies allow for constructing complex models of biological systems. An increasing number of biological repositories is available on the web, incorporating thousands of biochemical reactions and genetic regulations. Systems Biology is a recent research trend in life science, which fosters a systemic view on biology. In Systems Biology one is interested in integrating the knowledge from all these different sources into models that capture the interaction of these entities. By studying these models one wants to understand the emerging properties of the whole system, such as robustness. However, both measurements as well as biological networks are prone to considerable incompleteness, heterogeneity and mutual inconsistency, which makes it highly non-trivial to draw biologically meaningful conclusions in an automated way. Therefore, we want to promote Answer Set Programming (ASP) as a tool for discrete modeling in Systems Biology. ASP is a declarative problem solving paradigm, in which a problem is encoded as a logic program such that its answer sets represent solutions to the problem. ASP has intrinsic features to cope with incompleteness, offers a rich modeling language and highly efficient solving technology. We present ASP solutions, for the analysis of genetic regulatory networks, determining consistency with observed measurements and identifying minimal causes for inconsistency. We extend this approach for computing minimal repairs on model and data that restore consistency. This method allows for predicting unobserved data even in case of inconsistency. Further, we present an ASP approach to metabolic network expansion. This approach exploits the easy characterization of reachability in ASP and its various reasoning methods, to explore the biosynthetic capabilities of metabolic reaction networks and generate hypotheses for extending the network. Finally, we present the BioASP library, a Python library which encapsulates our ASP solutions into the imperative programming paradigm. The library allows for an easy integration of ASP solution into system rich environments, as they exist in Systems Biology.
Block copolymers are receiving increasing attention in the literature. Reports on amphiphilic block copolymers have now established the basis of their self-assembly behavior: aggregate sizes, morphologies and stability can be explained from the absolute and relative block lengths, the nature of the blocks, the architecture and also solvent selectiveness. In water, self-assembly of amphiphilic block copolymers is assumed to be driven by the hydrophobic. The motivation of this thesis is to study the influence on the self-assembly in water of A b B type block copolymers (with A hydrophilic) of the variation of the hydrophilicity of B from non-soluble (hydrophobic) to totally soluble (hydrophilic). Glucose-modified polybutadiene-block-poly(N-isopropylacrylamide) copolymers were prepared and their self-assembly behavior in water studied. The copolymers formed vesicles with an asymmetric membrane with a glycosylated exterior and poly(N-isopropylacrylamide) on the inside. Above the low critical solution temperature (LCST) of poly(N-isopropylacrylamide), the structure collapsed into micelles with a hydrophobic PNIPAM core and glycosylated exterior. This collapse was found to be reversible. As a result, the structures showed a temperature-dependent interaction with L-lectin proteins and were shown to be able to encapsulate organic molecules. Several families of double hydrophilic block copolymers (DHBC) were prepared. The blocks of these copolymers were biopolymers or polymer chimeras used in aqueous two-phase partition systems. Copolymers based on dextran and poly(ethylene glycol) blocks were able to form aggregates in water. Dex6500-b-PEG5500 copolymer spontaneously formed vesicles with PEG as the “less hydrophilic” barrier and dextran as the solubilizing block. The aggregates were found to be insensitive to the polymer's architecture and concentration (in the dilute range) and only mildly sensitive to temperature. Variation of the block length, yielded different morphologies. A longer PEG chain seemed to promote more curved aggregates following the inverse trend usually observed in amphiphilic block copolymers. A shorter dextran promoted vesicular structures as usually observed for the amphiphilic counterparts. The linking function was shown to have an influence of the morphology but not on the self-assembly capability in itself. The vesicles formed by dex6500-b-PEG5500 showed slow kinetics of clustering in the presence of Con A lectin. In addition both dex6500-b-PEG5500 and its crosslinked derivative were able to encapsulate fluorescent dyes. Two additional dextran-based copolymers were synthesized, dextran-b-poly(vinyl alcohol) and dextran-b-poly(vinyl pyrrolidone). The study of their self-assembly allowed to conclude that aqueous two-phase systems (ATPS) is a valid source of inspiration to conceive DHBCs capable of self-assembling. In the second part the principle was extended to polypeptide systems with the synthesis of a poly(N-hydroxyethylglutamine)-block-poly(ethylene glycol) copolymer. The copolymer that had been previously reported to have emulsifying properties was able to form vesicles by direct dissolution of the solid in water. Last, a series of thermoresponsive copolymers were prepared, dextran-b-PNIPAMm. These polymers formed aggregates below the LCST. Their structure could not be unambiguously elucidated but seemed to correspond to vesicles. Above the LCST, the collapse of the PNIPAM chains induced the formation of stable objects of several hundreds of nanometers in radius that evolved with increasing temperature. The cooling of these solution below LCST restored the initial aggregates. This self-assembly of DHBC outside any stimuli of pH, ionic strength, or temperature has only rarely been described in the literature. This work constituted the first formal attempt to frame the phenomenon. Two reasons were accounted for the self-assembly of such systems: incompatibility of the polymer pairs forming the two blocks (enthalpic) and a considerable solubility difference (enthalpic and entropic). The entropic contribution to the positive Gibbs free energy of mixing is believed to arise from the same loss of conformational entropy that is responsible for “the hydrophobic effect” but driven by a competition for water of the two blocks. In that sense this phenomenon should be described as the “hydrophilic effect”.
Subcellular compartmentation of primary carbon metabolism in mesophyll cells of Arabidopsis thaliana
(2011)
Metabolism in plant cells is highly compartmented, with many pathways involving reactions in more than one compartment. For example, during photosynthesis in leaf mesophyll cells, primary carbon fixation and starch synthesis take place in the chloroplast, whereas sucrose is synthesized in the cytosol and stored in the vacuole. These reactions are tightly regulated to keep a fine balance between the carbon pools of the different compartments and to fulfil the energy needs of the organelles. I applied a technique which fractionates the cells under non-aqueous conditions, whereby the metabolic state is frozen at the time of harvest and held in stasis throughout the fractionation procedure. With the combination of non-aqueous fractionation and mass spectrometry based metabolite measurements (LC-MS/MS, GC-MS) it was possible to investigate the intracellular distributions of the intermediates of photosynthetic carbon metabolism and its products in subsequent metabolic reactions. With the knowledge about the in vivo concentrations of these metabolites under steady state photosynthesis conditions it was possible to calculate the mass action ratio and change in Gibbs free energy in vivo for each reaction in the pathway, to determine which reactions are near equilibrium and which are far removed from equilibrium. The Km value and concentration of each enzyme were compared with the concentrations of its substrates in vivo to assess which reactions are substrate limited and so sensitive to changes in substrate concentration. Several intermediates of the Calvin-Benson cycle are substrates for other pathways, including dihydroxyacetone-phosphate (DHAP,sucrose synthesis), fructose 6-phosphate (Fru6P, starch synthesis), erythrose 4-phosphate (E4P,shikimate pathway) and ribose 5-phosphate (R5P, nucleotide synthesis). Several of the enzymes that metabolise these intermediates, and so lie at branch points in the pathway, are triose-phosphate isomerase (DHAP), transketolase (E4P, Fru6P), sedoheptulose-1,7-bisphosphate aldolase (E4P) and ribose-5-phosphate isomerase (R5P) are not saturated with their respective substrate as the metabolite concentration is lower than the respective Km value. In terms of metabolic control these are the steps that are most sensitive to changes in substrate availability, while the regulated irreversible reactions of fructose-1,6-bisphosphatase and sedoheptulose-1,7-bisphosphatase are relatively insensitive to changes in the concentrations of their substrates. In the pathway of sucrose synthesis it was shown that the concentration of the catalytic binding site of the cytosolic aldolase is lower than the substrate concentration of DHAP, and that the concentration of Suc6P is lower than the Km of sucrose-phosphatase for this substrate. Both the sucrose-phosphate synthase and sucrose-phosphatase reactions are far removed from equilibrium in vivo. In wild type A. thaliana Columbia-0 leaves, all of the ADPGlc was found to be localised in the chloroplasts. ADPglucose pyrophosphorylase is localised to the chloroplast and synthesises ADPGlc from ATP and Glc1P. This distribution argues strongly against the hypothesis proposed by Pozueta-Romero and colleagues that ADPGlc for starch synthesis is produced in the cytosol via ADP-mediated cleavage of sucrose by sucrose synthase. Based on this observation and other published data it was concluded that the generally accepted pathway of starch synthesis from ADPGlc produced by ADPglucose pyrophosphorylase in the chloroplasts is correct, and that the alternative pathway is untenable. Within the pathway of starch synthesis the concentration of ADPGlc was found to be well below the Km value of starch synthase for ADPGlc, indicating that the enzyme is substrate limited. A general finding in the comparison of the Calvin-Benson cycle with the synthesis pathways of sucrose and starch is that many enzymes in the Calvin Benson cycle have active binding site concentrations that are close to the metabolite concentrations, while for nearly all enzymes in the synthesis pathways the active binding site concentrations are much lower than the metabolite concentrations.
Im Rahmen eines explorativen Vergleichsuntersuchungsplans wurde untersucht, inwieweit sich die durch biologische Faktoren bedingte unterschiedliche Lebenserfahrung sowie die Sozialisationsbedingungen in der psychosexuellen Entwicklung bei hetero-, homo- und postoperativen transsexuellen Männern (N = 191) auf die Integration der Geschlechterstereotypen in die kognitiven (Selbst-, Fremdwahrnehmung), emotionalen (Selbst- und Fremdbewertung) und verhaltensmäßigen Aspekte (Normen der geschlechtsspezifischen Verhaltens) der Geschlechtsidentität auswirken und ob sich Identifikationsmuster der Entwicklung des geschlechtlichen Selbstkonzepts ableiten lassen. Die Messung der kognitiven Aspekte des geschlechtlichen Selbstkonzepts (Maskulinität und Femininität) erfolgte mittels der GERO-Skala von Brengelmann und Hendrich (1990). Zur Erfassung der emotionalen Aspekte und Identifikationsmuster der Entwicklung des geschlechtlichen Selbstkonzepts wurden die Werte für die Variablen Maskulinität und Femininität zuerst mittels der computergesteuerten Methodik IDEXMONO und IDEXIDIO, die auf der Identitätsstrukturanalyse (Identity Structure Analysis) von Weinreich (2003) basiert, aufgearbeitet und weiter interferenzstatistisch ausgewertet. Weiterhin wurden der Fragebogen zur Messung normativer Geschlechtsrollenorientierung (NGRO) von Athenstaedt (2000) sowie ein ad hoc entworfener demographischer Fragebogen eingesetzt. Die Ergebnisse zeigen, dass der Verlauf der psychosexuellen Entwicklung einen starken Einfluss auf die Integration der Geschlechterstereotypen in die geschlechtliche Selbst- und Fremdwahrnehmung hat. Im kognitiven Bereich, bezogen auf die persönliche Identität (Grad der Selbstzuschreibung männlicher und weiblicher Merkmale), stellt die Maskulinität eine stabile und erstrebenswerte Variable zur Herausbildung des geschlechtlichen Selbstkonzepts bei allen Gruppen dar. Die Femininität trägt am meisten zur Differenzierung zwischen den Hetero-, Homo- und Transsexuellen bei. Sie wird, je nach der Entwicklungsphase, unterschiedlich in das geschlechtliche Selbstkonzept integriert. Hinsichtlich der sozialen Identität (Zugehörigkeitsgefühl) lassen sich die Gruppen bezüglich der wahrgenommenen Ähnlichkeiten sowohl mit männlichen als auch weiblichen Personen, je nach der Entwicklungsphase, unterscheiden. Die soziale Wahrnehmung von Männern und Frauen (Fremdwahrnehmung), ist bei Transsexuellen traditioneller als die der Hetero- und Homosexuellen. Bei der Selbst- und Fremdbewertung ergaben sich keine signifikanten Unterschiede. Bei der Internalisierung der sozialen Normen des geschlechtsspezifischen Verhaltens zeigt sich, dass Heterosexuelle der Ausübung der Geschlechterrollen gegenüber egalitärer eingestellt sind als Trans- und Homosexuelle. Bei den Sozialisationsfaktoren ist hervorzuheben, dass generell weibliche Identifikationspersonen einen stärkeren Einfluss auf die Herausbildung des geschlechtlichen Selbstkonzeptes hatten als männliche Identifikationspersonen. Es scheint jedoch, dass Homosexuelle bei der Entwicklung ihres geschlechtlichen Selbstkonzepts stärker unter dem Einfluss der Frauen stehen als die anderen zwei erforschten Gruppen. Zur Beantwortung der Frage, welche selbstkonzeptbezogenen Variablen und Entwicklungsfaktoren die größte statistische Bedeutung für die Trennung und Prädiktion der einzelnen untersuchten Gruppen haben, wurde eine Diskriminanzanalyse berechnet. Die größte diskriminatorische Bedeutung besitzen die Variablen „Stereotypische Wahrnehmung der männlichen Personen“ und „Ego-Involvement mit weiblichen Personen“ für die Diskriminanzfunktion 1 (Trennung der Transsexuellen von Hetero- und Homosexuellen) und die Variablen „Empathische Identifikation mit männlichen Personen in der Vergangenheit“ und „Zuwachs an empathischer Identifikation mit weiblichen Personen“ für die Diskriminanzfunktion 2 (Trennung der Hetero- von Homosexuellen).
The exponential expanding of the numbers of web sites and Internet users makes WWW the most important global information resource. From information publishing and electronic commerce to entertainment and social networking, the Web allows an inexpensive and efficient access to the services provided by individuals and institutions. The basic units for distributing these services are the web sites scattered throughout the world. However, the extreme fragility of web services and content, the high competence between similar services supplied by different sites, and the wide geographic distributions of the web users drive the urgent requirement from the web managers to track and understand the usage interest of their web customers. This thesis, "X-tracking the Usage Interest on Web Sites", aims to fulfill this requirement. "X" stands two meanings: one is that the usage interest differs from various web sites, and the other is that usage interest is depicted from multi aspects: internal and external, structural and conceptual, objective and subjective. "Tracking" shows that our concentration is on locating and measuring the differences and changes among usage patterns. This thesis presents the methodologies on discovering usage interest on three kinds of web sites: the public information portal site, e-learning site that provides kinds of streaming lectures and social site that supplies the public discussions on IT issues. On different sites, we concentrate on different issues related with mining usage interest. The educational information portal sites were the first implementation scenarios on discovering usage patterns and optimizing the organization of web services. In such cases, the usage patterns are modeled as frequent page sets, navigation paths, navigation structures or graphs. However, a necessary requirement is to rebuild the individual behaviors from usage history. We give a systematic study on how to rebuild individual behaviors. Besides, this thesis shows a new strategy on building content clusters based on pair browsing retrieved from usage logs. The difference between such clusters and the original web structure displays the distance between the destinations from usage side and the expectations from design side. Moreover, we study the problem on tracking the changes of usage patterns in their life cycles. The changes are described from internal side integrating conceptual and structure features, and from external side for the physical features; and described from local side measuring the difference between two time spans, and global side showing the change tendency along the life cycle. A platform, Web-Cares, is developed to discover the usage interest, to measure the difference between usage interest and site expectation and to track the changes of usage patterns. E-learning site provides the teaching materials such as slides, recorded lecture videos and exercise sheets. We focus on discovering the learning interest on streaming lectures, such as real medias, mp4 and flash clips. Compared to the information portal site, the usage on streaming lectures encapsulates the variables such as viewing time and actions during learning processes. The learning interest is discovered in the form of answering 6 questions, which covers finding the relations between pieces of lectures and the preference among different forms of lectures. We prefer on detecting the changes of learning interest on the same course from different semesters. The differences on the content and structure between two courses leverage the changes on the learning interest. We give an algorithm on measuring the difference on learning interest integrated with similarity comparison between courses. A search engine, TASK-Moniminer, is created to help the teacher query the learning interest on their streaming lectures on tele-TASK site. Social site acts as an online community attracting web users to discuss the common topics and share their interesting information. Compared to the public information portal site and e-learning web site, the rich interactions among users and web content bring the wider range of content quality, on the other hand, provide more possibilities to express and model usage interest. We propose a framework on finding and recommending high reputation articles in a social site. We observed that the reputation is classified into global and local categories; the quality of the articles having high reputation is related with the content features. Based on these observations, our framework is implemented firstly by finding the articles having global or local reputation, and secondly clustering articles based on their content relations, and then the articles are selected and recommended from each cluster based on their reputation ranks.