Filtern
Volltext vorhanden
- ja (2506) (entfernen)
Erscheinungsjahr
- 2024 (50)
- 2023 (181)
- 2022 (159)
- 2021 (165)
- 2020 (122)
- 2019 (130)
- 2018 (140)
- 2017 (135)
- 2016 (136)
- 2015 (108)
- 2014 (109)
- 2013 (137)
- 2012 (105)
- 2011 (110)
- 2010 (83)
- 2009 (78)
- 2008 (87)
- 2007 (96)
- 2006 (84)
- 2005 (94)
- 2004 (76)
- 2003 (45)
- 2002 (33)
- 2001 (19)
- 2000 (12)
- 1999 (7)
- 1998 (2)
- 1997 (1)
- 1988 (1)
- 1972 (1)
Dokumenttyp
- Dissertation (2506) (entfernen)
Sprache
- Englisch (1730)
- Deutsch (739)
- Spanisch (18)
- Französisch (7)
- Hebräisch (6)
- Italienisch (3)
- Mehrsprachig (3)
Schlagworte
- climate change (52)
- Klimawandel (50)
- Modellierung (34)
- Nanopartikel (28)
- machine learning (21)
- Fernerkundung (20)
- Synchronisation (19)
- remote sensing (18)
- Spracherwerb (17)
- Blickbewegungen (16)
Institut
- Institut für Physik und Astronomie (402)
- Institut für Biochemie und Biologie (381)
- Institut für Geowissenschaften (325)
- Institut für Chemie (301)
- Extern (147)
- Institut für Umweltwissenschaften und Geographie (121)
- Institut für Ernährungswissenschaft (102)
- Wirtschaftswissenschaften (97)
- Department Psychologie (88)
- Hasso-Plattner-Institut für Digital Engineering GmbH (86)
Im Mittelpunkt dieser Arbeit stehen virtuelle 3D-Stadtmodelle, die Objekte, Phänomene und Prozesse in urbanen Räumen in digitaler Form repräsentieren. Sie haben sich zu einem Kernthema von Geoinformationssystemen entwickelt und bilden einen zentralen Bestandteil geovirtueller 3D-Welten. Virtuelle 3D-Stadtmodelle finden nicht nur Verwendung als Mittel für Experten in Bereichen wie Stadtplanung, Funknetzplanung, oder Lärmanalyse, sondern auch für allgemeine Nutzer, die realitätsnah dargestellte virtuelle Städte in Bereichen wie Bürgerbeteiligung, Tourismus oder Unterhaltung nutzen und z. B. in Anwendungen wie GoogleEarth eine räumliche Umgebung intuitiv erkunden und durch eigene 3D-Modelle oder zusätzliche Informationen erweitern. Die Erzeugung und Darstellung virtueller 3D-Stadtmodelle besteht aus einer Vielzahl von Prozessschritten, von denen in der vorliegenden Arbeit zwei näher betrachtet werden: Texturierung und Visualisierung. Im Bereich der Texturierung werden Konzepte und Verfahren zur automatischen Ableitung von Fototexturen aus georeferenzierten Schrägluftbildern sowie zur Speicherung oberflächengebundener Daten in virtuellen 3D-Stadtmodellen entwickelt. Im Bereich der Visualisierung werden Konzepte und Verfahren für die multiperspektivische Darstellung sowie für die hochqualitative Darstellung nichtlinearer Projektionen virtueller 3D-Stadtmodelle in interaktiven Systemen vorgestellt. Die automatische Ableitung von Fototexturen aus georeferenzierten Schrägluftbildern ermöglicht die Veredelung vorliegender virtueller 3D-Stadtmodelle. Schrägluftbilder bieten sich zur Texturierung an, da sie einen Großteil der Oberflächen einer Stadt, insbesondere Gebäudefassaden, mit hoher Redundanz erfassen. Das Verfahren extrahiert aus dem verfügbaren Bildmaterial alle Ansichten einer Oberfläche und fügt diese pixelpräzise zu einer Textur zusammen. Durch Anwendung auf alle Oberflächen wird das virtuelle 3D-Stadtmodell flächendeckend texturiert. Der beschriebene Ansatz wurde am Beispiel des offiziellen Berliner 3D-Stadtmodells sowie der in GoogleEarth integrierten Innenstadt von München erprobt. Die Speicherung oberflächengebundener Daten, zu denen auch Texturen zählen, wurde im Kontext von CityGML, einem international standardisierten Datenmodell und Austauschformat für virtuelle 3D-Stadtmodelle, untersucht. Es wird ein Datenmodell auf Basis computergrafischer Konzepte entworfen und in den CityGML-Standard integriert. Dieses Datenmodell richtet sich dabei an praktischen Anwendungsfällen aus und lässt sich domänenübergreifend verwenden. Die interaktive multiperspektivische Darstellung virtueller 3D-Stadtmodelle ergänzt die gewohnte perspektivische Darstellung nahtlos um eine zweite Perspektive mit dem Ziel, den Informationsgehalt der Darstellung zu erhöhen. Diese Art der Darstellung ist durch die Panoramakarten von H. C. Berann inspiriert; Hauptproblem ist die Übertragung des multiperspektivischen Prinzips auf ein interaktives System. Die Arbeit stellt eine technische Umsetzung dieser Darstellung für 3D-Grafikhardware vor und demonstriert die Erweiterung von Vogel- und Fußgängerperspektive. Die hochqualitative Darstellung nichtlinearer Projektionen beschreibt deren Umsetzung auf 3D-Grafikhardware, wobei neben der Bildwiederholrate die Bildqualität das wesentliche Entwicklungskriterium ist. Insbesondere erlauben die beiden vorgestellten Verfahren, dynamische Geometrieverfeinerung und stückweise perspektivische Projektionen, die uneingeschränkte Nutzung aller hardwareseitig verfügbaren, qualitätssteigernden Funktionen wie z.~B. Bildraumgradienten oder anisotroper Texturfilterung. Beide Verfahren sind generisch und unterstützen verschiedene Projektionstypen. Sie ermöglichen die anpassungsfreie Verwendung gängiger computergrafischer Effekte wie Stilisierungsverfahren oder prozeduraler Texturen für nichtlineare Projektionen bei optimaler Bildqualität. Die vorliegende Arbeit beschreibt wesentliche Technologien für die Verarbeitung virtueller 3D-Stadtmodelle: Zum einen lassen sich mit den Ergebnissen der Arbeit Texturen für virtuelle 3D-Stadtmodelle automatisiert herstellen und als eigenständige Attribute in das virtuelle 3D-Stadtmodell einfügen. Somit trägt diese Arbeit dazu bei, die Herstellung und Fortführung texturierter virtueller 3D-Stadtmodelle zu verbessern. Zum anderen zeigt die Arbeit Varianten und technische Lösungen für neuartige Projektionstypen für virtueller 3D-Stadtmodelle in interaktiven Visualisierungen. Solche nichtlinearen Projektionen stellen Schlüsselbausteine dar, um neuartige Benutzungsschnittstellen für und Interaktionsformen mit virtuellen 3D-Stadtmodellen zu ermöglichen, insbesondere für mobile Geräte und immersive Umgebungen.
Lamine bilden zusammen mit laminassoziierten Proteinen die nukleäre Lamina. Diese ist notwendig für die mechanische Stabilität von Zellen, die Organisation des Chromatins, der Genexpression, dem Fortgang des Zellzyklus und der Zellmigration. Die vielfältigen Funktionen der Lamine werden durch die Pathogenese von Laminopathien belegt. Zu diesen Erkrankungen, welche ihre Ursache in Mutationen innerhalb der laminkodierenden Gene, oder der Gene laminassoziierter bzw. laminprozessierender Proteine haben, zählen unter anderem das „Hutchinson-Gilford Progerie Syndrom“, die „Emery-Dreifuss“ Muskeldystrophie und die dilatierte Kardiomyopathie. Trotz der fundamentalen Bedeutung der Lamine, wurden diese bisher nur in Metazoen und nicht in einzelligen Organismen detektiert. Der amöbide Organismus Dictyostelium discoideum ist ein haploider Eukaryot, der häufig als Modellorganismus in den verschiedensten Bereichen der Zellbiologie eingesetzt wird. Mit der Entdeckung von NE81, einem Protein das mit der inneren Kernhülle von Dictyostelium discoideum assoziiert ist, wurde erstmals ein Protein identifiziert, dass man aufgrund seiner Eigenschaften als laminähnliches Protein in einem niederen Eukaryoten bezeichnen kann. Diese Merkmale umfassen die Existenz lamintypischer Sequenzen, wie die CDK1-Phosphorylierungsstelle, direkt gefolgt von einer zentralen „Rod“-Domäne, sowie eine typische NLS und die hoch konservierte CaaX-Box. Für die Etablierung des NE81 als „primitives“ Lamin, wurden im Rahmen dieser Arbeit verschiedene Experimente durchgeführt, die strukturelle und funktionelle Gemeinsamkeiten zu den Laminen in anderen Organismen aufzeigen konnten. Die Herstellung eines polyklonalen Antikörpers ermöglichte die Verifizierung der subzellulären Lokalisation des NE81 durch Elektronenmikroskopie und gab Einblicke in das Verhalten des endogenen Proteins innerhalb des Zellzyklus. Mit der Generierung von NE81-Nullmutanten konnte demonstriert werden, dass NE81 eine wichtige Rolle bei der nukleären Integrität und der Chromatinorganisation von Zellen spielt. Des Weiteren führte die Expression von zwei CaaX-Box deletierten NE81 - Varianten dazu, den Einfluss des Proteins auf die mechanische Stabilität der Zellen nachweisen zu können. Auch die Bedeutung der hochkonservierten CaaX-Box für die Lokalisation des Proteins wurde durch die erhaltenen Ergebnisse deutlich. Mit der Durchführung von FRAP-Experimente konnte außerdem die strukturgebende Funktion von NE81 innerhalb des Zellkerns bekräftigt werden. Zusätzlich wurde im Rahmen dieser Arbeit damit begonnen, den Einfluss der Isoprenylcysteincarboxylmethyltransferase auf die Lokalisation des Proteins aufzuklären. Die Entdeckung eines laminähnlichen Proteins in einem einzelligen Organismus, der an der Schwelle zu den Metazoen steht, ist für die evolutionäre Betrachtung der Entwicklung der sozialen Amöbe und für die Erforschung der molekularen Basis von Laminopathien in einem einfachen Modellorganismus sehr interessant. Die Arbeit mit Dictyostelium discoideum könnte daher Wege aufzeigen, dass Studium der Laminopathien am Tiermodell drastisch zu reduzieren. In den letzten Jahren hat die Erforschung unbekannter Bestandteile des Centrosoms in Dictyostelium discoideum große Fortschritte gemacht. Eine zu diesem Zwecke von unserer Arbeitsgruppe durchgeführte Proteomstudie, führte zur Identifizierung weiterer, potentiell centrosomaler Kandidatenproteine. Der zweite Teil dieser Arbeit beschäftigt sich mit der Charakterisierung eines solchen Kandidatenproteins, dem CP75. Es konnte gezeigt werden, dass CP75 einen echten, centrosomalen Bestandteil darstellt, der mikrotubuli-unabhängig mit der Core Struktur des Zellorganells assoziiert ist. Weiterhin wurde deutlich, dass die Lokalisation am Centrosom in Abhängigkeit vom Zellzyklus erfolgt und CP75 vermutlich mit CP39, einem weiteren centrosomalen Core Protein, interagiert.
The transcriptional regulation of the cellular mechanisms involves many different components and different levels of control which together contribute to fine tune the response of cells to different environmental stimuli. In some responses, diverse signaling pathways can be controlled simultaneously. One of the most important cellular processes that seem to possess multiple levels of regulation is photosynthesis. A model organism for studying photosynthesis-related processes is the unicellular green algae Chlamydomonas reinhardtii, due to advantages related to culturing, genetic manipulation and availability of genome sequence. In the present study, we were interested in understanding the regulatory mechanisms underlying photosynthesis-related processes. To achieve this goal different molecular approaches were followed. In order to indentify protein transcriptional regulators we optimized a method for isolation of nuclei and performed nuclear proteome analysis using shotgun proteomics. This analysis permitted us to improve the genome annotation previously published and to discover conserved and enriched protein motifs among the nuclear proteins. In another approach, a quantitative RT-PCR platform was established for the analysis of gene expression of predicted transcription factor (TF) and other transcriptional regulator (TR) coding genes by transcript profiling. The gene expression profiles for more than one hundred genes were monitored in time series experiments under conditions of changes in light intensity (200 µE m-2 s-1 to 700 µE m-2 s-1), and changes in concentration of carbon dioxide (5% CO2 to 0.04% CO2). The results indicate that many TF and TR genes are regulated in both environmental conditions and groups of co-regulated genes were found. Our findings also suggest that some genes can be common intermediates of light and carbon responsive regulatory pathways. These approaches together gave us new insights about the regulation of photosynthesis and revealed new candidate regulatory genes, helping to decipher the gene regulatory networks in Chlamydomonas. Further experimental studies are necessary to clarify the function of the candidate regulatory genes and to elucidate how cells coordinately regulate the assimilation of carbon and light responses.
Plants and some unicellular algae store carbon in the form of transitory starch on a diurnal basis. The turnover of this glucose polymer is tightly regulated and timely synthesis as well as mobilization is essential to provide energy for heterotrophic growth. Especially for starch degradation, novel enzymes and mechanisms have been proposed recently. However, the catalytic properties of these enzymes and their coordination with metabolic regulation are still to be discovered. This thesis develops theoretical methods in order to interpret and analyze enzymes and their role in starch degradation. In the first part, a novel description of interfacial enzyme catalysis is proposed. Since the initial steps of starch degradation involve reactions at the starch-stroma interface it is necessary to have a framework which allows the derivation of interfacial enzyme rate laws. A cornerstone of the method is the introduction of the available area function - a concept from surface physics - to describe the adsorption step in the catalytic cycle. The method is applied to derive rate laws for two hydrolases, the Beta-amylase (BAM3) and the Isoamylase (DBE/ISA3), as well as to the Glucan, water dikinase (GWD) and a Phosphoglucan phosphatase (DSP/SEX4). The second part uses the interfacial rate laws to formulate a kinetic model of starch degradation. It aims at reproducing the stimulatory effect of reversible phosphorylation by GWD and DSP on the breakdown of the granule. The model can describe the dynamics of interfacial properties during degradation and suggests that interfacial amylopectin side-chains undergo spontaneous helix-coil transitions. Reversible phosphorylation has a synergistic effect on glucan release especially in the early phase dropping off during degradation. Based on the model, the hypothesis is formulated that interfacial phosphorylation is important for the rapid switch from starch synthesis to starch degradation. The third part takes a broader perspective on carbohydrate-active enzymes (CAZymes) but is motivated by the organization of the downstream pathway of starch breakdown. This comprises Alpha-1,4-glucanotransferases (DPE1 and DPE2) and Alpha-glucan-phosphorylases (Pho or PHS) both in the stroma and in the cytosol. CAZymes accept many different substrates and catalyze numerous reactions and therefore cannot be characterized in classical enzymological terms. A concise characterization is provided by conceptually linking statistical thermodynamics and polymer biochemistry. Each reactant is interpreted as an energy level, transitions between which are constrained by the enzymatic mechanisms. Combinations of in vitro assays of polymer-active CAZymes essential for carbon metabolism in plants confirmed the dominance of entropic gradients. The principle of entropy maximization provides a generalization of the equilibrium constant. Stochastic simulations confirm the results and suggest that randomization of metabolites in the cytosolic pool of soluble heteroglycans (SHG) may contribute to a robust integration of fluctuating carbon fluxes coming from chloroplasts.
Within our research group Bayesian Risk Solutions we have coined the idea of a Bayesian Risk Management (BRM). It claims (1) a more transparent and diligent data analysis as well as (2)an open-minded incorporation of human expertise in risk management. In this dissertation we formulize a framework for BRM based on the two pillars Hardcore-Bayesianism (HCB) and Softcore-Bayesianism (SCB) providing solutions for the claims above. For data analysis we favor Bayesian statistics with its Markov Chain Monte Carlo (MCMC) simulation algorithm. It provides a full illustration of data-induced uncertainty beyond classical point-estimates. We calibrate twelve different stochastic processes to four years of CO2 price data. Besides, we calculate derived risk measures (ex ante/ post value-at-risks, capital charges, option prices) and compare them to their classical counterparts. When statistics fails because of a lack of reliable data we propose our integrated Bayesian Risk Analysis (iBRA) concept. It is a basic guideline for an expertise-driven quantification of critical risks. We additionally review elicitation techniques and tools supporting experts to express their uncertainty. Unfortunately, Bayesian thinking is often blamed for its arbitrariness. Therefore, we introduce the idea of a Bayesian due diligence judging expert assessments according to their information content and their inter-subjectivity.
Aggregation of the Amyloid β (Aβ) peptide to amyloid fibrils is associated with the outbreak of Alzheimer’s disease. Early aggregation intermediates in form of soluble oligomers are of special interest as they are believed to be the major toxic components in the process. These oligomers are of disordered and transient nature. Therefore, their detailed molecular structure is difficult to access experimentally and often remains unknown. In the present work extensive, fully atomistic replica exchange molecular dynamics simulations were performed to study the preaggregated, monomer states and early aggregation intermediates (dimers, trimers) of Aβ(25-35) and Aβ(10-35)-NH2 in aqueous solution. The folding and aggregation of Aβ(25-35) were studied at neutral pH and 293 K. Aβ(25-35) monomers mainly adopt β-hairpin conformations characterized by a β-turn formed by residues G29 and A30, and a β-sheet between residues N27–K28 and I31–I32 in equilibrium with coiled conformations. The β-hairpin conformations served as initial configurations to model spontaneous aggregation of Aβ(25-35). As expected, within the Aβ(25-35) dimer and trimer ensembles many different poorly populated conformations appear. Nevertheless, we were able to distinguish between disordered and fibril-like oligomers. Whereas disordered oligomers are rather compact with few intermolecular hydrogen bonds (HBs), fibril-like oligomers are characterized by the formation of large intermolecular β-sheets. In most of the fibril-like dimers and trimers individual peptides are fully extended forming in- or out-of-register antiparallel β-sheets. A small amount of fibril-like trimers contained V-shaped peptides forming parallel β-sheets. The dimensions of extended and V-shaped oligomers correspond well to the diameters of two distinct morphologies found for Aβ(25-35) fibrils. The transition from disordered to fibril-like Aβ(25-35) dimers is unfavorable but driven by energy. The lower energy of fibril-like dimers arises from favorable intermolecular HBs and other electrostatic interactions which compete with a loss in entropy. Approximately 25 % of the entropic cost correspond to configurational entropy. The rest relates to solvent entropy, presumably caused by hydrophobic and electrostatic effects. In contrast to the transition towards fibril-like dimers the first step of aggregation is driven by entropy. Here, we compared structural and thermodynamic properties of the individual monomer, dimer and trimer ensembles to gain qualitative information about the aggregation process. The β-hairpin conformation observed for monomers is successively dissolved in dimer and trimer ensembles while instead intermolecular β-sheets are formed. As expected upon aggregation the configurational entropy decreases. Additionally, the solvent accessible surface area (SASA), especially the hydrophobic SASA, decreases yielding a favorable solvation free energy which overcompensates the loss in configurational entropy. In summary, the hydrophobic effect, possibly combined with electrostatic effects, yields an increase in solvent entropy which is believed to be one major driving force towards aggregation. Spontaneous folding of the Aβ(10-35)-NH2 monomer was modeled using two force fields, GROMOS96 43a1 and OPLS/AA, and compared to primary NMR data collected at pH 5.6 and 283 K taken from the literature. Unexpectedly, the two force fields yielded significantly different main conformations. Comparison between experimental and calculated nuclear Overhauser effect (NOE) distances is not sufficient to distinguish between the different force fields. Additionally, the comparison with scalar coupling constants suggest that the chosen protonation in both simulations corresponds to a pH lower than in the experiment. Based on this analysis we were unable to determine which force field yields a better description of this system. Dimerization of Aβ(10-35)-NH2 was studied at neutral pH and 300 K. Dimer conformations arrange in many distinct, poorly populated and rather complex alignments or interlocking patterns which are rather stabilized by side chain interactions than by specific intermolecular hydrogen bonds. Similar to Aβ(25-35) dimers, transition towards β-sheet-rich, fibril-like Aβ(10-35) dimers is driven by energy competing with a loss in entropy. Here, transition is mediated by favorable peptide-solvent and solvent-solvent interactions mainly arising from electrostatic interactions.
Development of techniques for earthquake microzonation studies in different urban environment
(2010)
The proliferation of megacities in many developing countries, and their location in areas where they are exposed to a high risk from large earthquakes, coupled with a lack of preparation, demonstrates the requirement for improved capabilities in hazard assessment, as well as the rapid adjustment and development of land-use planning. In particular, within the context of seismic hazard assessment, the evaluation of local site effects and their influence on the spatial distribution of ground shaking generated by an earthquake plays an important role. It follows that the carrying out of earthquake microzonation studies, which aim at identify areas within the urban environment that are expected to respond in a similar way to a seismic event, are essential to the reliable risk assessment of large urban areas. Considering the rate at which many large towns in developing countries that are prone to large earthquakes are growing, their seismic microzonation has become mandatory. Such activities are challenging and techniques suitable for identifying site effects within such contexts are needed. In this dissertation, I develop techniques for investigating large-scale urban environments that aim at being non-invasive, cost-effective and quickly deployable. These peculiarities allow one to investigate large areas over a relative short time frame, with a spatial sampling resolution sufficient to provide reliable microzonation. Although there is a negative trade-off between the completeness of available information and extent of the investigated area, I attempt to mitigate this limitation by combining two, what I term layers, of information: in the first layer, the site effects at a few calibration points are well constrained by analyzing earthquake data or using other geophysical information (e.g., shear-wave velocity profiles); in the second layer, the site effects over a larger areal coverage are estimated by means of single-station noise measurements. The microzonation is performed in terms of problem-dependent quantities, by considering a proxy suitable to link information from the first layer to the second one. In order to define the microzonation approach proposed in this work, different methods for estimating site effects have been combined and tested in Potenza (Italy), where a considerable amount of data was available. In particular, the horizontal-to-vertical spectral ratio computed for seismic noise recorded at different sites has been used as a proxy to combine the two levels of information together and to create a microzonation map in terms of spectral intensity ratio (SIR). In the next step, I applied this two-layer approach to Istanbul (Turkey) and Bishkek (Kyrgyzstan). A similar hybrid approach, i.e., combining earthquake and noise data, has been used for the microzonation of these two different urban environments. For both cities, after having calibrated the fundamental frequencies of resonance estimated from seismic noise with those obtained by analysing earthquakes (first layer), a fundamental frequency map has been computed using the noise measurements carried out within the town (second layer). By applying this new approach, maps of the fundamental frequency of resonance for Istanbul and Bishkek have been published for the first time. In parallel, a microzonation map in terms of SIR has been incorporated into a risk scenario for the Potenza test site by means of a dedicated regression between spectral intensity (SI) and macroseismic intensity (EMS). The scenario study confirms the importance of site effects within the risk chain. In fact, their introduction into the scenario led to an increase of about 50% in estimates of the number of buildings that would be partially or totally collapsed. Last, but not least, considering that the approach developed and applied in this work is based on measurements of seismic noise, their reliability has been assessed. A theoretical model describing the self-noise curves of different instruments usually adopted in microzonation studies (e.g., those used in Potenza, Istanbul and Bishkek) have been considered and compared with empirical data recorded in Cologne (Germany) and Gubbio (Italy). The results show that, depending on the geological and environmental conditions, the instrumental noise could severely bias the results obtained by recording and analysing ambient noise. Therefore, in this work I also provide some guidelines for measuring seismic noise.
In the living cell, the organization of the complex internal structure relies to a large extent on molecular motors. Molecular motors are proteins that are able to convert chemical energy from the hydrolysis of adenosine triphosphate (ATP) into mechanical work. Being about 10 to 100 nanometers in size, the molecules act on a length scale, for which thermal collisions have a considerable impact onto their motion. In this way, they constitute paradigmatic examples of thermodynamic machines out of equilibrium. This study develops a theoretical description for the energy conversion by the molecular motor myosin V, using many different aspects of theoretical physics. Myosin V has been studied extensively in both bulk and single molecule experiments. Its stepping velocity has been characterized as a function of external control parameters such as nucleotide concentration and applied forces. In addition, numerous kinetic rates involved in the enzymatic reaction of the molecule have been determined. For forces that exceed the stall force of the motor, myosin V exhibits a 'ratcheting' behaviour: For loads in the direction of forward stepping, the velocity depends on the concentration of ATP, while for backward loads there is no such influence. Based on the chemical states of the motor, we construct a general network theory that incorporates experimental observations about the stepping behaviour of myosin V. The motor's motion is captured through the network description supplemented by a Markov process to describe the motor dynamics. This approach has the advantage of directly addressing the chemical kinetics of the molecule, and treating the mechanical and chemical processes on equal grounds. We utilize constraints arising from nonequilibrium thermodynamics to determine motor parameters and demonstrate that the motor behaviour is governed by several chemomechanical motor cycles. In addition, we investigate the functional dependence of stepping rates on force by deducing the motor's response to external loads via an appropriate Fokker-Planck equation. For substall forces, the dominant pathway of the motor network is profoundly different from the one for superstall forces, which leads to a stepping behaviour that is in agreement with the experimental observations. The extension of our analysis to Markov processes with absorbing boundaries allows for the calculation of the motor's dwell time distributions. These reveal aspects of the coordination of the motor's heads and contain direct information about the backsteps of the motor. Our theory provides a unified description for the myosin V motor as studied in single motor experiments.
In the present thesis, the self-assembly of multi thermoresponsive block copolymers in dilute aqueous solution was investigated by a combination of turbidimetry, dynamic light scattering, TEM measurements, NMR as well as fluorescence spectroscopy. The successive conversion of such block copolymers from a hydrophilic into a hydrophobic state includes intermediate amphiphilic states with a variable hydrophilic-to-lipophilic balance. As a result, the self-organization is not following an all-or-none principle but a multistep aggregation in dilute solution was observed. The synthesis of double thermoresponsive diblock copolymers as well as triple thermoresponsive triblock copolymers was realized using twofold-TMS labeled RAFT agents which provide direct information about the average molar mass as well as residual end group functionality from a routine proton NMR spectrum. First a set of double thermosensitive diblock copolymers poly(N-n-propylacrylamide)-b-poly(N-ethylacrylamide) was synthesized which differed only in the relative size of the two blocks. Depending on the relative block lengths, different aggregation pathways were found. Furthermore, the complementary TMS-labeled end groups served as NMR-probes for the self-assembly of these diblock copolymers in dilute solution. Reversible, temperature sensitive peak splitting of the TMS-signals in NMR spectroscopy was indicative for the formation of mixed star-/flower-like micelles in some cases. Moreover, triple thermoresponsive triblock copolymers from poly(N-n-propylacrylamide) (A), poly(methoxydiethylene glycol acrylate) (B) and poly(N-ethylacrylamide) (C) were obtained from sequential RAFT polymerization in all possible block sequences (ABC, BAC, ACB). Their self-organization behavior in dilute aqueous solution was found to be rather complex and dependent on the positioning of the different blocks within the terpolymers. Especially the localization of the low-LCST block (A) had a large influence on the aggregation behavior. Above the first cloud point, aggregates were only observed when the A block was located at one terminus. Once placed in the middle, unimolecular micelles were observed which showed aggregation only above the second phase transition temperature of the B block. Carrier abilities of such triple thermosensitive triblock copolymers tested in fluorescence spectroscopy, using the solvatochromic dye Nile Red, suggested that the hydrophobic probe is less efficiently incorporated by the polymer with the BAC sequence as compared to ABC or ACB polymers above the first phase transition temperature. In addition, due to the problem of increasing loss of end group functionality during the subsequent polymerization steps, a novel concept for the one-step synthesis of multi thermoresponsive block copolymers was developed. This allowed to synthesize double thermoresponsive di- and triblock copolymers in a single polymerization step. The copolymerization of different N-substituted maleimides with a thermosensitive styrene derivative (4-vinylbenzyl methoxytetrakis(oxyethylene) ether) led to alternating copolymers with variable LCST. Consequently, an excess of this styrene-based monomer allowed the synthesis of double thermoresponsive tapered block copolymers in a single polymerization step.
In the present work synchronization phenomena in complex dynamical systems exhibiting multiple time scales have been analyzed. Multiple time scales can be active in different manners. Three different systems have been analyzed with different methods from data analysis. The first system studied is a large heterogenous network of bursting neurons, that is a system with two predominant time scales, the fast firing of action potentials (spikes) and the burst of repetitive spikes followed by a quiescent phase. This system has been integrated numerically and analyzed with methods based on recurrence in phase space. An interesting result are the different transitions to synchrony found in the two distinct time scales. Moreover, an anomalous synchronization effect can be observed in the fast time scale, i.e. there is range of the coupling strength where desynchronization occurs. The second system analyzed, numerically as well as experimentally, is a pair of coupled CO₂ lasers in a chaotic bursting regime. This system is interesting due to its similarity with epidemic models. We explain the bursts by different time scales generated from unstable periodic orbits embedded in the chaotic attractor and perform a synchronization analysis of these different orbits utilizing the continuous wavelet transform. We find a diverse route to synchrony of these different observed time scales. The last system studied is a small network motif of limit cycle oscillators. Precisely, we have studied a hub motif, which serves as elementary building block for scale-free networks, a type of network found in many real world applications. These hubs are of special importance for communication and information transfer in complex networks. Here, a detailed study on the mechanism of synchronization in oscillatory networks with a broad frequency distribution has been carried out. In particular, we find a remote synchronization of nodes in the network which are not directly coupled. We also explain the responsible mechanism and its limitations and constraints. Further we derive an analytic expression for it and show that information transmission in pure phase oscillators, such as the Kuramoto type, is limited. In addition to the numerical and analytic analysis an experiment consisting of electrical circuits has been designed. The obtained results confirm the former findings.
Indonesia is one of the countries most prone to natural hazards. Complex interaction of several tectonic plates with high relative velocities leads to approximately two earthquakes with magnitude Mw>7 every year, being more than 15% of the events worldwide. Earthquakes with magnitude above 9 happen far more infrequently, but with catastrophic effects. The most severe consequences thereby arise from tsunamis triggered by these subduction-related earthquakes, as the Sumatra-Andaman event in 2004 showed. In order to enable efficient tsunami early warning, which includes the estimation of wave heights and arrival times, it is necessary to combine different types of real-time sensor data with numerical models of earthquake sources and tsunami propagation. This thesis was created as a result of the GITEWS project (German Indonesian Tsunami Early Warning System). It is based on five research papers and manuscripts. Main project-related task was the development of a database containing realistic earthquake scenarios for the Sunda Arc. This database provides initial conditions for tsunami propagation modeling used by the simulation system at the early warning center. An accurate discretization of the subduction geometry, consisting of 25x150 subfaults was constructed based on seismic data. Green’s functions, representing the deformational response to unit dip- and strike slip at the subfaults, were computed using a layered half-space approach. Different scaling relations for earthquake dimensions and slip distribution were implemented. Another project-related task was the further development of the ‘GPS-shield’ concept. It consists of a constellation of near field GPS-receivers, which are shown to be very valuable for tsunami early warning. The major part of this thesis is related to the geophysical interpretation of GPS data. Coseismic surface displacements caused by the 2004 Sumatra earthquake are inverted for slip at the fault. The effect of different Earth layer models is tested, favoring continental structure. The possibility of splay faulting is considered and shown to be a secondary order effect in respect to tsunamigenity for this event. Tsunami models based on source inversions are compared to satellite radar altimetry observations. Postseismic GPS time series are used to test a wide parameter range of uni- and biviscous rheological models of the asthenosphere. Steady-state Maxwell rheology is shown to be incompatible with near-field GPS data, unless large afterslip, amounting to more than 10% of the coseismic moment is assumed. In contrast, transient Burgers rheology is in agreement with data without the need for large aseismic afterslip. Comparison to postseismic geoid observation by the GRACE satellites reveals that even with afterslip, the model implementing Maxwell rheology results in amplitudes being too small, and thus supports a biviscous asthenosphere. A simple approach based on the assumption of quasi-static deformation propagation is introduced and proposed for inversion of coseismic near-field GPS time series. Application of this approach to observations from the 2004 Sumatra event fails to quantitatively reconstruct the rupture propagation, since a priori conditions are not fulfilled in this case. However, synthetic tests reveal the feasibility of such an approach for fast estimation of rupturing properties.
Im Rahmen eines explorativen Vergleichsuntersuchungsplans wurde untersucht, inwieweit sich die durch biologische Faktoren bedingte unterschiedliche Lebenserfahrung sowie die Sozialisationsbedingungen in der psychosexuellen Entwicklung bei hetero-, homo- und postoperativen transsexuellen Männern (N = 191) auf die Integration der Geschlechterstereotypen in die kognitiven (Selbst-, Fremdwahrnehmung), emotionalen (Selbst- und Fremdbewertung) und verhaltensmäßigen Aspekte (Normen der geschlechtsspezifischen Verhaltens) der Geschlechtsidentität auswirken und ob sich Identifikationsmuster der Entwicklung des geschlechtlichen Selbstkonzepts ableiten lassen. Die Messung der kognitiven Aspekte des geschlechtlichen Selbstkonzepts (Maskulinität und Femininität) erfolgte mittels der GERO-Skala von Brengelmann und Hendrich (1990). Zur Erfassung der emotionalen Aspekte und Identifikationsmuster der Entwicklung des geschlechtlichen Selbstkonzepts wurden die Werte für die Variablen Maskulinität und Femininität zuerst mittels der computergesteuerten Methodik IDEXMONO und IDEXIDIO, die auf der Identitätsstrukturanalyse (Identity Structure Analysis) von Weinreich (2003) basiert, aufgearbeitet und weiter interferenzstatistisch ausgewertet. Weiterhin wurden der Fragebogen zur Messung normativer Geschlechtsrollenorientierung (NGRO) von Athenstaedt (2000) sowie ein ad hoc entworfener demographischer Fragebogen eingesetzt. Die Ergebnisse zeigen, dass der Verlauf der psychosexuellen Entwicklung einen starken Einfluss auf die Integration der Geschlechterstereotypen in die geschlechtliche Selbst- und Fremdwahrnehmung hat. Im kognitiven Bereich, bezogen auf die persönliche Identität (Grad der Selbstzuschreibung männlicher und weiblicher Merkmale), stellt die Maskulinität eine stabile und erstrebenswerte Variable zur Herausbildung des geschlechtlichen Selbstkonzepts bei allen Gruppen dar. Die Femininität trägt am meisten zur Differenzierung zwischen den Hetero-, Homo- und Transsexuellen bei. Sie wird, je nach der Entwicklungsphase, unterschiedlich in das geschlechtliche Selbstkonzept integriert. Hinsichtlich der sozialen Identität (Zugehörigkeitsgefühl) lassen sich die Gruppen bezüglich der wahrgenommenen Ähnlichkeiten sowohl mit männlichen als auch weiblichen Personen, je nach der Entwicklungsphase, unterscheiden. Die soziale Wahrnehmung von Männern und Frauen (Fremdwahrnehmung), ist bei Transsexuellen traditioneller als die der Hetero- und Homosexuellen. Bei der Selbst- und Fremdbewertung ergaben sich keine signifikanten Unterschiede. Bei der Internalisierung der sozialen Normen des geschlechtsspezifischen Verhaltens zeigt sich, dass Heterosexuelle der Ausübung der Geschlechterrollen gegenüber egalitärer eingestellt sind als Trans- und Homosexuelle. Bei den Sozialisationsfaktoren ist hervorzuheben, dass generell weibliche Identifikationspersonen einen stärkeren Einfluss auf die Herausbildung des geschlechtlichen Selbstkonzeptes hatten als männliche Identifikationspersonen. Es scheint jedoch, dass Homosexuelle bei der Entwicklung ihres geschlechtlichen Selbstkonzepts stärker unter dem Einfluss der Frauen stehen als die anderen zwei erforschten Gruppen. Zur Beantwortung der Frage, welche selbstkonzeptbezogenen Variablen und Entwicklungsfaktoren die größte statistische Bedeutung für die Trennung und Prädiktion der einzelnen untersuchten Gruppen haben, wurde eine Diskriminanzanalyse berechnet. Die größte diskriminatorische Bedeutung besitzen die Variablen „Stereotypische Wahrnehmung der männlichen Personen“ und „Ego-Involvement mit weiblichen Personen“ für die Diskriminanzfunktion 1 (Trennung der Transsexuellen von Hetero- und Homosexuellen) und die Variablen „Empathische Identifikation mit männlichen Personen in der Vergangenheit“ und „Zuwachs an empathischer Identifikation mit weiblichen Personen“ für die Diskriminanzfunktion 2 (Trennung der Hetero- von Homosexuellen).
Nanoporous carbon materials are widely used in industry as adsorbents or catalyst supports, whilst becoming increasingly critical to the developing fields of energy storage / generation or separation technologies. In this thesis, the combined use of carbohydrate hydrothermal carbonisation (HTC) and templating strategies is demonstrated as an efficient route to nanostructured carbonaceous materials. HTC is an aqueous-phase, low-temperature (e.g. 130 – 200 °C) carbonisation, which proceeds via dehydration / poly-condensation of carbon precursors (e.g. carbohydrates and their derivatives), allowing facile access to highly functional carbonaceous materials. Whilst possessing utile, modifiable surface functional groups (e.g. -OH and -C=O-containing moieties), materials synthesised via HTC typically present limited accessible surface area or pore volume. Therefore, this thesis focuses on the development of fabrication routes to HTC materials which present enhanced textural properties and well-defined porosity. In the first discussed synthesis, a combined hard templating / HTC route was investigated using a range of sacrificial inorganic templates (e.g. mesoporous silica beads and macroporous alumina membranes (AAO)). Via pore impregnation of mesoporous silica beads with a biomass-derived carbon source (e.g. 2-furaldehyde) and subsequent HTC at 180 oC, an inorganic / carbonaceous hybrid material was produced. Removal of the template component by acid etching revealed the replication of the silica into mesoporous carbonaceous spheres (particle size ~ 5 μm), representing the inverse morphological structure of the original inorganic body. Surface analysis (e.g. FTIR) indicated a material decorated with hydrophilic (oxygenated) functional groups. Further thermal treatment at increasingly elevated temperatures (e.g. at 350, 550, 750 oC) under inert atmosphere allowed manipulation of functionalities from polar hydrophilic to increasingly non-polar / hydrophobic structural motifs (e.g. extension of the aromatic / pseudo-graphitic nature), thus demonstrating a process capable of simultaneous control of nanostructure and surface / bulk chemistry. As an extension of this approach, carbonaceous tubular nanostructures with controlled surface functionality were synthesised by the nanocasting of uniform, linear macropores of an AAO template (~ 200 nm). In this example, material porosity could be controlled, showing increasingly microporous tube wall features as post carbonisation temperature increased. Additionally, by taking advantage of modifiable surface groups, the introduction of useful polymeric moieties (i.e. grafting of thermoresponsive poly(N-isopropylacrylamide)) was also demonstrated, potentially enabling application of these interesting tubular structures in the fields of biotechnology (e.g. enzyme immobilization) and medicine (e.g. as drug micro-containers). Complimentary to these hard templating routes, a combined HTC / soft templating route for the direct synthesis of ordered porous carbonaceous materials was also developed. After selection of structural directing agents and optimisation of synthesis composition, the F127 triblock copolymer (i.e. ethylene oxide (EO)106 propylene oxide (PO)70 ethylene oxide (EO)106) / D-Fructose system was extensively studied. D-Fructose was found to be a useful carbon precursor as the HTC process could be performed at 130 oC, thus allowing access to stable micellular phase. Thermolytic template removal from the synthesised ordered copolymer / carbon composite yielded functional cuboctahedron single crystalline-like particles (~ 5 μm) with well ordered pore structure of a near perfect cubic Im3m symmetry. N2 sorption analysis revealed a predominantly microporous carbonaceous material (i.e. Type I isotherm, SBET = 257 m2g-1, 79 % microporosity) possessing a pore size of ca. 0.9 nm. The addition of a simple pore swelling additive (e.g. trimethylbenzene (TMB)) to this system was found to direct pore size into the mesopore size domain (i.e. Type IV isotherm, SBET = 116 m2g-1, 60 % mesoporosity) generating pore size of ca. 4 nm. It is proposed that in both cases as HTC proceeds to generate a polyfuran-like network, the organised block copolymer micellular phase is essentially “templated”, either via hydrogen bonding between hydrophilic poly(EO) moiety and the carbohydrate or via hydrophobic interaction between hydrophobic poly(PO) moiety and forming polyfuran-like network, whilst the additive TMB presumably interact with poly(PO) moieties, thus swelling the hydrophobic region expanding the micelle template size further into the mesopore range.
Towards greener stationary phases : thermoresponsive and carbonaceous chromatographic supports
(2011)
Polymers which are sensitive towards external physical, chemical and electrical stimuli are termed as ‘intelligent materials’ and are widely used in medical and engineering applications. Presently, polymers which can undergo a physical change when heat is applied at a certain temperature (cloud point) in water are well-studied for this property in areas of separation chemistry, gene and drug delivery and as surface modifiers. One example of such a polymer is the poly (N-isopropylacrylamide) PNIPAAM, where it is dissolved well in water below 32 oC, while by increasing the temperature further leads to its precipitation. In this work, an alternative polymer poly (2-(2-methoxy ethoxy)ethyl methacrylate-co- oligo(ethylene glycol) methacrylate) (P(MEO2MA-co-OEGMA)) is studied due to its biocompatibility and the ability to vary its cloud points in water. When a layer of temperature responsive polymer was attached to a single continuous porous piece of silica-based material known as a monolith, the thermoresponsive characteristic was transferred to the column surfaces. The hybrid material was demonstrated to act as a simple temperature ‘switch’ in the separation of a mixture of five steroids under water. Different analytes were observed to be separated under varying column temperatures. Furthermore, more complex biochemical compounds such as proteins were also tested for separation. The importance of this work is attributed to separation processes utilizing environmentally friendly conditions, since harsh chemical environments conventionally used to resolve biocompounds could cause their biological activities to be rendered inactive.
The modeling and evaluation calculus FMC-QE, the Fundamental Modeling Concepts for Quanti-tative Evaluation [1], extends the Fundamental Modeling Concepts (FMC) for performance modeling and prediction. In this new methodology, the hierarchical service requests are in the main focus, because they are the origin of every service provisioning process. Similar to physics, these service requests are a tuple of value and unit, which enables hierarchical service request transformations at the hierarchical borders and therefore the hierarchical modeling. Through reducing the model complexity of the models by decomposing the system in different hierarchical views, the distinction between operational and control states and the calculation of the performance values on the assumption of the steady state, FMC-QE has a scalable applica-bility on complex systems. According to FMC, the system is modeled in a 3-dimensional hierarchical representation space, where system performance parameters are described in three arbitrarily fine-grained hierarchi-cal bipartite diagrams. The hierarchical service request structures are modeled in Entity Relationship Diagrams. The static server structures, divided into logical and real servers, are de-scribed as Block Diagrams. The dynamic behavior and the control structures are specified as Petri Nets, more precisely Colored Time Augmented Petri Nets. From the structures and pa-rameters of the performance model, a hierarchical set of equations is derived. The calculation of the performance values is done on the assumption of stationary processes and is based on fundamental laws of the performance analysis: Little's Law and the Forced Traffic Flow Law. Little's Law is used within the different hierarchical levels (horizontal) and the Forced Traffic Flow Law is the key to the dependencies among the hierarchical levels (vertical). This calculation is suitable for complex models and allows a fast (re-)calculation of different performance scenarios in order to support development and configuration decisions. Within the Research Group Zorn at the Hasso Plattner Institute, the work is embedded in a broader research in the development of FMC-QE. While this work is concentrated on the theoretical background, description and definition of the methodology as well as the extension and validation of the applicability, other topics are in the development of an FMC-QE modeling and evaluation tool and the usage of FMC-QE in the design of an adaptive transport layer in order to fulfill Quality of Service and Service Level Agreements in volatile service based environments. This thesis contains a state-of-the-art, the description of FMC-QE as well as extensions of FMC-QE in representative general models and case studies. In the state-of-the-art part of the thesis in chapter 2, an overview on existing Queueing Theory and Time Augmented Petri Net models and other quantitative modeling and evaluation languages and methodologies is given. Also other hierarchical quantitative modeling frameworks will be considered. The description of FMC-QE in chapter 3 consists of a summary of the foundations of FMC-QE, basic definitions, the graphical notations, the FMC-QE Calculus and the modeling of open queueing networks as an introductory example. The extensions of FMC-QE in chapter 4 consist of the integration of the summation method in order to support the handling of closed networks and the modeling of multiclass and semaphore scenarios. Furthermore, FMC-QE is compared to other performance modeling and evaluation approaches. In the case study part in chapter 5, proof-of-concept examples, like the modeling of a service based search portal, a service based SAP NetWeaver application and the Axis2 Web service framework will be provided. Finally, conclusions are given by a summary of contributions and an outlook on future work in chapter 6. [1] Werner Zorn. FMC-QE - A New Approach in Quantitative Modeling. In Hamid R. Arabnia, editor, Procee-dings of the International Conference on Modeling, Simulation and Visualization Methods (MSV 2007) within WorldComp ’07, pages 280 – 287, Las Vegas, NV, USA, June 2007. CSREA Press. ISBN 1-60132-029-9.
Situated in an active tectonic region, Santiago de Chile, the country´s capital with more than six million inhabitants, faces tremendous earthquake hazard. Macroseismic data for the 1985 Valparaiso and the 2010 Maule events show large variations in the distribution of damage to buildings within short distances indicating strong influence of local sediments and the shape of the sediment-bedrock interface on ground motion. Therefore, a temporary seismic network was installed in the urban area for recording earthquake activity, and a study was carried out aiming to estimate site amplification derived from earthquake data and ambient noise. The analysis of earthquake data shows significant dependence on the local geological structure with regards to amplitude and duration. Moreover, the analysis of noise spectral ratios shows that they can provide a lower bound in amplitude for site amplification and, since no variability in terms of time and amplitude is observed, that it is possible to map the fundamental resonance frequency of the soil for a 26 km x 12 km area in the northern part of the Santiago de Chile basin. By inverting the noise spectral rations, local shear wave velocity profiles could be derived under the constraint of the thickness of the sedimentary cover which had previously been determined by gravimetric measurements. The resulting 3D model was derived by interpolation between the single shear wave velocity profiles and shows locally good agreement with the few existing velocity profile data, but allows the entire area, as well as deeper parts of the basin, to be represented in greater detail. The wealth of available data allowed further to check if any correlation between the shear wave velocity in the uppermost 30 m (vs30) and the slope of topography, a new technique recently proposed by Wald and Allen (2007), exists on a local scale. While one lithology might provide a greater scatter in the velocity values for the investigated area, almost no correlation between topographic gradient and calculated vs30 exists, whereas a better link is found between vs30 and the local geology. When comparing the vs30 distribution with the MSK intensities for the 1985 Valparaiso event it becomes clear that high intensities are found where the expected vs30 values are low and over a thick sedimentary cover. Although this evidence cannot be generalized for all possible earthquakes, it indicates the influence of site effects modifying the ground motion when earthquakes occur well outside of the Santiago basin. Using the attained knowledge on the basin characteristics, simulations of strong ground motion within the Santiago Metropolitan area were carried out by means of the spectral element technique. The simulation of a regional event, which has also been recorded by a dense network installed in the city of Santiago for recording aftershock activity following the 27 February 2010 Maule earthquake, shows that the model is capable to realistically calculate ground motion in terms of amplitude, duration, and frequency and, moreover, that the surface topography and the shape of the sediment bedrock interface strongly modify ground motion in the Santiago basin. An examination on the dependency of ground motion on the hypocenter location for a hypothetical event occurring along the active San Ramón fault, which is crossing the eastern outskirts of the city, shows that the unfavorable interaction between fault rupture, radiation mechanism, and complex geological conditions in the near-field may give rise to large values of peak ground velocity and therefore considerably increase the level of seismic risk for Santiago de Chile.
The Antarctic plays an important role in the global climate system. On the one hand, the Antarctic Ice Sheet is the largest freshwater reservoir on Earth. On the other hand, a major proportion of the global bottom-water formation takes place in Antarctic shelf regions, forcing the global thermohaline circulation. The main goal of this dissertation is to provide new insights into the dynamics and stability of the EAIS during the Quaternary. Additionally, variations in the activity of bottom-water formation and their causes are investigated. The dissertation is a German contribution to the International Polar Year 2007/ 2008 and was funded by the ‘Deutsche Forschungsgesellschaft’ (DFG) within the scope of priority program 1158 ‘Antarctic research with comparative studies in Arctic ice regions’. During RV Polarstern expedition ANT-XXIII/9, glaciomarine sediments were recovered from the Prydz Bay-Kerguelen region. Prydz Bay is a key region for the study of East EAIS dynamics, as 16% of the EAIS are drained through the Lambert Glacier into the bay. Thereby, the glacier transports sediment into Prydz Bay which is then further distributed by calving icebergs or by current transport. The scientific approach of this dissertation is the reconstruction of past glaciomarine environments to infer on the response of the Lambert Glacier-Amery Ice Shelf system to climate shifts during the Quaternary. To characterize the depositional setting, sedimentological methods are used and statistical analyses are applied. Mineralogical and (bio)geochemical methods provide a means to reconstruct sediment provenances and to provide evidence on changes in the primary production in the surface water column. Age-depth models were constructed based on palaeomagnetic and palaeointensity measurements, diatom stratigraphy and radiocarbon dating. Sea-bed surface sediments in the investigation area show distinct variations in terms of their clay minerals and heavy-mineral assemblages. Considerable differences in the mineralogical composition of surface sediments are determined on the continental shelf. Clay minerals as well as heavy minerals provide useful parameters to differentiate between sediments which originated from erosion of crystalline rocks and sediments originating from Permo-Triassic deposits. Consequently, mineralogical parameters can be used to reconstruct the provenance of current-transported and ice-rafted material. The investigated sediment cores cover the time intervals of the last 1.4 Ma (continental slope) and the last 12.8 cal. ka BP (MacRobertson shelf). The sediment deposits were mainly influenced by glacial and oceanographic processes and further by biological activity (continental shelf), meltwater input and possibly gravitational transport. Sediments from the continental slope document two major deglacial events: the first deglaciation is associated with the mid-Pleistocene warming recognized around the Antarctic. In Prydz Bay, the Lambert Glacier-Amery Ice Shelf retreated far to the south and high biogenic productivity commenced or biogenic remains were better preserved due to increased sedimentation rates. Thereafter, stable glacial conditions continued until 400 - 500 ka BP. Calving of icebergs was restricted to the western part of the Lambert Glacier. The deeper bathymetry in this area allows for floating ice shelf even during times of decreased sea-level. Between 400 - 500 ka BP and the last interglacial (marine isotope stage 5) the glacier was more dynamic. During or shortly after the last interglacial the LAIS retreated again due to sea-level rise of 6 - 9 m. Both deglacial events correlate with a reduction in the thickness of ice masses in the Prince Charles Mountains. It indicates that a disintegration of the Amery Ice Shelf possibly led to increased drainage of ice masses from the Prydz Bay hinterland. A new end-member modelling algorithm was successfully applied on sediments from the MacRobertson shelf used to unmix the sand grain size fractions sorted by current activity and ice transport, respectively. Ice retreat on MacRobertson Shelf commenced 12.8 cal. ka BP and ended around 5.5 cal. ka BP. During the Holocene, strong fluctuations of the bottomwater activity were observed, probably related to variations of sea-ice formation in the Cape Darnley polynya. Increased activity of bottom-water flow was reconstructed at transitions from warm to cool conditions, whereas bottom-water activity receded during the mid- Holocene climate optimum. It can be concluded that the Lambert Glacier-Amery Ice Shelf system was relatively stable in terms of climate variations during the Quaternary. In contrast, bottom-water formation due to polynya activity was very sensitive to changes in atmospheric forcing and should gain more attention in future research.
This work describes the realization of physically crosslinked networks based on gelatin by the introduction of functional groups enabling specific supramolecular interactions. Molecular models were developed in order to predict the material properties and permit to establish a knowledge-based approach to material design. The effect of additional supramolecular interactions with hydroxyapaptite was then studied in composite materials. The calculated properties are compared to experimental results to validate the models. The models are then further used for the study of physically crosslinked networks. Gelatin was functionalized with desaminotyrosine (DAT) and desaminotyrosyl-tyrosine (DATT) side groups, derived from the natural amino acid tyrosine. These group can potentially undergo to π-π and hydrogen bonding interactions also under physiological conditions. Molecular dynamics (MD) simulations were performed on models with 0.8 wt.-% or 25 wt.-% water content, using the second generation forcefield CFF91. The validation of the models was obtained by the comparison with specific experimental data such as, density, peptide conformational angles and X-ray scattering spectra. The models were then used to predict the supramolecular organization of the polymer chain, analyze the formation of physical netpoints and calculate the mechanical properties. An important finding of simulation was that with the increase of aromatic groups also the number of observed physical netpoints increased. The number of relatively stable physical netpoints, on average zero 0 for natural gelatin, increased to 1 and 6 for DAT and DATT functionalized gelatins respectively. A comparison with the Flory-Rehner model suggested reduced equilibrium swelling by factor 6 of the DATT-functionalized materials in water. The functionalized gelatins could be synthesized by chemoselective coupling of the free carboxylic acid groups of DAT and DATT to the free amino groups of gelatin. At 25 wt.-% water content, the simulated and experimentally determined elastic mechanical properties (e.g. Young Modulus) were both in the order of GPa and were not influenced by the degree of aromatic modification. The experimental equilibrium degree of swelling in water decreased with increasing the number of inserted aromatic functions (from 2800 vol.-% for pure gelatin to 300 vol.-% for the DATT modified gelatin), at the same time, Young’s modulus, elongation at break, and maximum tensile strength increased. It could be show that the functionalization with DAT and DATT influences the chain organization of gelatin based materials together with a controlled drying condition. Functionalization with DAT and DATT lead to a drastic reduction of helical renaturation, that could be more finely controlled by the applied drying conditions. The properties of the materials could then be influenced by application of two independent methods. Composite materials of DAT and DATT functionalized gelatins with hydroxyapatite (HAp) show a drastic reduction of swelling degree. In tensile tests and rheological measurements, the composites equilibrated in water had increased Young’s moduli (from 200 kPa up to 2 MPa) and tensile strength (from 57 kPa up to 1.1 MPa) compared to the natural polymer matrix without affecting the elongation at break. Furthermore, an increased thermal stability from 40 °C to 85 °C of the networks could be demonstrated. The differences of the behaviour of the functionalized gelatins to pure gelatin as matrix suggested an additional stabilizing bond between the incorporated aromatic groups to the hydroxyapatite.
Functional analyses of microtubule and centrosome-associated proteins in Dictyostelium discoideum
(2011)
Understanding the role of microtubule-associated proteins is the key to understand the complex mechanisms regulating microtubule dynamics. This study employs the model system Dictyostelium discoideum to elucidate the role of the microtubule-associated protein TACC (Transforming acidic coiled-coil) in promoting microtubule growth and stability. Dictyostelium TACC was localized at the centrosome throughout the entire cell cycle. The protein was also detected at microtubule plus ends, however, unexpectedly only during interphase but not during mitosis. The same cell cycle-dependent localization pattern was observed for CP224, the Dictyostelium XMAP215 homologue. These ubiquitous MAPs have been found to interact with TACC proteins directly and are known to act as microtubule polymerases and nucleators. This work shows for the first time in vivo that both a TACC and XMAP215 family protein can differentially localize to microtubule plus ends during interphase and mitosis. RNAi knockdown mutants revealed that TACC promotes microtubule growth during interphase and is essential for proper formation of astral microtubules in mitosis. In many organisms, impaired microtubule stability upon TACC depletion was explained by the failure to efficiently recruit the TACC-binding XMAP215 protein to centrosomes or spindle poles. By contrast, fluorescence recovery after photobleaching (FRAP) analyses conducted in this study demonstrate that in Dictyostelium recruitment of CP224 to centrosomes or spindle poles is not perturbed in the absence of TACC. Instead, CP224 could no longer be detected at the tips of microtubules in TACC mutant cells. This finding demonstrates for the first time in vivo that a TACC protein is essential for the association of an XMAP215 protein with microtubule plus ends. The GFP-TACC strains generated in this work also turned out to be a valuable tool to study the unusual microtubule dynamics in Dictyostelium. Here, microtubules exhibit a high degree of lateral bending movements but, in contrast most other organisms, they do not obviously undergo any growth or shrinkage events during interphase. Despite of that they are affected by microtubuledepolymerizing drugs such as thiabendazole or nocodazol which are thought to act solely on dynamic microtubules. Employing 5D-fluorescence live cell microscopy and FRAP analyses this study suggests Dictyostelium microtubules to be dynamic only in the periphery, while they are stable at the centrosome. In the recent years, the identification of yet unknown components of the Dictyostelium centrosome has made tremendous progress. A proteomic approach previously conducted by our group disclosed several uncharacterized candidate proteins, which remained to be verified as genuine centrosomal components. The second part of this study focuses on the investigation of three such candidate proteins, Cenp68, CP103 and the putative spindle assembly checkpoint protein Mad1. While a GFP-CP103 fusion protein could clearly be localized to isolated centrosomes that are free of microtubules, Cenp68 and Mad1 were found to associate with the centromeres and kinetochores, respectively. The investigation of Cenp68 included the generation of a polyclonal anti-Cenp68 antibody, the screening for interacting proteins and the generation of knockout mutants which, however, did not display any obvious phenotype. Yet, Cenp68 has turned out as a very useful marker to study centromere dynamics during the entire cell cycle. During mitosis, GFP-Mad1 localization strongly resembled the behavior of other Mad1 proteins, suggesting the existence of a yet uncharacterized spindle assembly checkpoint in Dictyostelium.
Besteuerung von Unternehmensgewinnen im Licht des Konzepts der konsumorientierten Einkommensteuer
(2011)
Die Dissertation widmet sich dem Problem der fiskalischen Konsequenzen der konsumorientierten Steuern, die die unternehmerischen Gewinne unabhängig von der Rechtsform belasten. Im empirischen Teil der Arbeit wird der Untersuchungsgegenstand auf die zinsbereinigte Gewinnsteuer (allowance for corporate equity) eingegrenzt. Die Untersuchung beruht auf theoretischen Überlegungen sowie einer eigenen Simulationsanalyse. Den Schwerpunkt bilden dabei zwei Kategorien, zwischen denen ein kausaler Zusammenhang vorliegt: die Gestaltung der Bemessungsgrundlage einerseits und die Erfüllung der Fiskalfunktion andererseits. Das Hauptziel der Arbeit ist es, die fiskalischen Konsequenzen einer nach dem Konzept der Konsumorientierung modifizierten Bemessungsgrundlage der Gewinnsteuern zu überprüfen. Die Abschätzung der fiskalischen Konsequenzen wird aufgrund der vier folgenden Bereiche vorgenommen: (1) theoretische Konzepte der konsumorientierten Einkommensteuer, (2) bisherige Umsetzungen der Konzepte der konsumorientierten Gewinnsteuer, (3) bisherige Untersuchungen der konsumorientierten Gewinnsteuer, (4) eine eigene Simulation der fiskalischen Konsequenzen der konsumorientierten Gewinnsteuer. Um das Hauptziel der Arbeit zu erreichen, werden acht in Form von Teilfragen ausformulierte Untersuchungsprobleme gelöst. Sie betreffen sowohl die theoretischen Ausführungen, als auch die empirische Untersuchung. Dabei entsprechen sie den einzelnen Untersuchungsschritten, die in den aufeinander folgenden Kapiteln der Arbeit durchgeführt werden. Anhand der Analyse der bisherigen wissenschaftlichen Erkenntnisse und der praktischen Umsetzungen des Konzepts der konsumorientierten Steuern wurde die folgende Haupthypothese aufgestellt: Der Ausfall des Steueraufkommens, der ein direkter Effekt der Gestaltung der Bemessungsgrundlage nach dem Konzept der Konsumorientierung ist, schließt die Fiskalfunktion der Gewinnsteuern nicht aus. Das Verfahren, das eine Verifizierung der Haupthypothese zum Ziel hat, erfolgt durch eine Untersuchung von drei Teilhypothesen: der Hypothese über die Nullsteuer, der Hypothese über den differenzierten Aufkommensausfall und der Hypothese über die Konzentration der Steuerschuld. In der Dissertation werden empirische Daten aus drei Quellen benutzt. Sie umfassen einen Teil der in Polen in den Jahren 2004-2008 tätigen Unternehmen und ermöglichen es, eine Simulationsanalyse des Aufkommensausfalls durchzuführen. Diese bedient sich der Methodik der Mikro- und Gruppensimulation, was in den bisherigen Untersuchungen zur Unternehmensbesteuerung ein eher selten anzutreffender Ansatz ist. Die gewonnenen Ergebnisse zeigen, dass die Steuereinnahmen aus der Einkommensteuer und der Körperschaftsteuer durch die Modifizierung der Bemessungsgrundlage deutlich reduziert werden. Die relativ große fiskalische Bedeutung der beiden Steuern bleibt jedoch erhalten und der Ausfall des Steueraufkommens, der direkt nach der Einführung einer konsumorientierten Steuerreform eintreten würde, wäre der „Preis“ für eine bessere, weniger verzerrende Bemessungsgrundlage. Die Dissertation liefert Ergebnisse, die für die Gestaltung der Steuerpolitik in Polen wie auch in anderen Ländern relevant sind. Dies scheint insbesondere im Kontext des häufig diskutierten Umbaus des Systems der Einkommen- und Gewinnbesteuerung bedeutsam. Darüber hinaus bildet die Arbeit einen Ausgangspunkt für weitere, vertiefte Untersuchungen zu den möglichen Gestaltungsformen der Einkommen- und Gewinnsteuern wie auch zu deren Folgen. Die Methode der Steuersimulation kann weiterentwickelt werden und in anderen Analysen der potenziellen Konsequenzen von Steuerreformen Anwendung finden.
In this thesis entitled “Saccharide Recognition - Boronic acids as Receptors in Polymeric Networks” different aspects of boronic acid synthesis, their analysis and incorporation or attachment to different polymeric networks and characterisation thereof were investigated. The following key aspects were considered: • Provision of a variety of different characterised arylboronic acids and benzoboroxoles • Attachment of certain derivatives to nanoparticles and the characterisation of saccharide binding by means of isothermal titration calorimetry and displacement assay (ARS) to enhance the association constant to saccharides at pH 7.4 • Enhancement of selectivity in polymeric systems by means of molecular imprinting using fructose as template and a polymerisable benzoboroxole as functional monomer for the recognition at pH 7.4 (Joined by a diploma thesis of F. Grüneberger) • Development of biomimetic saccharide structures and the development of saccharide (especially glucose and fructose) binding MIPs by using these structures as template molecules. In the first part of the thesis different arylboronic acid derivatives were synthesised and their binding to glucose or fructose was investigated by means of isothermal titration calorimetry (ITC). It could be derived, which is in parallel to the literature, that derivatives bearing a methylhydroxyl-group in ortho-position to the boron (benzoboroxole) exhibit in most cases a two-fold higher association constant compared to the corresponding phenylboronic acid derivative. To gain a deeper understanding NMR spectroscopy and mass spectrometry with the benzoboroxole and glucose or fructose was performed. It could be shown that the exchange rate in terms of NMR time scale is quite slow since in titration experiments new peaks appeared. Via mass spectrometry of a mixture between benzoboroxole and glucose or fructose, different binding stoichiometries could be detected showing that the binding of saccharides is comparable with their binding to phenylboronic acid. In addition, the use of Alizarin Red S as an electrochemical reporter was described for the first time to monitor the saccharide binding to arylboronic acids not only with spectroscopy. Here, the redox behaviour and the displacement were recorded by cyclic voltammograms. In the second part different applications of boronic acids in polymeric networks were investigated. The attachment of benzoboroxoles to nanoparticles was investigated and monitored by means of isothermal titration calorimetry and a colourimetric assay with Alizarin Red S as the report dye. The investigations by isothermal titration calorimetry compared the fructose binding of arylboronic acids and benzoboroxoles coupled to these nanoparticles and “free” in solution. It could be shown that the attached derivatives showed a higher binding constant due to an increasing entropy term. This states for possible multivalent binding combined with a higher water release. Since ITC could not characterise the binding of glucose to these nanoparticles due to experimental restrictions the glucose binding at pH 7.4 was shown with ARS. Here, the displacement of ARS by fructose and also glucose could be followed and consequently these nanoparticles can be used for saccharide determination. Within this investigation also the temperature stability of these nanoparticles was examined and after normal sterilisation procedures (121°C, 20 min.) the binding behaviour was still unchanged. To target the selectivity of the used polymeric networks, molecular imprinting was used as a technique for creating artificial binding pockets on a molecular scale. As functional monomer 3-methacrylamidobenzoboroxole was introduced for the recognition of fructose. In comparison to polymers prepared with vinylphenylboronic acid the benzoboroxole containing polymer had a stronger binding at pH 7.4 which was shown for the first time. In addition, another imprinted polymer was synthesised especially for the recognition of glucose and fructose employing biomimetic saccharide analogues as template molecule. The advantage to use the saccharide analogues is the defined template-functional monomer complex during the polymerisation which is not the case, for example, for glucose-boronic acid interaction. The biomimetic character was proven through structural superimposition of crystal structures of the analogues with already described crystal structures of boronic acid esters of glucose and fructose. A molecularly imprinted polymer was synthesised with vinylphenylboronic acid as the functional monomer to show that both glucose and fructose are able to bind to the polymer which was predicted by the structural similarity of the analogues. The major scientific contributions of this thesis are • the determination of binding constants for some, not yet reported saccharide – boronic acid / benzoboroxole pairs, • the use of ARS as electrochemical reporter for saccharide detection, • the thermodynamic characterisation of a saccharide binding nanoparticle system containing benzoboroxole and functioning at pH 7.4, • the use of a polymerisable benzoboroxole as functional monomer for saccharide recognition in neutral, aqueous environments • and the synthesis and utilisation of biomimetic saccharide analogues as template molecules especially for the development of a glucose binding MIP.
Das Ziel dieser Arbeit ist die Untersuchung der aktiven Komponenten und ihrer Wechselwirkungen in teilorganischen Hybrid-Solarzellen. Diese bestehen aus einer dünnen Titandioxidschicht, kombiniert mit einer dünnen Polymerschicht. Die Effizienz der Hybrid-Solarzellen wird durch die Lichtabsorption im Polymer, die Dissoziation der gebildeten Exzitonen an der aktiven Grenzfläche zwischen TiO2 und Polymer, sowie durch Generation und Extraktion freier Ladungsträger bestimmt. Zur Optimierung der Solarzellen wurden grundlegende physikalische Wechselwirkungen zwischen den verwendeten Materialen sowie der Einfluss verschiedener Herstellungsparameter untersucht. Unter anderem wurden Fragen zum optimalen Materialeinsatz und Präparationsbedingungen beantwortet sowie grundlegende Einflüsse wie Schichtmorphologie und Polymerinfiltration näher betrachtet. Zunächst wurde aus unterschiedlich hergestelltem Titandioxid (Akzeptor-Schicht) eine Auswahl für den Einsatz in Hybrid-Solarzellen getroffen. Kriterium war hierbei die unterschiedliche Morphologie aufgrund der Oberflächenbeschaffenheit, der Film-Struktur, der Kristallinität und die daraus resultierenden Solarzelleneigenschaften. Für die anschließenden Untersuchungen wurden mesoporöse TiO2–Filme aus einer neuen Nanopartikel-Synthese, welche es erlaubt, kristalline Partikel schon während der Synthese herzustellen, als Elektronenakzeptor und konjugierte Polymere auf Poly(p-Phenylen-Vinylen) (PPV)- bzw. Thiophenbasis als Donatormaterial verwendet. Bei der thermischen Behandlung der TiO2-Schichten erfolgt eine temperaturabhängige Änderung der Morphologie, jedoch nicht der Kristallstruktur. Die Auswirkungen auf die Solarzelleneigenschaften wurden dokumentiert und diskutiert. Um die Vorteile der Nanopartikel-Synthese, die Bildung kristalliner TiO2-Partikel bei tiefen Temperaturen, nutzen zu können, wurden erste Versuche zur UV-Vernetzung durchgeführt. Neben der Beschaffenheit der Oxidschicht wurde auch der Einfluss der Polymermorphologie, bedingt durch Lösungsmittelvariation und Tempertemperatur, untersucht. Hierbei konnte gezeigt werden, dass u.a. die Viskosität der Polymerlösung die Infiltration in die TiO2-Schicht und dadurch die Effizienz der Solarzelle beeinflusst. Ein weiterer Ansatz zur Erhöhung der Effizienz ist die Entwicklung neuer lochleitender Polymere, welche möglichst über einen weiten spektralen Bereich Licht absorbieren und an die Bandlücke des TiO2 angepasst sind. Hierzu wurden einige neuartige Konzepte, z.B. die Kombination von Thiophen- und Phenyl-Einheiten näher untersucht. Auch wurde die Sensibilisierung der Titandioxidschicht in Anlehnung an die höheren Effizienzen der Farbstoffzellen in Betracht gezogen. Zusammenfassend konnten im Rahmen dieser Arbeit wichtige Einflussparameter auf die Funktion hybrider Solarzellen identifiziert und z.T. näher diskutiert werden. Für einige limitierende Faktoren wurden Konzepte zur Verbesserung bzw. Vermeidung vorgestellt.
Spatial and temporal temperature and moisture patterns across the Tibetan Plateau are very complex. The onset and magnitude of the Holocene climate optimum in the Asian monsoon realm, in particular, is a subject of considerable debate as this time period is often used as an analogue for recent global warming. In the light of contradictory inferences regarding past climate and environmental change on the Tibetan Plateau, I have attempted to explain mismatches in the timing and magnitude of change. Therefore, I analysed the temporal variation of fossil pollen and diatom spectra and the geochemical record from palaeo-ecological records covering different time scales (late Quaternary and the last 200 years) from two core regions in the NE and SE Tibetan Plateau. For interpretation purposes I combined my data with other available palaeo-ecological data to set up corresponding aquatic and terrestrial proxy data sets of two lake pairs and two sets of sites. I focused on the direct comparison of proxies representing lacustrine response to climate signals (e.g., diatoms, ostracods, geochemical record) and proxies representing changes in the terrestrial environment (i.e., terrestrial pollen), in order to asses whether the lake and its catchments respond at similar times and magnitudes to environmental changes. Therefore, I introduced the established numerical technique procrustes rotation as a new approach in palaeoecology to quantitatively compare raw data of any two sedimentary records of interest in order to assess their degree of concordance. Focusing on the late Quaternary, sediment cores from two lakes (Kuhai Lake 35.3°N; 99.2°E; 4150 m asl; and Koucha Lake 34.0°N; 97.2°E; 4540 m asl) on the semi-arid northeastern Tibetan Plateau were analysed to identify post-glacial vegetation and environmental changes, and to investigate the responses of lake ecosystems to such changes. Based on the pollen record, five major vegetation and climate changes could be identified: (1) A shift from alpine desert to alpine steppe indicates a change from cold, dry conditions to warmer and more moist conditions at 14.8 cal. ka BP, (2) alpine steppe with tundra elements points to conditions of higher effective moisture and a stepwise warming climate at 13.6 cal. ka BP, (3) the appearance of high-alpine meadow vegetation indicates a further change towards increased moisture, but with colder temperatures, at 7.0 cal. ka BP, (4) the reoccurrence of alpine steppe with desert elements suggests a return to a significantly colder and drier phase at 6.3 cal. ka BP, and (5) the establishment of alpine steppe-meadow vegetation indicates a change back to relatively moist conditions at 2.2 cal. ka BP. To place the reconstructed climate inferences from the NE Tibetan Plateau into the context of Holocene moisture evolution across the Tibetan Plateau, I applied a five-scale moisture index and average link clustering to all available continuous pollen and non-pollen palaeoclimate records from the Tibetan Plateau, in an attempt to detect coherent regional and temporal patterns of moisture evolution on the Plateau. However, no common temporal or spatial pattern of moisture evolution during the Holocene could be detected, which can be assigned to the complex responses of different proxies to environmental changes in an already very heterogeneous mountain landscape, where minor differences in elevation can result in marked variations in microenvironments. Focusing on the past 200 years, I analysed the sedimentary records (LC6 Lake 29.5°N, 94.3°E, 4132 m asl; and Wuxu Lake 29.9°N, 101.1°E, 3705 m asl) from the southeastern Tibetan Plateau. I found that despite presumed significant temperature increases over that period, pollen and diatom records from the SE Tibetan Plateau reveal only very subtle changes throughout their profiles. The compositional species turnover investigated over the last 200 years appears relatively low in comparison to the species reorganisations during the Holocene. The results indicate that climatically induced ecological thresholds are not yet crossed, but that human activity has an increasing influence, particularly on the terrestrial ecosystem. Forest clearances and reforestation have not caused forest decline in our study area, but a conversion of natural forests to semi-natural secondary forests. The results from the numerical proxy comparison of the two sets of two pairs of Tibetan lakes indicate that the use of different proxies and the work with palaeo-ecological records from different lake types can cause deviant stories of inferred change. Irrespective of the timescale (Holocene or last 200 years) or region (SE or NE Tibetan Plateau) analysed, the agreement in terms of the direction, timing, and magnitude of change between the corresponding terrestrial data sets is generally better than the match between the corresponding lacustrine data sets, suggesting that lacustrine proxies may partly be influenced by in-lake or local catchment processes whereas the terrestrial proxy reflects a more regional climatic signal. The current disaccord on coherent temporal and spatial climate patterns on the Tibetan Plateau can partly be ascribed to the complexity of proxy response and lake systems on the Tibetan Plateau. Therefore, a multi-proxy, multi-site approach is important in order to gain a reliable climate interpretation for the complex mountain landscape of the Tibetan Plateau.
In this thesis chemical reactions under hydrothermal conditions were explored, whereby emphasis was put on green chemistry. Water at high temperature and pressure acts as a benign solvent. Motivation to work under hydrothermal conditions was well-founded in the tunability of physicochemical properties with temperature, e.g. of dielectric constant, density or ion product, which often resulted in surprising reactivity. Another cornerstone was the implementation of the principles of green chemistry. Besides the use of water as solvent, this included the employment of a sustainable feedstock and the sensible use of resources by minimizing waste and harmful intermediates and additives. To evaluate the feasibility of hydrothermal conditions for chemical synthesis, exemplary reactions were performed. These were carried out in a continuous flow reactor, allowing for precise control of reaction conditions and kinetics measurements. In most experiments a temperature of 200 °C in combination with a pressure of 100 bar was chosen. In some cases the temperature was even raised to 300 °C. Water in this subcritical range can also be found in nature at hydrothermal vents on the ocean floor. On the primitive earth, environments with such conditions were however present in larger numbers. Therefore we tested whether biologically important carbohydrates could be formed at high temperature from the simple, probably prebiotic precursor formaldehyde. Indeed, this formose reaction could be carried out successfully, although the yield was lower compared to the counterpart reaction under ambient conditions. However, striking differences regarding selectivity and necessary catalysts were observed. At moderate temperatures bases and catalytically active cations like Ca2+ are necessary and the main products are hexoses and pentoses, which accumulate due to their higher stability. In contrast, in high-temperature water no catalyst was necessary but a slightly alkaline solution was sufficient. Hexoses were only formed in negligible amounts, whereas pentoses and the shorter carbohydrates accounted for the major fraction. Amongst the pentoses there was some preference for the formation of ribose. Even deoxy sugars could be detected in traces. The observation that catalysts can be avoided was successfully transferred to another reaction. In a green chemistry approach platform chemicals must be produced from sustainable resources. Carbohydrates can for instance be employed as a basis. They can be transformed to levulinic acid and formic acid, which can both react via a transfer hydrogenation to the green solvent and biofuel gamma-valerolactone. This second reaction usually requires catalysis by Ru or Pd, which are neither sustainable nor low-priced. Under hydrothermal conditions these heavy metals could be avoided and replaced by cheap salts, taking advantage of the temperature dependence of the acid dissociation constant. Simple sulfate was recognized as a temperature switchable base. With this additive high yield could be achieved by simultaneous prevention of waste. In contrast to conventional bases, which create salt upon neutralization, a temperature switchable base becomes neutral again when cooled down and thus can be reused. This adds another sustainable feature to the high atom economy of the presented hydrothermal synthesis. In a last study complex decomposition pathways of biomass were investigated. Gas chromatography in conjunction with mass spectroscopy has proven to be a powerful tool for the identification of unknowns. It was observed that several acids were formed when carbohydrates were treated with bases at high temperature. This procedure was also applied to digest wood. Afterwards it was possible to fermentate the solution and a good yield of methane was obtained. This has to be regarded in the light of the fact that wood practically cannot be used as a feedstock in a biogas factory. Thus the hydrothermal pretreatment is an efficient means to employ such materials as well. Also the reaction network of the hydrothermal decomposition of glycine was investigated using isotope-labeled compounds as comparison for the unambiguous identification of unknowns. This refined analysis allowed the identification of several new molecules and pathways, not yet described in literature. In summary several advantages could be taken from synthesis in high-temperature water. Many catalysts, absolutely necessary under ambient conditions, could either be completely avoided or replaced by cheap, sustainable alternatives. In this respect water is not only a green solvent, but helps to prevent waste and preserves resources.
About the relation between implicit Theory of Mind & the comprehension of complement sentences
(2010)
Previous studies on the relation between language and social cognition have shown that children’s mastery of embedded sentential complements plays a causal role for the development of a Theory of Mind (ToM). Children start to succeed on complementation tasks in which they are required to report the content of an embedded clause in the second half of the fourth year. Traditional ToM tasks test the child’s ability to predict that a person who is holding a false belief (FB) about a situation will act "falsely". In these task, children do not represent FBs until the age of 4 years. According the linguistic determinism hypothesis, only the unique syntax of complement sentences provides the format for representing FBs. However, experiments measuring children’s looking behavior instead of their explicit predictions provided evidence that already 2-year olds possess an implicit ToM. This dissertation examined the question of whether there is an interrelation also between implicit ToM and the comprehension of complement sentences in typically developing German preschoolers. Two studies were conducted. In a correlational study (Study 1 ), 3-year-old children’s performance on a traditional (explicit) FB task, on an implicit FB task and on language tasks measuring children’s comprehension of tensed sentential complements were collected and tested for their interdependence. Eye-tracking methodology was used to assess implicit ToM by measuring participants’ spontaneous anticipatory eye movements while they were watching FB movies. Two central findings emerged. First, predictive looking (implicit ToM) was not correlated with complement mastery, although both measures were associated with explicit FB task performance. This pattern of results suggests that explicit, but not implicit ToM is language dependent. Second, as a group, 3-year-olds did not display implicit FB understanding. That is, previous findings on a precocious reasoning ability could not be replicated. This indicates that the characteristics of predictive looking tasks play a role for the elicitation of implicit FB understanding as the current task was completely nonverbal and as complex as traditional FB tasks. Study 2 took a methodological approach by investigating whether children display an earlier comprehension of sentential complements when using the same means of measurement as used in experimental tasks tapping implicit ToM, namely anticipatory looking. Two experiments were conducted. 3-year-olds were confronted either with a complement sentence expressing the protagonist’s FB (Exp. 1) or with a complex sentence expressing the protagonist’s belief without giving any information about the truth/ falsity of the belief (Exp. 2). Afterwards, their expectations about the protagonist’s future behavior were measured. Overall, implicit measures reveal no considerably earlier understanding of sentential complementation. Whereas 3-year-olds did not display a comprehension of complex sentences if these embedded a false proposition, children from 3;9 years on were proficient in processing complement sentences if the truth value of the embedded proposition could not be evaluated. This pattern of results suggests that (1) the linguistic expression of a person’s FB does not elicit implicit FB understanding and that (2) the assessment of the purely syntactic understanding of complement sentences is affected by competing reality information. In conclusion, this dissertation found no evidence that the implicit ToM is related to the comprehension of sentential complementation. The findings suggest that implicit ToM might be based on nonlinguistic processes. Results are discussed in the light of recently proposed dual-process models that assume two cognitive mechanisms that account for different levels of ToM task performance.
Public debate about energy relations between the EU and Russia is distorted. These distortions present considerable obstacles to the development of true partnership. At the core of the conflict is a struggle for resource rents between energy producing, energy consuming and transit countries. Supposed secondary aspects, however, are also of great importance. They comprise of geopolitics, market access, economic development and state sovereignty. The European Union, having engaged in energy market liberalisation, faces a widening gap between declining domestic resources and continuously growing energy demand. Diverse interests inside the EU prevent the definition of a coherent and respected energy policy. Russia, for its part, is no longer willing to subsidise its neighbouring economies by cheap energy exports. The Russian government engages in assertive policies pursuing Russian interests. In so far, it opts for a different globalisation approach, refusing the role of mere energy exporter. In view of the intensifying struggle for global resources, Russia, with its large energy potential, appears to be a very favourable option for European energy supplies, if not the best one. However, several outcomes of the strategic game between the two partners can be imagined. Engaging in non-cooperative strategies will in the end leave all stakeholders worse-off. The European Union should therefore concentrate on securing its partnership with Russia instead of damaging it. Stable cooperation would need the acceptance that the partner may pursue his own goals, which might be different from one’s own interests. The question is, how can a sustainable compromise be found? This thesis finds that a mix of continued dialogue, a tit for tat approach bolstered by an international institutional framework and increased integration efforts appears as a preferable solution.
Complete protection against flood risks by structural measures is impossible. Therefore flood prediction is important for flood risk management. Good explanatory power of flood models requires a meaningful representation of bio-physical processes. Therefore great interest exists to improve the process representation. Progress in hydrological process understanding is achieved through a learning cycle including critical assessment of an existing model for a given catchment as a first step. The assessment will highlight deficiencies of the model, from which useful additional data requirements are derived, giving a guideline for new measurements. These new measurements may in turn lead to improved process concepts. The improved process concepts are finally summarized in an updated hydrological model. In this thesis I demonstrate such a learning cycle, focusing on the advancement of model evaluation methods and more cost effective measurements. For a successful model evaluation, I propose that three questions should be answered: 1) when is a model reproducing observations in a satisfactory way? 2) If model results deviate, of what nature is the difference? And 3) what are most likely the relevant model components affecting these differences? To answer the first two questions, I developed a new method to assess the temporal dynamics of model performance (or TIGER - TIme series of Grouped Errors). This method is powerful in highlighting recurrent patterns of insufficient model behaviour for long simulation periods. I answered the third question with the analysis of the temporal dynamics of parameter sensitivity (TEDPAS). For calculating TEDPAS, an efficient method for sensitivity analysis is necessary. I used such an efficient method called Fourier Amplitude Sensitivity Test, which has a smart sampling scheme. Combining the two methods TIGER and TEDPAS provided a powerful tool for model assessment. With WaSiM-ETH applied to the Weisseritz catchment as a case study, I found insufficient process descriptions for the snow dynamics and for the recession during dry periods in late summer and fall. Focusing on snow dynamics, reasons for poor model performance can either be a poor representation of snow processes in the model, or poor data on snow cover, or both. To obtain an improved data set on snow cover, time series of snow height and temperatures were collected with a cost efficient method based on temperature measurements on multiple levels at each location. An algorithm was developed to simultaneously estimate snow height and cold content from these measurements. Both, snow height and cold content are relevant quantities for spring flood forecasting. Spatial variability was observed at the local and the catchment scale with an adjusted sampling design. At the local scale, samples were collected on two perpendicular transects of 60 m length and analysed with geostatistical methods. The range determined from fitted theoretical variograms was within the range of the sampling design for 80% of the plots. No patterns were found, that would explain the random variability and spatial correlation at the local scale. At the watershed scale, locations of the extensive field campaign were selected according to a stratified sample design to capture the combined effects of elevation, aspect and land use. The snow height is mainly affected by the plot elevation. The expected influence of aspect and land use was not observed. To better understand the deficiencies of the snow module in WaSiM-ETH, the same approach, a simple degree day model was checked for its capability to reproduce the data. The degree day model was capable to explain the temporal variability for plots with a continuous snow pack over the entire snow season, if parameters were estimated for single plots. However, processes described in the simple model are not sufficient to represent multiple accumulation-melt-cycles, as observed for the lower catchment. Thus, the combined spatio-temporal variability at the watershed scale is not captured by the model. Further tests on improved concepts for the representation of snow dynamics at the Weißeritz are required. From the data I suggest to include at least rain on snow and redistribution by wind as additional processes to better describe spatio-temporal variability. Alternatively an energy balance snow model could be tested. Overall, the proposed learning cycle is a useful framework for targeted model improvement. The advanced model diagnostics is valuable to identify model deficiencies and to guide field measurements. The additional data collected throughout this work helps to get a deepened understanding of the processes in the Weisseritz catchment.
Öffentlich Private Partnerschaften (ÖPPs) haben in den letzten zehn bis fünfzehn Jahren in Deutschland einen beachtlichen Stellenwert erreicht. Auch zukünftig ist aufgrund der Finanzkrise der Kommunen mit einem weiteren Bedeutungszuwachs zu rechnen. Damit ÖPPs die von der öffentlichen Hand gewünschten Vorteile mit sich bringen können, wie zum Beispiel die Entlastung des öffentlichen Haushalts oder Effizienzsteigerungen, sollten sie im Vorfeld und im Tagesgeschäft aktiv und umsichtig begleitet werden. In diesem Zusammenhang ergibt sich der Ansatzpunkt für die Themenstellung der Dissertation sowie angesichts der Erkenntnis, dass bisher noch keine umfassend fundierten und systematischen Untersuchungen vorliegen, welche die bestehenden Praxiserfahrungen mit ÖPPs mit anwendbaren Theorien in Verbindung setzen und Entscheidungshilfen für öffentliche Akteure ableiten. Aufgrund der verschiedenen möglichen Ausprägungsformen wurde eine Eingrenzung des Themas auf institutionelle ÖPPs auf kommunaler Ebene vorgenommen. Die Untersuchung beginnt mit der Auseinandersetzung der Grundlagen zu ÖPPs, um ein generelles Verständnis für dieses Themengebiet zu schaffen. Nachdem der Begriff erläutert und Merkmale von ÖPPs herausgearbeitet wurden, erfolgt eine Abgrenzung zwischen vertraglichen und institutionellen ÖPPs. Daraufhin werden mögliche Motive der öffentlichen und privaten Seite beim Eingehen einer solchen Partnerschaft aufgeführt sowie erste mögliche Chancen und Risiken skizziert. Im Anschluss erfolgt mit Hilfe der wissenschaftlichen Theorie des Neuen Institutionalismus eine vertiefende Analyse zu institutionellen ÖPPs. Dabei schließt sich die Dissertation an die von Mayntz und Scharpf vorgenommene Einteilung in einen ökonomischen, (organisations-) soziologischen und politikwissenschaftlichen Neo-Institutionalismus an. Der Neue Ökonomische Institutionalismus wurde anhand der drei Teillehren Transaktionskostentheorie, Prinzipal-Agent-Theorie und Theorie der Verfügungsrechte untersucht. Zunächst werden theoretische Erkenntnisse zu den einzelnen Theorien herausgearbeitet und erste Schlussfolgerungen für institutionelle ÖPPs gezogen. Daraus werden nachfolgend Untersuchungskriterien in Form von Fragestellungen für den späteren Fallstudienvergleich entwickelt. Nach Abschluss des Theorieteils erfolgt eine Betrachtung institutioneller ÖPPs aus realer empirischer Sicht. Hierzu werden Fallstudien vorgestellt und an den Untersuchungskriterien, welche aus den einzelnen Theorien abgeleitet wurden, gespiegelt. Zuerst werden recherchierte Fallstudien analysiert, beginnend mit den Teilprivatisierungen der Stadtentwässerung Dresden GmbH und der Stadtwerke Görlitz AG, bei denen sich die Zusammenarbeit wohl positiv entwickelt. Als Negativbeispiel wird dann auf die Privatisierung der Wasserversorgung von Grenoble und ihre spätere Rekommunalisierung eingegangen. Im folgenden Schritt werden Fallstudien aus den realen Erfahrungen des Verfassers diskutiert. Hierbei bildet die Teilprivatisierung und anschließende Rekommunalisierung des Wasserbetriebes in Potsdam den Schwerpunkt. Ergänzt wird dies durch die Darstellung der positiven Zusammenarbeit mit dem privaten Gesellschafter bei der Energie und Wasser Potsdam GmbH. Abschließend werden die anfänglichen Probleme zwischen Kommune und Privat bei der teilprivatisierten STEP Stadtentsorgung Potsdam untersucht und aufgezeigt, wie die Partnerschaft zum Vorteil der öffentlichen Seite verändert wurde. Aus dem Vergleich von Theorie und Praxis konnten wissenschaftlich fundierte Schlussfolgerungen für institutionelle ÖPPs gezogen und Erfolgsfaktoren für das Gelingen einer solchen Kooperation abgeleitet werden. Die gewonnenen Erkenntnisse werden in Form von Thesen zusammengefasst und dienen als Basis für die Ableitung von Handlungsempfehlungen für kommunale Akteure beim Eingehen einer institutionellen ÖPP. Zu Beginn erfolgt eine Darstellung der Empfehlungen, die sich aus den Untersuchungskriterien der jeweiligen Theorien ergeben haben. Nachfolgend wird diese Betrachtung erweitert, indem näher auf die wesentlichen Phasen des Entscheidungsfindungsprozesses eingegangen und eine Untersetzung dieser Phasen mit den erarbeiteten Handlungsempfehlungen vorgenommen wird. Auf diese Weise kann den kommunalen Entscheidungsträgern eine sehr praxisnahe Hilfestellung gegeben werden. Insgesamt betrachtet, geht aus der Dissertation ein umfangreicher, fundierter und sehr praxisrelevanter Leitfaden hervor, der wichtige Anhaltspunkte für das Eingehen einer institutionellen ÖPP im kommunalen Bereich gibt. Aus der Spiegelung von Theorie und Praxis werden wertvolle Hinweise abgeleitet, wodurch insbesondere deutlich wird, an welchen Stellen sich die öffentliche Seite absichern sollte. Darüber hinaus können die kommunalen Entscheidungsträger durch die gewonnenen Erkenntnisse sensibilisiert und ihr Blick für den individuellen Fall geschärft werden. Letztendlich werden dadurch wichtige Voraussetzungen geschaffen, um ein solches Vorhaben zum Erfolg zu führen.
In dieser Arbeit wird das regionale Klimamodell HIRHAM mit einer horizontalen Auflösung von 50 km und 19 vertikalen Schichten erstmals auf den asiatischen Kontinent angewendet, um die indische Monsunzirkulation unter rezenten und paläoklimatischen Bedingungen zu simulieren. Das Integrationsgebiet des Modells erstreckt sich von etwa 0ºN - 50ºN und 42ºE - 110ºE und bedeckt dabei sowohl die hohe Topographie des Himalajas und Tibet Plateaus als auch den nördlichen Indischen Ozean. Das Ziel besteht in der Beschreibung der regionalen Kopplung zwischen der Monsunzirkulation und den orographischen sowie diabatischen Antriebsmechanismen. Eine 44-jährige Modellsimulation von 1958-2001, die am seitlichen und unteren Rand von ECMWF Reanalysen (ERA40) angetrieben wird, bildet die Grundlage für die Validierung der Modellergebnisse mit Beobachtungen auf der Basis von Stations- und Gitterdatensätzen. Der Fokus liegt dabei auf der atmosphärischen Zirkulation, der Temperatur und dem Niederschlag im Sommer- und Wintermonsun, wobei die Qualität des Modells sowohl in Bezug zur langfristigen und dekadischen Klimatologie als auch zur interannuellen Variabilität evaluiert wird. Im Zusammenhang mit einer realistischen Reproduktion der Modelltopographie kann für die Muster der Zirkulation und Temperatur eine gute Übereinstimmung zwischen Modell und Daten nachgewiesen werden. Der simulierte Niederschlag zeigt eine bessere Übereinstimmung mit einem hoch aufgelösten Gitterdatensatz über der Landoberfläche Zentralindiens und in den Hochgebirgsregionen, der den Vorteil des Regionalmodells gegenüber der antreibenden Reanalyse hervorhebt. In verschiedenen Fall- und Sensitivitätsstudien werden die wesentlichen Antriebsfaktoren des indischen Monsuns (Meeresoberflächentemperaturen, Stärke des winterlichen Sibirischen Hochs und Anomalien der Bodenfeuchte) untersucht. Die Ergebnisse machen deutlich, dass die Simulation dieser Mechanismen auch mit einem Regionalmodell sehr schwierig ist, da die Komplexität des Monsunsystems hochgradig nichtlinear ist und die vor allem subgridskalig wirkenden Prozesse im Modell noch nicht ausreichend parametrisiert und verstanden sind. Ein paläoklimatisches Experiment für eine 44-jährige Zeitscheibe im mittleren Holozän (etwa 6000 Jahre vor heute), die am Rand von einer globalen ECHAM5 Simulation angetrieben wird, zeigt markante Veränderungen in der Intensität des Monsuns durch die unterschiedliche solare Einstrahlung, die wiederum Einflüsse auf die SST, die Zirkulation und damit auf die Niederschlagsmuster hat.
Human-induced alterations of the environment are causing biotic changes worldwide, including the extinction of species and a mixing of once disparate floras and faunas. One type of biological communities that is expected to be particularly affected by environmental alterations are herb layer plant communities of fragmented forests such as those in the west European lowlands. However, our knowledge about current changes in species diversity and composition in these communities is limited due to a lack of adequate long-term studies. In this thesis, I resurveyed the herb layer communities of ancient forest patches in the Weser-Elbe region (NW Germany) after two decades using 175 semi-permanent plots. The general objectives were (i) to quantify changes in plant species diversity considering also between-community (β) and functional diversity, (ii) to determine shifts in species composition in terms of species’ niche breadth and functional traits and (iii) to find indications on the most likely environmental drivers for the observed changes. These objectives were pursued with four independent research papers (Chapters 1-4) whose results were brought together in a General Discussion. Alpha diversity (species richness) increased by almost four species on average, whereas β diversity tended to decrease (Chapter 1). The latter is interpreted as a beginning floristic homogenization. The observed changes were primarily the result of a spread of native habitat generalists that are able to tolerate broad pH and moisture ranges. The changes in α and β diversity were only significant when species abundances were neglected (Chapters 1 and 2), demonstrating that the diversity changes resulted mainly from gains and losses of low-abundance species. This study is one of the first studies in temperate Europe that demonstrates floristic homogenization of forest plant communities at a larger than local scale. The diversity changes found at the taxonomic level did not result in similar changes at the functional level (Chapter 2). The likely reason is that these communities are functionally “buffered”. Single communities involve most of the functional diversity of the regional pool, i.e., they are already functionally rich, while they are functionally redundant among each other, i.e., they are already homogeneous. Independent of taxonomic homogenization, the abundance of 30 species decreased significantly (Chapter 4). These species included 12 ancient forest species (i.e., species closely tied to forest patches with a habitat continuity > 200 years) and seven species listed on the Red List of endangered plant species in NW Germany. If these decreases continue over the next decades, local extinctions may result. This biotic impoverishment would seriously conflict with regional conservation goals. Community assembly mechanisms changed at the local level particularly at sites that experienced disturbance by forest management activities between the sampling periods (Chapter 3). Disturbance altered community assembly mechanisms in two ways: (i) it relaxed environmental filters and allowed the coexistence of different reproduction strategies, as reflected by a higher diversity of reproductive traits at the time of the resurvey, and (ii) it enhanced light availability and tightened competitive filters. These limited the functional diversity with respect to canopy height and selected for taller species. Thirty-one winner and 30 loser species, which had significantly increased or decreased in abundance, respectively, were characterized by various functional traits and ecological performances to find indications on the most likely environmental drivers for the observed floristic changes (Chapter 4). Winner species had higher seed longevity, flowered later in the season and had more often an oceanic distribution compared to loser species. Loser species tended to have a higher specific leaf area, to be more susceptible to deer browsing and to have a performance optimum at higher soil pH values compared to winner species. Multiple logistic regression analyses indicated that disturbances due to forest management interventions were the primary cause of the species shifts. As one of the first European resurvey studies, this study provides indications that an enhanced browsing pressure due to increased deer densities and increasingly warmer winters are important drivers. The study failed to demonstrate that eutrophication and acidification due to atmospheric deposition substantially drive herb layer changes. The restriction of the sample to the most base-rich sites in the region is discussed as a likely reason. Furthermore, the decline of several ancient forest species is discussed as an indication that the forest patches are still paying off their “extinction debt”, i.e., exhibit a delayed response to forest fragmentation.
Das Hauptziel dieser Arbeit ist das Verständnis der molekularen Kristallisation, sowohl mit als auch ohne polymere Additive, als einen mehrstufigen Prozess. Dieser beinhaltet eine transiente flüssig-flüssig Phasentrennung, die Nukleation von Nanokristallen in der dichten flüssigen Precursor-Phase so wie eine anschließende nanokristalline Selbstorganisation. Die Arbeit beginnt mit Untersuchungen an einem quaternären Modelsystem bestehend aus DL-Glutamat (Glu), Polyethylenimin (PEI), Wasser und Ethanol. Das Phasendiagramm dieses quaternären Systems wird durch Variation der Glu/PEI w/w und Wasser/EtOH v/v Verhältnisse bestimmt, wobei Präzpitat aus polymerinduzierten flüssigen Precursor, Koazervate oder homogene Mischungen erhalten werden Das thermodynamisch stabile Koazervat kann als Referenz für das Verständnis von flüssigen Precursorn angesehen werden, welche in der Natur metastabil und transient sind. Der mehrstufige Mechanismus der Glu-Präzipitation mit PEI als Additiv wird dann mittels Neutronen Kleinwinkelstreuung untersucht. Dies zeigt, dass die ursprünglich gebildeten flüssigen Precursor noch vor der Nukleation von Nanokristallen einen Wechsel von Wachstum und Koaleszenz durchlaufen. Die Ergebnisse aus optischer- und Eletronenmikroskopie zeigen, dass sowohl die flüssigen Precursor Superstrukturen ausbilden als auch, dass die Nukleation von Nanoplättchen in jedem einzelnen Precursor Tropfen von statten geht. Dies geschieht noch bevor sich die Nanoplättchen selbst in einer radialen Orientierung ausrichten. Diese Studie liefert die Kinetik der Präzipitation von organischen Stoffen in Gegenwart von polymeren Additiven. Eine ähnliche Vorgehensweise wie für die Herstellung von Mikrokügelchen kann für die Darstellung von gemusterten Filmen angewandt werden. Die homogene Nukleation von Nanopartikeln (NPs) findet während der Verdampfung einer quarternären DL-Lys·HCl-Polyacrylsäure-Wasser-Ethanol Dispersion auf einer hydrophilen Oberfläche statt. Die darauffolgende vollständige Verdampfung löst die Mesokristallisation eines kontinuierlichen sphärolithischen dünnen Films aus, welcher sich wiederum in einen mesokristallinen dünnen Film umwandelt. Mesokristalline Filme mit 4 Hierarchiestufen bzw. auch periodische Filme werden durch die Verdampfung der Mikrokügelchen-Dispersion erhalten. Die Ergebnisse zeigen, dass die Verdampfung eine einfache aber effektive Methode zur Herstellung von verschieden gemusterten hierarchischen Filmen darstellt. Nicht-klassische Kristallisation wird auch in der Abwesenheit von polymeren Additiven beobachtet. Wir verfolgen mittels Rasterkraftmikroskop (AFM) die Nukleation und das Wachstum einer neuen molekularen Schicht auf wachsenden DL-Glu·H2O Kristallen aus übersättigter Mutterlauge. Die Bildung einer neuen molekularen Schicht verläuft durch die Anlagerung von amorphen Nanopartikeln. Das Schrumpfen der NPs zusammen mit der strukturellen Änderung von dreidimensionalen NPs zu 2D Schichten wird während dieses Relaxationsprozesses beobachtet. Schließlich kommt es zu der Ausbildung einer neuen molekularen Schicht. Die Bildung einer molekularen Schicht durch die Anlagerung von Nanopartikeln aus der Lösung und die darauffolgende Relaxation liefert ein abweichendes Bild zu der bisher gängigen klassischen Theorie des Kristallwachstums.
The seismicity of the Dead Sea fault zone (DSFZ) during the last two millennia is characterized by a number of damaging and partly devastating earthquakes. These events pose a considerable seismic hazard and seismic risk to Syria, Lebanon, Palestine, Jordan, and Israel. The occurrence rates for large earthquakes along the DSFZ show indications to temporal changes in the long-term view. The aim of this thesis is to find out, if the occurrence rates of large earthquakes (Mw ≥ 6) in different parts of the DSFZ are time-dependent and how. The results are applied to probabilistic seismic hazard assessments (PSHA) in the DSFZ and neighboring areas. Therefore, four time-dependent statistical models (distributions), including Weibull, Gamma, Lognormal and Brownian Passage Time (BPT), are applied beside the exponential distribution (Poisson process) as the classical time-independent model. In order to make sure, if the earthquake occurrence rate follows a unimodal or a multimodal form, a nonparametric bootstrap test of multimodality has been done. A modified method of weighted Maximum Likelihood Estimation (MLE) is applied to estimate the parameters of the models. For the multimodal cases, an Expectation Maximization (EM) method is used in addition to the MLE method. The selection of the best model is done by two methods; the Bayesian Information Criterion (BIC) as well as a modified Kolmogorov-Smirnov goodness-of-fit test. Finally, the confidence intervals of the estimated parameters corresponding to the candidate models are calculated, using the bootstrap confidence sets. In this thesis, earthquakes with Mw ≥ 6 along the DSFZ, with a width of about 20 km and inside 29.5° ≤ latitude ≤ 37° are considered as the dataset. The completeness of this dataset is calculated since 300 A.D. The DSFZ has been divided into three sub zones; the southern, the central and the northern sub zone respectively. The central and the northern sub zones have been investigated but not the southern sub zone, because of the lack of sufficient data. The results of the thesis for the central part of the DSFZ show that the earthquake occurrence rate does not significantly pursue a multimodal form. There is also no considerable difference between the time-dependent and time-independent models. Since the time-independent model is easier to interpret, the earthquake occurrence rate in this sub zone has been estimated under the exponential distribution assumption (Poisson process) and will be considered as time-independent with the amount of 9.72 * 10-3 events/year. The northern part of the DSFZ is a special case, where the last earthquake has occurred in 1872 (about 137 years ago). However, the mean recurrence time of Mw ≥ 6 events in this area is about 51 years. Moreover, about 96 percent of the observed earthquake inter-event times (the time between two successive earthquakes) in the dataset regarding to this sub zone are smaller than 137 years. Therefore, it is a zone with an overdue earthquake. The results for this sub zone verify that the earthquake occurrence rate is strongly time-dependent, especially shortly after an earthquake occurrence. A bimodal Weibull-Weibull model has been selected as the best fit for this sub zone. The earthquake occurrence rate, corresponding to the selected model, is a smooth function of time and reveals two clusters within the time after an earthquake occurrence. The first cluster begins right after an earthquake occurrence, lasts about 80 years, and is explicitly time-dependent. The occurrence rate, regarding to this cluster, is considerably lower right after an earthquake occurrence, increases strongly during the following ten years and reaches its maximum about 0.024 events/year, then decreases over the next 70 years to its minimum about 0.0145 events/year. The second cluster begins 80 years after an earthquake occurrence and lasts until the next earthquake occurs. The earthquake occurrence rate, corresponding to this cluster, increases extremely slowly, such as it can be considered as an almost constant rate about 0.015 events/year. The results are applied to calculate the time-dependent PSHA in the northern part of the DSFZ and neighbouring areas.
The present thesis was born and evolved within the RAdial Velocity Experiment (RAVE) with the goal of measuring chemical abundances from the RAVE spectra and exploit them to investigate the chemical gradients along the plane of the Galaxy to provide constraints on possible Galactic formation scenarios. RAVE is a large spectroscopic survey which aims to observe spectroscopically ~10^6 stars by the end of 2012 and measures their radial velocities, atmospheric parameters and chemical abundances. The project makes use of the UK Schmidt telescope at Australian Astronomical Observatory (AAO) in Siding Spring, Australia, equipped with the multiobject spectrograph 6dF. To date, RAVE collected and measured more than 450,000 spectra. The precision of the chemical abundance estimations depends on the reliability of the atomic and atmosphere parameters adopted (in particular the oscillator strengths of the absorption lines and the effective temperature, gravity, and metallicity of the stars measured). Therefore we first identified 604 absorption lines in the RAVE wavelength range and refined their oscillator strengths with an inverse spectral analysis. Then, we improved the RAVE stellar parameters by modifying the RAVE pipeline and the spectral library the pipeline rely on. The modifications removed some systematic errors in stellar parameters discovered during this work. To obtain chemical abundances, we developed two different processing pipelines. Both of them perform chemical abundances measurements by assuming stellar atmospheres in Local Thermodynamic Equilibrium (LTE). The first one determines elements abundances from equivalent widths of absorption lines. Since this pipeline showed poor sensibility on abundances relative to iron, it has been superseded. The second one exploits the chi^2 minimization technique between observed and model spectra. Thanks to its precision, it has been adopted for the creation of the RAVE chemical catalogue. This pipeline provides abundances with uncertains of about ~0.2dex for spectra with signal-to-noise ratio S/N>40 and ~0.3dex for spectra with 20>S/N>40. For this work, the pipeline measured chemical abundances up to 7 elements for 217,358 RAVE stars. With these data we investigated the chemical gradients along the Galactic radius of the Milky Way. We found that stars with low vertical velocities |W| (which stay close to the Galactic plane) show an iron abundance gradient in agreement with previous works (~-0.07$ dex kpc^-1) whereas stars with larger |W| which are able to reach larger heights above the Galactic plane, show progressively flatter gradients. The gradients of the other elements follow the same trend. This suggests that an efficient radial mixing acts in the Galaxy or that the thick disk formed from homogeneous interstellar matter. In particular, we found hundreds of stars which can be kinetically classified as thick disk stars exhibiting a chemical composition typical of the thin disk. A few stars of this kind have already been detected by other authors, and their origin is still not clear. One possibility is that they are thin disk stars kinematically heated, and then underwent an efficient radial mixing process which blurred (and so flattened) the gradient. Alternatively they may be a transition population" which represents an evolutionary bridge between thin and thick disk. Our analysis shows that the two explanations are not mutually exclusive. Future follow-up high resolution spectroscopic observations will clarify their role in the Galactic disk evolution.
Ghrelin is a unique hunger-inducing stomach-borne hormone. It activates orexigenic circuits in the central nervous system (CNS) when acylated with a fatty acid residue by the Ghrelin O-acyltransferase (GOAT). Soon after the discovery of ghrelin a theoretical model emerged which suggests that the gastric peptide ghrelin is the first “meal initiation molecule
Poröse Sol-Gel-Materialien finden in vielen Bereichen Anwendung bzw. sind Gegenstand der aktuellen Forschung. Zu diesen Bereichen zählen sowohl klassische Anwendungen, wie z. B. die Verwendung als Katalysator, Molekularsieb oder Trockenmittel, als auch nichtklassische Anwendungen, wie z. B. der Einsatz als Kontrastmittel in der Magnet-Resonanz-Tomographie oder in Form von dünnen Zeolithfilmen als Isolatoren in Mikrochips. Auch für den Einsatz in der Photonik werden poröse Materialien in Betracht gezogen, wie die Entwicklung des Zeolith-Farbstoff-Lasers zeigt. Mikroporöse Zeolithe können generell über einfache Ionenaustauschreaktionen mit Lanthanoidionen in lumineszente Materialien umgewandelt werden. Neben der Erzeugung eines lumineszenten Materials, dessen Lumineszenzeigenschaften charakterisiert werden müssen, bietet die Nutzung von Lanthanoidionen die Möglichkeit diese Ionen als Sonde zur Charakterisierung der Ion-Wirt-Wechselwirkungen zu funktionalisieren, was z. B. in Bezug auf die Anwendung als Katalysator von großer Bedeutung ist. Dabei werden die einzigartigen Lumineszenzeigenschaften der Lanthanoidionen, in diesem Fall von Europium(III) und Terbium(III), genutzt. In dieser Arbeit wurden Lanthanoid-dotierte mikroporöse Zeolithe, mikroporös-mesoporöse Hybridmaterialien und mesoporöse Silikate hinsichtlich ihrer Lumineszenzeigenschaften und ihrer Wechselwirkung des Wirtsmaterials mit den Lanthanoidionen mittels zeitaufgelöster Lumineszenzspektroskopie untersucht. Zeitaufgelöste Emissionsspektren (TRES) liefern dabei sowohl Informationen in der Wellenlängen- als auch in der Zeitdomäne. Erstmalig wurden die TRES mittels einer umfangreichen Auswertemethodik behandelt. Neben der Anpassung des Abklingverhaltens mit einer diskreten Zahl von Exponentialfunktionen, wurden unterstützend auch Abklingzeitverteilungsanalysen durchgeführt. Zeitaufgelöste flächennormierte Emissionsspektren (TRANES), eine Erweiterung der normalen TRES, konnten erstmals zur Bestimmung der Zahl der emittierenden Lanthanoidspezies in porösen Materialien genutzt werden. Durch die Berechnung der Decayassoziierten Spektren (DAS) konnten den Lanthanoidspezies die entsprechenden Lumineszenzspektren zugeordnet werden. Zusätzlich konnte, speziell im Fall der Europium-Lumineszenz, durch Kombination von zeitlicher und spektraler Information das zeitabhängige Asymmetrieverhältnis R und die spektrale Evolution des 5D0-7F0-Übergangs mit der Zeit t untersucht und somit wesentliche Informationen über die Verteilung der Europiumionen im Wirtsmaterial erhalten werden. Über die Abklingzeit und das Asymmetrieverhältnis R konnten Rückschlüsse auf die Zahl der OH-Oszillatoren in der ersten Koordinationssphäre und die Symmetrie der Koordinationsumgebung gezogen werden. Für die mikroporösen und mikroporös-mesoporösen Materialien wurden verschiedene Lanthanoidspezies, im Regelfall zwei, gefunden, welche entsprechend der beschriebenen Methoden charakterisiert wurden. Diese Lanthanoidspezies konnten Positionen in den Materialien zugeordnet werden, die sich im tief Inneren des Porensystems oder auf bzw. nahe der äußeren Oberfläche oder in den Mesoporen befinden. Erstere Spezies ist aufgrund ihrer Position im Material gut vor Feuchtigkeitseinflüssen geschützt, was sich deutlich in entsprechend langen Lumineszenzabklingzeiten äußert. Zusätzlich ist diese Europiumspezies durch unsymmetrische Koordinationsumgebung charakterisiert, was auf einen signifikanten Anteil an Koordination der Lanthanoidionen durch die Sauerstoffatome im Wirtsgitter zurückzuführen ist. Ionen, die sich nahe oder auf der äußeren Oberfläche befinden, sind dagegen für Feuchtigkeit zugänglicher, was in kürzeren Lumineszenzabklingzeiten und einer symmetrischeren Koordinationsumgebung resultiert. Der Anteil von Wassermolekülen in der ersten Koordinationssphäre ist hier deutlich größer, als bei den Ionen, die sich tiefer im Porensystem befinden und entspricht in vielen Fällen der Koordinationszahl eines vollständig hydratisierten Lanthanoidions. Auch der Einfluss von Oberflächenmodifikationen auf die Speziesverteilung und das Verhalten der Materialien gegenüber Feuchtigkeit wurde untersucht. Dabei gelang es den Einfluss der Feuchtigkeit auf die Lumineszenzeigenschaften und die Speziesverteilung durch die Oberflächenmodifikation zu verringern und die Lumineszenzeigenschaften teilweise zu konservieren. Im Fall der mesoporösen Silikamonolithe wurde auch eine heterogene Verteilung der Lanthanoidionen im Porensystem gefunden. Hier wechselwirkt ein Teil der Ionen mit der Porenwand, während sich die restlichen Ionen in der wäßrigen Phase innerhalb des Porensystems aufhalten. Das Aufbringen von Oberflächenmodifikationen führte zu einer Wechselwirkung der Ionen mit diesen Oberflächenmodifikationen, was sich in Abhängigkeit von der Oberflächenbeladung in den enstprechenden Lumineszenzeigenschaften niederschlug.
The Arctic is a particularly sensitive area with respect to climate change due to the high surface albedo of snow and ice and the extreme radiative conditions. Clouds and aerosols as parts of the Arctic atmosphere play an important role in the radiation budget, which is, as yet, poorly quantified and understood. The LIDAR (Light Detection And Ranging) measurements presented in this PhD thesis contribute with continuous altitude resolved aerosol profiles to the understanding of occurrence and characteristics of aerosol layers above Ny-Ålesund, Spitsbergen. The attention was turned to the analysis of periods with high aerosol load. As the Arctic spring troposphere exhibits maximum aerosol optical depths (AODs) each year, March and April of both the years 2007 and 2009 were analyzed. Furthermore, stratospheric aerosol layers of volcanic origin were analyzed for several months, subsequently to the eruptions of the Kasatochi and Sarychev volcanoes in summer 2008 and 2009, respectively. The Koldewey Aerosol Raman LIDAR (KARL) is an instrument for the active remote sensing of atmospheric parameters using pulsed laser radiation. It is operated at the AWIPEV research base and was fundamentally upgraded within the framework of this PhD project. It is now equipped with a new telescope mirror and new detection optics, which facilitate atmospheric profiling from 450m above sea level up to the mid-stratosphere. KARL provides highly resolved profiles of the scattering characteristics of aerosol and cloud particles (backscattering, extinction and depolarization) as well as water vapor profiles within the lower troposphere. Combination of KARL data with data from other instruments on site, namely radiosondes, sun photometer, Micro Pulse LIDAR, and tethersonde system, resulted in a comprehensive data set of scattering phenomena in the Arctic atmosphere. The two spring periods March and April 2007 and 2009 were at first analyzed based on meteorological parameters, like local temperature and relative humidity profiles as well as large scale pressure patterns and air mass origin regions. Here, it was not possible to find a clear correlation between enhanced AOD and air mass origin. However, in a comparison of two cloud free periods in March 2007 and April 2009, large AOD values in 2009 coincided with air mass transport through the central Arctic. This suggests the occurrence of aerosol transformation processes during the aerosol transport to Ny-Ålesund. Measurements on 4 April 2009 revealed maximum AOD values of up to 0.12 and aerosol size distributions changing with altitude. This and other performed case studies suggest the differentiation between three aerosol event types and their origin: Vertically limited aerosol layers in dry air, highly variable hygroscopic boundary layer aerosols and enhanced aerosol load across wide portions of the troposphere. For the spring period 2007, the available KARL data were statistically analyzed using a characterization scheme, which is based on optical characteristics of the scattering particles. The scheme was validated using several case studies. Volcanic eruptions in the northern hemisphere in August 2008 and June 2009 arose the opportunity to analyze volcanic aerosol layers within the stratosphere. The rate of stratospheric AOD change was similar within both years with maximum values above 0.1 about three to five weeks after the respective eruption. In both years, the stratospheric AOD persisted at higher rates than usual until the measurements were stopped in late September due to technical reasons. In 2008, up to three aerosol layers were detected, the layer structure in 2009 was characterized by up to six distinct and thin layers which smeared out to one broad layer after about two months. The lowermost aerosol layer was continuously detected at the tropopause altitude. Three case studies were performed, all revealed rather large indices of refraction of m = (1.53–1.55) - 0.02i, suggesting the presence of an absorbing carbonaceous component. The particle radius, derived with inversion calculations, was also similar in both years with values ranging from 0.16 to 0.19 μm. However, in 2009, a second mode in the size distribution was detected at about 0.5 μm. The long term measurements with the Koldewey Aerosol Raman LIDAR in Ny-Ålesund provide the opportunity to study Arctic aerosols in the troposphere and the stratosphere not only in case studies but on longer time scales. In this PhD thesis, both, tropospheric aerosols in the Arctic spring and stratospheric aerosols following volcanic eruptions have been described qualitatively and quantitatively. Case studies and comparative studies with data of other instruments on site allowed for the analysis of microphysical aerosol characteristics and their temporal evolution.
Magnetische Nanopartikel bieten ein großes Potential, da sie einerseits die Eigenschaften ihrer Bulk-Materialien besitzen und anderseits, auf Grund ihrer Größe, über komplett unterschiedliche magnetische Eigenschaften verfügen können; Superparamagnetismus ist eine dieser Eigenschaften. Die meisten etablierten Anwendungen magnetischer Nanopartikel basieren heutzutage auf Eisenoxiden. Diese bieten gute magnetische Eigenschaften, sind chemisch relativ stabil, ungiftig und lassen sich auf vielen Synthesewegen relativ einfach herstellen. Die magnetischen Eigenschaften der Eisenoxide sind materialabhängig aber begrenzt, weshalb nach anderen Verbindungen mit besseren Eigenschaften gesucht werden muss. Eisencarbid (Fe3C) kann eine dieser Verbindungen sein. Dieses besitzt vergleichbare positive Eigenschaften wie Eisenoxid, jedoch viel bessere magnetische Eigenschaften, speziell eine höhere Sättigungsmagnetisierung. Bis jetzt wurde Fe3C hauptsächlich in Gasphasenabscheidungsprozessen synthetisiert oder als Nebenprodukt bei der Synthese von Kohlenstoffstrukturen gefunden. Eine Methode, mit der gezielt Fe3C-Nanopartikel und andere Metallcarbide synthetisiert werden können, ist die „Harnstoff-Glas-Route“. Neben den Metallcarbiden können mit dieser Methode auch die entsprechenden Metallnitride synthetisiert werden, was die breite Anwendbarkeit der Methode unterstreicht. Die „Harnstoff-Glas-Route“ ist eine Kombination eines Sol-Gel-Prozesses mit einer anschließenden carbothermalen Reduktion/Nitridierung bei höheren Temperaturen. Sie bietet den Vorteil einer einfachen und schnellen Synthese verschiedener Metallcarbide/nitride. Der Schwerpunkt in dieser Arbeit lag auf der Synthese von Eisencarbiden/nitriden, aber auch Nickel und Kobalt wurden betrachtet. Durch die Variation der Syntheseparameter konnten verschiedene Eisencarbid/nitrid Nanostrukturen synthetisiert werden. Fe3C-Nanopartikel im Größenbereich von d = 5 – 10 nm konnten, durch die Verwendung von Eisenchlorid, hergestellt werden. Die Nanopartikel weisen durch ihre geringe Größe superparamagnetische Eigenschaften auf und besitzen, im Vergleich zu Eisenoxid Nanopartikeln im gleichen Größenbereich, eine höhere Sättigungsmagnetisierung. Diese konnten in fortführenden Experimenten erfolgreich in ionischen Flüssigkeiten und durch ein Polymer-Coating, im wässrigen Medium, dispergiert werden. Desweiteren wurde durch ein Templatieren mit kolloidalem Silika eine mesoporöse Fe3C-Nanostruktur hergestellt. Diese konnte erfolgreich in der katalytischen Spaltung von Ammoniak getestet werden. Mit der Verwendung von Eisenacetylacetonat konnten neben Fe3C-Nanopartikeln, nur durch Variation der Reaktionsparameter, auch Fe7C3- und Fe3N-Nanopartikel synthetisiert werden. Speziell für die Fe3C-Nanopartikel konnte die Sättigungsmagnetisierung, im Vergleich zu den mit Eisenchlorid synthetisierten Nanopartikeln, nochmals erhöht werden. Versuche mit Nickelacetat führten zu Nickelnitrid (Ni3N) Nanokristallen. Eine zusätzliche metallische Nickelphase führte zu einer Selbstorganisation der Partikel in Scheiben-ähnliche Überstrukturen. Mittels Kobaltacetat konnten, in Sphären aggregierte, metallische Kobalt Nanopartikel synthetisiert werden. Kobaltcarbid/nitrid war mit den gegebenen Syntheseparametern nicht zugänglich.
In a very simplified view, the plant leaf growth can be reduced to two processes, cell division and cell expansion, accompanied by expansion of their surrounding cell walls. The vacuole, as being the largest compartment of the plant cell, plays a major role in controlling the water balance of the plant. This is achieved by regulating the osmotic pressure, through import and export of solutes over the vacuolar membrane (the tonoplast) and by controlling the water channels, the aquaporins. Together with the control of cell wall relaxation, vacuolar osmotic pressure regulation is thought to play an important role in cell expansion, directly by providing cell volume and indirectly by providing ion and pH homestasis for the cytosoplasm. In this thesis the role of tonoplast protein coding genes in cell expansion in the model plant Arabidopsis thaliana is studied and genes which play a putative role in growth are identified. Since there is, to date, no clearly identified protein localization signal for the tonoplast, there is no possibility to perform genome-wide prediction of proteins localized to this compartment. Thus, a series of recent proteomic studies of the tonoplast were used to compile a list of cross-membrane tonoplast protein coding genes (117 genes), and other growth-related genes from notably the growth regulating factor (GRF) and expansin families were included (26 genes). For these genes a platform for high-throughput reverse transcription quantitative real time polymerase chain reaction (RT-qPCR) was developed by selecting specific primer pairs. To this end, a software tool (called QuantPrime, see http://www.quantprime.de) was developed that automatically designs such primers and tests their specificity in silico against whole transcriptomes and genomes, to avoid cross-hybridizations causing unspecific amplification. The RT-qPCR platform was used in an expression study in order to identify candidate growth related genes. Here, a growth-associative spatio-temporal leaf sampling strategy was used, targeting growing regions at high expansion developmental stages and comparing them to samples taken from non-expanding regions or stages of low expansion. Candidate growth related genes were identified after applying a template-based scoring analysis on the expression data, ranking the genes according to their association with leaf expansion. To analyze the functional involvement of these genes in leaf growth on a macroscopic scale, knockout mutants of the candidate growth related genes were screened for growth phenotypes. To this end, a system for non-invasive automated leaf growth phenotyping was established, based on a commercially available image capture and analysis system. A software package was developed for detailed developmental stage annotation of the images captured with the system, and an analysis pipeline was constructed for automated data pre-processing and statistical testing, including modeling and graph generation, for various growth-related phenotypes. Using this system, 24 knockout mutant lines were analyzed, and significant growth phenotypes were found for five different genes.
Algorithmic Trading
(2011)
Die Elektronisierung der Finanzmärkte ist in den letzten Jahren weit vorangeschritten. Praktisch jede Börse verfügt über ein elektronisches Handelssystem. In diesem Kontext beschreibt der Begriff Algorithmic Trading ein Phänomen, bei dem Computerprogramme den Menschen im Wertpapierhandel ersetzen. Sie helfen dabei Investmententscheidungen zu treffen oder Transaktionen durchzuführen. Algorithmic Trading selbst ist dabei nur eine unter vielen Innovationen, welche die Entwicklung des Börsenhandels geprägt haben. Hier sind z.B. die Erfindung der Telegraphie, des Telefons, des FAX oder der elektronische Wertpapierabwicklung zu nennen. Die Frage ist heute nicht mehr, ob Computerprogramme im Börsenhandel eingesetzt werden. Sondern die Frage ist, wo die Grenze zwischen vollautomatischem Börsenhandel (durch Computer) und manuellem Börsenhandel (von Menschen) verläuft. Bei der Erforschung von Algorithmic Trading wird die Wissenschaft mit dem Problem konfrontiert, dass keinerlei Informationen über diese Computerprogramme zugänglich sind. Die Idee dieser Dissertation bestand darin, dieses Problem zu umgehen und Informationen über Algorithmic Trading indirekt aus der Analyse von (Fonds-)Renditen zu extrahieren. Johannes Gomolka untersucht daher die Forschungsfrage, ob sich Aussagen über computergesteuerten Wertpapierhandel (kurz: Algorithmic Trading) aus der Analyse von (Fonds-)Renditen ziehen lassen. Zur Beantwortung dieser Forschungsfrage formuliert der Autor eine neue Definition von Algorithmic Trading und unterscheidet mit Buy-Side und Sell-Side Algorithmic Trading zwei grundlegende Funktionen der Computerprogramme (die Entscheidungs- und die Transaktionsunterstützung). Für seine empirische Untersuchung greift Gomolka auf das Multifaktorenmodell zur Style-Analyse von Fung und Hsieh (1997) zurück. Mit Hilfe dieses Modells ist es möglich, die Zeitreihen von Fondsrenditen in interpretierbare Grundbestandteile zu zerlegen und den einzelnen Regressionsfaktoren eine inhaltliche Bedeutung zuzuordnen. Die Ergebnisse dieser Dissertation zeigen, dass man mit Hilfe der Style-Analyse Aussagen über Algorithmic Trading aus der Analyse von (Fonds-)Renditen machen kann. Die Aussagen sind jedoch keiner technischen Natur, sondern auf die Analyse von Handelsstrategien (Investment-Styles) begrenzt.
Darmkrebs ist die zweithäufigste malignombedingte Todesursache in den westlichen Industrieländern. Durch eine frühzeitige Diagnose besteht jedoch eine hohe Chance auf Heilung. Der Goldstandard zur Darmkrebsfrüherkennung ist gegenwärtig die Koloskopie. Eine Darmspiegelung ist jedoch invasiv und mit Unannehmlichkeiten für den Patienten verbunden. Die Akzeptanz in der Bevölkerung ist daher gering. Ziel des BMBF- Projektes „Entwicklung eines nichtinvasiven Nachweissystems zur Früherkennung von humanem Darmkrebs“, in dessen Rahmen diese Arbeit entstand, ist die Bereitstellung eines nichtinvasiven Nachweisverfahrens zur Darmkrebsfrüherkennung. Der Nachweis soll über die Detektion von aus neoplastischen Zellen stammender DNA in Stuhl erfolgen. Die Entartung dieser Zellen beruht auf Veränderungen im Erbgut, welches unter anderem Mutationen sind. Im ersten Teil des BMBF-Projektes wurde ein Set von Mutationen zusammengestellt, welches eine hohe Sensitivität für Vorstufen von Darmkrebs aufweist. Ziel dieser Arbeit war es, eine Nachweismethode für die zuvor identifizierten Punktmutationen zu entwickeln. Das Nachweisverfahren musste dabei unempfindlich gegen einen hohen Hintergrund nichtmutierter DNA sein, da im Stuhl geringe Mengen DNA aus neoplastischen Zellen bei einem hohen Hintergrund von DNA aus gesunden Zellen vorliegen. Hierzu wurden Plasmidmodellsysteme für die aus dem Marker-Set stammenden Genfragmente BRAF und dessen Mutante V600E, CTNNB1 und T41I, T41A, S45P und K-ras G12C hergestellt. Mit Hilfe dieser Plasmidmodellsysteme wurde dann das Nachweissystem entwickelt. Der entscheidende Schritt für die Detektion von Punktmutationen bei hohem Wildtypüberschuss ist eine vorhergehende Anreicherung. In der vorliegenden Arbeit wurde dazu die Methode der LNA-clamp-PCR (locked nucleic acid) etabliert. Die Bewertung der erzielten Anreicherung erfolgte über das relative Detektionslimit. Zur Bestimmung des Detektionslimits wurde die Schmelzkurvenanalyse von Hybridisierungssonden eingesetzt; diese wurde im Rahmen dieser Arbeit für die drei oben genannten Genfragmente und ihre Mutanten entwickelt. Die LNA-clamp-PCR wird in Anwesenheit eines LNA-Blockers durchgeführt. Das Nukleotidanalogon LNA weist im Vergleich zu DNA eine erhöhte Affinität zu komplementären DNA-Strängen auf. Gleichzeitig kommt es bei Anwesenheit einer Basenfehlpaarung zu einer größeren Destabilisierung der Bindung. Als Blocker werden kurze LNA-DNA-Hybridoligonukleotide eingesetzt, die den mutierten Sequenzbereich überspannen und selbst der Wildtypsequenz entsprechen. Durch Bindung an die Wildtypsequenz wird deren Amplifikation während der PCR verhindert (clamp = arretieren, festklemmen). Der Blocker selbst wird dabei nicht verlängert. Der Blocker bindet unter optimalen Bedingungen jedoch nicht an die mutierte Sequenz. Die Mutante wird daher ungehindert amplifiziert und somit gegenüber dem Wildtyp-Fragment angereichert. Die Position des Blockers kann im Bindungsbereich eines der Primer sein und hier dessen Hybridisierung an dem Wildtyp-Fragment verhindern oder zwischen den beiden Primern liegen und so die Synthese durch die Polymerase inhibieren. Die Anwendbarkeit beider Systeme wurde in dieser Arbeit gezeigt. Die LNA-clamp-PCR mit Primerblocker wurde für BRAF etabliert. Es wurde ein Detektionslimit von mindestens 1:100 erzielt. Die LNA-clamp-PCR mit Amplifikationsblocker wurde erfolgreich für BRAF, K-ras und CTNNB1: T41I, T41A mit einem Detektionslimit von 1:1000 bis 1:10 000 entwickelt. In Stuhlproben liegt DNA aus neoplastischen Zellen nach Literaturangaben zu einem Anteil von 1% bis 0,1% vor. Die LNA-clamp-PCR weist also mit Amplifikationsblockern ein ausreichend hohes Detektionslimit für die Analyse von Stuhlproben auf. Durch die erfolgreiche Etablierung der Methode auf drei verschiedenen Genfragmenten und vier unterschiedlichen Punktmutationen konnte deren universelle Einsetzbarkeit gezeigt werden. Für die Ausweitung der LNA-clamp-PCR auf die übrigen Mutationen des Marker-Sets wurden Richtlinien ausgearbeitet und die Blockereffizienz als Kennzahl eingeführt. Die LNA-clamp-PCR ist ein schnelles, kostengünstiges Verfahren, welches einen geringen Arbeitsaufwand erfordert und wenig fehleranfällig ist. Sie ist somit ein geeignetes Anreicherungsverfahren für Punktmutationen in einem diagnostischen System zur Darmkrebsfrüherkennung. Darüber hinaus kann die LNA-clamp-PCR auch in anderen Bereichen, in denen die Detektion von Punktmutationen in einem hohen Wildtyphintergrund erforderlich ist, eingesetzt werden.
The East African Plateau provides a spectacular example of geodynamic plateau uplift, active continental rifting, and associated climatic forcing. It is an integral part of the East African Rift System and has an average elevation of approximately 1,000 m. Its location coincides with a negative Bouguer gravity anomaly with a semi-circular shape, closely related to a mantle plume, which influences the Cenozoic crustal development since its impingement in Eocene-Oligocene time. The uplift of the East African Plateau, preceding volcanism, and rifting formed an important orographic barrier and tectonically controlled environment, which is profoundly influenced by climate driven processes. Its location within the equatorial realm supports recently proposed hypotheses, that topographic changes in this region must be considered as the dominant forcing factor influencing atmospheric circulation patterns and rainfall distribution. The uplift of this region has therefore often been associated with fundamental climatic and environmental changes in East Africa and adjacent regions. While the far-reaching influence of the plateau uplift is widely accepted, the timing and the magnitude of the uplift are ambiguous and are still subject to ongoing discussion. This dilemma stems from the lack of datable, geomorphically meaningful reference horizons that could record surface uplift. In order to quantify the amount of plateau uplift and to find evidence for the existence of significant relief along the East African Plateau prior to rifting, I analyzed and modeled one of the longest terrestrial lava flows; the 300-km-long Yatta phonolite flow in Kenya. This lava flow is 13.5 Ma old and originated in the region that now corresponds to the eastern rift shoulders. The phonolitic flow utilized an old riverbed that once drained the eastern flank of the plateau. Due to differential erosion this lava flow now forms a positive relief above the parallel-flowing Athi River, which is mimicking the course of the paleo-river. My approach is a lava-flow modeling, based on an improved composition and temperature dependent method to parameterize the flow of an arbitrary lava in a rectangular-shaped channel. The essential growth pattern is described by a one-dimensional model, in which Newtonian rheological flow advance is governed by the development of viscosity and/or velocity in the internal parts of the lava-flow front. Comparing assessments of different magma compositions reveal that length-dominated, channelized lava flows are characterized by high effusion rates, rapid emplacement under approximately isothermal conditions, and laminar flow. By integrating the Yatta lava flow dimensions and the covered paleo-topography (slope angle) into the model, I was able to determine the pre-rift topography of the East African Plateau. The modeling results yield a pre-rift slope of at least 0.2°, suggesting that the lava flow must have originated at a minimum elevation of 1,400 m. Hence, high topography in the region of the present-day Kenya Rift must have existed by at least 13.5 Ma. This inferred mid-Miocene uplift coincides with the two-step expansion of grasslands, as well as important radiation and speciation events in tropical Africa. Accordingly, the combination of my results regarding the Yatta lava flow emplacement history, its location, and its morphologic character, validates it as a suitable “paleo-tiltmeter” and has thus to be considered as an important topographic and volcanic feature for the topographic evolution in East Africa.
The creation of complex polymer structures has been one of the major research topics over the last couple of decades. This work deals with the synthesis of (block co-)polymers, the creation of complex and stimuli-responsive aggregates by self-assembly, and the cross-linking of these structures. Also the higher-order self-assembly of the aggregates is investigated. The formation of poly-2-oxazoline based micelles in aqueous solution and their simultaneous functionalization and cross-linking using thiol-yne chemistry is e.g. presented. By introducing pH responsive thiols in the core of the micelles the influence of charged groups in the core of micelles on the entire structure can be studied. The charging of these groups leads to a swelling of the core and a decrease in the local concentration of the corona forming block (poly(2-ethyl-2-oxazoline)). This decrease in concentration yields a shift in the cloud point temperature to higher temperatures for this Type I thermoresponsive polymer. When the swelling of the core is prohibited, e.g. by the introduction of sufficient amounts of salt, this behavior disappears. Similar structures can be prepared using complex coacervate core micelles (C3Ms) built through the interaction of weakly acidic and basic polymer blocks. The advantage of these structures is that two different stabilizing blocks can be incorporated, which allows for more diverse and complex structures and behavior of the micelles. Using block copolymers with either a polyanionic or a polycationic block C3Ms could be created with a corona which contains two different soluble nonionic polymers, which either have a mixed corona or a Janus type corona, depending on the polymers that were chosen. Using NHS and EDC the micelles could easily be cross-linked by the formation of amide bonds in the core of the micelles. The higher-order self-assembly behavior of these core cross-linked complex coacervate core micelles (C5Ms) was studied. Due to the cross-linking the micelles are stabilized towards changes in pH and ionic strength, but polymer chains are also no longer able to rearrange. For C5Ms with a mixed corona likely network structures were formed upon the collapse of the thermoresponsive poly(N-isopropylacrylamide) (PNIPAAm), whereas for Janus type C5Ms well defined spherical aggregates of micelles could be obtained, depending on the pH of the solution. Furthermore it could be shown that Janus micelles can adsorb onto inorganic nanoparticles such as colloidal silica (through a selective interaction between PEO and the silica surface) or gold nanoparticles (by the binding of thiol end-groups). Asymmetric aggregates were also formed using the streptavidin-biotin binding motive. This is achieved by using three out of the four binding sites of streptavidin for the binding of one three-arm star polymer, end-functionalized with biotin groups. A homopolymer with one biotin end-group can be used to occupy the last position. This binding of two different polymers makes it possible to create asymmetric complexes. This phase separation is theoretically independent of the kind of polymer since the structure of the protein is the driving force, not the intrinsic phase separation between polymers. Besides Janus structures also specific cross-linking can be achieved by using other mixing ratios.
In dieser Arbeit wurden Zusammenhänge zwischen den sexuellen Erfahrungen junger Frauen und Männer, ihren Persönlichkeitseigenschaften und ihren sexualmoralischen Einstellungen auf der einen Seite und der Einschätzung ihrer sexuellen Handlungsfähigkeit auf der anderen Seite untersucht. Die Grundlage für das Modell der sexuellen Handlungsfähigkeit bildeten die Vorstellungen der Arbeitsgruppe um Matthias Grundmann (Grundmann et al. 2006) sowie von Emirbayer und Mische (1998). Das in dieser Arbeit entwickelte Modell zur sexuellen Handlungsfähigkeit ist ein multidimensionales Konstrukt, das sich aus den Komponenten „sexuelle Kommunikation“, „sexuelle Zufriedenheit“, „sexuelle Reziprozität“ sowie „sexuelle Eigenverantwortung“ zusammensetzt. „Sexuelle Kommunikation“ beinhaltet die Fähigkeit, sexuelle Wünsche zum Ausdruck bringen zu können. „Sexuelle Zufriedenheit“ beschreibt den Grad der Zufriedenheit mit dem eigenen Sexualleben. „Sexuelle Reziprozität“ verweist auf die Fähigkeit, sexuelle Aufmerksamkeiten sowohl Annehmen als auch Geben zu können. „Sexuelle Eigenverantwortung“ betont schließlich die Einschätzung, inwieweit die eigene Sexualität selbst bestimmt gestaltet werden kann. Mit Emirbayer und Mische werden die sexuellen Erfahrungen der Frauen und Männer als Korrelate der Einschätzung der Dimensionen der sexuellen Handlungsfähigkeit betrachtet. Mit Grundmann et al. sind es zudem verschiedene Persönlichkeitseigenschaften sowie sexualmoralische Einstellungen, deren Beschaffenheiten Aussagen über die sexuelle Handlungsfähigkeit erlauben. Um die Thematik der sexuellen Handlungsfähigkeit empirisch zu betrachten, wurden im Jahr 2006 695 junge Potsdamer/innen im Alter von 19 bis 21 Jahren im Rahmen einer standardisierten Erhebung zu ihren sexuellen und Beziehungserfahrungen befragt. Die empirischen Analysen verdeutlichen eine ko-konstruktive Anschauung von der Entwicklung sexueller Handlungsfähigkeit. Diese entsteht nicht im Individuum allein, sondern innerhalb der Interaktions- und Aushandlungsprozesse des Individuums mit den Anderen seiner sozialen und sexuellen Umwelt. Von Bedeutung erweisen dabei sowohl die Erlebnisse der sexuellen Biografie als auch die Persönlichkeitsmerkmale eines jeden Einzelnen. Nur geringfügig erscheinen die erfragten sexualmoralischen Ansichten von Bedeutung.
Non-mycorrhizal fungal endophytes are able to colonize internally roots without causing visible disease symptoms establishing neutral or mutualistic associations with plants. These fungi known as non-clavicipitaceous endophytes have a broad host range of monocot and eudicot plants and are highly diverse. Some of them promote plant growth and confer increased abiotic-stress tolerance and disease resistance. According to such possible effects on host plants, it was aimed to isolate and to characterize native fungal root endophytes from tomato (Lycopersicon esculentum Mill.) and to analyze their effects on plant development, plant resistance and fruit yield and quality together with the model endophyte Piriformospora indica. Fifty one new fungal strains were isolated from desinfected tomato roots of four different crop sites in Colombia. These isolates were roughly characterized and fourteen potential endophytes were further analyzed concerning their taxonomy, their root colonization capacity and their impact on plant growth. Sequencing of the ITS region from the ribosomal RNA gene cluster and in-depth morphological characterisation revealed that they correspond to different phylogenetic groups among the phylum Ascomycota. Nine different morphotypes were described including six dark septate endophytes (DSE) that did not correspond to the Phialocephala group. Detailed confocal microscopy analysis showed various colonization patterns of the endophytes inside the roots ranging from epidermal penetration to hyphal growth through the cortex. Tomato pot experiments under glass house conditions showed that they differentially affect plant growth depending on colonization time and inoculum concentration. Three new isolates (two unknown fungal endophyte DSE48, DSE49 and one identified as Leptodontidium orchidicola) with neutral or positiv effects were selected and tested in several experiments for their influence on vegetative growth, fruit yield and quality and their ability to diminish the impact of the pathogen Verticillium dahliae on tomato plants. Although plant growth promotion by all three fungi was observed in young plants, vegetative growth parameters were not affected after 22 weeks of cultivation except a reproducible increase of root diameter by the endophyte DSE49. Additionally, L. orchidicola increased biomass and glucose content of tomato fruits, but only at an early date of harvest and at a certain level of root colonization. Concerning bioprotective effects, the endophytes DSE49 and L. orchidicola decreased significantly disease symptoms caused by the pathogen V. dahliae, but only at a low dosis of the pathogen. In order to analyze, if the model root endophytic fungus Piriformospora indica could be suitable for application in production systems, its impact on tomato was evaluated. Similarly to the new fungal isolates, significant differences for vegetative growth parameters were only observable in young plants and, but protection against V. dahliae could be seen in one experiment also at high dosage of the pathogen. As the DSE L. orchidicola, P. indica increased the number and biomass of marketable tomatoes only at the beginning of fruit setting, but this did not lead to a significant higher total yield. If the effects on growth are due to a better nutrition of the plant with mineral element was analyzed in barley in comparison to the arbuscular mycorrhizal fungus Glomus mosseae. While the mycorrhizal fungus increased nitrogen and phosphate uptake of the plant, no such effect was observed for P. indica. In summary this work shows that many different fungal endophytes can be also isolated from roots of crops and, that these isolates can have positive effects on early plant development. This does, however, not lead to an increase in total yield or in improvement of fruit quality of tomatoes under greenhouse conditions.
The recent discovery of an intricate and nontrivial interaction topology among the elements of a wide range of natural systems has altered the manner we understand complexity. For example, the axonal fibres transmitting electrical information between cortical regions form a network which is neither regular nor completely random. Their structure seems to follow functional principles to balance between segregation (functional specialisation) and integration. Cortical regions are clustered into modules specialised in processing different kinds of information, e.g. visual or auditory. However, in order to generate a global perception of the real world, the brain needs to integrate the distinct types of information. Where this integration happens, nobody knows. We have performed an extensive and detailed graph theoretical analysis of the cortico-cortical organisation in the brain of cats, trying to relate the individual and collective topological properties of the cortical areas to their function. We conclude that the cortex possesses a very rich communication structure, composed of a mixture of parallel and serial processing paths capable of accommodating dynamical processes with a wide variety of time scales. The communication paths between the sensory systems are not random, but largely mediated by a small set of areas. Far from acting as mere transmitters of information, these central areas are densely connected to each other, strongly indicating their functional role as integrators of the multisensory information. In the quest of uncovering the structure-function relationship of cortical networks, the peculiarities of this network have led us to continuously reconsider the stablished graph measures. For example, a normalised formalism to identify the “functional roles” of vertices in networks with community structure is proposed. The tools developed for this purpose open the door to novel community detection techniques which may also characterise the overlap between modules. The concept of integration has been revisited and adapted to the necessities of the network under study. Additionally, analytical and numerical methods have been introduced to facilitate understanding of the complicated statistical interrelations between the distinct network measures. These methods are helpful to construct new significance tests which may help to discriminate the relevant properties of real networks from side-effects of the evolutionary-growth processes.
Gesunde sowie qualitativ hochwertige Nahrungsmittel sind wichtige Voraussetzungen, um einerseits die Lebensmittelsicherheit entlang der Wertschöpfungskette (Wachstum, Verarbeitung, Lagerung und Transport) und andererseits einen vorbeugenden Verbraucherschutz zu gewährleisten. Die Belastung der Nahrung mit Rückständen jeglicher Art war in letzter Zeit häufig Mittelpunkt heftiger öffentlicher Diskussionen. Zahlreiche Untersuchungen haben gezeigt, dass unter bestimmten Bedingungen durch Pilze gebildete Giftstoffe, so genannte Mykotoxine, die Ernteprodukte belasten und es bei deren Verzehr durch Menschen oder Tiere zu Vergiftungen kommen kann. Die FAO schätzt, dass etwa 25% der Weltproduktion von Nahrungsmitteln mit Mykotoxinen kontaminiert und in 20% der Getreideernte der Europäischen Union messbare Konzentrationen an Mykotoxinen detektierbar sind. Damit die Lebensmittelsicherheit weiterhin gewährleistet bleibt, werden neben den Routinemethoden schnellere und zerstörungsfreie Methoden benötigt, um die Lebensmittel direkt vor Ort auf Schimmelpilze und deren Mykotoxine zu untersuchen. In dieser Arbeit wird das Potenzial von ausgewählten optisch-basierten spektroskopischen Methoden für die in-situ bzw. in-line Detektion von Schimmelpilzen sowie Mykotoxinen in Getreide(produkten) untersucht. Es werden Absorptions- und Reflexionsmethoden einerseits und Fluoreszenztechniken andererseits eingesetzt. Die spektroskopischen Methoden werden dabei auf Proben unterschiedlicher Komplexität angewandt - beginnend mit der Untersuchung der photophysikalischen Eigenschaften der reinen Mykotoxine in Lösung über künstlich mit verschiedenen Mykotoxinen kontaminierten Getreideproben bis hin zu mit Pilzen befallenem Getreide und hochveredelte Lebensmittel (Wein und Bier) als Proben höchster Komplexität.
Mit Seitenkettenpolystyrenen wurde ein neues Synthesekonzept für phosphoreszente polymere LED-Materialien aufgestellt und experimentell verifiziert. Zunächst erfolgten auf Grundlage strukturell einfacher Verbindungen Untersuchungen zum Einfluss von Spacern zwischen aktiven Seitengruppen und dem Polystyrenrückgrat. Es wurden Synthesemethoden für die Monomere etabliert, durch die aktive Elemente - Elektronen- und Lochleiter - mit und ohne diesen Spacer zugänglich sind. Durch Kombination dieser Monomere waren unter Hinzunahme von polymerisierbaren Iridium-Komplexen in unterschiedlicher Emissionswellenlänge statistische Terpolymere darstellbar. Es wurde gezeigt, dass die Realisierung bestimmter Verhältnisse zwischen Loch-, Elektronenleiter und Triplettemitter in ausreichender Molmasse möglich ist. Die Glasstufen der Polymere zeigten eine deutliche Strukturabhängigkeit. Auf die Lage der Grenzorbitale übten die Spacer nahezu keinen Einfluss aus. Die unterschiedlichen Makromoleküle kamen in polymeren Licht emittierenden Dioden (PLEDs) zum Einsatz, wobei ein deutlicher Einfluss der Spacereinheiten auf die Leistungscharakteristik der PLEDs festzustellen war: Sowohl Effizienz, Leuchtdichte wie auch Stromdichte waren durch den Einsatz der kompakten Makromoleküle ohne Spacer deutlich höher. Diese Beobachtungen begründeten sich hauptsächlich in der Verwendung der aliphatischen Spacer, die den Anteil im Polymer erhöhten, der keine Konjugation und damit elektrisch isolierende Eigenschaften besaß. Diese Schlussfolgerungen waren mit allen drei realisierten Emissionsfarben grün, rot und blau verifizierbar. Die besten Messergebnisse erzielte eine PLED aus einem grün emittierenden und spacerlosen Terpolymer mit einer Stromeffizienz von etwa 28 cd A-1 (bei 6 V) und einer Leuchtdichte von 3200 cd m-2 (bei 8 V). Ausgehend von obigen Ergebnissen konnten neue Matrixmaterialien aus dem Bereich verdampfbarer Moleküle geringer Molmasse in das Polystyrenseitenkettenkonzept integriert werden. Es wurden Strukturvariationen sowohl von loch- wie auch von elektronenleitenden Verbindungen als Homopolymere dargestellt und als molekular dotierte Systeme in PLEDs untersucht. Sieben verschiedene lochleitende Polymere mit Triarylamin-Grundkörper und drei elektronendefizitäre Polymere auf der Basis von Phenylbenzimidazol konnten erfolgreich in den Polymeransatz integriert werden. Spektroskopische und elektrochemische Untersuchungen zeigten kaum eine Veränderung der Charakteristika zwischen verdampfbaren Molekülen und den dargestellten Makromolekülen. Diese ladungstransportierenden Makro-moleküle wurden als polymere Matrizes molekular dotiert und lösungsbasiert zu Einschicht-PLEDs verarbeitet. Als aussichtsreichstes Lochleiterpolymer dieser Reihe, mit einer Strom-effizenz von etwa 33 cd A-1 (bei 8 V) und einer Leuchtdichte von 6700 cd m-2 (bei 10 V), stellte sich ein Triarylaminderivat mit Carbazolsubstituenten heraus. Als geeignetstes Matrixmaterial für die Elektronenleitung wurde ein meta-verknüpftes Di-Phenylbenzimidazol ausfindig gemacht, das in der PLED eine Stromeffizienz von etwa 20 cd A-1 (bei 8 V) und eine Leuchtdichte von 7100 cd m-2 (bei 10 V) erzielte. Anschließend wurden die geeignetsten Monomere zu Copolymeren kombiniert: Die lochleitende Einheit bildete ein carbazolylsubstituiertes Triarylamin und die elektronen-leitende Einheit war ein disubstituiertes Phenylbenzimidazol. Dieses Copolymer diente im Folgenden dazu, PLEDs zu realisieren und die Leistungsdaten mit denen eines Homopolymer-blends zu vergleichen, wobei der Blend die bessere Leistungscharakteristik zeigte. Mit dem Homopolymerblend waren Bauteileffizienzen von annähernd 30 cd A-1 (bei 10 V) und Leuchtdichten von 6800 cd m-2 neben einer Verringerung der Einsatzspannung realisierbar. Für die abschließende Darstellung bipolarer Blockcopolymere wurde auf die Nitroxid-vermittelte Polymerisation zurückgegriffen. Mit dieser Technik waren kontrollierte radikalische Polymersiationen mit ausgewählten Monomeren in unterschiedlichen Block-längen durchführbar. Diese Blockcopolymere kamen als molekular dotierte Matrizes in phosphoreszenten grün emittierenden PLEDs zum Einsatz. Die Bauteile wurden sowohl mit statistischen Copolymeren, wie auch mit Homopolymerblends in gleicher Zusammensetzung aber unterschiedlichem Polymerisationsgrad hinsichtlich der Leistungscharakteristik verglichen. Kernaussage dieser Untersuchungen ist, dass hochmolekulare Systeme eine bessere Leistungscharakteristik aufweisen als niedermolekulare Matrizes. Über Rasterkraft-mikroskopie konnte eine Phasenseparation in einem Größenbereich von etwa 10 nm für den hochmolekularen Homopolymerblend nachgewiesen werden. Für die Blockcopolymere war es nicht möglich eine Phasenseparation zu beobachten, was vorwiegend auf deren zu geringe Blocklänge zurückgeführt wurde.
Das ITC SFN und der Mikronährstoff Se sind bekannt als chemopräventive Inhaltsstoffe von Gemüse der Brassica-Familie, welcher auch Brokkoli angehört. Die Wirkungen von sowohl SFN als auch Se beruhen auf zahlreichen verschiedenen Mechanismen. Es existieren jedoch Schnittstellen, an welchen Interaktionen beider Substanzen möglich sind. Basierend auf diesem Wissen wurden in dieser Arbeit Wechselwirkungen zwischen SFN und Se auf die Aktivität sowie Expression von Phase II Enzymen und Selenoproteinen untersucht. Der Einfluss der Kombination von SFN und Se auf die unter physiologischen Bedingungen stattfindende Proliferation und Apoptose war ebenso Gegenstand der Arbeit wie die Modulation von Entzündungsprozessen sowie der Tumorentstehung während der entzündungsverstärkten Colonkanzerogenese im Mausmodell. Das hinsichtlich seiner Wirksamkeit mit aus GRA hydrolysiertem SFN zunächst als vergleichbar befundene synthetische SFN wurde für die Untersuchung im AOM/DSS-induzierten Colontumormodell gewählt und in Kombination mit 3 verschiedenen Selendiäten verabreicht. Der Einfluss von SFN und Se auf Phase II Enzyme und Selenoproteine entlang des GIT war organabhängig und nach 4 Wochen geringer als nach 7 Tagen. Die schwächere Induktion deutet auf eine Anpassung des Organismus hin. Ein SFN-vermittelter Effekt auf NQO1 war im Selenmangel am deutlichsten. Die Aktivität des Selenoproteins TrxR wurde hingegen erst bei ausreichender Selenversorgung durch SFN beeinflusst. Die als Nrf2-Zielgen bekannte und in der Hierarchie der Selenoproteine einen hohen Rang einnehmende GPx2 konnte in bestimmten Organen bereits unter selenarmen Bedingungen durch SFN induziert werden. Eine Überexpression des Enzyms war jedoch nicht möglich. SFN steigerte, unabhängig vom Selenstatus, im oberen Abschnitt des GIT und im Colon die Aktivität der GST. Eine Induktion des eigenen Metabolismus wäre somit denkbar. Im Falle eines Mangels an GPx2 wurde GPx1 bei hinreichender Selenversorgung stärker exprimiert, allerdings konnte sie die Funktion von GPx2 nicht völlig erset-zen. Im Selenmangel kann die Aktivitätssteigerung der TrxR im Dünndarm, dem Ab-schnitt der Selenabsorption, als ein Versuch der GPx2-Kompensation angesehen werden. SFN war nicht in der Lage, über eine Aktivierung des Nrf2/ARE-Signalweges kompensatorische Effekte zu induzieren. Apoptotische Prozesse wurden unter physiologischen Bedingungen nur marginal durch SFN und Se moduliert. Das elektrophile ITC konnte lediglich im Selenmangel Apoptose im luminalen Bereich der Colonkrypten induzieren. Die durch supranutritive Selenkonzentration induzierte Apoptose im Kryptengrund wurde nicht durch SFN beeinflusst. Einer bei Abwesenheit der GPx2 erhöhten Apoptoserate im Kryptengrund wirkte SFN bei adäquater Selenversorgung entgegen, war indessen proapoptotisch unter selendefizienten Konditionen. Der Einfluss von SFN auf die Entzündung war deutlich abhängig vom Selenstatus. Während SFN im Selenmangel anscheinend prooxidative Prozesse induzierte und die Entzündungssymptome verschlimmerte, wirkte es unter adäquatem Selenstatus an-tiinflammatorisch. Den vergleichsweise milden Grad der Entzündung im selensupplementierten Status konnte SFN nicht zusätzlich beeinflussen. SFN veränderte die Inzi-denz colorektaler Tumore nicht. Ein, die Tumorinitiation blockierender SFN-Effekt durch direkte Hemmung der metabolischen Aktivierung des Prokanzerogens im selenadäquaten Zustand scheint offensichtlich. Eine Überversorgung mit Se kann protektiv im Hinblick auf Entzündung oder Colonkanzerogenese sein, jedoch bewirkt SFN keinen zusätzlichen Schutz. Kombinationseffekte von SFN und Se in Bezug auf Phase II Enzyme, Selenoproteine und Apoptose sowie die entzündungsverstärkte Colonkanzerogenese sind nicht eindeutiger Natur und können, abhängig vom Endpunkt, synergistische oder antagonistische Züge aufweisen. Eine bei Selendefizienz deutlichere Wirkung von SFN kann mit Hilfe der gesteigerten Aktivierung von Nrf2 erklärt werden, dies muss jedoch nicht von Vorteil sein. Bei adäquater Selenversorgung kann SFN kurzfristig antiinflammatorische und antikanzerogene Prozesse induzieren. Von einer längerfristigen ständigen SFN-Aufnahme in Form von GRA-reichen Brassicacea ist jedoch abzuraten, da von einer Adaptation auszugehen ist. Die Wirkung von SFN innerhalb der komplexen Pflanzenmatrix bleibt Gegenstand zukünftiger Untersuchungen.
Das folgende Forschungsprojekt beschäftigt sich mit metakognitiven und motivationalen Fähigkeiten als Teilbereiche des selbstgesteuerten Lernens. Es untersucht den Nutzen und die Grenzen von Lerntagebüchern, die zugeschnitten wurden auf Grundschülerinnen und Grundschüler mit Migrationshintergrund. Das Ziel der Studie war es herauszufinden, ob und wie selbststeurungsbezogene Lernprozesse durch den Einsatz von Lerntagebüchern gemessen und verändert werden können. Hierzu führten 28 Grundschülerinnen und Grundschüler 14 Wochen lang während des Unterrichts ein halbstandardisiertes Lerntagebuch in Anlehnung an Wohland/Spinath (2004). Zur Messung von Veränderungen in metakognitiven und motivationalen Fähigkeiten füllten 43 Schülerinnen und Schüler zweier Experimentalgruppen und einer Kontrollgruppe vor und nach der Lerntagebuch-Intervention standardisierte Fragebögen aus. Weiterhin wurden die 28 Lerntagebücher der Experimentalgruppen inhalts- und prozessanalytisch ausgewertet. Außerdem wurden Interviews mit den Lehrkräften über ihre Unterrichtspraxis geführt und einige Schülerinnen und Schüler zu ihrer Wahrnehmung der Lerntagebucharbeit befragt. Die Ergebnisse der Analyse der Lerntagebuchdaten zeigen, dass die 28 Schülerinnen und Schüler mit Migrationshintergrund erfolgreich ihren Lernprozess bei der Bearbeitung einer Aufgabe verbalisierten. Sie haben weiterhin erfolgreich Vorhersagen über ihre Vorgehensweisen zur Lösung einer Aufgabe getroffen. Die Lerntagebücher unterstützten sie darin, ihre metakognitiven Erfahrungen (Efklides/Petkaki 2005) zu kalibrieren (Desoete/Roeyers 2006). Den Lernenden ist es gelungen, ihre Repräsentationen über das Lösen einer Aufgabe aufeinander (fein-) abzustimmen, während sie daran arbeiteten. Mit Hilfe von Zeitreihenanalysen konnte gezeigt werden, dass die Schülerinnen und Schüler die Fragen im Lerntagebuch gegen Ende der Intervention oberflächlicher beantworteten und die Lerntagebücher tendenziell weniger häufig ausgefüllt wurden (negative Trends). Eine Erklärung für die geringere Antworthäufigkeit, die zu negativen Verlaufskurven über die Zeit führten, könnte sein, dass die Instruktionsdichte durch den Mix an offenen und geschlossenen Fragen im Lerntagebuch zu hoch war. Die Lernenden haben sich möglicherweise so an die Fragen bzw. Antwortformate gewöhnt, dass die Motivation, in das Lerntagebuch zu schreiben, geringer wurde.