Refine
Has Fulltext
- yes (264) (remove)
Year of publication
- 2011 (264) (remove)
Document Type
- Doctoral Thesis (109)
- Monograph/Edited Volume (55)
- Postprint (40)
- Article (22)
- Master's Thesis (12)
- Part of Periodical (10)
- Working Paper (7)
- Habilitation Thesis (3)
- Conference Proceeding (2)
- Other (2)
Language
- English (131)
- German (128)
- Multiple languages (5)
Is part of the Bibliography
- yes (264) (remove)
Keywords
- Deutschland (4)
- Klimawandel (4)
- answer set programming (4)
- climate change (4)
- Dictyostelium (3)
- Germany (3)
- Holocene (3)
- Holozän (3)
- Modellierung (3)
- Nanopartikel (3)
Institute
- Wirtschaftswissenschaften (29)
- Institut für Physik und Astronomie (23)
- Institut für Biochemie und Biologie (22)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (20)
- Institut für Chemie (19)
- Mathematisch-Naturwissenschaftliche Fakultät (18)
- MenschenRechtsZentrum (16)
- Institut für Geowissenschaften (15)
- Extern (12)
- Institut für Informatik und Computational Science (12)
- Institut für Umweltwissenschaften und Geographie (10)
- Sozialwissenschaften (10)
- Department Linguistik (8)
- Institut für Künste und Medien (8)
- Institut für Romanistik (7)
- Institut für Germanistik (6)
- WeltTrends e.V. Potsdam (6)
- Department Erziehungswissenschaft (4)
- Department Psychologie (4)
- Institut für Slavistik (4)
- Humanwissenschaftliche Fakultät (3)
- Institut für Ernährungswissenschaft (3)
- Kommunalwissenschaftliches Institut (3)
- Referat für Presse- und Öffentlichkeitsarbeit (3)
- Institut für Anglistik und Amerikanistik (2)
- Institut für Mathematik (2)
- Institut für Religionswissenschaft (2)
- Philosophische Fakultät (2)
- Zentrum für Lehrerbildung und Bildungsforschung (ZeLB) (2)
- Bürgerliches Recht (1)
- Department Sport- und Gesundheitswissenschaften (1)
- Historisches Institut (1)
- Institut für Philosophie (1)
- Juristische Fakultät (1)
- Moses Mendelssohn Zentrum für europäisch-jüdische Studien e. V. (1)
- Potsdam Transfer - Zentrum für Gründung, Innovation, Wissens- und Technologietransfer (1)
- Strukturbereich Bildungswissenschaften (1)
- Strukturbereich Kognitionswissenschaften (1)
- Universitätsbibliothek (1)
- Verband für Patholinguistik e. V. (vpl) (1)
- Wirtschafts- und Sozialwissenschaftliche Fakultät (1)
- Zentrum für Qualitätsentwicklung in Lehre und Studium (ZfQ) (1)
Define real, Moron!
(2011)
Academic language should not be a ghetto dialect at odds with ordinary language, but rather an extension that is compatible with lay-language. To define ‘game’ with the unrealistic ambition of satisfying both lay-people and experts should not be a major concern for a game ontology, since the field it addresses is subject to cultural evolution and diachronic change. Instead of the impossible mission of turning the common word into an analytic concept, a useful task for an ontology of games is to model game differences, to show how the things we call games can be different from each other in a number of different ways.
The sixth volume of the DIGAREC Series holds the contributions to the DIGAREC Keynote-Lectures given at the University of Potsdam in the winter semester 2009/10. With contributions by Mark J.P. Wolf (Concordia University Wisconsin), Espen Aarseth (Center for Computer Games Research, IT University of Copenhagen), Katie Salen (Parsons New School of Design, New York), Laura Ermi and Frans Mäyrä (University of Tampere), and Lev Manovich (University of Southern California, San Diego).
Unique column combinations of a relational database table are sets of columns that contain only unique values. Discovering such combinations is a fundamental research problem and has many different data management and knowledge discovery applications. Existing discovery algorithms are either brute force or have a high memory load and can thus be applied only to small datasets or samples. In this paper, the wellknown GORDIAN algorithm and "Apriori-based" algorithms are compared and analyzed for further optimization. We greatly improve the Apriori algorithms through efficient candidate generation and statistics-based pruning methods. A hybrid solution HCAGORDIAN combines the advantages of GORDIAN and our new algorithm HCA, and it significantly outperforms all previous work in many situations.
Vorliegender Leitfaden ist eines der Ergebnisse des Forschungsprojekts „Open Innovation in Life Sciences“ (OIL), das von Mai 2008 bis April 2011 an der Universität Potsdam durchgeführt wurde. Er nimmt für sich in Anspruch, gerade Innovationsmanager in kleinen und mittleren Unternehmen (KMU) der Pharmaindustrie bei der Einführung des Open Innovation Managements zu unterstützen. Zielsetzung des Forschungsprojekts war es, (1) die Chancen und Risiken von Open Innovation unter besonderer Berücksichtigung der Anforderungen von Pharma-KMU zu analysieren und (2) daraus abgeleitet ein Konzept zur Implementierung von Open Innovation bei Pharma-KMU zu entwickeln. Der Ausgangspunkt des Projektes war die Erkenntnis, dass die Life Sciences-Branche im Allgemeinen und die Pharmaindustrie im Besonderen durch eine steigende Komplexität der Innovationsprozesse und eine zunehmende Tendenz zu Kooperationen gekennzeichnet ist. Vor diesem Hintergrund eröffnet gerade der Open Innovation-Ansatz für die Pharmabranche neue Gestaltungs- und damit Wachstumsmöglichkeiten. Open Innovation – definiert als die planvolle Öffnung der Innovationsprozesse und die strategische Einbindung des Unternehmensumfelds – wird dabei als zentraler Erfolgsfaktor für die Innovationsfähigkeit beschrieben.
Background
Riociguat is the first of a new class of drugs, the soluble guanylate cyclase (sGC) stimulators. Riociguat has a dual mode of action: it sensitizes sGC to the body’s own NO and can also increase sGC activity in the absence of NO. The NO-sGC-pathway is impaired in many cardiovascular diseases such as heart failure, pulmonary hypertension and diabetic nephropathy (DN). DN leads to high cardiovascular morbidity and mortality. There is still a high unmet medical need. The urinary albumin excretion rate is a predictive biomarker for these clinical events. Therefore, we investigated the effect of riociguat, alone and in combination with the angiotensin II receptor antagonist (ARB) telmisartan on the progression of DN in diabetic eNOS knock out mice, a new model closely resembling human pathology.
Methods
Seventy-six male eNOS knockout C57BL/6J mice were divided into 4 groups after receiving intraperitoneal high-dose streptozotocin: telmisartan (1 mg/kg), riociguat (3 mg/kg), riociguat+telmisartan (3 and 1 mg/kg), and vehicle. Fourteen mice were used as non-diabetic controls. After 12 weeks, urine and blood were obtained and blood pressure measured. Glucose concentrations were highly increased and similar in all diabetic groups.
Results
Riociguat, alone (105.2 ± 2.5 mmHg; mean±SEM; n = 14) and in combination with telmisartan (105.0 ± 3.2 mmHg; n = 12), significantly reduced blood pressure versus diabetic controls (117.1 ± 2.2 mmHg; n = 14; p = 0.002 and p = 0.004, respectively), whereas telmisartan alone (111.2 ± 2.6 mmHg) showed a modest blood pressure lowering trend (p = 0.071; n = 14). The effects of single treatment with either riociguat (97.1 ± 15.7 µg/d; n = 13) or telmisartan (97.8 ± 26.4 µg/d; n = 14) did not significantly lower albumin excretion on its own (p = 0.067 and p = 0.101, respectively). However, the combined treatment led to significantly lower urinary albumin excretion (47.3 ± 9.6 µg/d; n = 12) compared to diabetic controls (170.8 ± 34.2 µg/d; n = 13; p = 0.004), and reached levels similar to non-diabetic controls (31.4 ± 10.1 µg/d, n = 12).
Conclusion
Riociguat significantly reduced urinary albumin excretion in diabetic eNOS knock out mice that were refractory to treatment with ARB’s alone. Patients with diabetic nephropathy refractory to treatment with ARB’s have the worst prognosis among all patients with diabetic nephropathy. Our data indicate that additional stimulation of sGC on top of standard treatment with ARB`s may offer a new therapeutic approach for patients with diabetic nephropathy resistant to ARB treatment.
A systems biological approach towards the molecular basis of heterosis in Arabidopsis thaliana
(2011)
Heterosis is defined as the superiority in performance of heterozygous genotypes compared to their corresponding genetically different homozygous parents. This phenomenon is already known since the beginning of the last century and it has been widely used in plant breeding, but the underlying genetic and molecular mechanisms are not well understood. In this work, a systems biological approach based on molecular network structures is proposed to contribute to the understanding of heterosis. Hybrids are likely to contain additional regulatory possibilities compared to their homozygous parents and, therefore, they may be able to correctly respond to a higher number of environmental challenges, which leads to a higher adaptability and, thus, the heterosis phenomenon. In the network hypothesis for heterosis, presented in this work, more regulatory interactions are expected in the molecular networks of the hybrids compared to the homozygous parents. Partial correlations were used to assess this difference in the global interaction structure of regulatory networks between the hybrids and the homozygous genotypes. This network hypothesis for heterosis was tested on metabolite profiles as well as gene expression data of the two parental Arabidopsis thaliana accessions C24 and Col-0 and their reciprocal crosses. These plants are known to show a heterosis effect in their biomass phenotype. The hypothesis was confirmed for mid-parent and best-parent heterosis for either hybrid of our experimental metabolite as well as gene expression data. It was shown that this result is influenced by the used cutoffs during the analyses. Too strict filtering resulted in sets of metabolites and genes for which the network hypothesis for heterosis does not hold true for either hybrid regarding mid-parent as well as best-parent heterosis. In an over-representation analysis, the genes that show the largest heterosis effects according to our network hypothesis were compared to genes of heterotic quantitative trait loci (QTL) regions. Separately for either hybrid regarding mid-parent as well as best-parent heterosis, a significantly larger overlap between the resulting gene lists of the two different approaches towards biomass heterosis was detected than expected by chance. This suggests that each heterotic QTL region contains many genes influencing biomass heterosis in the early development of Arabidopsis thaliana. Furthermore, this integrative analysis led to a confinement and an increased confidence in the group of candidate genes for biomass heterosis in Arabidopsis thaliana identified by both approaches.
Non-mycorrhizal fungal endophytes are able to colonize internally roots without causing visible disease symptoms establishing neutral or mutualistic associations with plants. These fungi known as non-clavicipitaceous endophytes have a broad host range of monocot and eudicot plants and are highly diverse. Some of them promote plant growth and confer increased abiotic-stress tolerance and disease resistance. According to such possible effects on host plants, it was aimed to isolate and to characterize native fungal root endophytes from tomato (Lycopersicon esculentum Mill.) and to analyze their effects on plant development, plant resistance and fruit yield and quality together with the model endophyte Piriformospora indica. Fifty one new fungal strains were isolated from desinfected tomato roots of four different crop sites in Colombia. These isolates were roughly characterized and fourteen potential endophytes were further analyzed concerning their taxonomy, their root colonization capacity and their impact on plant growth. Sequencing of the ITS region from the ribosomal RNA gene cluster and in-depth morphological characterisation revealed that they correspond to different phylogenetic groups among the phylum Ascomycota. Nine different morphotypes were described including six dark septate endophytes (DSE) that did not correspond to the Phialocephala group. Detailed confocal microscopy analysis showed various colonization patterns of the endophytes inside the roots ranging from epidermal penetration to hyphal growth through the cortex. Tomato pot experiments under glass house conditions showed that they differentially affect plant growth depending on colonization time and inoculum concentration. Three new isolates (two unknown fungal endophyte DSE48, DSE49 and one identified as Leptodontidium orchidicola) with neutral or positiv effects were selected and tested in several experiments for their influence on vegetative growth, fruit yield and quality and their ability to diminish the impact of the pathogen Verticillium dahliae on tomato plants. Although plant growth promotion by all three fungi was observed in young plants, vegetative growth parameters were not affected after 22 weeks of cultivation except a reproducible increase of root diameter by the endophyte DSE49. Additionally, L. orchidicola increased biomass and glucose content of tomato fruits, but only at an early date of harvest and at a certain level of root colonization. Concerning bioprotective effects, the endophytes DSE49 and L. orchidicola decreased significantly disease symptoms caused by the pathogen V. dahliae, but only at a low dosis of the pathogen. In order to analyze, if the model root endophytic fungus Piriformospora indica could be suitable for application in production systems, its impact on tomato was evaluated. Similarly to the new fungal isolates, significant differences for vegetative growth parameters were only observable in young plants and, but protection against V. dahliae could be seen in one experiment also at high dosage of the pathogen. As the DSE L. orchidicola, P. indica increased the number and biomass of marketable tomatoes only at the beginning of fruit setting, but this did not lead to a significant higher total yield. If the effects on growth are due to a better nutrition of the plant with mineral element was analyzed in barley in comparison to the arbuscular mycorrhizal fungus Glomus mosseae. While the mycorrhizal fungus increased nitrogen and phosphate uptake of the plant, no such effect was observed for P. indica. In summary this work shows that many different fungal endophytes can be also isolated from roots of crops and, that these isolates can have positive effects on early plant development. This does, however, not lead to an increase in total yield or in improvement of fruit quality of tomatoes under greenhouse conditions.
This paper develops the incentives to collude in a model with spatially separated markets and quantity setting firms. We find that increases in transportation costs stabilize the collusive agreement. We also show that, the higher the demand in both markets the less likely will collusion be sustained. Gross and Holahan (2003) use a similar model with price setting firms, we compare their results with ours to analyze the impact of the mode of competition on sustainability of collusion. Further we analyze the impact of collusion on social welfare and find that collusion may be welfare enhancing.
Inhalt:
- Michael Anisch: Bloß keine Tiziane! Poker um den Posten des Generaldirektors der Kunstmuseen
- Reinhard Andress: Alexander von Humboldt und Carlos Montúfar als Reisegefährten: ein Vergleich ihrer Tagebücher zum Chimborazo-Aufstieg
- Gilles Bancarel: L’Histoire des deux Indes ou la découverte de la mondialisation
- Karin Reich: Alexander von Humboldt und Carl Friedrich Gauß als Wegbereiter der neuen Disziplin Erdmagnetismus
- Elena Roussanova: Russland ist seit jeher das gelobte Land für Magnetismus gewesen: Alexander von Humboldt, Carl Friedrich Gauß und die Erforschung des Erdmagnetismus in Russland
-Kurt-R. Biermann/Ingo Schwarz: Gefälschter Humboldt (mit einer Einleitung von Ulrich Päßler)
Corvino, Corvino and Schoen, Chruściel and Delay have shown the existence of a large class of asymptotically flat vacuum initial data for Einstein's field equations which are static or stationary in a neighborhood of space-like infinity, yet quite general in the interior. The proof relies on some abstract, non-constructive arguments which makes it difficult to calculate such data numerically by using similar arguments. A quasilinear elliptic system of equations is presented of which we expect that it can be used to construct vacuum initial data which are asymptotically flat, time-reflection symmetric, and asymptotic to static data up to a prescribed order at space-like infinity. A perturbation argument is used to show the existence of solutions. It is valid when the order at which the solutions approach staticity is restricted to a certain range. Difficulties appear when trying to improve this result to show the existence of solutions that are asymptotically static at higher order. The problems arise from the lack of surjectivity of a certain operator. Some tensor decompositions in asymptotically flat manifolds exhibit some of the difficulties encountered above. The Helmholtz decomposition, which plays a role in the preparation of initial data for the Maxwell equations, is discussed as a model problem. A method to circumvent the difficulties that arise when fast decay rates are required is discussed. This is done in a way that opens the possibility to perform numerical computations. The insights from the analysis of the Helmholtz decomposition are applied to the York decomposition, which is related to that part of the quasilinear system which gives rise to the difficulties. For this decomposition analogous results are obtained. It turns out, however, that in this case the presence of symmetries of the underlying metric leads to certain complications. The question, whether the results obtained so far can be used again to show by a perturbation argument the existence of vacuum initial data which approach static solutions at infinity at any given order, thus remains open. The answer requires further analysis and perhaps new methods.
Actin-based directional motility is important for embryonic development, wound healing, immune responses, and development of tissues. Actin and myosin are essential players in this process that can be subdivided into protrusion, adhesion, and traction. Protrusion is the forward movement of the membrane at the leading edge of the cell. Adhesion is required to enable movement along a substrate, and traction finally leads to the forward movement of the entire cell body, including its organelles. While actin polymerization is the main driving force in cell protrusions, myosin motors lead to the contraction of the cell body. The goal of this work was to study the regulatory mechanisms of the motile machinery by selecting a representative key player for each stage of the signaling process: the regulation of Arp2/3 activity by WASP (actin system), the role of cGMP in myosin II assembly (myosin system), and the influence of phosphoinositide signaling (upstream receptor pathway). The model organism chosen for this work was the social ameba Dictyostelium discoideum, due to the well-established knowledge of its cytoskeletal machinery, the easy handling, and the high motility of its vegetative and starvation developed cells. First, I focused on the dynamics of the actin cytoskeleton by modulating the activity of one of its key players, the Arp2/3 complex. This was achieved using the carbazole derivative Wiskostatin, an inhibitor of the Arp2/3 activator WASP. Cells treated with Wiskostatin adopted a round shape, with no of few pseudopodia. With the help of a microfluidic cell squeezer device, I could show that Wiskostatin treated cells display a reduced mechanical stability, comparable to cells treated with the actin disrupting agent Latrunculin A. Furthermore, the WASP inhibited cells adhere stronger to a surface and show a reduced motility and chemotactic performance. However, the overall F-actin content in the cells was not changed. Confocal microscopy and TIRF microscopy imaging showed that the cells maintained an intact actin cortex. Localized dynamic patches of increased actin polymerization were observed that, however, did not lead to membrane deformation. This indicated that the mechanisms of actin-driven force generation were impaired in Wiskostatin treated cells. It is concluded that in these cells, an altered architecture of the cortical network leads to a reduced overall stiffness of the cell, which is insufficient to support the force generation required for membrane deformation and pseudopod formation. Second, the role of cGMP in myosin II dynamics was investigated. Cyclic GMP is known to regulate the association of myosin II with the cytoskeleton. In Dictyostelium, intracellular cGMP levels increase when cells are exposed to chemoattractants, but also in response to osmotic stress. To study the influence of cyclic GMP on actin and myosin II dynamics, I used the laser-induced photoactivation of a DMACM-caged-Br-cGMP to locally release cGMP inside the cell. My results show that cGMP directly activates the myosin II machinery, but is also able to induce an actin response independently of cAMP receptor activation and signaling. The actin response was observed in both vegetative and developed cells. Possible explanations include cGMP-induced actin polymerization through VASP (vasodilator-stimulated phosphoprotein) or through binding of cGMP to cyclic nucleotide-dependent kinases. Finally, I investigated the role of phosphoinositide signaling using the Polyphosphoinositide-Binding Peptide (PBP10) that binds preferentially to PIP2. Phosphoinositides can recruit actin-binding proteins to defined subcellular sites and alter their activity. Neutrophils, as well as developed Dictyostelium cells produce PIP3 in the plasma membrane at their leading edge in response to an external chemotactic gradient. Although not essential for chemotaxis, phosphoinositides are proposed to act as an internal compass in the cell. When treated with the peptide PBP10, cells became round, with fewer or no pseudopods. PH-CRAC translocation to the membrane still occurs, even at low cAMP stimuli, but cell motility (random and directional) was reduced. My data revealed that the decrease in the pool of available PIP2 in the cell is sufficient to impair cell motility, but enough PIP2 remains so that PIP3 is formed in response to chemoattractant stimuli. My data thus highlights how sensitive cell motility and morphology are to changes in the phosphoinositide signaling. In summary, I have analyzed representative regulatory mechanisms that govern key parts of the motile machinery and characterized their impact on cellular properties including mechanical stability, adhesion and chemotaxis.
In the present work synchronization phenomena in complex dynamical systems exhibiting multiple time scales have been analyzed. Multiple time scales can be active in different manners. Three different systems have been analyzed with different methods from data analysis. The first system studied is a large heterogenous network of bursting neurons, that is a system with two predominant time scales, the fast firing of action potentials (spikes) and the burst of repetitive spikes followed by a quiescent phase. This system has been integrated numerically and analyzed with methods based on recurrence in phase space. An interesting result are the different transitions to synchrony found in the two distinct time scales. Moreover, an anomalous synchronization effect can be observed in the fast time scale, i.e. there is range of the coupling strength where desynchronization occurs. The second system analyzed, numerically as well as experimentally, is a pair of coupled CO₂ lasers in a chaotic bursting regime. This system is interesting due to its similarity with epidemic models. We explain the bursts by different time scales generated from unstable periodic orbits embedded in the chaotic attractor and perform a synchronization analysis of these different orbits utilizing the continuous wavelet transform. We find a diverse route to synchrony of these different observed time scales. The last system studied is a small network motif of limit cycle oscillators. Precisely, we have studied a hub motif, which serves as elementary building block for scale-free networks, a type of network found in many real world applications. These hubs are of special importance for communication and information transfer in complex networks. Here, a detailed study on the mechanism of synchronization in oscillatory networks with a broad frequency distribution has been carried out. In particular, we find a remote synchronization of nodes in the network which are not directly coupled. We also explain the responsible mechanism and its limitations and constraints. Further we derive an analytic expression for it and show that information transmission in pure phase oscillators, such as the Kuramoto type, is limited. In addition to the numerical and analytic analysis an experiment consisting of electrical circuits has been designed. The obtained results confirm the former findings.
Background
In many species males face a higher predation risk than females because males display elaborate traits that evolved under sexual selection, which may attract not only females but also predators. Females are, therefore, predicted to avoid such conspicuous males under predation risk. The present study was designed to investigate predator-induced changes of female mating preferences in Atlantic mollies (Poecilia mexicana). Males of this species show a pronounced polymorphism in body size and coloration, and females prefer large, colorful males in the absence of predators.
Results
In dichotomous choice tests predator-naïve (lab-reared) females altered their initial preference for larger males in the presence of the cichlid Cichlasoma salvini, a natural predator of P. mexicana, and preferred small males instead. This effect was considerably weaker when females were confronted visually with the non-piscivorous cichlid Vieja bifasciata or the introduced non-piscivorous Nile tilapia (Oreochromis niloticus). In contrast, predator experienced (wild-caught) females did not respond to the same extent to the presence of a predator, most likely due to a learned ability to evaluate their predators' motivation to prey.
Conclusions
Our study highlights that (a) predatory fish can have a profound influence on the expression of mating preferences of their prey (thus potentially affecting the strength of sexual selection), and females may alter their mate choice behavior strategically to reduce their own exposure to predators. (b) Prey species can evolve visual predator recognition mechanisms and alter their mate choice only when a natural predator is present. (c) Finally, experiential effects can play an important role, and prey species may learn to evaluate the motivational state of their predators.
In the living cell, the organization of the complex internal structure relies to a large extent on molecular motors. Molecular motors are proteins that are able to convert chemical energy from the hydrolysis of adenosine triphosphate (ATP) into mechanical work. Being about 10 to 100 nanometers in size, the molecules act on a length scale, for which thermal collisions have a considerable impact onto their motion. In this way, they constitute paradigmatic examples of thermodynamic machines out of equilibrium. This study develops a theoretical description for the energy conversion by the molecular motor myosin V, using many different aspects of theoretical physics. Myosin V has been studied extensively in both bulk and single molecule experiments. Its stepping velocity has been characterized as a function of external control parameters such as nucleotide concentration and applied forces. In addition, numerous kinetic rates involved in the enzymatic reaction of the molecule have been determined. For forces that exceed the stall force of the motor, myosin V exhibits a 'ratcheting' behaviour: For loads in the direction of forward stepping, the velocity depends on the concentration of ATP, while for backward loads there is no such influence. Based on the chemical states of the motor, we construct a general network theory that incorporates experimental observations about the stepping behaviour of myosin V. The motor's motion is captured through the network description supplemented by a Markov process to describe the motor dynamics. This approach has the advantage of directly addressing the chemical kinetics of the molecule, and treating the mechanical and chemical processes on equal grounds. We utilize constraints arising from nonequilibrium thermodynamics to determine motor parameters and demonstrate that the motor behaviour is governed by several chemomechanical motor cycles. In addition, we investigate the functional dependence of stepping rates on force by deducing the motor's response to external loads via an appropriate Fokker-Planck equation. For substall forces, the dominant pathway of the motor network is profoundly different from the one for superstall forces, which leads to a stepping behaviour that is in agreement with the experimental observations. The extension of our analysis to Markov processes with absorbing boundaries allows for the calculation of the motor's dwell time distributions. These reveal aspects of the coordination of the motor's heads and contain direct information about the backsteps of the motor. Our theory provides a unified description for the myosin V motor as studied in single motor experiments.
The present thesis was born and evolved within the RAdial Velocity Experiment (RAVE) with the goal of measuring chemical abundances from the RAVE spectra and exploit them to investigate the chemical gradients along the plane of the Galaxy to provide constraints on possible Galactic formation scenarios. RAVE is a large spectroscopic survey which aims to observe spectroscopically ~10^6 stars by the end of 2012 and measures their radial velocities, atmospheric parameters and chemical abundances. The project makes use of the UK Schmidt telescope at Australian Astronomical Observatory (AAO) in Siding Spring, Australia, equipped with the multiobject spectrograph 6dF. To date, RAVE collected and measured more than 450,000 spectra. The precision of the chemical abundance estimations depends on the reliability of the atomic and atmosphere parameters adopted (in particular the oscillator strengths of the absorption lines and the effective temperature, gravity, and metallicity of the stars measured). Therefore we first identified 604 absorption lines in the RAVE wavelength range and refined their oscillator strengths with an inverse spectral analysis. Then, we improved the RAVE stellar parameters by modifying the RAVE pipeline and the spectral library the pipeline rely on. The modifications removed some systematic errors in stellar parameters discovered during this work. To obtain chemical abundances, we developed two different processing pipelines. Both of them perform chemical abundances measurements by assuming stellar atmospheres in Local Thermodynamic Equilibrium (LTE). The first one determines elements abundances from equivalent widths of absorption lines. Since this pipeline showed poor sensibility on abundances relative to iron, it has been superseded. The second one exploits the chi^2 minimization technique between observed and model spectra. Thanks to its precision, it has been adopted for the creation of the RAVE chemical catalogue. This pipeline provides abundances with uncertains of about ~0.2dex for spectra with signal-to-noise ratio S/N>40 and ~0.3dex for spectra with 20>S/N>40. For this work, the pipeline measured chemical abundances up to 7 elements for 217,358 RAVE stars. With these data we investigated the chemical gradients along the Galactic radius of the Milky Way. We found that stars with low vertical velocities |W| (which stay close to the Galactic plane) show an iron abundance gradient in agreement with previous works (~-0.07$ dex kpc^-1) whereas stars with larger |W| which are able to reach larger heights above the Galactic plane, show progressively flatter gradients. The gradients of the other elements follow the same trend. This suggests that an efficient radial mixing acts in the Galaxy or that the thick disk formed from homogeneous interstellar matter. In particular, we found hundreds of stars which can be kinetically classified as thick disk stars exhibiting a chemical composition typical of the thin disk. A few stars of this kind have already been detected by other authors, and their origin is still not clear. One possibility is that they are thin disk stars kinematically heated, and then underwent an efficient radial mixing process which blurred (and so flattened) the gradient. Alternatively they may be a transition population" which represents an evolutionary bridge between thin and thick disk. Our analysis shows that the two explanations are not mutually exclusive. Future follow-up high resolution spectroscopic observations will clarify their role in the Galactic disk evolution.
Die Arbeit geht aus von der Annahme, dass Literatur und Malerei, obgleich sie ihren Darstellungsformen entsprechend unterschiedliche Werkzeuge oder Strategien nutzen, ähnliche Potentiale der Gedächtnisreflexion für den Rezipienten bereitstellen. Selbst wenn die Strategien zur Erlangung eines Potentials der Reflexion von Gedächtnis also an die jeweilige Disziplin gebunden sind, so können doch die reflektierten Aspekte ähnliche sein. Ziel dieser Arbeit ist es, zu zeigen, dass in Theorie und Praxis solche Überschneidungen auffindbar sind. Dabei sollen Literatur und bildende Kunst (hier: Malerei) als zwei von vielen möglichen Erinnerungsmedien und ihre Funktionen innerhalb eines kollektiven Gedächtnisses als solche dargestellt werden. Speziell befasst sich die Arbeit dann mit der Funktion der Reflexion des kollektiven Erinnerns als Wirkungspotential, das im Rezeptionsprozess aktualisiert werden kann. Verschiedene Strategien der Gedächtnisreflexion werden unterschieden und in den drei Anwendungsbeispielen analysiert. Die Arbeit fasst zunächst einige von den Studien Jan und Aleida Assmanns ausgehende narratologische Konzepte zur Erinnerungskultur zusammen, darunter die Ansätze von Astrid Erll und Birgit Neumann. Es kristalliert sich eine Unterscheidung von Gedächtnisbildung und Gedächtnisreflexion heraus. Genauer in den Blick genommen wird Astrid Erlls Modell einer „Rhetorik des kollektiven Gedächtnisses.“ Auf drei Textebenen, der Handlungsebene, der Textstruktur und der sprachlichen Ebene können Potentiale der Gedächtnisreflexion beschrieben werden. Anhand dieser Unterteilungen werden im Anwendungsteil dann zwei literarische Prosatexte der gegenwärtigen Erinnerungsliteratur in den Blick genommen. Beide Texte, sowohl Grass' Im Krebsgang als auch Timms Halbschatten weisen vielfältige Strategien der Gedächtnisreflexion auf, die sich aber in ihrer Schwerpunktbildung voneinander unterscheiden. Zudem wird die Methodik auf den Gemäldezyklus 18. Oktober 1977 des Malers Gerhard Richter angewandt.
Parsability approaches of several grammar formalisms generating also non-context-free languages are explored. Chomsky grammars, Lindenmayer systems, grammars with controlled derivations, and grammar systems are treated. Formal properties of these mechanisms are investigated, when they are used as language acceptors. Furthermore, cooperating distributed grammar systems are restricted so that efficient deterministic parsing without backtracking becomes possible. For this class of grammar systems, the parsing algorithm is presented and the feature of leftmost derivations is investigated in detail.
Dutch allows for variation as to whether the first position in the sentence is occupied by the subject or by some other constituent, such as the direct object. In particular situations, however, this commonly observed variation in word order is ‘frozen’ and only the subject appears in first position. We hypothesize that this partial freezing of word order in Dutch can be explained from the dependence of the speaker’s choice of word order on the hearer’s interpretation of this word order. A formal model of this interaction between the speaker’s perspective and the hearer’s perspective is presented in terms of bidirectional Optimality Theory. Empirical predictions of this model regarding the interaction between word order and definiteness are confirmed by a quantitative corpus study.
Background: The ability to create nanostructures with biomolecules is one of the key elements in nanobiotechnology. One of the problems is the expensive and mostly custom made equipment which is needed for their development. We intended to reduce material costs and aimed at miniaturization of the necessary tools that are essential for nanofabrication. Thus we combined the capabilities of molecular ink lithography with DNA-self-assembling capabilities to arrange DNA in an independent array which allows addressing molecules in nanoscale dimensions.
Results: For the construction of DNA based nanostructures a method is presented that allows an arrangement of DNA strands in such a way that they can form a grid that only depends on the spotted pattern of the anchor molecules. An atomic force microscope (AFM) has been used for molecular ink lithography to generate small spots. The sequential spotting process allows the immobilization of several different functional biomolecules with a single AFM-tip. This grid which delivers specific addresses for the prepared DNA-strand serves as a two-dimensional anchor to arrange the sequence according to the pattern. Once the DNA-nanoarray has been formed, it can be functionalized by PNA (peptide nucleic acid) to incorporate advanced structures.
Conclusions: The production of DNA-nanoarrays is a promising task for nanobiotechnology. The described method allows convenient and low cost preparation of nanoarrays. PNA can be used for complex functionalization purposes as well as a structural element.
Internationale Forschungsbefunde zu ‚Teaching in Higher Education’ konstatieren immer wieder eine Nicht-Übereinstimmung zwischen intentional angelegten Lehrinhalten und Lernzielen und tatsächlich hervorgebrachten Fähigkeiten. Sie legen eine formative Evaluation von akademischen Lehr-Lern-Angeboten nahe, um bereits im Verlauf einer Lehrveranstaltung auf etwaige Lernschwierigkeiten und –barrieren reagieren zu können. Das an deutschen Hochschulen gängige Repertoire sozial-wissenschaftlicher Evaluationsinstrumente fokussiert jedoch zumeist auf summative quantitative Verfahren, die weder den verschiedenen Formaten akademischer Lehre noch dem komplexen Interaktionsgeschehen in Lehr-Lern-Kontexten gerecht zu werden scheinen, indem sie auf die Abfrage studentischer Zufriedenheitsniveaus abstellen. Anliegen dieses Beitrages ist es daher, ein von der Verfasserin entwickeltes multifunktionales und metakognitiv angelegtes Lehr-Lern-Forschungsinstrument, die ‚doc.post’ vorzustellen, das sich insbesondere zur Ausbildung generischer Kompetenzen in verschiedenen universitären erziehungs- und kulturwissenschaftlichen Studiengängen bewährt hat. Die ‚doc.post’ eignet sich gleichermaßen als Evaluations- und Prüfungsinstrument sowie für weitergehende Forschungsaktivitäten, die Qualität der eigenen Lehre betreffend.
Aus dem Inhalt: - Kinderrechte ohne Vorbehalt – Die Folgen der unmittelbaren Anwendbarkeit des - Kindeswohlvorrangs nach der UN-Kinderrechtskonvention - Wohin steuert der UN-Menschenrechtsrat? Stand und Perspektiven des Review-Prozesses - Das erste Urteil des Afrikanischen Gerichtshofs für Menschen- und Völkerrechte
Die vorliegende Arbeit untersucht das Zusammenspiel von Motiven und Anreizen sowie beobachtbaren dysfunktionalen Verhaltensweisen von Managern bei der Berliner Median-Budgetierung. Von einer Literaturrecherche ausgehend wird zunächst das theoretische Konzept der Dysfunktionen näher gehend erläutert und erklärt. Um den Aussagegehalt der theoretischen Annahmen zu überprüfen und somit eine Verbindung zwischen Einzelfallstudie und generellem theoretischem Kontext zu erhalten, werden hierzu Hypothesen aufgestellt. Darauf aufbauend folgt eine Einzelfallstudie der Berliner Median-Budgetierung mit Fokus auf die Amtsleiter der Leistungs- und Verantwortungszentren. Auf der fallbezogenen Ebene zeigt sich, dass die ursprünglich in der Berliner Median-Budgetierung intendierten Anreizfunktionen bei den Amtsleitern weitest gehend nicht verfangen. Vielmehr produziert das Verfahren Anreize, die dysfunktionale Verhaltensweisen fördern. Auf der generellen Ebene kann hierzu ein Zusammenhang zwischen theoretischen Annahmen zu Dysfunktionen und den Beobachtungen der Einzelfallstudie hergestellt werden. Somit lassen sich dysfunktionale Handlungsmuster innerhalb der Berliner Median-Budgetierung mittels Erklärungsmodellen der theoretischen Konzeption begründen.
Public debate about energy relations between the EU and Russia is distorted. These distortions present considerable obstacles to the development of true partnership. At the core of the conflict is a struggle for resource rents between energy producing, energy consuming and transit countries. Supposed secondary aspects, however, are also of great importance. They comprise of geopolitics, market access, economic development and state sovereignty. The European Union, having engaged in energy market liberalisation, faces a widening gap between declining domestic resources and continuously growing energy demand. Diverse interests inside the EU prevent the definition of a coherent and respected energy policy. Russia, for its part, is no longer willing to subsidise its neighbouring economies by cheap energy exports. The Russian government engages in assertive policies pursuing Russian interests. In so far, it opts for a different globalisation approach, refusing the role of mere energy exporter. In view of the intensifying struggle for global resources, Russia, with its large energy potential, appears to be a very favourable option for European energy supplies, if not the best one. However, several outcomes of the strategic game between the two partners can be imagined. Engaging in non-cooperative strategies will in the end leave all stakeholders worse-off. The European Union should therefore concentrate on securing its partnership with Russia instead of damaging it. Stable cooperation would need the acceptance that the partner may pursue his own goals, which might be different from one’s own interests. The question is, how can a sustainable compromise be found? This thesis finds that a mix of continued dialogue, a tit for tat approach bolstered by an international institutional framework and increased integration efforts appears as a preferable solution.
Aus dem Inhalt: - Neue Entwicklungen im regionalen Menschenrechtsschutz: eine politikwissenschaftliche Betrachtung des institutionellen Designs und der Dynamik des derzeitigen menschenrechtlichen Regionalismus - Das menschenrechtliche Diskriminierungsverbot und seine Grenzen - Die Individualbeschwerde zur Kinderrechtskonvention - BVerfG: Fraport – Urteil vom 22. Februar 2011
Genetic variation is crucial for the long-term survival of the species as it provides the potential for adaptive responses to environmental changes such as emerging diseases. The Major Histocompatibility Complex (MHC) is a gene family that plays a central role in the vertebrate’s immune system by triggering the adaptive immune response after exposure to pathogens. MHC genes have become highly suitable molecular markers of adaptive significance. They synthesize two primary cell surface molecules namely MHC class I and class II that recognize short fragments of proteins derived respectively from intracellular (e.g. viruses) and extracellular (e.g. bacteria, protozoa, arthropods) origins and present them to immune cells. High levels of MHC polymorphism frequently observed in natural populations are interpreted as an adaptation to detect and present a wide array of rapidly evolving pathogens. This variation appears to be largely maintained by positive selection driven mainly by pathogenic selective pressures. For my doctoral research I focused on MHC I and II variation in free-ranging cheetahs (Acinonyx jubatus) and leopards (Panthera pardus) on Namibian farmlands. Both felid species are sympatric thus subject to similar pathogenic pressures but differ in their evolutionary and demographic histories. The main aims were to investigate 1) the extent and patterns of MHC variation at the population level in both felids, 2) the association between levels of MHC variation and disease resistance in free-ranging cheetahs, and 3) the role of selection at different time scales in shaping MHC variation in both felids. Cheetahs and leopards represent the largest free-ranging carnivores in Namibia. They concentrate in unprotected areas on privately owned farmlands where domestic and other wild animals also occur and the risk of pathogen transmission is increased. Thus, knowledge on adaptive genetic variation involved in disease resistance may be pertinent to both felid species’ conservation. The cheetah has been used as a classic example in conservation genetics textbooks due to overall low levels of genetic variation. Reduced variation at MHC genes has been associated with high susceptibility to infectious diseases in cheetahs. However, increased disease susceptibility has only been observed in captive cheetahs whereas recent studies in free-ranging Namibian cheetahs revealed a good health status. This raised the question whether the diversity at MHC I and II genes in free-ranging cheetahs is higher than previously reported. In this study, a total of 10 MHC I alleles and four MHC II alleles were observed in 149 individuals throughout Namibia. All alleles but one likely belong to functional MHC genes as their expression was confirmed. The observed alleles belong to four MHC I and three MHC II genes in the species as revealed by phylogenetic analyses. Signatures of historical positive selection acting on specific sites that interact directly with pathogen-derived proteins were detected in both MHC classes. Furthermore, a high genetic differentiation at MHC I was observed between Namibian cheetahs from east-central and north-central regions known to differ substantially in exposure to feline-specific viral pathogens. This suggests that the patterns of MHC I variation in the current population mirrors different pathogenic selective pressure imposed by viruses. Cheetahs showed low levels of MHC diversity compared with other mammalian species including felids, but this does not seem to influence the current immunocompetence of free-ranging cheetahs in Namibia and contradicts the previous conclusion that the cheetah is a paradigm species of disease susceptibility. However, it cannot be ruled out that the low MHC variation might limit a prosperous immunocompetence in the case of an emerging disease scenario because none of the remaining alleles might be able to recognize a novel pathogen. In contrast to cheetahs, leopards occur in most parts of Africa being perhaps the most abundant big cat in the continent. Leopards seem to have escaped from large-scale declines due to epizootics in the past in contrast to some free-ranging large carnivore populations in Africa that have been afflicted by epizootics. Currently, no information about the MHC sequence variation and constitution in African leopards exists. In this study, I characterized genetic variation at MHC I and MHC II genes in free-ranging leopards from Namibia. A total of six MHC I and six MHC II sequences were detected in 25 individuals from the east-central region. The maximum number of sequences observed per individual suggests that they likely correspond to at least three MHC I and three MHC II genes. Hallmarks of MHC evolution were confirmed such as historical positive selection, recombination and trans-species polymorphism. The low MHC variation detected in Namibian leopards is not conclusive and further research is required to assess the extent of MHC variation in different areas of its geographic range. Results from this thesis will contribute to better understanding the evolutionary significance of MHC and conservation implications in free-ranging felids. Translocation of wildlife is an increasingly used management tool for conservation purposes that should be conducted carefully as it may affect the ability of the translocated animals to cope with different pathogenic selective pressures.
Am 20. November 2010 fand an der Universität Potsdam das 4. Herbsttreffen Patholinguistik statt. Die Konferenzreihe wird regelmäßig seit 2007 vom Verband für Patholinguistik e.V. (vpl) durchgeführt. Der vorliegende Tagungsband veröffentlicht die Hauptvorträge des Herbsttreffens zum Thema "Lesen lernen: Diagnostik und Therapie bei Störungen des Leseerwerbs". Des Weiteren sind die Beiträge promovierender bzw. promovierter PatholinguistInnen sowie der Posterpräsentationen enthalten.
Diese Magisterarbeit ist dem bis heute sehr komplexen Geschlechterverhältnis gewidmet. Dieses Verhältnis werde ich analysieren, indem ich das literarische Motiv des Geschlechtertausches ausarbeite. Dabei werde ich seine kulturhistorische Entwicklung berücksichtigen. Das Thema wird interdisziplinär behandelt und zwar mithilfe anthropologischer, psychoanalytischer, literaturwissenschaftlicher sowie ideengeschichtlicher Perspektiven und Methoden – all dies um seine Komplexität zu erfassen. Zunächst wird die menschliche Geschlechtsidentität als ein naturbedingtes Phänomen einerseits und als ein kulturelles Konstrukt andererseits diskutiert. Die Psychoanalyse wird den feministischen Theorien entgegen gestellt, woraufhin sie sich als Versuch der Legitimierung der gesellschaftlichen Ordnung erweist. Die anschließende Analyse der kulturellen Repräsentationsformen des Weiblichen wird es deutlich machen, wie schwer es ist, die über mehrere Jahrhunderte tradierten Weiblichkeitsbilder zu „neutralisieren“. Die literarische Grundlage für die Untersuchung der Geschlechterbeziehungen verschaffen die drei „Geschichten über die Umwandlung der Verhältnisse“ (1980). In allen Texten vollzieht sich ein Geschlechtswandel: die Protagonistinnen schlüpfen in männliche Körper ein und auf einmal erfahren sie die Welt aus der bisher unbekannten Perspektive. Dabei empfindet jede von denen die neue Situation anders und doch so ähnlich. Anhand von Sarah Kirschs „Blitz aus dem heiterm Himmel“, Irmtraud Morgners „Gute Botschaft der Valeska in 73 Strophen“ und Christa Wolfs „Selbstversuch. Traktat zu einem Protokoll“ werden die regressiven patriarchalischen Strukturen aufgedeckt, in denen der Frau eine minderwertige Positionierung in einer Gesellschaft zugeschrieben wird. Da sich die Beziehungen zwischen Männern und Frauen in den gesellschaftlichen Machtverhältnissen widerspiegeln, werden die Geschichten im Kontext der sozialistischen Wirklichkeit der DDR in den 1970er Jahre analysiert. Aus diesen Untersuchungen ergeben sich klare Erkenntnisse: die Realität des „emanzipierten“ DDR-Staates hatte mit dem marxistischen Traum nichts zu tun. Diese in den Erzählungen widerspiegelte historisch-politische Wirklichkeit stellte die propagandistische Gleichberechtigung der Frauen in Frage. Die Sozialpolitik wird als eine der modernen männlichen Legitimationsstrategien für die Erhaltung der patriarchalischen Ordnung entschleiert. Damit die Frau nicht mehr über den Mann definiert wird, müsste eine grundlegende Veränderung der gesellschaftlichen Geschlechtsvorstellungen erfolgen. Alle in dieser Arbeit untersuchten Geschlechtertauschgeschichten beinhalten diverse Utopie-Entwürfe, die jedoch keine perfekte Ordnung darstellen. Ganz im Gegenteil – das sind eher negative Utopien, die fundamentale Kritik an der Ungleichheit der gesellschaftlichen Positionierung der Geschlechter zum Ziel haben. Christa Wolf, Irmtraud Morgner und Sarah Kirsch thematisierten in ihren Erzählungen die Problematik der Geschlechterverhältnisse in der DDR der 1970er Jahre und machten auf die Dringlichkeit des weiblichen Widerstandes aufmerksam. Gleichzeitig soll dieser literarische Diskurs die eigentliche Möglichkeit der Veränderung des gesellschaftlichen Status der Frauen aufzeigen. Daher sind diese imaginierten Geschlechtertauschgeschichten als Manifeste für wahre Gleichstellung der Frauen zu lesen.
AM symbiosis has a positive influence on plant P-nutrition and growth, but little is known about the molecular mechanism of the symbiosis adaptation to different phosphate conditions. The recently described induction of several pri-miR399 transcripts in mycorrhizal shoots and subsequent accumulation of mature miR399 in mycorrhizal roots indicates that local PHO2 expression must be controlled during symbiosis, presumably in order to sustain AM symbiosis development, in spite of locally increased Pi-concentration. A reverse genetic approach used in this study demonstrated that PHO2 and thus the PHR1-miR399-PHO2 signaling pathway, is involved in certain stages of progressive root colonization. In addition, a transcriptomic approach using a split-root system provided a comprehensive insight into the systemic transcriptional changes in mycorrhizal roots and shoots of M. truncatula in response to high phosphate conditions. With regard to the transcriptional responses of the root system, the results indicate that, although the colonization is drastically reduced, AM symbiosis is still functional at high Pi concentrations and might still be beneficial to the plant. Additionally, the data suggest that a specific root-borne mycorrhizal signal systemically induces protein synthesis, amino acid metabolism and photosynthesis at low Pi conditions, which is abolished at high Pi conditions. MiRNAs, such as miR399, are involved in long-distance signaling and are therefore potential systemic signals involved in AM symbiosis. A deep-sequencing approach identified 243 novel miRNAs in the root tissue of M. truncatula. Read-count analysis, qRT-PCR measurements and in situ hybridizations clearly indicated a regulation of miR5229a/b, miR5204, miR160f*, miR160c, miR169 and miR169d*/l*/m*/e.2* during arbuscular mycorrhizal symbiosis. Moreover, miR5204* represses a GRAS TF, which is specifically transcribed in mycorrhizal roots. Since miR5204* is induced by high Pi it might represent a further Pi status-mediating signal beside miR399. This study provides additional evidence that MtNsp2, a key regulator of symbiosis-signaling, is regulated and presumably spatially restricted by miR171h cleavage. In summary, a repression of mycorrhizal root colonization at high phosphate status is most likely due to a repression of the phosphate starvation responses and the loss of beneficial responses in mycorrhizal shoots. These findings provide a new basis for investigating the regulatory network leading to cellular reprogramming during interaction between plants, arbuscular mycorrhizal fungi and different phosphate conditions.
Die statistische Analyse der Ertragslage öffentlicher Unternehmen bringt Informationen über die Ertragskraft dieser Unternehmensgruppe. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentlichen Aufgaben als an betriebswirtschaftlicher Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Öffentliche Unternehmen haben im Mittel wegen der Spezifik ihrer Aufgaben und politisch determinierter Preise einen geringeren Umsatz als private Unternehmen. Im Vergleich zu privaten sind öffentliche Unternehmen auch durch eine höhere Zinselastizität, die mit einem hohen Verschuldungsgrad zusammenhängt, und eine höhere Abschreibungsintensität gekennzeichnet. Die letzte ist auf das umfangreiche öffentliche Vermögen zurückzuführen. Im Großen und Ganzen unterstreicht die statistische Analyse der Ertragslage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten.
Öffentliche Unternehmen werden in Adäquation zum wirtschaftlichen und politischen Verständnis an Hand des Finanz- und Personalstatistikgesetzes operationalisierbar definiert und sowohl gegenüber öffentlichen Behörden als auch gegenüber privaten Unternehmen abgegrenzt. Dabei wird gezeigt, dass keine Deckungsgleichheit, aber eine stückweise Überlappung mit dem Sektor Staat besteht. Dadurch gewinnt ein Teil der öffentlichen Unternehmen Bedeutung für die Volkswirtschaftliche Gesamtrechnung, insbesondere für den öffentlichen Schuldenstand und damit für die Konvergenzkriterien im Rahmen der Wirtschafts- und Währungsunion. Die amtliche Statistik gewinnt die Daten für die Statistik öffentlicher Unternehmen in Totalerhebung aus den Jahresabschlüssen dieser Unternehmen einschließlich ihrer Gewinn und Verlustrechnung. Die Statistik öffentlicher Unternehmen übertrifft damit in ihrer Ausführlichkeit und Tiefe die meisten anderen Fachstatistiken. Dem steht der Nachteil der relativ späten Verfügbarkeit gegenüber. Der Wissenschaft steht die Statistik in Form einer formal anonymisierten Datei an Wissenschaftlerarbeitsplätzen in den Forschungsdatenzentren der Statistischen Ämter des Bundes und der Länder zur Verfügung. Der Anonymisierungsprozess bedeutet eine weitere Verzögerung der Verfügbarkeit der Daten und steht zusammen mit strengen Geheimhaltungsvorschriften in den Forschungsdatenzentren im Widerspruch zur gebotenen Transparenz und der vorgeschriebenen Offenlegung der Bilanzen im öffentlichen Sektor.
Die Analyse der Finanzlage öffentlicher Unternehmen bringt Informationen über die Kapitalbereitstellung und die Liquidität dieser Unternehmen. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentliche Aufgaben als an betriebswirtschaftliche Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Dank der Kapitalzuführungen von der öffentlichen Hand haben öffentliche Unternehmen in Deutschland höhere und zunehmende Eigenkapital- und Rücklagenquoten im Vergleich zu privaten Unternehmen, während ihr durchschnittlicher Innenfinanzierungsgrad und ihre Kapitalrückflussquote unter denen im privaten Sektor liegen. Insgesamt wird durch die Analyse der Finanzlage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten unterstrichen.
Building biological models by inferring functional dependencies from experimental data is an important issue in Molecular Biology. To relieve the biologist from this traditionally manual process, various approaches have been proposed to increase the degree of automation. However, available approaches often yield a single model only, rely on specific assumptions, and/or use dedicated, heuristic algorithms that are intolerant to changing circumstances or requirements in the view of the rapid progress made in Biotechnology. Our aim is to provide a declarative solution to the problem by appeal to Answer Set Programming (ASP) overcoming these difficulties. We build upon an existing approach to Automatic Network Reconstruction proposed by part of the authors. This approach has firm mathematical foundations and is well suited for ASP due to its combinatorial flavor providing a characterization of all models explaining a set of experiments. The usage of ASP has several benefits over the existing heuristic algorithms. First, it is declarative and thus transparent for biological experts. Second, it is elaboration tolerant and thus allows for an easy exploration and incorporation of biological constraints. Third, it allows for exploring the entire space of possible models. Finally, our approach offers an excellent performance, matching existing, special-purpose systems.
Ein neuentwickeltes azobenzenhaltiges Material, das auf einem supramolekularen Konzept basiert, wird bezüglich seiner Strukturbildung während einer holografischen Belichtung bei 488 nm untersucht. Im Mittelpunkt stehen dabei eindimensionale, sinusförmige Reliefs mit Periodizitäten kleiner 500 nm. Es wird gezeigt, wie der Grad der Vernetzung der photosensitiven Schicht die Strukturbildung in diesem Größenbereich beeinflusst. Zur Maximierung der Strukturtiefe werden gezielt Prozessparameter der Belichtung sowie Materialparameter variiert. Unter Standardbedingungen und moderaten Belichtungsintensitäten von ca. 200 mW/cm² bilden sich innerhalb weniger Minuten bei einer Periode von 400 nm Strukturtiefen von bis zu 80nm aus. Durch die Beeinflussung von Materialparametern, wie Oberflächenspannung und Viskosität, wird die maximale Strukturtiefe auf 160nm verdoppelt. Durch Mehrfachbelichtungen wird auch die Bildung von zweidimensionalen Gittern untersucht. Die Originalstrukturen werden in einem Abformverfahren kopiert und in Schichten von unter UV-Licht aushärtenden Polymeren übertragen. Durch das Abformen kommt es zu einer geringfügigen Verschlechterung der Oberflächenqualität sowie Abnahme der Strukturtiefe. Dieser Verlust wird durch eine Verringerung der Prozesstemperatur verringert. Mithilfe kopierter Oberflächengitter werden organische Distributed Feedback-(DFB)-Laser zweiter Ordnung hergestellt, um den Einfluss von Gitterparametern auf die Emissionseigenschaften dieser Laser zu untersuchen. Dazu erfolgt zunächst die Charakterisierung der optischen Verstärkungseigenschaften ausgewählter organischer Emittermaterialien mittels der Variablen Strichlängenmethode. Das mit dem Laserfarbstoff Pyrromthen567 (PM567) dotierte Polystyrol (PS) zeigt dabei trotz konzentrationsbedingter geringer Absorption eine vergleichsweise geringe Gewinnschwelle von 50µJ/cm² bei ca. 575 nm. Das aktive Gast-Wirt-System der konjugierten Polymere MEH-PPV und F8BT* weist eine hohe Absorption und eine kleine Gewinnschwelle von 2,5 µJ/cm² bei 630 nm auf. Dieses Verhalten spiegelt sich auch in den Emissionseigenschaften der damit hergestellten DFB-Laser wieder. Die Dicke der aktiven Schichten liegen im Bereich hunderter Nanometer und wird so eingestellt, dass sich nur die transversalen Grundmoden im Wellenleiter ausbreiten können. Die Gitterperiode sind so gewählt, dass ein Lichtmode im Verstärkungsbereich des Emittermaterials liegt. Die Emissionslinien der Laser sind mit FWHM-Werten von bis zu 0,3 nm spektral sehr schmalbandig und weisen auf eine sehr gute Gitterqualität hin. Die Untersuchungen liefern minimale Laserschwellen und maximale differentielle Effizienzen von 4,0µJ/cm² und 8,4% für MEH-PPV in F8BT* (bei ca. 640nm) sowie 80 µJ/cm² und 0,9% für PM567 in PS (bei ca. 575 nm). Die Vergrößerung der Strukturtiefe von 40nm auf 80nm in mit MEH-PPV dotierten F8BT*-Lasern zu einem deutlichen Anstieg der ausgekoppelten Energie sowie der differentiellen Effizienz und einem geringen Absinken der Laserschwelle. Dies ist ein Resultat der erhöhten Kopplung von Lasermode und Gitter. Die Emission von DFB-Lasern mit zweidimensionalen Oberflächengittern zeigen eine Verringerung der Divergenz aber kein Einfluss auf die Laserschwelle. Abschließend erfolgt eine Vermessung der Photostabilität von DFB-Lasern unter verschiedenen Bedingungen. Das Einbringen eines konjugierten Polymers in eine aktive Matrix sowie der Betrieb in einer Stickstoffatmosphäre führen dabei zu einer Erhöhung der Lebensdauer auf über eine Million Pulse. Durch die Kombination von Oberflächengittern in PDMS-Filmen mit elektroaktiven Substraten wird eine elektrisch steuerbare Deformation des Beugungsgitters erreicht und auf einen DFB-Laser übertragen. Die spannungsinduzierte Verformung wird zunächst in Beugungsexperimenten charakterisiert und ein optimaler Arbeitspunkt bestimmt. Mit den beiden Elastomeren SEBS12 und VHB4910 werden in den Gittern maximale Periodenänderungen von 1,3% bzw. 3,4% bei einer Steuerspannung von 2 kV erreicht. Der Unterschied resultiert aus den verschiedenen Elastizitätsmoduln der Materialien. Übertragen auf DFB-Laser resultiert eine Variation der Gitterperiode senkrecht zu den Gitterlinien in einer kontinuierlichen Verschiebung der Emissionswellenlänge. Mit einem Spannungssignal von 3,25 kV wird die schmalbandige Emission eines elastischen DFB-Lasers kontinuierlich um fast 50nm von 604 nm zu 557 nm hin verschoben. Aus dem Deformationsverhalten sowohl der reinen Beugungsgitter als auch der Laser werden Rückschlüsse auf die Elastizität der verwendeten Materialien gezogen und erlauben Verbesserungen der Bauteile.
Indirect resource competition and interference are widely occurring mechanisms of interspecific interactions. We have studied the seasonal expression of these two interaction types within a two-species, boreal small mammal system. Seasons differ by resource availability, individual breeding state and intraspecific social system. Live-trapping methods were used to monitor space use and reproduction in 14 experimental populations of bank voles Myodes glareolus in large outdoor enclosures with and without a dominant competitor, the field vole Microtus agrestis. We further compared vole behaviour using staged dyadic encounters in neutral arenas in both seasons. Survival of the non-breeding overwintering bank voles was not affected by competition. In the spring, the numbers of male bank voles, but not of females, were reduced significantly in the competition populations. Bank vole home ranges expanded with vole density in the presence of competitors, indicating food limitation. A comparison of behaviour between seasons based on an analysis of similarity revealed an avoidance of costly aggression against opponents, independent of species. Interactions were more aggressive during the summer than during the winter, and heterospecific encounters were more aggressive than conspecific encounters. Based on these results, we suggest that interaction types and their respective mechanisms are not either–or categories and may change over the seasons. During the winter, energy constraints and thermoregulatory needs decrease direct aggression, but food constraints increase indirect resource competition. Direct interference appears in the summer, probably triggered by each individual’s reproductive and hormonal state and the defence of offspring against conspecific and heterospecific intruders. Both interaction forms overlap in the spring, possibly contributing to spring declines in the numbers of subordinate species.
Die Arbeit gibt einen kurzen Abriss über die Grundlagen systemisch-konstruktivistischer Lerntheorie mit der anschließenden Fragestellung, was die aktuellen Forschungsergebnisse aus Neurobiologie, Philosophie, Psychologie und Erziehungswissenschaften zur didaktischen Auseinandersetzung mit dem Nationalsozialismus beitragen können. In der bisherigen Forschung zur didaktischen „Aufbereitung“ des Themas 'Nationalsozialismus' gibt es eine Fülle von Unterrichtskonzepten, Sequenzplanungen und Unterrichtsmaterialien. Mein Anspruch war es nicht, universal gültige Unterrichtspläne vorzulegen, sondern Unterricht bewusst offen, selbstorganisiert und systemisch zu gestalten. Dafür werden die Rahmenbedingungen von Unterricht zum Thema Nationalsozialismus näher beleuchtet, um anschließend didaktische Prinzipien und methodische Ansätze für die Beschäftigung mit dem Nationalsozialismus vorzustellen. Grundlage für diese Überlegungen waren vor allem Theodor W. Adornos Vortrag „Erziehung nach Auschwitz“, die konstruktivistischen Lernansätze von Rolf Arnold, Kersten Reich und Horst Siebert und aktuelle Projekte und Schriften aus der gedenkstättenpädagogischen Forschung von Matthias Heyl, Imke Scheurich, Verena Haug u.a. Eine explizit konstruktivistische Betrachtung von Geschichtsdidaktik und Gedenkstättenpädagogik steht noch aus, diese Arbeit versucht, einen Ansatz zur Schließung dieser Forschungslücke zu entwickeln.
This essay revisits Ian McEwan’s extremely successful novel Saturday, and interrogates its exemplary assessment of the British cultural climate after 9/11. The particular focus is on McEwan’s extensive recourse to the writings of Matthew Arnold, whose melancholy outlook on culture and anarchy McEwan basically translates into the 21st century without much ideological fraction. This relapse into Victorian liberal humanism as consolation for a Western world besieged by the contingencies of terrorism is extremely problematic. Not only does it wilfully ignore the transcultural realities of modern Britain, it also promotes an ahistorical and apolitical mode of critical inquiry which may be called reductive at best in view of the global challenges that the novel addresses.
Fusarium spp. infection of cereal grain is a common problem, which leads to a dramatic loss of grain quality. The aim of the present study was to investigate the effect of Fusarium infection on the wheat storage protein gluten and its fractions, the gliadins and glutenins, in an in vitro model system. Gluten proteins were digested by F. graminearum proteases for 2, 4, 8 and 24 h, separated by Osborne fractionation and characterised by chromatographic (RP-HPLC) and electrophoretic analysis (SDS-Page). Gluten digestion by F. graminearum proteases showed in comparison with gliadins a preference for the glutenins whereas the HMW subfraction was at most affected. In comparison with a untreated control, the HMW subfraction was degraded of about 97% after 4 h incubation with Fusarium proteases. Separate digestion of gliadin and glutenin underlined the preference for HMW-GS. Analogue to the observed change in the gluten composition, the yield of the proteins extracted changed. A higher amount of glutenin fragments was found in the gliadin extraction solution after digestion and could mask a gliadin destruction at the same time. This observation can contribute to explain the frequently reported reduced glutenin amount parallel to an increase in gliadin quantity after Fusarium infection in grains.
Die internationale Staatengemeinschaft steht Sezessionsbestrebungen zur Aufspaltung bestehender Staaten gewöhnlich ablehnend gegenüber. Gleichzeitig wendet sie in vielen Ländern Instrumente der Entwicklungspolitik an und greift so auch in den dortigen politischen Prozess ein. Untersucht wird, inwiefern Entwicklungspolitik so gestaltet werden kann, dass sie nicht, quasi als Nebenwirkung, einer Sezessionsbewegung zum Durchbruch verhilft. Betrachtet wird dabei neben der gezielten Förderung wirtschaftlichen Wachstums auch das Instrument der Dezentralisierung, das oft als Mittel zur „Beruhigung“ separatistischer Bestrebungen vorgeschlagen wird. Zuvor jedoch wird aufgewiesen, dass eine Politik, die Sezessionen verhindern will, zumindest in vielen Fällen auch moralphilosophisch schlüssig begründet werden kann. Den Abschluss der Arbeit bilden drei Fallstudien zu Sezessionen auf dem Gebiet der ehemaligen Sowjetunion.
Der Autor versucht mit dieser kurzen Einführung eine Übersicht über den Stand der Forschung zu einem Thema zu geben, das in der Forschung bisher noch nicht ausreichend berücksichtigt wurde: der außerschulischen, privatwirtschaftlich organisierten Zusatzbildung, der sogenannten Shadow Education. Der Fokus der Arbeit richtet sich dabei auf die Länder Japan, welches bereits seit den 1970er Jahren ein System außerschulischer Bildungsinstitutionen besitzt, dessen Einfluss auf den Bildungserwerb junger Menschen so stark ist wie in kaum einem anderen Land, und Deutschland, dessen Schattenbildungs- oder Nachhilfesystem noch keinen derartig starken Einfluss ausübt, jedoch in den vergangenen Jahren steten Zuwachs verzeichnen konnte. Interessierten soll dieser Einblick durch die umfangreiche Bibliographie eine Hilfe bei der Recherche zu diesem Thema bieten.
Alexander von Humboldt verstand sich zwar sicher nicht als Direktor eines Museums, war aber sehr wohl der Welt der Museen, Bibliotheken und Archive nicht nur als Besucher und Leser, sondern auch als Sammler und Forscher verpflichtet. Durch seine Forschungsreisen nach Amerika und Asien vermehrte er im Verlauf eines langen Gelehrtenlebens viele Sammlungen durch eigene Sammeltätigkeit vor Ort. Seine Feldforschung blieb dabei nicht auf naturwissenschaftliche Aspekte begrenzt, sondern bezog ganz selbstverständlich auch die verschiedenartigsten kulturwissenschaftlichen Forschungsgegenstände mitein. Diese transdisziplinär agierende Praxis im Feld lässt sich zugleich als eine transareale, einzelne Areas übergreifende und damit im Sinne von TransArea Studies aus den Beziehungen, Zirkulationen und Wechselwirkungen jenseits des bloß Territorialen sich speisende Wissenschaftskonzeption begreifen. So lässt sich in seiner Auseinandersetzung mit der amerikanischen Tropenwelt eine doppelte transareale Relationalität erkennen, die einerseits intern die Tropenwelt unterschiedlicher Kontinente miteinander verbindet, andererseits aber extern die Tropen insbesondere mit den gemäßigten Zonen in Relation setzt, um dadurch erst globale Zusammenhänge - einschließlich der sich verändernden Schneegrenzen oder der Wanderungsbewegungen der Pflanzenformen, für die sich die mobile Wissenschaft Humboldts in besonderem Maße interessierte - skizzieren und erläutern zu können. Die Tropen sind für ihn die Zone höchster Mannigfaltigkeit und Vielverbundenheit - oder um es mit heutigen Begriffen zum Ausdruck zu bringen: die TransArea par excellence.
Urbanity and literature
(2011)
Transarea studies focus upon spaces as created by the movements that criss-cross them. From this point of view, from its very beginnings, literature is closely interrelated with a vectorial (and much less with a purely spatial) conception of history - and with urbanity, which plays a decisive role in Gilgamesh's travels through a (narrative) cosmos centered upon the city of Uruk. This article explores the city as a transareal space of movement in three examples of literature, with no fixed abode, around the turn of the millennium, i.e. Assia Djebar's Les Nuits de Strasbourg, Emine Sevgi Oezdamar's Istanbul-Berlin Trilogy, and Cecile Wajsbrot's L'ile aux musees. These three writers project, in a very specific way, cities in motion as anagrammatic and fractal structures.
In vorliegender Arbeit werden die Gefahren und Chancen des gemeinschaftlichen Zusammenlebens im Exil am Beispiel der ehemaligen Colonia Dignidad in Chile analysiert. Die Colonia Dignidad (dt.: Kolonie der Würde) wurde 1961 von Mitgliedern einer deutschen Sekte im Zentrum des Landes, ca. 400 km südlich von Santiago entfernt, gegründet. Nach außen präsentierte sich die Gemeinschaft als glückliche und zufriedene deutsche Enklave, die ihre heimatlichen Traditionen und Bräuche im Ausland weiterhin pflegt. Mit dem Ende der Militärdiktatur unter Augusto Pinochet 1990 und dem damit verbundenen Wegfall der politischen Rückendeckung der Gemeinschaft, begann die chilenische Justiz die schon länger bestehenden Vorwürfe gegen den damaligen Sektenführer Paul Schäfer, u. a. wegen Kindesmissbrauchs und Folter an chilenischen Oppositionellen während der Militärdiktatur, zu untersuchen. Dem chilenischen Haftbefehl acht Jahre später entzog sich Paul Schäfer durch seine Flucht nach Argentinien. Die zurückbleibenden Mitglieder der Colonia Dignidad waren aufgrund des einsetzenden Zerfalls der alten Gemeinschaftsordnung gezwungen, sich ein neues Gemeinschaftskonzept zu erarbeiten, eines, in dem die bisher so dominante Führerfigur fehlte.
Sowohl das Gemeinschaftsleben in der Colonia Dignidad zwischen 1961 und 1998 als auch das Zusammenleben in der heutigen Villa Baviera ab 1998 wird anhand der Theorien zur Gemeinschaftsforschung von Ferdinand Tönnies, Georg Vobruba, Zygmunt Baumann, Matthias Grundmann und Stephan Drucks analysiert. Im Findungsprozess eines neuen Gemeinschaftskonzeptes waren die Mitglieder der ehemaligen Colonia Dignidad gezwungen, sich mit der Vergangenheit auseinanderzusetzen. In diesem Zusammenhang wird der Frage nachgegangen, inwiefern eine Aufarbeitung der Vergangenheit (memoria) im kulturwissenschaftlichen und psychologischen Sinne stattfand bzw. stattfindet und wenn ja, wie sich diese gestaltete bzw. gestaltet. Hierzu wird untersucht, welche staatlichen Maßnahmen zur Unterstützung des Neuanfangs der Gemeinschaft getroffen wurden und welchen Erfolg diese Maßnahmen hatten. Basierend auf den daraus gewonnenen Resultaten und der aktuellen Selbstdarstellung der Villa Baviera in ihrer Webpräsenz, wird das neue Gemeinschaftskonzept der ehemaligen Colonia Dignidad auf die Chancen des Zusammenlebens hin analysiert. Weiterführend werden Konzepte zum kollektiven Gedächtnis untersucht, von dem „Familiengedächtnis“ auf ein „Gemeinschaftsgedächtnis“ übertragen und mit der Frage nach der konstruktiven memoria innerhalb der Villa Baviera verbunden. Abschließend wird der Frage nachgegangen, welche positiven Aspekte des Gemeinschaftslebens einer intentionalen Gemeinschaft auf das Gemeinschaftsleben der Villa Baviera übertragen werden könnten.
Ground-based gamma-ray astronomy has had a major breakthrough with the impressive results obtained using systems of imaging atmospheric Cherenkov telescopes. Ground-based gamma-ray astronomy has a huge potential in astrophysics, particle physics and cosmology. CTA is an international initiative to build the next generation instrument, with a factor of 5-10 improvement in sensitivity in the 100 GeV-10 TeV range and the extension to energies well below 100 GeV and above 100 TeV. CTA will consist of two arrays (one in the north, one in the south) for full sky coverage and will be operated as open observatory. The design of CTA is based on currently available technology. This document reports on the status and presents the major design concepts of CTA.
In this work, the development of a new molecular building block, based on synthetic peptides derived from decorin, is presented. These peptides represent a promising basis for the design of polymer-based biomaterials that mimic the ECM on a molecular level and exploit specific biological recognition for technical applications. Multiple sequence alignments of the internal repeats of decorin that formed the inner and outer surface of the arch-shaped protein were used to develop consensus sequences. These sequences contained conserved sequence motifs that are likely to be related to structural and functional features of the protein. Peptides representative for the consensus sequences were synthesized by microwave-assisted solid phase peptide synthesis and purified by RP-HPLC, with purities higher than 95 mol%. After confirming the desired masses by MALDI-TOF-MS, the primary structure of each peptide was investigated by 1H and 2D NMR, from which a full assignment of the chemical shifts was obtained. The characterization of the peptides conformation in solution was performed by CD spectroscopy, which demonstrated that using TFE, the peptides from the outer surface of decorin show a high propensity to fold into helical structures as observed in the original protein. To the contrary, the peptides from the inner surface did not show propensity to form stable secondary structure. The investigation of the binding capability of the peptides to Collagen I was performed by surface plasmon resonance analyses, from which all but one of the peptides representing the inner surface of decorin showed binding affinity to collagen with values of dissociation constant between 2•10-7 M and 2.3•10-4 M. On the other hand, the peptides representative for the outer surface of decorin did not show any significant interaction to collagen. This information was then used to develop experimental demonstration for the binding capabilities of the peptides from the inner surface of decorin to collagen even when used in more complicated situations close to possible appications. With this purpose, the peptide (LRELHLNNN) which showed the highest binding affinity to collagen (2•10-7 M) was functionalized with an N-terminal triple bond in order to obtain a peptide dimer via copper(I)-catalyzed cycloaddition reaction with 4,4'-diazidostilbene-2,2'-disulfonic acid. Rheological measurements showed that the presence of the peptide dimer was able to enhance the elastic modulus (G') of a collagen gel from ~ 600 Pa (collagen alone) to ~ 2700 Pa (collagen and peptide dimer). Moreover, it was shown that the mechanical properties of a collagen gel can be tailored by using different molar ratios of peptide dimer respect to collagen. The same peptide, functionalized with the triple bond, was used to obtain a peptide-dye conjugate by coupling it with N-(5'-azidopentanoyl)-5-aminofluorescein. An aqueous solution (5 vol% methanol) of the peptide dye conjugate was injected into a collagen and a hyaluronic acid (HA) gel and images of fluorescence detection showed that the diffusion of the peptide was slower in the collagen gel compared to the HA gel. The third experimental demonstration was gained using the peptide (LSELRLHNN) which showed the lower binding affinity (2.3•10-4 M) to collagen. This peptide was grafted to hyaluronic acid via EDC-chemistry, with a degree of functionalization of 7 ± 2 mol% as calculated by 1H-NMR. The grafting was further confirmed by FTIR and TGA measurements, which showed that the onset of decomposition for the HA-g-peptide decreased by 10 °C compared to the native HA. Rheological measurements showed that the elastic modulus of a system based on collagen and HA-g-peptide increased by almost two order of magnitude (G' = 200 Pa) compared to a system based on collagen and HA (G' = 0.9 Pa). Overall, this study showed that the synthetic peptides, which were identified from decorin, can be applied as potential building blocks for biomimetic materials that function via biological recognition.
Im Rahmen einer prospektiven Längsschnittuntersuchung wurde der Berufseinstieg von ÄrztInnen (N = 185) als normatives kritisches Lebensereignis untersucht. Dazu wurden sie insgesamt drei Mal im Abstand von jeweils sechs Monaten im ersten Jahr nach ihrem Studiumsabschluss befragt (T1: in den ersten zwei Wochen nach dem Staatsexamen, T2: kurzzeitig nach dem Berufseinstieg, T3: im Schnitt 9.5 Monate nach dem Berufseinstieg). Die Ergebnisse zeigten zunächst, dass unlängst examinierte Jung-ÄrztInnen, die sich vergleichsweise schlechter auf den Beruf durch das Studium vorbereitet fühlten, ihren bevorstehenden Berufseinstieg negativer bewerteten und schon vor diesem beanspruchter waren. Die Bewertung des Berufseinstiegs vermittelte dabei den Zusammenhang zwischen einer schlechten Vorbereitung und der Beanspruchung. Arbeitsspezifische Copingfunktionalität wiederum pufferte den Zusammenhang zwischen einer schlechten Vorbereitung und der Bewertung des Berufseinstiegs. Das Problem einer als schlecht empfundenen Vorbereitung verdeutlichte sich in der Längsschnittanalyse – sie sagte eine höhere Beanspruchung zum zweiten Messzeitpunkt, d.h. nach dem Berufseinstieg, vorher. In der Untersuchung der Beanspruchungsentwicklung über die drei Messzeitpunkte hinweg fanden sich nur wenige Veränderungen. Es ließ sich zwar eine deutliche Zunahme der mittleren Depressivitäts-Ausprägungen über den Berufseinstieg hinweg herausstellen (T1-T2); auf anderen Beanspruchungsindikatoren zeigte sich jedoch kein direkter Effekt des Arbeitsbeginns bzw. fand sich auch keine Adaptation der Jung-ÄrztInnen an ihre neue Situation im Sinne einer sich verringernden Beanspruchung im weiteren Verlauf (T2-T3). In der Erklärung interindividueller Unterschiede in der Beanspruchung im Untersuchungszeitraum zeigte sich, dass die sich mit dem Berufseinstieg einstellende Arbeitsbelastung zum zweiten und dritten Messzeitpunkt erwartungsgemäß positiv mit Beanspruchung assoziiert war. Die Arbeitsbelastungs-Beanspruchungs-Beziehung bestand jedoch nur im Querschnitt; in der Längsschnittanalyse fand sich kein Effekt der T2-Arbeitsbelastung auf die T3-Beanspruchung. Ausgangsunterschiede in psychischen Ressourcen wirkten einerseits direkt auf die Beanspruchung zu T2, zum Teil moderierten sie aber auch den Zusammenhang zwischen der Arbeitsbelastung und Beanspruchung: Eine höhere Resilienz und die Wahrnehmung sozialer Unterstützung sagten eine geringere Beanspruchung nach dem Berufseinstieg vorher. Jung-ÄrztInnen, die sich durch eine stärkere Arbeitsbelastung auszeichneten, aber über ein funktionaleres Bewältigungsverhalten im Arbeitskontext verfügten, waren kurzzeitig nach dem Berufseinstieg weniger beansprucht als stark arbeitsbelastete Jung-ÄrztInnen mit weniger funktionalem Coping. Verringerungen in den psychischen Ressourcen über den Berufseinstieg hinweg wirkten sich direkt, d.h. per se ungünstig auf die Beanspruchung zum dritten Messzeitpunkt aus. Zudem interagierten sie mit der zu diesem Zeitpunkt bestehenden Arbeitsbelastung in Vorhersage der Beanspruchung. Stärker arbeitsbelastete Jung-ÄrztInnen, deren Copingfunktionalität und Wahrnehmung sozialer Unterstützung vom ersten zum dritten Messzeitpunkt abgenommen hatte, waren am Ende des Untersuchungszeitraums am stärksten beansprucht. Hinsichtlich der Auswirkungen des Berufseinstiegs auf die Persönlichkeit der Jung-ÄrztInnen fanden sich ungünstige Veränderungen: Sowohl die Ausprägungen psychischer Ressourcen (Widerstandsfähigkeit, Wahrnehmung sozialer Unterstützung hinsichtlich der Arbeitstätigkeit) als auch die der Big Five-Faktoren nahmen im Mittel ab. Interindividuelle Unterschiede in den Veränderungen ließen sich auf die Beanspruchung kurzzeitig nach dem Berufseinstieg (T2) bzw. auf deren Entwicklung in den Folgemonaten (T2-T3) zurückführen: Jene Jung-ÄrztInnen, die vergleichsweise stark beansprucht auf den Berufseinstieg reagiert hatten bzw. deren Beanspruchung im weiteren Verlauf zunahm, zeigten entsprechend ungünstige Veränderungen. Die Ergebnisse zusammengefasst verdeutlicht sich folgende Problematik: Jung-ÄrztInnen, die weniger gut, d.h. persönlichkeitsbasiert geschützt den Berufseinstieg absolvieren, reagieren stärker beansprucht und sind dann auch diejenigen, deren Persönlichkeit sich in den ersten Arbeitsmonaten ungünstig verändert. Jung-ÄrztInnen mit geringen psychischen Ressourcen sind folglich nicht nur besonders vulnerabel für die Entwicklung von Beanspruchung angesichts belastender Arbeitsbedingungen, sondern ihre vergleichsweise hohe Beanspruchung bedingt eine weitere Verringerung des Schutz- und Pufferpotenzials ihrer Persönlichkeit. Es kommt zu einer ungünstigen Akzentuierung der ohnehin schon vergleichsweise ressourcenschwachen Persönlichkeit, welche die Vulnerabilität für zukünftige Beanspruchung erhöht. Aus den Ergebnissen lässt sich ein Unterstützungsbedarf junger ÄrztInnen in der sensiblen und wegweisenden Berufseinstiegsphase ableiten. Neben einer Verbesserung ihrer Arbeitsbedingungen stellen eine rechtzeitige Sensibilisierung junger ÄrztInnen für den Arbeitsbelastungs-Beanspruchungs-Zusammenhang, ihre regelmäßige Supervision sowie vor allem aber auch kompetenzorientiertes und ressourcenstärkendes Feedback von den Mentoren und Vorgesetzten die Grundlage dafür dar, dass die Jung-MedizinerInnen selbst gesund bleiben und sie die ärztliche Tätigkeit trotz ihres wohl stets hohen Belastungspotenzials als erfüllend und zufriedenstellend erleben.
The needs for sustainable energy generation, but also a sustainable chemistry display the basic motivation of the current thesis. By different single investigated cases, which are all related to the element carbon, the work can be devided into two major topics. At first, the sustainable synthesis of “useful” carbon materials employing the process of hydrothermal carbonisation (HC) is described. In the second part, the synthesis of heteroatom - containing carbon materials for electrochemical and fuel cell applications employing ionic liquid precursors is presented. On base of a thorough review of the literature on hydrothermolysis and hydrothermal carbonisation of sugars in addition to the chemistry of hydroxymethylfurfural, mechanistic considerations of the formation of hydrothermal carbon are proposed. On the base of these reaction schemes, the mineral borax, is introduced as an additive for the hydrothermal carbonisation of glucose. It was found to be a highly active catalyst, resulting in decreased reaction times and increased carbon yields. The chemical impact of borax, in the following is exploited for the modification of the micro- and nanostructure of hydrothermal carbon. From the borax - mediated aggregation of those primary species, widely applicable, low density, pure hydrothermal carbon aerogels with high porosities and specific surface areas are produced. To conclude the first section of the thesis, a short series of experiments is carried out, for the purpose of demonstrating the applicability of the HC model to “real” biowaste i.e. watermelon waste as feedstock for the production of useful materials. In part two cyano - containing ionic liquids are employed as precursors for the synthesis of high - performance, heteroatom - containing carbon materials. By varying the ionic liquid precursor and the carbonisation conditions, it was possible to design highly active non - metal electrocatalyst for the reduction of oxygen. In the direct reduction of oxygen to water (like used in polymer electrolyte fuel cells), compared to commercial platinum catalysts, astonishing activities are observed. In another example the selective and very cost efficient electrochemical synthesis of hydrogen peroxide is presented. In a last example the synthesis of graphitic boron carbon nitrides from the ionic liquid 1 - Ethyl - 3 - methylimidazolium - tetracyanoborate is investigated in detail. Due to the employment of unreactive salts as a new tool to generate high surface area these materials were first time shown to be another class of non - precious metal oxygen reduction electrocatalyst.
A key non-destructive technique for analysis, optimization and developing of new functional materials such as sensors, transducers, electro-optical and memory devices is presented. The Thermal-Pulse Tomography (TPT) provides high-resolution three-dimensional images of electric field and polarization distribution in a material. This thermal technique use a pulsed heating by means of focused laser light which is absorbed by opaque electrodes. The diffusion of the heat causes changes in the sample geometry, generating a short-circuit current or change in surface potential, which contains information about the spatial distribution of electric dipoles or space charges. Afterwards, a reconstruction of the internal electric field and polarization distribution in the material is possible via Scale Transformation or Regularization methods. In this way, the TPT was used for the first time to image the inhomogeneous ferroelectric switching in polymer ferroelectric films (candidates to memory devices). The results shows the typical pinning of electric dipoles in the ferroelectric polymer under study and support the previous hypotheses of a ferroelectric reversal at a grain level via nucleation and growth. In order to obtain more information about the impact of the lateral and depth resolution of the thermal techniques, the TPT and its counterpart called Focused Laser Intensity Modulation Method (FLIMM) were implemented in ferroelectric films with grid-shaped electrodes. The results from both techniques, after the data analysis with different regularization and scale methods, are in total agreement. It was also revealed a possible overestimated lateral resolution of the FLIMM and highlights the TPT method as the most efficient and reliable thermal technique. After an improvement in the optics, the Thermal-Pulse Tomography method was implemented in polymer-dispersed liquid crystals (PDLCs) films, which are used in electro-optical applications. The results indicated a possible electrostatic interaction between the COH group in the liquid crystals and the fluorinate atoms of the used ferroelectric matrix. The geometrical parameters of the LC droplets were partially reproduced as they were compared with Scanning Electron Microscopy (SEM) images. For further applications, it is suggested the use of a non-strong-ferroelectric polymer matrix. In an effort to develop new polymerferroelectrets and for optimizing their properties, new multilayer systems were inspected. The results of the TPT method showed the non-uniformity of the internal electric-field distribution in the shaped-macrodipoles and thus suggested the instability of the sample. Further investigation on multilayers ferroelectrets was suggested and the implementation of less conductive polymers layers too.
Besteuerung von Unternehmensgewinnen im Licht des Konzepts der konsumorientierten Einkommensteuer
(2011)
Die Dissertation widmet sich dem Problem der fiskalischen Konsequenzen der konsumorientierten Steuern, die die unternehmerischen Gewinne unabhängig von der Rechtsform belasten. Im empirischen Teil der Arbeit wird der Untersuchungsgegenstand auf die zinsbereinigte Gewinnsteuer (allowance for corporate equity) eingegrenzt. Die Untersuchung beruht auf theoretischen Überlegungen sowie einer eigenen Simulationsanalyse. Den Schwerpunkt bilden dabei zwei Kategorien, zwischen denen ein kausaler Zusammenhang vorliegt: die Gestaltung der Bemessungsgrundlage einerseits und die Erfüllung der Fiskalfunktion andererseits. Das Hauptziel der Arbeit ist es, die fiskalischen Konsequenzen einer nach dem Konzept der Konsumorientierung modifizierten Bemessungsgrundlage der Gewinnsteuern zu überprüfen. Die Abschätzung der fiskalischen Konsequenzen wird aufgrund der vier folgenden Bereiche vorgenommen: (1) theoretische Konzepte der konsumorientierten Einkommensteuer, (2) bisherige Umsetzungen der Konzepte der konsumorientierten Gewinnsteuer, (3) bisherige Untersuchungen der konsumorientierten Gewinnsteuer, (4) eine eigene Simulation der fiskalischen Konsequenzen der konsumorientierten Gewinnsteuer. Um das Hauptziel der Arbeit zu erreichen, werden acht in Form von Teilfragen ausformulierte Untersuchungsprobleme gelöst. Sie betreffen sowohl die theoretischen Ausführungen, als auch die empirische Untersuchung. Dabei entsprechen sie den einzelnen Untersuchungsschritten, die in den aufeinander folgenden Kapiteln der Arbeit durchgeführt werden. Anhand der Analyse der bisherigen wissenschaftlichen Erkenntnisse und der praktischen Umsetzungen des Konzepts der konsumorientierten Steuern wurde die folgende Haupthypothese aufgestellt: Der Ausfall des Steueraufkommens, der ein direkter Effekt der Gestaltung der Bemessungsgrundlage nach dem Konzept der Konsumorientierung ist, schließt die Fiskalfunktion der Gewinnsteuern nicht aus. Das Verfahren, das eine Verifizierung der Haupthypothese zum Ziel hat, erfolgt durch eine Untersuchung von drei Teilhypothesen: der Hypothese über die Nullsteuer, der Hypothese über den differenzierten Aufkommensausfall und der Hypothese über die Konzentration der Steuerschuld. In der Dissertation werden empirische Daten aus drei Quellen benutzt. Sie umfassen einen Teil der in Polen in den Jahren 2004-2008 tätigen Unternehmen und ermöglichen es, eine Simulationsanalyse des Aufkommensausfalls durchzuführen. Diese bedient sich der Methodik der Mikro- und Gruppensimulation, was in den bisherigen Untersuchungen zur Unternehmensbesteuerung ein eher selten anzutreffender Ansatz ist. Die gewonnenen Ergebnisse zeigen, dass die Steuereinnahmen aus der Einkommensteuer und der Körperschaftsteuer durch die Modifizierung der Bemessungsgrundlage deutlich reduziert werden. Die relativ große fiskalische Bedeutung der beiden Steuern bleibt jedoch erhalten und der Ausfall des Steueraufkommens, der direkt nach der Einführung einer konsumorientierten Steuerreform eintreten würde, wäre der „Preis“ für eine bessere, weniger verzerrende Bemessungsgrundlage. Die Dissertation liefert Ergebnisse, die für die Gestaltung der Steuerpolitik in Polen wie auch in anderen Ländern relevant sind. Dies scheint insbesondere im Kontext des häufig diskutierten Umbaus des Systems der Einkommen- und Gewinnbesteuerung bedeutsam. Darüber hinaus bildet die Arbeit einen Ausgangspunkt für weitere, vertiefte Untersuchungen zu den möglichen Gestaltungsformen der Einkommen- und Gewinnsteuern wie auch zu deren Folgen. Die Methode der Steuersimulation kann weiterentwickelt werden und in anderen Analysen der potenziellen Konsequenzen von Steuerreformen Anwendung finden.
This article presents several acceptability rating experiments concerned with crossing wh-movement in German multiple questions. Our results show that there is no general superiority effect in German, thus refuting claims to the contrary by Featherston (2005). However, acceptability is reduced when a whphrase crosses a wh-subject with which it agrees in animacy. We explain this finding in terms of the availability of different sorting keys for the answers to the multiple questions.
Das vorliegende Buch vergleicht Strategien biologischer Systeme mit militärischen Strategien. Die zentrale Fragestellung ist dabei darauf gerichtet, ob es neben systemischen Gemeinsamkeiten auch gemeinsame oder ähnliche Strukturmuster und ähnliche Prozessabläufe beispielsweise sowohl im biologischen Abwehrmechanismus des Immunsystems und bei Insektenstaaten als auch bei Prozessen im Militär gibt. Vor diesem Hintergrund klaffen in der Theorie der Strategie, speziell in den Militärwissenschaften Lücken, denn der Systemansatz wird nicht konsequent beachtet, wie in diesem Buch mehrfach nachgewiesen ist. Von einem allgemeinen Verständnis der Strategie als bewusstem planerischem Vorgehen ist Abstand zu nehmen. Ausgehend von der Methode der Analogie und des Vergleichs wird im theoretischen Teil dieses Buches die Allgemeine Systemtheorie erläutert. Dabei werden der Begriff der Strategie ebenso wie die Begriffe Struktur und Prozess und Ansätze aus der Kriegsphilosophie von Clausewitz untersucht. Den Ausgangspunkt und schließlich auch wieder den Endpunkt der Überlegungen bilden neben dem notwendigen weiten Verständnis von Strategie, vor allem der Begriff der Organisation, ihrer Umwelt und der in diesem Zusammenhang bestehenden Wechselwirkung. Sowohl die Wechselwirkung von Umwelt und System als auch ihre Abhängigkeit durch strukturelle Kopplung werden beschrieben. Das Zusammenspiel und die daraus entstehende Komplexität der fünf Komponenten der Wahrnehmung, der Information und der Führung im Zusammenhang der Komponenten von Raum und Zeit in einem sozialen System lassen die klassische Ziel-Mittel-Zweck-Beziehung Clausewitz´scher Strategiedefinition verkürzt erscheinen. Anhand eines kurzen Rekurses der Methoden der Sozialen Netzwerkanalyse (SNA) wird der breite und tiefgehende Analyserahmen der Messung und Transparenzerreichung in Organisationen vorgestellt. Die SNA wird als Ausprägung der Netzwerk- und Graphentheorie, in die Allgemeine Systemtheorie integriert. Sie bildet eine zukunftsweisende Methode der Untersuchung von Netzwerken wie etwa dem Internet (Facebook, Xing etc.). Der aufgezeigte Theorierahmen bildet dabei zugleich eine Methode für den Systemvergleich und kann als Vorgehensmodell künftiger Strategieentwicklung genutzt werden. Der anschließende Systemvergleich wird mit mehreren Beispielen durchgeführt. Ausgehend von der Zelle als Grundeinheit werden Strukturen und Prozesse des Immunsystems mit solchen in militärischen Strukturen, weil sie im Lauf der Evolution enorme Leistungen in Reaktion, Anpassung und Optimierung vollbracht haben. Der Vergleich geht der Frage nach, ob in diesen Bereichen der Strategie und Organisation systemische Grundregeln existieren. Das Beispiel der Wechselwirkung zwischen Parasit und Wirt zeigt, dass jeder Fortschritt und Sieg angesichts der Systemeinbettung von Strategie nur relativ wirken kann. Die Analogie zwischen Viren und Bakterien sowie die Entwicklung des Begriffs der sozialen Mimikry führen zu einem erweiterten Verständnis der Strategie von Terroristen in sozialen Systemen. Verdeutlicht wird das Grundschema des Täuschens und Eindringens in Systeme sowie die Beeinflussung und Umsteuerung von Prozessen und Strukturen in einem System durch Kommunikation und Implementation von Codes. Am Beispiel des Immunsystems und der Bildung verschiedener Kommunikations- und Steuerungsmechanismen von Zellsystemen sowie Beispielen von Schwarmbildung und der Organisation sozialer Insekten werden eine Vielzahl heuristischer Hinweise für neue Ansätze für die Organisation von Streitkräften und ihrer Steuerung gefunden. Neben der Erarbeitung eines grundlegenden Strategiebegriffs anhand von Wahrnehmung und Selektion als Grundprozess der Erzeugung von Strategie wird eine differenzierte Betrachtung von Begriffen wie Redundanz und Robustheit sowie eine relativierende Sichtweise von Risiko, Gefahr und Schaden gewonnen. Der Vergleich mit dem Immunsystems zeigt einfache Beispiele der Informationsspeicherung und -übertragung, die zudem Bypassfähigkeiten sowie dezentrale Eskalations- und Deeskalationsprinzipien veranschaulichen. Dies eröffnet in Analogie dieser Prinzipien einen weiten Raum Sicherheitsarchitekturen zu überdenken und neu zu strukturieren. Zudem kann die räumliche Ausbreitung von Information und Kräften als ein gemeinsames Grundproblem der Entwicklung und Wirksamkeit von Strategien sowohl in der Natur, als auch im Militär identifiziert werden. Die Betrachtung zeigt zudem wie Zellen mit fehlgeleiteten Prozessen und Strukturen umgehen. Die Analogie deutet auf das Erfordernis einer Veränderung im Umgang mit Fehlern und ihrer Rückführ- und Umkehrbarkeit im weitesten Sinne. Das Buch eröffnet überdies ein neues Verständnis von Staat, Gewaltenteilung und Institutionen in einem sozialen System. Die Ergebnisse sind auch auf andere Forschungsbereiche, Organisationen und unterschiedlichste soziale Systeme übertragbar. Es eröffnet sich ein breites Anwendungsspektrum für künftige strategische Untersuchungen.
Answer Set Programming (ASP) is an emerging paradigm for declarative programming, in which a computational problem is specified by a logic program such that particular models, called answer sets, match solutions. ASP faces a growing range of applications, demanding for high-performance tools able to solve complex problems. ASP integrates ideas from a variety of neighboring fields. In particular, automated techniques to search for answer sets are inspired by Boolean Satisfiability (SAT) solving approaches. While the latter have firm proof-theoretic foundations, ASP lacks formal frameworks for characterizing and comparing solving methods. Furthermore, sophisticated search patterns of modern SAT solvers, successfully applied in areas like, e.g., model checking and verification, are not yet established in ASP solving. We address these deficiencies by, for one, providing proof-theoretic frameworks that allow for characterizing, comparing, and analyzing approaches to answer set computation. For another, we devise modern ASP solving algorithms that integrate and extend state-of-the-art techniques for Boolean constraint solving. We thus contribute to the understanding of existing ASP solving approaches and their interconnections as well as to their enhancement by incorporating sophisticated search patterns. The central idea of our approach is to identify atomic as well as composite constituents of a propositional logic program with Boolean variables. This enables us to describe fundamental inference steps, and to selectively combine them in proof-theoretic characterizations of various ASP solving methods. In particular, we show that different concepts of case analyses applied by existing ASP solvers implicate mutual exponential separations regarding their best-case complexities. We also develop a generic proof-theoretic framework amenable to language extensions, and we point out that exponential separations can likewise be obtained due to case analyses on them. We further exploit fundamental inference steps to derive Boolean constraints characterizing answer sets. They enable the conception of ASP solving algorithms including search patterns of modern SAT solvers, while also allowing for direct technology transfers between the areas of ASP and SAT solving. Beyond the search for one answer set of a logic program, we address the enumeration of answer sets and their projections to a subvocabulary, respectively. The algorithms we develop enable repetition-free enumeration in polynomial space without being intrusive, i.e., they do not necessitate any modifications of computations before an answer set is found. Our approach to ASP solving is implemented in clasp, a state-of-the-art Boolean constraint solver that has successfully participated in recent solver competitions. Although we do here not address the implementation techniques of clasp or all of its features, we present the principles of its success in the context of ASP solving.
Preference handling and optimization are indispensable means for addressing nontrivial applications in Answer Set Programming (ASP). However, their implementation becomes difficult whenever they bring about a significant increase in computational complexity. As a consequence, existing ASP systems do not offer complex optimization capacities, supporting, for instance, inclusion-based minimization or Pareto efficiency. Rather, such complex criteria are typically addressed by resorting to dedicated modeling techniques, like saturation. Unlike the ease of common ASP modeling, however, these techniques are rather involved and hardly usable by ASP laymen. We address this problem by developing a general implementation technique by means of meta-prpogramming, thus reusing existing ASP systems to capture various forms of qualitative preferences among answer sets. In this way, complex preferences and optimization capacities become readily available for ASP applications.
Using the notion of an elementary loop, Gebser and Schaub (2005. Proceedings of the Eighth International Conference on Logic Programming and Nonmonotonic Reasoning (LPNMR’05 ), 53–65) refined the theorem on loop formulas attributable to Lin and Zhao (2004) by considering loop formulas of elementary loops only. In this paper, we reformulate the definition of an elementary loop, extend it to disjunctive programs, and study several properties of elementary loops, including how maximal elementary loops are related to minimal unfounded sets. The results provide useful insights into the stable model semantics in terms of elementary loops. For a nondisjunctive program, using a graph-theoretic characterization of an elementary loop, we show that the problem of recognizing an elementary loop is tractable. On the other hand, we also show that the corresponding problem is coNP-complete for a disjunctive program. Based on the notion of an elementary loop, we present the class of Head-Elementary-loop-Free (HEF) programs, which strictly generalizes the class of Head-Cycle-Free (HCF) programs attributable to Ben-Eliyahu and Dechter (1994. Annals of Mathematics and Artificial Intelligence 12, 53–87). Like an HCF program, an HEF program can be turned into an equivalent nondisjunctive program in polynomial time by shifting head atoms into the body.
We introduce an approach to detecting inconsistencies in large biological networks by using answer set programming. To this end, we build upon a recently proposed notion of consistency between biochemical/genetic reactions and high-throughput profiles of cell activity. We then present an approach based on answer set programming to check the consistency of large-scale data sets. Moreover, we extend this methodology to provide explanations for inconsistencies by determining minimal representations of conflicts. In practice, this can be used to identify unreliable data or to indicate missing reactions.
The armed conflict in Afghanistan since 2001 has raised manifold questions pertaining to the humanitarian rules relative to the conduct of hostilities. In Afghanistan, as is often the case in so-called asymmetric conflicts, the geographical and temporal boundaries of the battlefield, and the distinction between civilians and fighters, are increasingly blurred. As a result, the risks for both civilians and soldiers operating in Afghanistan are high. The objective of this article is to assess whether - and if so how much - the armed conflict in Afghanistan has affected the application and interpretation of the principles of distinction, proportionality, and precaution - principles that form the core of legal rules pertaining to the conduct of hostilities.
During reading oculomotor processes guide the eyes over the text. The visual information recorded is accessed, evaluated and processed. Only by retrieving the meaning of a word from the long-term memory, as well as through the connection and storage of the information about each individual word, is it possible to access the semantic meaning of a sentence. Therefore memory, and here in particular working memory, plays a pivotal role in the basic processes of reading. The following dissertation investigates to what extent different demands on memory and memory capacity have an effect on eye movement behavior while reading. The frequently used paradigm of the reading span task, in which test subjects read and evaluate individual sentences, was used for the experimental review of the research questions. The results speak for the fact that working memory processes have a direct effect on various eye movement measurements. Thus a high working memory load, for example, reduced the perceptual span while reading. The lower the individual working memory capacity of the reader was, the stronger was the influence of the working memory load on the processing of the sentence.
Poröse Sol-Gel-Materialien finden in vielen Bereichen Anwendung bzw. sind Gegenstand der aktuellen Forschung. Zu diesen Bereichen zählen sowohl klassische Anwendungen, wie z. B. die Verwendung als Katalysator, Molekularsieb oder Trockenmittel, als auch nichtklassische Anwendungen, wie z. B. der Einsatz als Kontrastmittel in der Magnet-Resonanz-Tomographie oder in Form von dünnen Zeolithfilmen als Isolatoren in Mikrochips. Auch für den Einsatz in der Photonik werden poröse Materialien in Betracht gezogen, wie die Entwicklung des Zeolith-Farbstoff-Lasers zeigt. Mikroporöse Zeolithe können generell über einfache Ionenaustauschreaktionen mit Lanthanoidionen in lumineszente Materialien umgewandelt werden. Neben der Erzeugung eines lumineszenten Materials, dessen Lumineszenzeigenschaften charakterisiert werden müssen, bietet die Nutzung von Lanthanoidionen die Möglichkeit diese Ionen als Sonde zur Charakterisierung der Ion-Wirt-Wechselwirkungen zu funktionalisieren, was z. B. in Bezug auf die Anwendung als Katalysator von großer Bedeutung ist. Dabei werden die einzigartigen Lumineszenzeigenschaften der Lanthanoidionen, in diesem Fall von Europium(III) und Terbium(III), genutzt. In dieser Arbeit wurden Lanthanoid-dotierte mikroporöse Zeolithe, mikroporös-mesoporöse Hybridmaterialien und mesoporöse Silikate hinsichtlich ihrer Lumineszenzeigenschaften und ihrer Wechselwirkung des Wirtsmaterials mit den Lanthanoidionen mittels zeitaufgelöster Lumineszenzspektroskopie untersucht. Zeitaufgelöste Emissionsspektren (TRES) liefern dabei sowohl Informationen in der Wellenlängen- als auch in der Zeitdomäne. Erstmalig wurden die TRES mittels einer umfangreichen Auswertemethodik behandelt. Neben der Anpassung des Abklingverhaltens mit einer diskreten Zahl von Exponentialfunktionen, wurden unterstützend auch Abklingzeitverteilungsanalysen durchgeführt. Zeitaufgelöste flächennormierte Emissionsspektren (TRANES), eine Erweiterung der normalen TRES, konnten erstmals zur Bestimmung der Zahl der emittierenden Lanthanoidspezies in porösen Materialien genutzt werden. Durch die Berechnung der Decayassoziierten Spektren (DAS) konnten den Lanthanoidspezies die entsprechenden Lumineszenzspektren zugeordnet werden. Zusätzlich konnte, speziell im Fall der Europium-Lumineszenz, durch Kombination von zeitlicher und spektraler Information das zeitabhängige Asymmetrieverhältnis R und die spektrale Evolution des 5D0-7F0-Übergangs mit der Zeit t untersucht und somit wesentliche Informationen über die Verteilung der Europiumionen im Wirtsmaterial erhalten werden. Über die Abklingzeit und das Asymmetrieverhältnis R konnten Rückschlüsse auf die Zahl der OH-Oszillatoren in der ersten Koordinationssphäre und die Symmetrie der Koordinationsumgebung gezogen werden. Für die mikroporösen und mikroporös-mesoporösen Materialien wurden verschiedene Lanthanoidspezies, im Regelfall zwei, gefunden, welche entsprechend der beschriebenen Methoden charakterisiert wurden. Diese Lanthanoidspezies konnten Positionen in den Materialien zugeordnet werden, die sich im tief Inneren des Porensystems oder auf bzw. nahe der äußeren Oberfläche oder in den Mesoporen befinden. Erstere Spezies ist aufgrund ihrer Position im Material gut vor Feuchtigkeitseinflüssen geschützt, was sich deutlich in entsprechend langen Lumineszenzabklingzeiten äußert. Zusätzlich ist diese Europiumspezies durch unsymmetrische Koordinationsumgebung charakterisiert, was auf einen signifikanten Anteil an Koordination der Lanthanoidionen durch die Sauerstoffatome im Wirtsgitter zurückzuführen ist. Ionen, die sich nahe oder auf der äußeren Oberfläche befinden, sind dagegen für Feuchtigkeit zugänglicher, was in kürzeren Lumineszenzabklingzeiten und einer symmetrischeren Koordinationsumgebung resultiert. Der Anteil von Wassermolekülen in der ersten Koordinationssphäre ist hier deutlich größer, als bei den Ionen, die sich tiefer im Porensystem befinden und entspricht in vielen Fällen der Koordinationszahl eines vollständig hydratisierten Lanthanoidions. Auch der Einfluss von Oberflächenmodifikationen auf die Speziesverteilung und das Verhalten der Materialien gegenüber Feuchtigkeit wurde untersucht. Dabei gelang es den Einfluss der Feuchtigkeit auf die Lumineszenzeigenschaften und die Speziesverteilung durch die Oberflächenmodifikation zu verringern und die Lumineszenzeigenschaften teilweise zu konservieren. Im Fall der mesoporösen Silikamonolithe wurde auch eine heterogene Verteilung der Lanthanoidionen im Porensystem gefunden. Hier wechselwirkt ein Teil der Ionen mit der Porenwand, während sich die restlichen Ionen in der wäßrigen Phase innerhalb des Porensystems aufhalten. Das Aufbringen von Oberflächenmodifikationen führte zu einer Wechselwirkung der Ionen mit diesen Oberflächenmodifikationen, was sich in Abhängigkeit von der Oberflächenbeladung in den enstprechenden Lumineszenzeigenschaften niederschlug.
Resolute readings of later Wittgenstein and the challenge of avoiding hierarchies in philosophy
(2011)
This dissertation addresses the question: How did later Wittgenstein aim to achieve his goal of putting forward a way of dissolving philosophical problems which centered on asking ourselves what we mean by our words – yet which did not entail any claims about the essence of language and meaning? This question is discussed with reference to “resolute” readings of Wittgenstein. I discuss the readings of James Conant, Oskari Kuusela, and Martin Gustafsson. I follow Oskari Kuusela’s claim that in order to fully appreciate how later Wittgenstein meant to achieve his goal, we need to clearly see how he aimed to do away with hierarchies in philosophy: Not only is the dissolution of philosophical problems via the method of clarifying the grammar of expressions to be taken as independent from any theses about what meaning must be – but furthermore, it is to be taken as independent from the dissolution of any particular problem via this method. As Kuusela stresses, this also holds for the problems involving rule-following and meaning: the clarification of the grammar of “rule” and “meaning” has no foundational status – it is nothing on which the method of clarifying the grammar of expressions as such were meant to in any way rely on. The lead question of this dissertation then is: What does it mean to come to see that the method of dissolving philosophical problems by asking “How is this word actually used?” does not in any way rely on the results of our having investigated the grammar of the particular concepts “rule” and “meaning”? What is the relation of such results – results such as “To follow a rule, [...], to obey an order, [...] are customs (uses, institutions)” or “The meaning of a word is its use in the language” – to this method? From this vantage point, I concern myself with two aspects of the readings of Gustafsson and Kuusela. In Gustafsson, I concern myself with his idea that the dissolution of philosophical problems in general “relies on” the very agreement which – during the dissolution of the rule-following problem – comes out as a presupposition for our talk of “meaning” in terms of rules. In Kuusela, I concern myself with his idea that Wittgenstein, in adopting a way of philosophical clarification which investigates the actual use of expressions, is following the model of “meaning as use” – which model he had previously introduced in order to perspicuously present an aspect of the actual use of the word “meaning”. This dissertation aims to show how these two aspects of Gustafsson’s and Kuusela’s readings still fail to live up to the vision of Wittgenstein as a philosopher who aimed to do away with any hierarchies in philosophy. I base this conclusion on a detailed analysis of which of the occasions where Wittgenstein invokes the notions of “use” and “application” (as also “agreement”) have to do with the dissolution of a specific problem only, and which have to do with the dissolution of philosophical problems in general. I discuss Wittgenstein’s remarks on rule-following, showing how in the dissolution of the rule-following paradox, notions such as “use”, “application”, and “practice” figure on two distinct logical levels. I then discuss an example of what happens when this distinction is not duly heeded: Gordon Baker and Peter Hacker’s idea that the rule-following remarks have a special significance for his project of dissolving philosophical problems as such. I furnish an argument to the effect that their idea that the clarification of the rules of grammar of the particular expression “following a rule” could answer a question about rules of grammar in general rests on a conflation of the two logical levels on which “use” occurs in the rule-following remarks, and that it leads into a regress. I then show that Gustafsson’s view – despite its decisive advance over Baker and Hacker – contains a version of that same idea, and that it likewise leads into a regress. Finally, I show that Kuusela’s idea of a special significance of the model “meaning as use” for the whole of the method of stating rules for the use of words is open to a regress argument of a similar kind as that he himself advances against Baker and Hacker. I conclude that in order to avoid such a regress, we need to reject the idea that the grammatical remark “The meaning of a word is its use in the language” – because of the occurrence of “use” in it – stood in any special relation to the method of dissolving philosophical problems by describing the use of words. Rather, we need to take this method as independent from this outcome of the investigation of the use of the particular word “meaning”.
Regulation of gene transcription plays a major role in mediating cellular responses and physiological behavior in all known organisms. The finding that similar genes are often regulated in a similar manner (co-regulated or "co-expressed") has directed several "guilt-by-association" approaches in order to reverse-engineer the cellular transcriptional networks using gene expression data as a compass. This kind of studies has been considerably assisted in the recent years by the development of high-throughput transcript measurement platforms, specifically gene microarrays and next-generation sequencing. In this thesis, I describe several approaches for improving the extraction and interpretation of the information contained in microarray based gene expression data, through four steps: (1) microarray platform design, (2) microarray data normalization, (3) gene network reverse engineering based on expression data and (4) experimental validation of expression-based guilt-by-association inferences. In the first part test case is shown aimed at the generation of a microarray for Thellungiella salsuginea, a salt and drought resistant close relative to the model plant Arabidopsis thaliana; the transcripts of this organism are generated on the combination of publicly available ESTs and newly generated ad-hoc next-generation sequencing data. Since the design of a microarray platform requires the availability of highly reliable and non-redundant transcript models, these issues are addressed consecutively, proposing several different technical solutions. In the second part I describe how inter-array correlation artifacts are generated by the common microarray normalization methods RMA and GCRMA, together with the technical and mathematical characteristics underlying the problem. A solution is proposed in the form of a novel normalization method, called tRMA. The third part of the thesis deals with the field of expression-based gene network reverse engineering. It is shown how different centrality measures in reverse engineered gene networks can be used to distinguish specific classes of genes, in particular essential genes in Arabidopsis thaliana, and how the use of conditional correlation can add a layer of understanding over the information flow processes underlying transcript regulation. Furthermore, several network reverse engineering approaches are compared, with a particular focus on the LASSO, a linear regression derivative rarely applied before in global gene network reconstruction, despite its theoretical advantages in robustness and interpretability over more standard methods. The performance of LASSO is assessed through several in silico analyses dealing with the reliability of the inferred gene networks. In the final part, LASSO and other reverse engineering methods are used to experimentally identify novel genes involved in two independent scenarios: the seed coat mucilage pathway in Arabidopsis thaliana and the hypoxic tuber development in Solanum tuberosum. In both cases an interesting method complementarity is shown, which strongly suggests a general use of hybrid approaches for transcript expression-based inferences. In conclusion, this work has helped to improve our understanding of gene transcription regulation through a better interpretation of high-throughput expression data. Part of the network reverse engineering methods described in this thesis have been included in a tool (CorTo) for gene network reverse engineering and annotated visualization from custom transcription datasets.
Algorithmic Trading
(2011)
Die Elektronisierung der Finanzmärkte ist in den letzten Jahren weit vorangeschritten. Praktisch jede Börse verfügt über ein elektronisches Handelssystem. In diesem Kontext beschreibt der Begriff Algorithmic Trading ein Phänomen, bei dem Computerprogramme den Menschen im Wertpapierhandel ersetzen. Sie helfen dabei Investmententscheidungen zu treffen oder Transaktionen durchzuführen. Algorithmic Trading selbst ist dabei nur eine unter vielen Innovationen, welche die Entwicklung des Börsenhandels geprägt haben. Hier sind z.B. die Erfindung der Telegraphie, des Telefons, des FAX oder der elektronische Wertpapierabwicklung zu nennen. Die Frage ist heute nicht mehr, ob Computerprogramme im Börsenhandel eingesetzt werden. Sondern die Frage ist, wo die Grenze zwischen vollautomatischem Börsenhandel (durch Computer) und manuellem Börsenhandel (von Menschen) verläuft. Bei der Erforschung von Algorithmic Trading wird die Wissenschaft mit dem Problem konfrontiert, dass keinerlei Informationen über diese Computerprogramme zugänglich sind. Die Idee dieser Dissertation bestand darin, dieses Problem zu umgehen und Informationen über Algorithmic Trading indirekt aus der Analyse von (Fonds-)Renditen zu extrahieren. Johannes Gomolka untersucht daher die Forschungsfrage, ob sich Aussagen über computergesteuerten Wertpapierhandel (kurz: Algorithmic Trading) aus der Analyse von (Fonds-)Renditen ziehen lassen. Zur Beantwortung dieser Forschungsfrage formuliert der Autor eine neue Definition von Algorithmic Trading und unterscheidet mit Buy-Side und Sell-Side Algorithmic Trading zwei grundlegende Funktionen der Computerprogramme (die Entscheidungs- und die Transaktionsunterstützung). Für seine empirische Untersuchung greift Gomolka auf das Multifaktorenmodell zur Style-Analyse von Fung und Hsieh (1997) zurück. Mit Hilfe dieses Modells ist es möglich, die Zeitreihen von Fondsrenditen in interpretierbare Grundbestandteile zu zerlegen und den einzelnen Regressionsfaktoren eine inhaltliche Bedeutung zuzuordnen. Die Ergebnisse dieser Dissertation zeigen, dass man mit Hilfe der Style-Analyse Aussagen über Algorithmic Trading aus der Analyse von (Fonds-)Renditen machen kann. Die Aussagen sind jedoch keiner technischen Natur, sondern auf die Analyse von Handelsstrategien (Investment-Styles) begrenzt.
Die vorliegende Arbeit basiert auf Forschungen in den Jahren 2007-2009. Sie betrachtet die saisonale Arbeitsmigration aus der polnischen Region Konin, wo die Arbeitsmigration aus ökonomischen Gründen, wie auch in ähnlich strukturierten Gebieten Polens, eine lange Tradition hat, die bis ins 19. Jahrhundert zurückgeht. Sie wird die saisonale Migration ins Ausland mit den ökonomischen, sozialen und räumlichen Auswirkungen aus der Perspektive des Einzelnen und seiner unmittelbaren Umgebung, aber auch der Gesellschaft und Herkunftsgebiet der Migranten betrachtet.
Aus dem Inhalt: 1 Einleitung 2 Entwicklungen auf dem deutschen Arbeitsmarkt 2.1 Das Normalarbeitsverhältnis und seine Bedeutung für den deutschen Arbeitsmarkt 2.2 Flexibilität von Beschäftigungsverhältnissen 2.3 Die Entwicklung der Beschäftigungsverhältnisse in der Bundesrepublik Deutschland 3 Das deutsche System sozialer Sicherung 3.1 Die Bundesrepublik Deutschland als konservativer Wohlfahrtsstaat 3.2 Zur Prekarität atypischer Beschäftigung im deutschen System sozialer Sicherung 4 Die Flexicurity-Strategie anderer Länder 4.1 Dänemark 4.2 Niederlande 5 Die Bewährung der dargestellten arbeitsmarkt- und sozialpolitischen Modelle und Schlussfolgerungen für die Bundesrepublik 5.1 Zur Performanz der Modelle in Dänemark, Deutschland und den Niederlanden 5.2 Ansatzpunkte für die Bundesrepublik Deutschland 6 Fazit und Ausblick
Soil moisture is a key state variable that controls runoff formation, infiltration and partitioning of radiation into latent and sensible heat. However, the experimental characterisation of near surface soil moisture patterns and their controls on runoff formation remains a challenge. This subject was one aspect of the BMBF-funded OPAQUE project (operational discharge and flooding predictions in head catchments). As part of that project the focus of this dissertation is on: (1) testing the methodology and feasibility of the Spatial TDR technology in producing soil moisture profiles along TDR probes, including an inversion technique of the recorded signal in heterogeneous field soils, (2) the analysis of spatial variability and temporal dynamics of soil moisture at the field scale including field experiments and hydrological modelling, (3) the application of models of different complexity for understanding soil moisture dynamics and its importance for runoff generation as well as for improving the prediction of runoff volumes. To fulfil objective 1, several laboratory experiments were conducted to understand the influence of probe rod geometry and heterogeneities in the sampling volume under different wetness conditions. This includes a detailed analysis on how these error sources affect retrieval of soil moisture profiles in soils. Concerning objective 2 a sampling strategy of two TDR clusters installed in the head water of the Wilde Weißeritz catchment (Eastern Ore Mountains, Germany) was used to investigate how well “the catchment state” can be characterised by means of distributed soil moisture data observed at the field scale. A grassland site and a forested site both located on gentle slopes were instrumented with two Spatial TDR clusters that consist of up to 39 TDR probes. Process understanding was gained by modelling the interaction of evapotranspiration and soil moisture with the hydrological process model CATFLOW. A field scale irrigation experiment was carried out to investigate near subsurface processes at the hillslope scale. The interactions of soil moisture and runoff formation were analysed using discharge data from three nested catchments: the Becherbach with a size of 2 km², the Rehefeld catchment (17 km²) and the superordinate Ammelsdorf catchment (49 km²). Statistical analyses including observations of pre-event runoff, soil moisture and different rainfall characteristics were employed to predict stream flow volume. On the different scales a strong correlation between the average soil moisture and the runoff coefficients of rainfall-runoff events could be found, which almost explains equivalent variability as the pre-event runoff. Furthermore, there was a strong correlation between surface soil moisture and subsurface wetness with a hysteretic behaviour between runoff soil moisture. To fulfil objective 3 these findings were used in a generalised linear model (GLM) analysis which combines state variables describing the catchments antecedent wetness and variables describing the meteorological forcing in order to predict event runoff coefficients. GLM results were compared to simulations with the catchment model WaSiM ETH. Hereby were the model results of the GLMs always better than the simulations with WaSiM ETH. The GLM analysis indicated that the proposed sampling strategy of clustering TDR probes in typical functional units is a promising technique to explore soil moisture controls on runoff generation and can be an important link between the scales. Long term monitoring of such sites could yield valuable information for flood warning and forecasting by identifying critical soil moisture conditions for the former and providing a better representation of the initial moisture conditions for the latter.
We present XMM-Newton and Chandra observations of the born-again planetary nebula A 30. These X-ray observations reveal a bright unresolved source at the position of the central star whose X-ray luminosity exceeds by far the model expectations for photospheric emission and for shocks within the stellar wind. We suggest that a “born-again hot bubble” may be responsible for this X-ray emission. Diffuse X-ray emission associated with the petal-like features and one of the H-poor knots seen in the optical is also found. The weakened emission of carbon lines in the spectrum of the diffuse emission can be interpreted as the dilution of stellar wind by mass-loading or as the detection of material ejected during a very late thermal pulse.
Die vorliegende Arbeit beschäftigt sich mit der Synthese und Charakterisierung mesoporöser monolithischer Silica und deren Hybridmaterialien mit Ionischen Flüssigkeiten (ILs, ionic liquids). Zur Synthese der Silicaproben wurde ein Sol-Gel-Verfahren, ausgehend von einer Präkursorverbindung wie Tetramethylorthosilicat angewendet. Der Katalysator mit der geringsten Basizität führte zum Material mit der kleinsten Porengröße und der größten spezifischen Oberfläche. Eine Kombination von porösen Silica mit ILs führt zur Materialklasse der Silica-Ionogele. Diese Hybridmaterialien verbinden die Eigenschaften eines porösen Festkörpers mit denen einer IL (Leitfähigkeit, weites elektrochemisches Fenster, gute thermische Stabilität) und bieten vielfältige Einsatzmöglichkeiten z.B. in der Katalyse- Solar- und Sensortechnik. Um diese Materialien für ihren Verwendungszweck zu optimieren, bedarf es deren umfassenden Charakterisierung. Daher wurde in der vorliegenden Arbeit das thermische Verhalten von Silica-Ionogelen unter Verwendung verschiedener 1-Ethyl-3-methylimidazolium [Emim]-basierter ILs untersucht. Interessanterweise zeigen die untersuchten ILs deutliche Änderungen in ihrem thermischen Verhalten, wenn diese in porösen Materialien eingeschlossen werden (Confinement). Während sich die untersuchten reinen ILs durch klar unterscheidbare Phasenübergänge auszeichnen, konnten für die entsprechenden Hybridmaterialien deutlich schwächer ausgeprägte Übergänge beobachtet werden. Einzelne Phasenübergänge wurden unterdrückt (Glas- und Kristallisationsübergänge), während z.B. Schmelzübergänge in verbreiterten Temperaturbereichen, zum Teil als einzeln getrennte Schmelzpeaks beobachtet wurden. Diese Untersuchungen belegen deutliche Eigenschaftsänderungen der ILs in eingeschränkten Geometrien. Über Festkörper-NMR-Spektroskopie konnte außerdem gezeigt werden, daß die ILs in den mesoporösen Silicamaterialien eine unerwartet hohe Mobilität aufweisen. Die ILs können als quasi-flüssig bezeichnet werden und zeigen die nach bestem Wissen höchste Mobilität, die bisher für vergleichbare Hybridmaterialien beobachtet wurde. Durch Verwendung von funktionalisierten Präkursoren, sowie der Wahl der Reaktionsbedingungen, kann die Oberfläche der Silicamaterialien chemisch funktionalisiert werden und damit die Materialeigenschaften in der gewünschten Weise beeinflußt werden. In der vorliegenden Arbeit wurde der Einfluß der Oberflächenfunktionalität auf das thermische Verhalten hin untersucht. Dazu wurden zwei verschiedene Möglichkeiten der Funktionalisierung angewendet und miteinander verglichen. Bei der in-situ-Funktionalisierung wird die chemische Funktionalität während der Sol-Gel-Synthese über ein entsprechend funktionalisiertes Silan mit in das Silicamaterial einkondensiert. Eine postsynthetische Funktionalisierung erfolgt durch Reaktion der Endgruppen eines Silicamaterials mit geeigneten Reaktionspartnern. Um den Einfluß der physikalischen Eigenschaften der Probe auf die Reaktion zu untersuchen, wurden pulverisierte und monolithische Silicamaterialien miteinander verglichen. Im letzten Teil der Arbeit wurde die Vielfältigkeit, mit der Silicamaterialien postsynthetisch funktionalisiert werden können demonstriert. Durch die Kenntnis von Struktur-Eigenschaftsbeziehungen können die Eigenschaften von Silica-Ionogelen durch die geeignete Kombination von fester und mobiler Phase in der gewünschten Weise verändert werden. Die vorliegende Arbeit soll einen Beitrag zur Untersuchung dieser Beziehungen leisten, um das Potential dieser interessanten Materialien für Anwendungen nutzen zu können.
Introduction
(2011)
Within this work, three physicochemical methods for the hydrophobization of initially hydrophilic solid particles are investigated. The modified particles are then used for the stabilization of oil-in-water (o/w) emulsions. For all introduced methods electrostatic interactions between strongly or weakly charged groups in the system are es-sential. (i) Short chain alkylammonium bromides (C4 – C12) adsorb on oppositely charged solid particles. Macroscopic contact angle measurements of water droplets under air and hexane on flat silica surfaces in dependency of the surface charge density and alkylchain-length allow the calculation of the surface energy and give insights into the emulsification properties of solid particles modified with alkyltrimethylammonium bromides. The measure-ments show an increase of the contact angle with increasing surface charge density, due to the enhanced adsorp-tion of the oppositely charged alkylammonium bromides. Contact angles are higher for longer alkylchain lengths. The surface energy calculations show that in particular the surface-hexane or surface-air interfacial en-ergy is being lowered upon alkylammonium adsorption, while a significant increase of the surface-water interfa-cial energy occurs only at long alkyl chain lengths and high surface charge densities. (ii) The thickness and the charge density of an adsorbed weak polyelectrolyte layer (e.g. PMAA, PAH) influence the wettability of nanoparticles (e.g. alumina, silica, see Scheme 1(b)). Furthermore, the isoelectric point and the pH range of colloidal stability of particle-polyelectrolyte composites depend on the thickness of the weak polye-lectrolyte layer. Silica nanoparticles with adsorbed PAH and alumina nanoparticles with adsorbed PMAA be-come interfacially active and thus able to stabilize o/w emulsions when the degree of dissociation of the polye-lectrolyte layer is below 80 %. The average droplet size after emulsification of dodecane in water depends on the thickness and the degree of dissociation of the adsorbed PE-layer. The visualization of the particle-stabilized o/w emulsions by cryogenic SEM shows that for colloidally stable alumina-PMAA composites the oil-water interface is covered with a closely packed monolayer of particles, while for the colloidally unstable case closely packed aggregated particles deposit on the interface. (iii) By emulsifying a mixture of the corrosion inhibitor 8-hydroxyquinoline (8-HQ) and styrene with silica nanoparticles a highly stable o/w emulsion can be obtained in a narrow pH window. The amphoteric character of 8-HQ enables a pH dependent electrostatic interaction with silica nanoparticles, which can render them interfa-cially active. Depending on the concentration and the degree of dissociation of 8-HQ the adsorption onto silica results from electrostatic or aromatic interactions between 8-HQ and the particle-surface. At intermediate amounts of adsorbed 8-HQ the oil wettability of the particles becomes sufficient for stabilizing o/w emulsions. Cryogenic SEM visualization shows that the particles arrange then in a closely packed shell consisting of partly of aggregated domains on the droplet interface. For further increasing amounts of adsorbed 8-HQ the oil wet-tability is reduced again and the particles ability to stabilize emulsions decreases. By the addition of hexadecane to the oil phase the size of the droplets can be reduced down to 200 nm by in-creasing the silica mass fraction. Subsequent polymerization produces corrosion inhibitor filled (20 wt-%) poly-styrene-silica composite particles. The measurement of the release of 8-hydroxyquinoline shows a rapid increase of 8-hydroxyquinoline in a stirred aqueous solution indicating the release of the total content in less than 5 min-utes. The method is extended for the encapsulation of other organic corrosion inhibitors. The silica-polymer-inhibitor composite particles are then dispersed in a water based alkyd emulsion, and the dispersion is used to coat flat aluminium substrates. After drying and cross-linking the polmer-film Confocal Laser Scanning Micros-copy is employed revealing a homogeneous distribution of the particles in the film. Electrochemical Impedance Spectroscopy in aqueous electrolyte solutions shows that films with aggregated particle domains degrade with time and don’t provide long-term corrosion protection of the substrate. However, films with highly dispersed particles have high barrier properties for corrosive species. The comparison of films containing silica-polystyrene composite particles with and without 8-hydroxyquinoline shows higher electrochemical impedances when the inhibitor is present in the film. By applying the Scanning Vibrating Electrode Technique the localized corrosion rate in the fractured area of scratched polymer films containing the silica-polymer-inhibitor composite particles is studied. Electrochemical corrosion cannot be suppressed but the rate is lowered when inhibitor filled composite particles are present in the film. By depositing six polyelectrolyte layers on particle stabilized emulsion droplets their surface morphology changes significantly as shown by SEM visualization. When the oil wettability of the outer polyelectrolyte layer increases, the polyelectrolyte coated droplets can act as emulsion stabilizers themselves by attaching onto bigger oil droplets in a closely packed arrangement. In the presence of 3 mM LaCl3 8-HQ hydrophobized silica particles aggregate strongly on the oil-water inter-face. The application of an ultrasonic field can remove two dimensional shell-compartments from the droplet surface, which are then found in the aqueous bulk phase. Their size ranges up to 1/4th of the spherical particle shell.
Earthquake faults interact with each other in many different ways and hence earthquakes cannot be treated as individual independent events. Although earthquake interactions generally lead to a complex evolution of the crustal stress field, it does not necessarily mean that the earthquake occurrence becomes random and completely unpredictable. In particular, the interplay between earthquakes can rather explain the occurrence of pronounced characteristics such as periods of accelerated and depressed seismicity (seismic quiescence) as well as spatiotemporal earthquake clustering (swarms and aftershock sequences). Ignoring the time-dependence of the process by looking at time-averaged values – as largely done in standard procedures of seismic hazard assessment – can thus lead to erroneous estimations not only of the activity level of future earthquakes but also of their spatial distribution. Therefore, it exists an urgent need for applicable time-dependent models. In my work, I aimed at better understanding and characterization of the earthquake interactions in order to improve seismic hazard estimations. For this purpose, I studied seismicity patterns on spatial scales ranging from hydraulic fracture experiments (meter to kilometer) to fault system size (hundreds of kilometers), while the temporal scale of interest varied from the immediate aftershock activity (minutes to months) to seismic cycles (tens to thousands of years). My studies revealed a number of new characteristics of fluid-induced and stress-triggered earthquake clustering as well as precursory phenomena in earthquake cycles. Data analysis of earthquake and deformation data were accompanied by statistical and physics-based model simulations which allow a better understanding of the role of structural heterogeneities, stress changes, afterslip and fluid flow. Finally, new strategies and methods have been developed and tested which help to improve seismic hazard estimations by taking the time-dependence of the earthquake process appropriately into account.
Küsten und Klimawandel in den Augen von Touristen : eine Wahrnehmungsanalyse an der deutschen Ostsee
(2011)
Aufgrund seiner wirtschaftlichen Bedeutung spielt der Tourismus in Mecklenburg-Vorpommern eine große Rolle. Insbesondere die Küstengebiete sind beliebte Reiseziele. In den letzten Jahren konnte ein kontinuierlicher Anstieg der Ankünfte und Übernachtungen verzeichnet werden. Neben anderen Faktoren werden die regionalen Auswirkungen des Klimawandels jedoch in Zukunft eine Herausforderung für den Tourismussektor darstellen. Die globale Erwärmung wird für den Strand- und Badetourismus sowohl negative, als auch positive Folgen haben, auf die reagiert werden muss. Neben vorbeugenden Klimaschutzmaßnahmen werden künftig auch Anpassungsstrategien entwickelt werden müssen, die den zu erwartenden Veränderungen Rechnung tragen. Doch zu welchen tourismusrelevanten Veränderungen wird es überhaupt kommen und was geschieht bereits aktuell? Sind die Folgen des Klimawandels durch Touristen schon jetzt wahrnehmbar? Wie reagieren die Urlauber auf eventuelle Veränderungen? Diese und andere Fragen soll die vorliegende Arbeit, die innerhalb des RAdOST-Vorhabens (Regionale Anpassungsstrategien für die deutsche Ostseeküste) angesiedelt ist, beantworten. Dazu wurde zum einen eine Literaturrecherche zu tourismusrelevanten Klimawandelfolgen an der deutschen Ostseeküste durchgeführt. Zum anderen erfolgte in den Sommermonaten 2010 eine Befragung der Strandgäste in Markgrafenheide, Warnemünde und Nienhagen an der mecklenburgischen Ostseeküste. Im Mittelpunkt der Umfrage stand die Wahrnehmung von Erscheinungen (z.B. viele Quallen oder warmes Ostseewasser) sowie kurz- oder langfristigen Veränderungen an der Küste (z.B. schmalere Strände, vermehrter Strandanwurf) durch die Urlauber. Außerdem wurden die Einstellung und der Informationsgrad der Gäste zum Thema Klimawandel an der Ostseeküste analysiert. Ziel war es, aus den Umfrageergebnissen Handlungsempfehlungen für das lokale Strandmanagement hinsichtlich künftiger Anpassungsstrategien abzuleiten. Die Literaturrecherche zeigte, dass in einigen Bereichen schon jetzt Veränderungen (z.B. der Luft- und Wassertemperatur oder des Meeresspiegels) nachweisbar sind und laut verschiedener Modellprojektionen von weiteren Veränderungen ausgegangen werden kann. Wie die Umfrage deutlich machte, sind die Veränderungen momentan durch Touristen jedoch kaum oder gar nicht wahrnehmbar. Dementsprechend gering ist auch ihre Reaktion auf die einzelnen Phänomene. Generell ist die Wahrnehmung der Urlauber sehr subjektiv und selektiv. Manche Gegebenheiten wie beispielsweise existierende Küstenschutzmaßnahmen werden von einem großen Teil der Touristen gar nicht wahrgenommen. Hinsichtlich anderer Erscheinungen wie Strandanwurf und Quallen sind viele Besucher wiederum sehr sensibel. Es zeigte sich außerdem, dass es für die meisten Urlauber schwierig ist, zu beurteilen, ob bestimmte Gegebenheiten am Strand und an der Küste mit der globalen Erwärmung in Verbindung stehen oder nicht. Es besteht eine große Unsicherheit zu diesem Thema und oft wird der Klimawandel als Ursache für Erscheinungen genannt, auch wenn der kausale Zusammenhang wissenschaftlich nicht nachzuweisen ist. Es zeigte sich, dass die Urlauber sehr wenig über die regionalen Auswirkungen des Klimawandels informiert sind, sich aber Informationen wünschen. Folglich sollte zunächst die Aufklärung und Information der Urlauber über die Folgen der Veränderung des Klimas im Vordergrund stehen. Denn manche Aspekte, wie der Verlust von Strandabschnitten durch Erosion oder eine eventuelle Zunahme von Blaualgen in der Sommersaison, können nicht gänzlich vermieden werden. Durch gezielte Aufklärung könnte jedoch beispielsweise eine Akzeptanz für naturnahe Strände oder für den Rückzug aus einzelnen Gebieten geschaffen werden. Darüber hinaus sollte die zu erwartende Saisonverlängerung systematisch genutzt werden, um sowohl die Küste, als auch das Hinterland durch gezielte Angebote für Touristen attraktiv zu machen. Auf diese Weise könnte eine Entzerrung der Hauptsaison und eine bessere Auslastung der Beherbergungsbetriebe sowie der touristischen Infrastruktur erreicht werden.
In this thesis, we discuss the formulation of variational problems on supermanifolds. Supermanifolds incorporate bosonic as well as fermionic degrees of freedom. Fermionic fields take values in the odd part of an appropriate Grassmann algebra and are thus showing an anticommutative behaviour. However, a systematic treatment of these Grassmann parameters requires a description of spaces as functors, e.g. from the category of Grassmann algberas into the category of sets (or topological spaces, manifolds). After an introduction to the general ideas of this approach, we use it to give a description of the resulting supermanifolds of fields/maps. We show that each map is uniquely characterized by a family of differential operators of appropriate order. Moreover, we demonstrate that each of this maps is uniquely characterized by its component fields, i.e. by the coefficients in a Taylor expansion w.r.t. the odd coordinates. In general, the component fields are only locally defined. We present a way how to circumvent this limitation. In fact, by enlarging the supermanifold in question, we show that it is possible to work with globally defined components. We eventually use this formalism to study variational problems. More precisely, we study a super version of the geodesic and a generalization of harmonic maps to supermanifolds. Equations of motion are derived from an energy functional and we show how to decompose them into components. Finally, in special cases, we can prove the existence of critical points by reducing the problem to equations from ordinary geometric analysis. After solving these component equations, it is possible to show that their solutions give rise to critical points in the functor spaces of fields.
CSOM/PL is a software product line (SPL) derived from applying multi-dimensional separation of concerns (MDSOC) techniques to the domain of high-level language virtual machine (VM) implementations. For CSOM/PL, we modularised CSOM, a Smalltalk VM implemented in C, using VMADL (virtual machine architecture description language). Several features of the original CSOM were encapsulated in VMADL modules and composed in various combinations. In an evaluation of our approach, we show that applying MDSOC and SPL principles to a domain as complex as that of VMs is not only feasible but beneficial, as it improves understandability, maintainability, and configurability of VM implementations without harming performance.
Der E-Government-Fortschritt wird nach wie vor durch redundante Entwicklungsaktivitäten und isolierte, wenig interoperable Lösungen gehemmt. Die Herausforderung liegt weniger in der Entwicklung und Einführung leistungsstarker Informationssysteme, sondern in der Verbreitung bestehender Lösungen. Die Arbeit identifiziert mögliche Strategien für den Transfer von E-Government-Lösungen zwischen Verwaltungen gleicher wie auch verschiedener föderaler Ebene. Es werden Konzepte zur Diffusion von Innovationen, zum Technologie- wie auch Politiktransfer herangezogen. Weiter werden drei umfangreiche Fallstudien vorgestellt. Sie führen zu transferhemmenden wie auch fördernden Faktoren und somit zu Gestaltungsoptionen für erfolgreiche Transferprozesse unter den vielfältigen Rahmenbedingungen im öffentlichen Sektor.
Diese Arbeit untersucht, welche Faktoren die unterschiedliche Ausgestaltung von Beteiligungsmanagement in Kommunen erklären. Die Literatur verweist zwar auf die zunehmende Wichtigkeit des Managements von Beteiligungen, aber in der Praxis unterscheidet sich die Steuerung der Beteiligung stark. Auf Basis der Literatur zu Beteiligungsmanagement und zum Performance Management wird ein analytischer Rahmen aufgestellt, der es erlaubt, das Beteiligungsmanagement in Kommunen zu kategorisieren. Auch wird aus der Literatur abgeleitet, in wie weit strukturelle, institutionelle und akteursbezogene Faktoren die Ausgestaltung des Beteiligungsmanagement erklären können. Im Rahmen dieser Studie werden vier kreisfreien Städten verglichen und explorativ mögliche Erklärungsfaktoren identifiziert. So sind insbesondere institutionelle Faktoren, wie die organisatorische Ausgestaltung des Beteiligungsmanagements oder die Erfahrungen und Kompetenzen der Verwaltung, und akteursbezogene Faktoren, wie die Einstellung und Interessen von Verwaltungsleitung, Politik und Beteiligungen, wahrscheinliche Erklärungsfaktoren.
Although horses and donkeys belong to the same genus, their genetic characteristics probably result in specific proteomes and post-translational modifications (PTM) of proteins. Since PTM can alter protein properties, specific PTM may contribute to species-specific characteristics. Therefore, the aim of the present study was to analyse differences in serum protein profiles of horses and donkeys as well as mules, which combine the genetic backgrounds of both species. Additionally, changes in PTM of the protein transthyretin (TTR) were analysed. Serum protein profiles of each species (five animals per species) were determined using strong anion exchanger ProteinChips (R) (Bio-Rad, Munich, Germany) in combination with surface-enhanced laser desorption ionisation-time of flight MS. The PTM of TTR were analysed subsequently by immunoprecipitation in combination with matrix-assisted laser desorption ionisation-time of flight MS. Protein profiling revealed species-specific differences in the proteome, with some protein peaks present in all three species as well as protein peaks that were unique for donkeys and mules, horses and mules or for horses alone. The molecular weight of TTR of horses and donkeys differed by 30Da, and both species revealed several modified forms of TTR besides the native form. The mass spectra of mules represented a merging of TTR spectra of horses and donkeys. In summary, the present study indicated that there are substantial differences in the proteome of horses and donkeys. Additionally, the results probably indicate that the proteome of mules reveal a higher similarity to donkeys than to horses.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob die Frühgeburtlichkeit eine Auswirkung auf den Spracherwerb im ersten Lebensjahr hat. Insbesondere wurde der Frage nachgegangen, ob sich die Verarbeitung der rhythmisch-prosodischen Eigenschaften von Sprache im ersten Lebensjahr und deren weitere Ausnutzung für die Entwicklung des Lexikons bei sehr untergewichtigen Deutsch lernenden Frühgeborenen im Vergleich zu Reifgeborenen unterscheidet. Die besondere Spracherwerbssituation Frühgeborener liefert weitere Erkenntnisse bezüglich der Frage, inwieweit der frühe Spracherwerb durch prädeterminierte reifungsbedingte Mechanismen und Abläufe bestimmt wird und inwieweit dessen Verlauf und die relevanten Erwerbsmechanismen durch individuelle erfahrungsabhängige Faktoren beeinflusst werden. Damit liefern die Ergebnisse auch einen weiteren Beitrag zur Nature-Nurture-Diskussion.
Die vorliegende Arbeit betrachtet Partizipation aus einer interaktionalen Perspektive und nimmt zunächst eine interdisziplinär orientierte Begriffsbestimmung vor. Daran anschließend werden anhand einer Längsschnittstudie Entwicklungsbedingungen sozialer Partizipationskompetenzen im Vorschulalter untersucht und Förderempfehlungen abgeleitet. Partizipation (Teilhabe) soll in Kontexten wie Schule oder Arbeitswelt Entscheidungen demokratisch legitimieren, individuelle Ressourcen ausschöpfen und soziale Grundbedürfnisse des Menschen befriedigen. Ein engeres Verständnis von sozialer Partizipation aus einer interaktionalen Perspektive erfordert die Beteiligung an den Aktivitäten einer bereits bestehenden Gruppe und die Aushandlung eigener Interessen innerhalb dieser Gruppe und wird in der Arbeit als Prozess anhand dreier Phasen (Anbahnung, Projektierung und Realisierung) dargestellt. Im Vorschulalter werden wichtige Grundsteine für eine erfolgreiche soziale Entwicklung und für den Erwerb von sozialen Partizipationskompetenzen gelegt. In der vorliegenden Arbeit wurden deshalb die Zusammenhänge und Wechselwirkungen zwischen sozialen Partizipationskompetenzen (Bereitschaft und Fähigkeit) und (1) kognitiven Leistungsparametern (Intelligenz und Perspektivenübernahme), (2) dem Selbstkonzept und (3) dem Konfliktverhalten (Aggression und Schüchternheit) mit 5- bis 7jährigen Kindern mit Hilfe von Kreuzpfadanalysen untersucht. Zudem wurde die Situationsgebundenheit sozialer Partizipationskompetenzen und die Bedeutung struktureller Parameter der Familie und der Kindertageseinrichtung auf explorativer Ebene analysiert. Die Stichprobe bestand aus 334 Kindern (51,5 % weiblich, Altersdurchschnitt zum ersten Messzeitpunkt 5,4 Jahre) in 71 Kindergartengruppen in 21 Kindertageseinrichtungen in vier Bundesländern. Die längsschnittliche Datenanalyse basiert auf drei Messzeitpunkten. Die Ergebnisse zeigen, dass soziale Partizipationskompetenzen über verschiedene Situationen hinweg bedeutsame, aber nur mäßig ausgeprägte, Zusammenhänge aufweisen. Hohe Ausprägungen kognitiver Leistungsparameter gehen mit hohen Erziehereinschätzungen sozialer Partizipationskompetenzen einher. Über die Zusammenhänge hinaus zeigen sich im Längsschnitt bedeutsame Wechselwirkungen zwischen kognitiver Entwicklung und sozialen Partizipationskompetenzen im Vorschulalter. Selbsteinschätzungen zur eigenen Kompetenz hängen im Vorschulalter hingegen nur gering mit Erziehereinschätzungen der sozialen Partizipationskompetenz zusammen. Im Längsschnitt zeigt sich, dass junge Kinder bei der Beurteilung ihrer Kompetenzen zunächst auf soziale Partizipationserfolge zurückgreifen. Später hingegen scheint der Partizipationserfolg dann umgekehrt eher durch das Selbstbild bedingt zu sein. Geringe Partizipationskompetenzen gehen mit hohen Erziehereinschätzungen beim aggressiven (schwach signifikant) und schüchternen Verhalten (mäßig signifikant) einher. Hinsichtlich der Aggression und des schüchternen Verhaltens ergaben sich längsschnittlich betrachtet nur schwache Wechselwirkungen zur sozialen Partizipationskompetenz. Die Kumulation familiärer Belastungssituationen (z.B. Krankheit und akute Finanznot) stellen eine größere Bedrohung für die kindliche Entwicklung dar als der sozio-ökonomische Status der Familie. Mit Blick auf die Förderung sozialer Partizipationskompetenzen lassen sich die Ergebnisse mit einem sozial-konstruktivistischen Ansatz verbinden. Dessen Ziel ist es, intra- und interpersonelle Konflikte auszulösen, deren erfolgreiche Bewältigung produktive Lernprozesse auf kognitiver, emotionaler und behavioraler Ebene anstoßen.
The Arctic is a particularly sensitive area with respect to climate change due to the high surface albedo of snow and ice and the extreme radiative conditions. Clouds and aerosols as parts of the Arctic atmosphere play an important role in the radiation budget, which is, as yet, poorly quantified and understood. The LIDAR (Light Detection And Ranging) measurements presented in this PhD thesis contribute with continuous altitude resolved aerosol profiles to the understanding of occurrence and characteristics of aerosol layers above Ny-Ålesund, Spitsbergen. The attention was turned to the analysis of periods with high aerosol load. As the Arctic spring troposphere exhibits maximum aerosol optical depths (AODs) each year, March and April of both the years 2007 and 2009 were analyzed. Furthermore, stratospheric aerosol layers of volcanic origin were analyzed for several months, subsequently to the eruptions of the Kasatochi and Sarychev volcanoes in summer 2008 and 2009, respectively. The Koldewey Aerosol Raman LIDAR (KARL) is an instrument for the active remote sensing of atmospheric parameters using pulsed laser radiation. It is operated at the AWIPEV research base and was fundamentally upgraded within the framework of this PhD project. It is now equipped with a new telescope mirror and new detection optics, which facilitate atmospheric profiling from 450m above sea level up to the mid-stratosphere. KARL provides highly resolved profiles of the scattering characteristics of aerosol and cloud particles (backscattering, extinction and depolarization) as well as water vapor profiles within the lower troposphere. Combination of KARL data with data from other instruments on site, namely radiosondes, sun photometer, Micro Pulse LIDAR, and tethersonde system, resulted in a comprehensive data set of scattering phenomena in the Arctic atmosphere. The two spring periods March and April 2007 and 2009 were at first analyzed based on meteorological parameters, like local temperature and relative humidity profiles as well as large scale pressure patterns and air mass origin regions. Here, it was not possible to find a clear correlation between enhanced AOD and air mass origin. However, in a comparison of two cloud free periods in March 2007 and April 2009, large AOD values in 2009 coincided with air mass transport through the central Arctic. This suggests the occurrence of aerosol transformation processes during the aerosol transport to Ny-Ålesund. Measurements on 4 April 2009 revealed maximum AOD values of up to 0.12 and aerosol size distributions changing with altitude. This and other performed case studies suggest the differentiation between three aerosol event types and their origin: Vertically limited aerosol layers in dry air, highly variable hygroscopic boundary layer aerosols and enhanced aerosol load across wide portions of the troposphere. For the spring period 2007, the available KARL data were statistically analyzed using a characterization scheme, which is based on optical characteristics of the scattering particles. The scheme was validated using several case studies. Volcanic eruptions in the northern hemisphere in August 2008 and June 2009 arose the opportunity to analyze volcanic aerosol layers within the stratosphere. The rate of stratospheric AOD change was similar within both years with maximum values above 0.1 about three to five weeks after the respective eruption. In both years, the stratospheric AOD persisted at higher rates than usual until the measurements were stopped in late September due to technical reasons. In 2008, up to three aerosol layers were detected, the layer structure in 2009 was characterized by up to six distinct and thin layers which smeared out to one broad layer after about two months. The lowermost aerosol layer was continuously detected at the tropopause altitude. Three case studies were performed, all revealed rather large indices of refraction of m = (1.53–1.55) - 0.02i, suggesting the presence of an absorbing carbonaceous component. The particle radius, derived with inversion calculations, was also similar in both years with values ranging from 0.16 to 0.19 μm. However, in 2009, a second mode in the size distribution was detected at about 0.5 μm. The long term measurements with the Koldewey Aerosol Raman LIDAR in Ny-Ålesund provide the opportunity to study Arctic aerosols in the troposphere and the stratosphere not only in case studies but on longer time scales. In this PhD thesis, both, tropospheric aerosols in the Arctic spring and stratospheric aerosols following volcanic eruptions have been described qualitatively and quantitatively. Case studies and comparative studies with data of other instruments on site allowed for the analysis of microphysical aerosol characteristics and their temporal evolution.
On the 20.01.1991 the Latvian people defended the Latvian political elite from the Soviet OMON troops in order to achieve independence. After this impressive sign of civil society the people fell asleep, the level of mobility and the satisfaction with the functioning of democracy therefore is rather weak. The referendum (2008), to gain the right to dissolve the Parliament by the people, initiated by the Trade Unions can be assessed as a sign that there is something on the move. This paper is trying to give an impression of the situation of the civil society in terms of participation in the decision- making process. Hereby the focus lays on NGOs: What is the legal base and which problems do they face. To learn more about the situation interviews were organized with representatives of NGOs from different sectors like community development; Social inclusion; advocating gender issues as well as environment and sustainable development. As a result of the research it can be said that the civil society made some steps forward but it is still struggling with a high level of corruption, lack of interested from the elite and the ordinary people and the insecure financial state.
Der vorliegende Beitrag knüpft an die in Potsdam seit 2001 durchgeführte Langzeitstudie an und untersucht die aktuelle Situation auf dem formellen Beteiligungsmarkt in Deutschland nach dem Ausbruch der Finanzkrise. Neben den allgemeinen Gegebenheiten des Marktes werden vor allem die Finanzierungsbedingungen sowie das Investitionsverhalten einzelner Beteiligungsgesellschaften analysiert. In den Jahren 2008 - 2009 zeigt sich einerseits eine weitestgehend unveränderte Struktur der Refinanzierungsquellen. Privatpersonen und Banken sowie der öffentliche Sektor nehmen weiterhin einen hohen Stellenwert ein. Andererseits werden deutliche Veränderungen der strukturellen Merkmale, wie auch im Investitionsverhalten einzelner Beteiligungsgesellschaften deutlich. Besonders auffällig für die Branche sind das Rationalisierungsbestreben beim Einsatz von Investmentmanagern sowie die zunehmende Spätphasenspezialisierung. Aus dem festgestellten Konsolidierungs- und Reifeprozess erwächst die Herausforderung und offene Frage, wie der Markt eine solche strukturelle Angebotslücke im Frühphasensegment begegnen will. Auch das Einwerben neuer Finanzmittel sowie die aktuellen Exit-Bedingungen werden in der vorliegenden Studie kritisch beleuchtet. Als ein reizvolles Instrument zur Reduzierung der aufgezeigten Problemfelder wird dabei die aktuell unterentwickelte Syndizierung von Beteiligungsinvestitionen angesehen. Die effizientere Ausgestaltung derartiger Finanzierungsstrukturen sollte dazu beitragen, dass das private Beteiligungskapital künftig stärker bei der Transformation betrieblicher Forschung und Entwicklung zum Einsatz gelangt.
Die vorliegende Studie analysiert die Ergebnisse einer bundesweiten Unternehmensbefragung zum Finanzierungsverhalten deutscher KMU. Im Fokus stehen die Verfügbarkeit konkreter Finanzierungsinstrumente für KMU und deren Akzeptanz im Mittelstand. Dies soll die derzeitigen Möglichkeiten und Grenzen des heimischen Banken- und Finanzsystems verdeutlichen. Darüber hinaus werden verschiedene Aspekte des Innovationsverhaltens der befragten Unternehmen beleuchtet. Es zeigt sich, dass die Finanzierung aus erwirtschafteten Gewinnen einen überragenden Stellenwert besitzt. Zudem werden neben dem traditionell verankerten Bankdarlehen, vor allem kurzfristige, flexible, aber teure Kontokorrent- und Lieferantenkredite für Investitionszwecke genutzt. Alternative Finanzierungsinstrumente, wie Mezzanine, Beteiligungskapital sowie auch Kapitalmarktfinanzierungen haben bisher nur eine marginale Bedeutung erlangt. Als mögliche Ursachen hierfür sind mangelnde Kenntnisse und persönliche Vorbehalte auf Unternehmensseite, aber auch die grundsätzliche Nichteignung dieser Alternativen festzustellen. So liegt das nachgefragte Finanzierungsvolumen bei KMU häufig unter den Mindestgrenzen derartiger Kapitalgeber. Staatliche Förderinstrumente, welche vor allem von größeren mittelständischen Unternehmen in Anspruch genommen werden, können dabei nur einen Teilbeitrag leisten, um die Finanzierungsrestriktionen zu reduzieren. Im Bereich der Innovationsfinanzierung zeigt sich daher vor allem bei mittelgroßen Projekten ein besonderer Finanzierungsengpass.
Active Galactic Nuclei (AGN) are powered by gas accretion onto supermassive Black Holes (BH). The luminosity of AGN can exceed the integrated luminosity of their host galaxies by orders of magnitude, which are then classified as Quasi-Stellar Objects (QSOs). Some mechanisms are needed to trigger the nuclear activity in galaxies and to feed the nuclei with gas. Among several possibilities, such as gravitational interactions, bar instabilities, and smooth gas accretion from the environment, the dominant process has yet to be identified. Feedback from AGN may be important an important ingredient of the evolution of galaxies. However, the details of this coupling between AGN and their host galaxies remain unclear. In this work we aim to investigate the connection between the AGN and their host galaxies by studying the properties of the extendend ionised gas around AGN. Our study is based on observations of ~50 luminous, low-redshift (z<0.3) QSOs using the novel technique of integral field spectroscopy that combines imaging and spectroscopy. After spatially separating the emission of AGN-ionised gas from HII regions, ionised solely by recently formed massive stars, we demonstrate that the specific star formation rates in several disc-dominated AGN hosts are consistent with those of normal star forming galaxies, while others display no detectable star formation activity. Whether the star formation has been actively suppressed in those particular host galaxies by the AGN, or their gas content is intrinsically low, remains an open question. By studying the kinematics of the ionised gas, we find evidence for non-gravitational motions and outflows on kpc scales only in a few objects. The gas kinematics in the majority of objects however indicate a gravitational origin. It suggests that the importance of AGN feedback may have been overrated in theoretical works, at least at low redshifts. The [OIII] line is the strongest optical emission line for AGN-ionised gas, which can be extended over several kpc scales, usually called the Narrow-Line Region (NLR). We perform a systematic investigation of the NLR size and determine a NLR size-luminosity relation that is consistent with the scenario of a constant ionisation parameter throughout the NLR. We show that previous narrow-band imaging with the Hubble Space Telescope underestimated the NLR size by a factor of >2 and that the continuum AGN luminosity is better correlated with the NLR size than the [OIII] luminosity. These affects may account for the different NLR size-luminosity relations reported in previous studies. On the other hand, we do not detect extended NLRs around all QSOs, and demonstrate that the detection of extended NLRs goes along with radio emission. We employ emission line ratios as a diagnostic for the abundance of heavy elements in the gas, i.e. its metallicity, and find that the radial metallicity gradients are always flatter than in inactive disc-dominated galaxies. This can be interpreted as evidence for radial gas flows from the outskirts of these galaxies to the nucleus. Recent or ongoing galaxy interactions are likely responsible for this effect and may turn out to be a common prerequisite for QSO activity. The metallicity of bulge-dominated hosts are systematically lower than their disc-dominated counterparts, which we interpret as evidence for minor mergers, supported by our detailed study of the bulge-dominated host of the luminous QSO HE 1029-1401, or smooth gas accretion from the environment. In this line another new discovery is that HE 2158-0107 at z=0.218 is the most metal poor luminous QSO ever observed. Together with a large (30kpc) extended structure of low metallicity ionised gas, we propose smooth cold gas accretion as the most likely scenario. Theoretical studies suggested that this process is much more important at earlier epochs of the universe, so that HE 2158-0107 might be an ideal laboratory to study this mechanism of galaxy and BH growth at low redshift more detailed in the furture.
"Kinderwelt ist Bewegungswelt" (Schmidt, 1997, S. 156, zitiert nach Schmidt, Hartmann-Tews & Brettschneider, 2003, S. 31). Das kindliche Bewegungsverhalten hat sich bereits im Grundschulalter verändert, so dass sich Bewegungsaktivitäten von Kindern erheblich unterscheiden und keineswegs mehr verallgemeinert werden können. Richtet man den Fokus auf die Frage „Wie bewegt sind unsere Kinder?“ so scheint diese von den Medien bereits beantwortet zu sein, da dort von ansteigendem Bewegungsmangel der heutigen Kinder gegenüber früheren Generationen berichtet wird. Wenn es in den Diskussionen um den Gesundheitszustand unserer Kinder geht, nimmt die körperlich-sportliche Aktivität eine entscheidende Rolle ein. Bewegungsmangel ist hierbei ein zentraler Begriff der in der Öffentlichkeit diskutiert wird. Bei der Betrachtung der einzelnen Studien fällt auf, dass deutliche Defizite in der Messung der körperlich-sportlichen Aktivität bestehen. Zentraler Kritikpunkt in den meisten Studien ist die subjektive Erfassung der körperlich-sportlichen Aktivität. Ein Großteil bisheriger Untersuchungen zum Bewegungsverhalten basiert auf Beobachtungen, Befragungen oder Bewegungstagebüchern. Diese liefern ausschließlich zum Teil subjektive Einschätzungen der Kinder oder Eltern über die tatsächliche Bewegungszeit und -intensität. Das objektive Erfassen der Aktivität bzw. Inaktivität ist zwar seit einigen Jahren zentraler Gegenstand vieler Studien, dennoch gilt es, dieses noch sachkundiger zu lösen, um subjektive und objektive Daten zu vergleichen. Um dem Bewegungsmangel der heutigen Kinder entgegenzuwirken, sind empirisch abgesicherte Erkenntnisse über die Bedingungsfaktoren und die Folgen des veränderten Bewegungsverhaltens dringend nötig. Die Quer- und Längsschnittuntersuchung umfasst die Bereiche Anthropometrie, die Erfassung der körperlich-sportlichen Aktivität und die Herzfrequenzmessung über 24h. Für die Studie konnten 106 Jungen und Mädchen im Zeitraum von Januar 2007 bis April 2009 rekrutiert und überprüft werden. Die physiologischen Parameter wurden mit Hilfe des ACTIHEART-Messsytems aufgezeichnet und berechnet. Die Ergebnisse zur körperlich-sportlichen Aktivität wurden in die Untersuchungsabschnitte Schulzeit gesamt, Pause, Sportunterricht, Nachmittag und 24h unterteilt. Durch das Messsystem werden die Bewegungsaktivität und die Herzfrequenz synchron aufgezeichnet. Das System nimmt die Beschleunigungswerte des Körpers auf und speichert sie im frei wählbaren Zeitintervall, Short oder Long Term, in Form von „activity counts“ ab. Das Messsytem berechnet weiterhin die Intensität körperlicher Aktivität.
Due to their optical and electro-conductive attributes, carbazole derivatives are interesting materials for a large range of biosensor applications. In this study, we present the synthesis routes and fluorescence evaluation of newly designed carbazole fluorosensors that, by modification with uracil, have a special affinity for antiretroviral drugs via either Watson–Crick or Hoogsteen base pairing. To an N-octylcarbazole-uracil compound, four different groups were attached, namely thiophene, furane, ethylenedioxythiophene, and another uracil; yielding four different derivatives. Photophysical properties of these newly obtained derivatives are described, as are their interactions with the reverse transcriptase inhibitors such as abacavir, zidovudine, lamivudine and didanosine. The influence of each analyte on biosensor fluorescence was assessed on the basis of the Stern–Volmer equation and represented by Stern–Volmer constants. Consequently we have demonstrated that these structures based on carbazole, with a uracil group, may be successfully incorporated into alternative carbazole derivatives to form biosensors for the molecular recognition of antiretroviral drugs.
Plant growth and survival depend on photosynthesis in the leaves. This involves the uptake of carbon dioxide from the atmosphere and the simultaneous capture of light energy to produce organic molecules, which enter metabolism and are converted to many other compounds which then serve as building blocks for biomass growth. Leaves are organs specialised for photosynthetic carbon dioxide fixation. The function of leaves involves many trade-offs which must be optimised in order to achieve effective use of resources and maximum photosynthesis. It is known that the morphology of leaves adjusts to the growth environment of plants and this is important for optimising their function for photosynthesis. However, it is unclear how this adjustment is regulated. The general aim of the work presented in this thesis is to understand how leaf growth and morphology are regulated in the model species Arabidopsis thaliana. Special attention was dedicated to the possibility that there might be internal metabolic signals within the plant which affect the growth and development of leaves. In order to investigate this question, leaf growth and development must be considered beyond the level of the single organ and in the context of the whole plant because leaves do not grow autonomously but depend on resources and regulatory influences delivered by the rest of the plant. Due to the complexity of this question, three complementary approaches were taken. In the first and most specific approach it was asked whether a proposed down-stream component of sucrose signalling, trehalose-6-phosphate (Tre-6-P), might influence leaf development and growth. To investigate this question, transgenic Arabidopsis lines with perturbed levels of Tre-6-P were generated using the constitutive 35S promoter to express bacterial enzymes involved in trehalose metabolism. These experiments also led to an unanticipated project concerning a possible role for Tre-6-P in stomatal function, which is another very important function in leaves. In a second and more general approach it was investigated whether changes in sugar levels in plants affect the morphogenesis of leaves in response to light. For this, a series of metabolic mutants impaired in central metabolism were grown in one light environment and their leaf morphology was analysed. In a third and even more general approach the natural variation in leaf and rosette morphological traits was investigated in a panel of wild Arabidopsis accessions with the aim of understanding how leaf morphology affects leaf function and whole plant growth and how different traits relate to each other. The analysis included measurements of leaf morphological traits as well as the number of leaves in the plant to put leaf morphology in a whole plant context. The variance in plant growth could not be explained by variation in photosynthetic rates and only to a small degree by variation in rates of dark respiration. There were four key axes of variation in rosette and leaf morphology – leaf area growth, leaf thickness, cell expansion and leaf number. These four processes were integrated in the context of whole plant growth by models that employed a multiple linear regression approach. This then led to a theoretical approach in which a simple allometric mathematical model was constructed, linking leaf number, leaf size and plant growth rate together in a whole plant context in Arabidopsis.
Das Hauptziel dieser Arbeit ist das Verständnis der molekularen Kristallisation, sowohl mit als auch ohne polymere Additive, als einen mehrstufigen Prozess. Dieser beinhaltet eine transiente flüssig-flüssig Phasentrennung, die Nukleation von Nanokristallen in der dichten flüssigen Precursor-Phase so wie eine anschließende nanokristalline Selbstorganisation. Die Arbeit beginnt mit Untersuchungen an einem quaternären Modelsystem bestehend aus DL-Glutamat (Glu), Polyethylenimin (PEI), Wasser und Ethanol. Das Phasendiagramm dieses quaternären Systems wird durch Variation der Glu/PEI w/w und Wasser/EtOH v/v Verhältnisse bestimmt, wobei Präzpitat aus polymerinduzierten flüssigen Precursor, Koazervate oder homogene Mischungen erhalten werden Das thermodynamisch stabile Koazervat kann als Referenz für das Verständnis von flüssigen Precursorn angesehen werden, welche in der Natur metastabil und transient sind. Der mehrstufige Mechanismus der Glu-Präzipitation mit PEI als Additiv wird dann mittels Neutronen Kleinwinkelstreuung untersucht. Dies zeigt, dass die ursprünglich gebildeten flüssigen Precursor noch vor der Nukleation von Nanokristallen einen Wechsel von Wachstum und Koaleszenz durchlaufen. Die Ergebnisse aus optischer- und Eletronenmikroskopie zeigen, dass sowohl die flüssigen Precursor Superstrukturen ausbilden als auch, dass die Nukleation von Nanoplättchen in jedem einzelnen Precursor Tropfen von statten geht. Dies geschieht noch bevor sich die Nanoplättchen selbst in einer radialen Orientierung ausrichten. Diese Studie liefert die Kinetik der Präzipitation von organischen Stoffen in Gegenwart von polymeren Additiven. Eine ähnliche Vorgehensweise wie für die Herstellung von Mikrokügelchen kann für die Darstellung von gemusterten Filmen angewandt werden. Die homogene Nukleation von Nanopartikeln (NPs) findet während der Verdampfung einer quarternären DL-Lys·HCl-Polyacrylsäure-Wasser-Ethanol Dispersion auf einer hydrophilen Oberfläche statt. Die darauffolgende vollständige Verdampfung löst die Mesokristallisation eines kontinuierlichen sphärolithischen dünnen Films aus, welcher sich wiederum in einen mesokristallinen dünnen Film umwandelt. Mesokristalline Filme mit 4 Hierarchiestufen bzw. auch periodische Filme werden durch die Verdampfung der Mikrokügelchen-Dispersion erhalten. Die Ergebnisse zeigen, dass die Verdampfung eine einfache aber effektive Methode zur Herstellung von verschieden gemusterten hierarchischen Filmen darstellt. Nicht-klassische Kristallisation wird auch in der Abwesenheit von polymeren Additiven beobachtet. Wir verfolgen mittels Rasterkraftmikroskop (AFM) die Nukleation und das Wachstum einer neuen molekularen Schicht auf wachsenden DL-Glu·H2O Kristallen aus übersättigter Mutterlauge. Die Bildung einer neuen molekularen Schicht verläuft durch die Anlagerung von amorphen Nanopartikeln. Das Schrumpfen der NPs zusammen mit der strukturellen Änderung von dreidimensionalen NPs zu 2D Schichten wird während dieses Relaxationsprozesses beobachtet. Schließlich kommt es zu der Ausbildung einer neuen molekularen Schicht. Die Bildung einer molekularen Schicht durch die Anlagerung von Nanopartikeln aus der Lösung und die darauffolgende Relaxation liefert ein abweichendes Bild zu der bisher gängigen klassischen Theorie des Kristallwachstums.
Motivation | Societal and economic needs of East Africa rely entirely on the availability of water, which is governed by the regular onset and retreat of the rainy seasons. Fluctuations in the amounts of rainfall has tremendous impact causing widespread famine, disease outbreaks and human migrations. Efforts towards high resolution forecasting of seasonal precipitation and hydrological systems are therefore needed, which requires high frequency short to long-term analyses of available climate data that I am going to present in this doctoral thesis by three different studies. 15,000 years - Suguta Valley | The main study of this thesis concentrated on the understanding of humidity changes within the last African Humid Period (AHP, 14.8-5.5 ka BP). The nature and causes of intensity variations of the West-African (WAM) and Indian Summer monsoons (ISM) during the AHP, especially their exact influence on regional climate relative to each other, is currently intensely debated. Here, I present a high-resolution multiproxy lake-level record spanning the AHP from the remote Suguta Valley in the northern Kenya Rift, located between the WAM and ISM domains. The presently desiccated valley was during the AHP filled by a 300 m deep and 2200 km2 large palaeo-lake due to an increase in precipitation of only 26%. The record explains the synchronous onset of large lakes in the East African Rift System (EARS) with the longitudinal shift of the Congo Air Boundary (CAB) over the East African and Ethiopian Plateaus, as the direct consequence of an enhanced atmospheric pressure gradient between East-Africa and India due to a precessional-forced northern hemisphere insolation maximum. Pronounced, and abrupt lake level fluctuations during the generally wet AHP are explained by small-scale solar irradiation changes weakening this pressure gradient atmospheric moisture availability preventing the CAB from reaching the study area. Instead, the termination of the AHP occurred, in a non-linear manner due to a change towards an equatorial insolation maximum ca. 6.5 ka ago extending the AHP over Ethiopia and West-Africa. 200 years - Lake Naivasha | The second part of the thesis focused on the analysis of a 200 year-old sediment core from Lake Naivasha in the Central Kenya Rift, one of the very few present freshwater lakes in East Africa. The results revealed and confirmed, that the appliance of proxy records for palaeo-climate reconstruction for the last 100 years within a time of increasing industrialisation and therefore human impact to the proxy-record containing sites are broadly limited. Since the middle of the 20th century, intense anthropogenic activity around Lake Naivasha has led to cultural eutrophication, which has overprinted the influence of natural climate variation to the lake usually inferred from proxy records such as diatoms, transfer-functions, geochemical and sedimentological analysis as used in this study. The results clarify the need for proxy records from remote unsettled areas to contribute with pristine data sets to current debates about anthropologic induced global warming since the past 100 years. 14 years - East African Rift | In order to avoid human influenced data sets and validate spatial and temporal heterogeneities of proxy-records from East Africa, the third part of the thesis therefore concentrated on the most recent past 14 years (1996-2010) detecting climate variability by using remotely sensed rainfall data. The advancement in the spatial coverage and temporal resolutions of rainfall data allow a better understanding of influencing climate mechanisms and help to better interpret proxy-records from the EARS in order to reconstruct past climate conditions. The study focuses on the dynamics of intraseasonal rainfall distribution within catchments of eleven lake basins in the EARS that are often used for palaeo-climate studies. We discovered that rainfall in adjacent basins exhibits high complexities in the magnitudes of intraseasonal variability, biennial to triennial precipitation patterns and even are not necessarily correlated often showing opposite trends. The variability among the watersheds is driven by the complex interaction of topography, in particular the shape, length and elevation of the catchment and its relative location to the East African Rift System and predominant influence of the ITCZ or CAB, whose locations and intensities are dependent on the strength of low pressure cells over India, SST variations in the Atlantic, Pacific or Indian Ocean, QBO phases and the 11-year solar cycle. Among all seasons we observed, January-September is the season of highest and most complex rainfall variability, especially for the East African Plateau basins, most likely due to the irregular penetration and sensitivity of the CAB.
This work addresses issues in the automatic preprocessing of historical German input text for use by conventional natural language processing techniques. Conventional techniques cannot adequately account for historical input text due to conventional tools' reliance on a fixed application-specific lexicon keyed by contemporary orthographic surface form on the one hand, and the lack of consistent orthographic conventions in historical input text on the other. Historical spelling variation is treated here as an error-correction problem or "canonicalization" task: an attempt to automatically assign each (historical) input word a unique extant canonical cognate, thus allowing direct application-specific processing (tagging, parsing, etc.) of the returned canonical forms without need for any additional application-specific modifications. In the course of the work, various methods for automatic canonicalization are investigated and empirically evaluated, including conflation by phonetic identity, conflation by lemma instantiation heuristics, canonicalization by weighted finite-state rewrite cascade, and token-wise disambiguation by a dynamic Hidden Markov Model.
Organic thin film transistors (TFT) are an attractive option for low cost electronic applications and may be used for active matrix displays and for RFID applications. To extend the range of applications there is a need to develop and optimise the performance of non-volatile memory devices that are compatible with the solution-processing fabrication procedures used in plastic electronics. A possible candidate is an organic TFT incorporating the ferroelectric co-polymer poly(vinylidenefluoride-trifluoroethylene)(P(VDF-TrFE)) as the gate insulator. Dielectric measurements have been carried out on all-organic metal-insulator-semiconductor structures with the ferroelectric polymer poly(vinylidenefluoride-trifluoroethylene) (P(VDF-TrFE)) as the gate insu-lator. The capacitance spectra of MIS devices, were measured under different biases, showing the effect of charge accumulation and depletion on the Maxwell-Wagner peak. The position and height of this peak clearly indicates the lack of stable depletion behavior and the decrease of mobility when increasing the depletion zone width, i.e. upon moving into the P3HT bulk. The lack of stable depletion was further investigated with capacitance-voltage (C-V) measurements. When the structure was driven into depletion, C-V plots showed a positive flat-band voltage shift, arising from the change in polarization state of the ferroelectric insulator. When biased into accumulation, the polarization was reversed. It is shown that the two polarization states are stable i.e. no depolarization occurs below the coercive field. However, negative charge trapped at the semiconductor-insulator interface during the depletion cycle masks the negative shift in flat-band voltage expected during the sweep to accumulation voltages. The measured output characteristics of the studied ferroelectric-field-effect transistors confirmed the results of the C-V plots. Furthermore, the results indicated a trapping of electrons at the positively charged surfaces of the ferroelectrically polarized P(VDF-TrFE) crystallites near the insulator/semiconductor in-terface during the first poling cycles. The study of the MIS structure by means of thermally stimulated current (TSC) revealed further evidence for the stability of the polarization under depletion voltages. It was shown, that the lack of stable depletion behavior is caused by the compensation of the orientational polarization by fixed electrons at the interface and not by the depolarization of the insulator, as proposed in several publications. The above results suggest a performance improvement of non-volatile memory devices by the optimization of the interface.
Plants and some unicellular algae store carbon in the form of transitory starch on a diurnal basis. The turnover of this glucose polymer is tightly regulated and timely synthesis as well as mobilization is essential to provide energy for heterotrophic growth. Especially for starch degradation, novel enzymes and mechanisms have been proposed recently. However, the catalytic properties of these enzymes and their coordination with metabolic regulation are still to be discovered. This thesis develops theoretical methods in order to interpret and analyze enzymes and their role in starch degradation. In the first part, a novel description of interfacial enzyme catalysis is proposed. Since the initial steps of starch degradation involve reactions at the starch-stroma interface it is necessary to have a framework which allows the derivation of interfacial enzyme rate laws. A cornerstone of the method is the introduction of the available area function - a concept from surface physics - to describe the adsorption step in the catalytic cycle. The method is applied to derive rate laws for two hydrolases, the Beta-amylase (BAM3) and the Isoamylase (DBE/ISA3), as well as to the Glucan, water dikinase (GWD) and a Phosphoglucan phosphatase (DSP/SEX4). The second part uses the interfacial rate laws to formulate a kinetic model of starch degradation. It aims at reproducing the stimulatory effect of reversible phosphorylation by GWD and DSP on the breakdown of the granule. The model can describe the dynamics of interfacial properties during degradation and suggests that interfacial amylopectin side-chains undergo spontaneous helix-coil transitions. Reversible phosphorylation has a synergistic effect on glucan release especially in the early phase dropping off during degradation. Based on the model, the hypothesis is formulated that interfacial phosphorylation is important for the rapid switch from starch synthesis to starch degradation. The third part takes a broader perspective on carbohydrate-active enzymes (CAZymes) but is motivated by the organization of the downstream pathway of starch breakdown. This comprises Alpha-1,4-glucanotransferases (DPE1 and DPE2) and Alpha-glucan-phosphorylases (Pho or PHS) both in the stroma and in the cytosol. CAZymes accept many different substrates and catalyze numerous reactions and therefore cannot be characterized in classical enzymological terms. A concise characterization is provided by conceptually linking statistical thermodynamics and polymer biochemistry. Each reactant is interpreted as an energy level, transitions between which are constrained by the enzymatic mechanisms. Combinations of in vitro assays of polymer-active CAZymes essential for carbon metabolism in plants confirmed the dominance of entropic gradients. The principle of entropy maximization provides a generalization of the equilibrium constant. Stochastic simulations confirm the results and suggest that randomization of metabolites in the cytosolic pool of soluble heteroglycans (SHG) may contribute to a robust integration of fluctuating carbon fluxes coming from chloroplasts.
This paper offers empirical evidence on the power of Sornette et al's [2001] model of bubbles and crashes regarding the German stock market between 1960 and 2009. We identify relevant time periods and describe them with the function given by Sornette et al's model. Our results show some evidence in predicting crashes with the understanding of logarithmic periodic structures that are hidden in the stock price trajectories. It was shown that for the DAX most of the relevant parameters determining the shape of the logarithmic periodic structures are lying in the expected interval researched by Sornette et al. Further more the paper implicitly shows that the point of time of former crashes can be predicted with the presented formula. We conclude that the concept of financial time series conceived as purely random objects should be generalised as to admit complexity.
This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse.
Aggregation of the Amyloid β (Aβ) peptide to amyloid fibrils is associated with the outbreak of Alzheimer’s disease. Early aggregation intermediates in form of soluble oligomers are of special interest as they are believed to be the major toxic components in the process. These oligomers are of disordered and transient nature. Therefore, their detailed molecular structure is difficult to access experimentally and often remains unknown. In the present work extensive, fully atomistic replica exchange molecular dynamics simulations were performed to study the preaggregated, monomer states and early aggregation intermediates (dimers, trimers) of Aβ(25-35) and Aβ(10-35)-NH2 in aqueous solution. The folding and aggregation of Aβ(25-35) were studied at neutral pH and 293 K. Aβ(25-35) monomers mainly adopt β-hairpin conformations characterized by a β-turn formed by residues G29 and A30, and a β-sheet between residues N27–K28 and I31–I32 in equilibrium with coiled conformations. The β-hairpin conformations served as initial configurations to model spontaneous aggregation of Aβ(25-35). As expected, within the Aβ(25-35) dimer and trimer ensembles many different poorly populated conformations appear. Nevertheless, we were able to distinguish between disordered and fibril-like oligomers. Whereas disordered oligomers are rather compact with few intermolecular hydrogen bonds (HBs), fibril-like oligomers are characterized by the formation of large intermolecular β-sheets. In most of the fibril-like dimers and trimers individual peptides are fully extended forming in- or out-of-register antiparallel β-sheets. A small amount of fibril-like trimers contained V-shaped peptides forming parallel β-sheets. The dimensions of extended and V-shaped oligomers correspond well to the diameters of two distinct morphologies found for Aβ(25-35) fibrils. The transition from disordered to fibril-like Aβ(25-35) dimers is unfavorable but driven by energy. The lower energy of fibril-like dimers arises from favorable intermolecular HBs and other electrostatic interactions which compete with a loss in entropy. Approximately 25 % of the entropic cost correspond to configurational entropy. The rest relates to solvent entropy, presumably caused by hydrophobic and electrostatic effects. In contrast to the transition towards fibril-like dimers the first step of aggregation is driven by entropy. Here, we compared structural and thermodynamic properties of the individual monomer, dimer and trimer ensembles to gain qualitative information about the aggregation process. The β-hairpin conformation observed for monomers is successively dissolved in dimer and trimer ensembles while instead intermolecular β-sheets are formed. As expected upon aggregation the configurational entropy decreases. Additionally, the solvent accessible surface area (SASA), especially the hydrophobic SASA, decreases yielding a favorable solvation free energy which overcompensates the loss in configurational entropy. In summary, the hydrophobic effect, possibly combined with electrostatic effects, yields an increase in solvent entropy which is believed to be one major driving force towards aggregation. Spontaneous folding of the Aβ(10-35)-NH2 monomer was modeled using two force fields, GROMOS96 43a1 and OPLS/AA, and compared to primary NMR data collected at pH 5.6 and 283 K taken from the literature. Unexpectedly, the two force fields yielded significantly different main conformations. Comparison between experimental and calculated nuclear Overhauser effect (NOE) distances is not sufficient to distinguish between the different force fields. Additionally, the comparison with scalar coupling constants suggest that the chosen protonation in both simulations corresponds to a pH lower than in the experiment. Based on this analysis we were unable to determine which force field yields a better description of this system. Dimerization of Aβ(10-35)-NH2 was studied at neutral pH and 300 K. Dimer conformations arrange in many distinct, poorly populated and rather complex alignments or interlocking patterns which are rather stabilized by side chain interactions than by specific intermolecular hydrogen bonds. Similar to Aβ(25-35) dimers, transition towards β-sheet-rich, fibril-like Aβ(10-35) dimers is driven by energy competing with a loss in entropy. Here, transition is mediated by favorable peptide-solvent and solvent-solvent interactions mainly arising from electrostatic interactions.
Version Control Systems (VCS) allow developers to manage changes to software artifacts. Developers interact with VCSs through a variety of client programs, such as graphical front-ends or command line tools. It is desirable to use the same version control client program against different VCSs. Unfortunately, no established abstraction over VCS concepts exists. Instead, VCS client programs implement ad-hoc solutions to support interaction with multiple VCSs. This thesis presents Pur, an abstraction over version control concepts that allows building rich client programs that can interact with multiple VCSs. We provide an implementation of this abstraction and validate it by implementing a client application.