Refine
Year of publication
- 2005 (206) (remove)
Document Type
- Doctoral Thesis (206) (remove)
Keywords
- Modellierung (6)
- Polyelektrolyt (4)
- Selbstorganisation (4)
- Anthropogene Klimaänderung (3)
- Arabidopsis (3)
- Blockcopolymere (3)
- Klimawandel (3)
- Adhäsion (2)
- Adsorption (2)
- Climate Change (2)
Institute
- Institut für Biochemie und Biologie (40)
- Institut für Physik und Astronomie (40)
- Institut für Chemie (20)
- Bürgerliches Recht (16)
- Wirtschaftswissenschaften (14)
- Institut für Ernährungswissenschaft (9)
- Institut für Informatik und Computational Science (7)
- Institut für Umweltwissenschaften und Geographie (7)
- Historisches Institut (6)
- Department Erziehungswissenschaft (5)
- Department Linguistik (5)
- Extern (5)
- Institut für Geowissenschaften (5)
- Department Psychologie (4)
- Department Sport- und Gesundheitswissenschaften (3)
- Institut für Mathematik (3)
- Institut für Romanistik (3)
- Philosophische Fakultät (3)
- Strafrecht (3)
- Öffentliches Recht (3)
- Department Musik und Kunst (2)
- Institut für Anglistik und Amerikanistik (2)
- Institut für Germanistik (1)
- Institut für Jüdische Studien und Religionswissenschaft (1)
- Institut für Künste und Medien (1)
- Institut für Philosophie (1)
Einfluss von Intraguild Predation auf die Dynamik der Planktonsukzession in einem sauren Bergbausee
(2005)
Hauptanliegen der Dissertation ist es, einen Entwurf einer praktischen Ästhetik zu lancieren, der an der Schnittstelle zwischen philosophischer Ästhetik und Kunst – genauer Performancekunst - im Zeichen der Bezugsgrösse der Verletzbarkeit steht. In jüngeren Ästhetikansätzen hat sich eine Auffassung herauskristallisiert, die nicht über, sondern mit Kunst reflektiert. Die Pointe im ‚Mit’ liegt darin, dass diese Ästhetiken die Kunst nicht erklären, sie bestimmen und damit ihre Bedeutung festlegen, sondern dass diese entlang der Kunst die Brüche, Widerstände und Zäsuren zwischen Wahrnehmen und Denken markieren und diese als produktiv bewerten. Diese Lesart etabliert ein Denken, das nicht aus der Distanz auf etwas schaut (theoria), sondern ästhetisch-reflektierend (zurückwendend, auch selbstkritisch) mit der Kunst denkt. Die Disziplin der Ästhetik - als aisthesis: Lehre der sinnlichen Wahrnehmung - nimmt innerhalb der Philosophie eine besondere Stellung ein, weil sie auf ebendiese Differenz verweist und deshalb sinnliche und nicht nur logisch-argumentatorische Denkfiguren stärkt. Als eine Möglichkeit, die Kluft, das Nicht-Einholbare, die brüchige Unzulänglichkeit des begrifflich Denkenden gegenüber ästhetischer Erfahrung zu stärken, schlage ich die Bezugsgrösse der Verletzbarkeit vor. Eine solche Ästhetik besteht aus dem Kreieren verletzbarer Orte, wobei diese auf zweierlei Weisen umkreist werden: Zum einen aus der Kunstpraxis heraus anhand der ästhetischen Figur des verletzbaren Körpes, wie er sich in der zeitgenössischen Performance zeigt. Zum anderen als ein Kreieren von Begriffen im Bewusstsein ihrer Verletzbarkeit. Ausgangspunkte sind die Denkentwürfe von Gilles Deleuze und Hans Blumenberg: Die Ästhetik von Gilles Deleuze entwirft eine konkrete Überschneidungsmöglichkeit von Kunst und Philosophie, aus der sich meine These des Mit-Kunst-Denkens entwickeln lässt. Sie kann aus der Grundvoraussetzung des Deleuzeschen Denkens heraus begründet werden, die besagt, dass nicht nur die Kunst, sondern auch die Philosophie eine schöpferische Tätigkeit ist. Beide Disziplinen beruhen auf dem Prinzip der creatio continua, durch welche die Kunst Empfindungen und die Philosophie Begriffe schöpft, wobei eben genau dieser schöpferische Prozess Kunst und Philosophie in ein produktives Verhältnis zueinander treten lässt. Wie Deleuze seine Begriffsarbeit entlang künstlerischer Praxis entwickelt, wird anhand der Analyse des bis heute wenig rezipierten Textes Ein Manifest weniger in Bezug auf das Theater von Carmelo Bene analysiert. Eine ganz anderen Zugang zum Entwurf einer praktischen Ästhetik liefert Hans Blumenberg, der eine Theorie der Unbegrifflichkeit in Aussicht stellt. Im Anschluss an seine Forderung, die Metapher wieder vermehrt in die philosophische Denkpraxis zu integrieren, radikalisiert er seine Forderung, auch das Nichtanschauliche zu berücksichtigen, indem er das gänzlich Unbegriffliche an die Seite des Begrifflichen stellt. Definitorische Schwäche zeigt sich als wahrhaftige Stärke, die in der Unbegrifflichkeit ihren Zenit erreicht. Der Schiffbruch wird von mir als zentrale Metapher – gewissermassen als Metapher der Metapher – verstanden, die das Auf-Grund-Laufen des Allwissenden veranschaulicht. Im Schiffbruch wird die produktive Kollision von Theorie und Praxis deutlich. Deleuze und Blumenberg zeigen über ‚creatio continua’ und ‚Unbegrifflichkeit’ die Grenzen des Begreifens, indem sie betonen, dass sich Ästhetik nicht nur auf künstlerische Erfahrungen bezieht, sondern selber in das Gegenwärtigmachen von Erfahrungen involviert ist. Daraus folgt, dass ästhetische Reflexion nicht nur begrifflich agieren muss. Die praktische Ästhetik animiert dazu, andere darstellerische Formen (Bilder, Töne, Körper) als differente und ebenbürtige reflexive Modi anzuerkennen und sie als verletzbarmachende Formate der Sprache an die Seite zu stellen. Diese Lesart betont den gestalterischen Aspekt der Ästhetik selber. Zur Verdeutlichung dieser Kluft zwischen (Körper-)Bild und Begriff ist der von mir mitgestaltete Film Augen blickeN der Dissertation als Kapitel beigefügt. Dieser Film zeigt Performer und Performerinnen, die sich bewusst entschieden haben, ihren ‚abweichenden’ Körper auf der Bühne zu präsentieren. Das Wort Verletzbarkeit verweist auf die paradoxe Situation, etwas Brüchiges tragfähig zu machen und dadurch auch auf eine besondere Beziehungsform und auf ein existenzielles Aufeinander-Verwiesensein der Menschen. Verletzbarkeit geht alle an, und stiftet deshalb eine Gemeinsamkeit besonderer Art. In diesem Sinne sind verletzbare Orte nicht nur ästhetische, sondern auch ethische Orte, womit die politische Dimension des Vorhabens betont wird.
This thesis is concerned with the solution of the blind source separation problem (BSS). The BSS problem occurs frequently in various scientific and technical applications. In essence, it consists in separating meaningful underlying components out of a mixture of a multitude of superimposed signals. In the recent research literature there are two related approaches to the BSS problem: The first is known as Independent Component Analysis (ICA), where the goal is to transform the data such that the components become as independent as possible. The second is based on the notion of diagonality of certain characteristic matrices derived from the data. Here the goal is to transform the matrices such that they become as diagonal as possible. In this thesis we study the latter method of approximate joint diagonalization (AJD) to achieve a solution of the BSS problem. After an introduction to the general setting, the thesis provides an overview on particular choices for the set of target matrices that can be used for BSS by joint diagonalization. As the main contribution of the thesis, new algorithms for approximate joint diagonalization of several matrices with non-orthogonal transformations are developed. These newly developed algorithms will be tested on synthetic benchmark datasets and compared to other previous diagonalization algorithms. Applications of the BSS methods to biomedical signal processing are discussed and exemplified with real-life data sets of multi-channel biomagnetic recordings.
This thesis aimed to investigate several fundamental and perplexing questions relating to the phloem loading and transport mechanisms of Cucurbita maxima, by combining metabolomic analysis with cell biological techniques. This putative symplastic loading species has long been used for experiments on phloem anatomy, phloem biochemistry, phloem transport physiology and phloem signalling. Symplastic loading species have been proposed to use a polymer trapping mechanism to accumulate RFO (raffinose family oligosaccharides) sugars to build up high osmotic pressure in minor veins which sustains a concentration gradient that drives mass flow. However, extensive evidence indicating a low sugar concentration in their phloem exudates is a long-known problem that conflicts with this hypothesis. Previous metabolomic analysis shows the concentration of many small molecules in phloem exudates is higher than that of leaf tissues, which indicates an active apoplastic loading step. Therefore, in the view of the phloem metabolome, a symplastic loading mechanism cannot explain how small molecules other than RFO sugars are loaded into phloem. Most studies of phloem physiology using cucurbits have neglected the possible functions of vascular architecture in phloem transport. It is well known that there are two phloem systems in cucurbits with distinctly different anatomical features: central phloem and extrafascicular phloem. However, mistaken conclusions on sources of cucurbit phloem exudation from previous reports have hindered consideration of the idea that there may be important differences between these two phloem systems. The major results are summarized as below: 1) O-linked glycans in C.maxima were structurally identified as beta-1,3 linked glucose polymers, and the composition of glycans in cucurbits was found to be species-specific. Inter-species grafting experiments proved that these glycans are phloem mobile and transported uni-directionally from scion to stock. 2) As indicated by stable isotopic labelling experiments, a considerable amount of carbon is incorporated into small metabolites in phloem exudates. However, the incorporation of carbon into RFO sugars is much faster than for other metabolites. 3) Both CO2 labelling experiments and comparative metabolomic analysis of phloem exudates and leaf tissues indicated that metabolic processes other than RFO sugar metabolism play an important role in cucurbit phloem physiology. 4) The underlying assumption that the central phloem of cucurbits continuously releases exudates after physical incision was proved wrong by rigorous experiments including direct observation by normal microscopy and combined multiple-microscopic methods. Errors in previous experimental confirmation of phloem exudation in cucurbits are critically discussed. 5) Extrafascicular phloem was proved to be functional, as indicated by phloem-mobile carboxyfluorescein tracer studies. Commissural sieve tubes interconnect phloem bundles into a complete super-symplastic network. 6) Extrafascicular phloem represents the main source of exudates following physical incision. The major transported metabolites by these extrafacicular phloem are non-sugar compounds including amino acids, O-glycans, amines. 7) Central phloem contains almost exclusively RFO sugars, the estimated amount of which is up to 1 to 2 molar. The major RFO sugar present in central phloem is stachyose. 8) Cucurbits utilize two structurally different phloem systems for transporting different group of metabolites (RFO sugars and non-RFO sugar compounds). This implies that cucurbits may use spatially separated loading mechanisms (apoplastic loading for extrafascicular phloem and symplastic loading for central phloem) for supply of nutrients to sinks. 9) Along the transport systems, RFO sugars were mainly distributed within central phloem tissues. There were only small amounts of RFO sugars present in xylem tissues (millimolar range) and trace amounts of RFO sugars in cortex and pith. The composition of small molecules in external central phloem is very different from that in internal central phloem. 10) Aggregated P-proteins were manually dissected from central phloem and analysed by both SDS-PAGE and mass spectrometry. Partial sequences of peptides were obtained by QTOF de novo sequencing from trypsin digests of three SDS-PAGE bands. None of these partial sequences shows significant homology to known cucurbit phloem proteins or other plant proteins. This proves that these central phloem proteins are a completely new group of proteins different from those in extrafascicular phloem. The extensively analysed P-proteins reported in literature to date are therefore now shown to arise from extrafascicular phloem and not central phloem, and therefore do not appear to be involved in the occlusion processes in central phloem.
At present, carbon sequestration in terrestrial ecosystems slows the growth rate of atmospheric CO2 concentrations, and thereby reduces the impact of anthropogenic fossil fuel emissions on the climate system. Changes in climate and land use affect terrestrial biosphere structure and functioning at present, and will likely impact on the terrestrial carbon balance during the coming decades - potentially providing a positive feedback to the climate system due to soil carbon releases under a warmer climate. Quantifying changes, and the associated uncertainties, in regional terrestrial carbon budgets resulting from these effects is relevant for the scientific understanding of the Earth system and for long-term climate mitigation strategies. A model describing the relevant processes that govern the terrestrial carbon cycle is a necessary tool to project regional carbon budgets into the future. This study (1) provides an extensive evaluation of the parameter-based uncertainty in model results of a leading terrestrial biosphere model, the Lund-Potsdam-Jena Dynamic Global Vegetation Model (LPJ-DGVM), against a range of observations and under climate change, thereby complementing existing studies on other aspects of model uncertainty; (2) evaluates different hypotheses to explain the age-related decline in forest growth, both from theoretical and experimental evidence, and introduces the most promising hypothesis into the model; (3) demonstrates how forest statistics can be successfully integrated with process-based modelling to provide long-term constraints on regional-scale forest carbon budget estimates for a European forest case-study; and (4) elucidates the combined effects of land-use and climate changes on the present-day and future terrestrial carbon balance over Europe for four illustrative scenarios - implemented by four general circulation models - using a comprehensive description of different land-use types within the framework of LPJ-DGVM. This study presents a way to assess and reduce uncertainty in process-based terrestrial carbon estimates on a regional scale. The results of this study demonstrate that simulated present-day land-atmosphere carbon fluxes are relatively well constrained, despite considerable uncertainty in modelled net primary production. Process-based terrestrial modelling and forest statistics are successfully combined to improve model-based estimates of vegetation carbon stocks and their change over time. Application of the advanced model for 77 European provinces shows that model-based estimates of biomass development with stand age compare favourably with forest inventory-based estimates for different tree species. Driven by historic changes in climate, atmospheric CO2 concentration, forest area and wood demand between 1948 and 2000, the model predicts European-scale, present-day age structure of forests, ratio of biomass removals to increment, and vegetation carbon sequestration rates that are consistent with inventory-based estimates. Alternative scenarios of climate and land-use change in the 21<sup>st century suggest carbon sequestration in the European terrestrial biosphere during the coming decades will likely be on magnitudes relevant to climate mitigation strategies. However, the uptake rates are small in comparison to the European emissions from fossil fuel combustion, and will likely decline towards the end of the century. Uncertainty in climate change projections is a key driver for uncertainty in simulated land-atmosphere carbon fluxes and needs to be accounted for in mitigation studies of the terrestrial biosphere.
Aufgrund des großen Verhältnisses von Oberfläche zu Volumen zeigen Nanopartikel interessante, größenabhängige Eigenschaften, die man im ausgedehnten Festkörper nicht beobachtet. Sie sind daher von großem wissenschaftlichem und technologischem Interesse. Die Herstellung kleinster Partikel ist aus diesem Grund überaus wünschenswert. Dieses Ziel kann mit Hilfe von Mikroemulsionen als Templatphasen bei der Herstellung von Nanopartikeln erreicht werden. Mikroemulsionen sind thermodynamisch stabile, transparente und isotrope Mischungen von Wasser und Öl, die durch einen Emulgator stabilisiert sind. Sie können eine Vielzahl verschiedener Mikrostrukturen bilden. Die Kenntnis der einer Mikroemulsion zugrunde liegenden Struktur und Dynamik ist daher von außerordentlicher Bedeutung, um ein gewähltes System potentiell als Templatphase zur Nanopartikelherstellung einsetzen zu können. In der vorliegenden Arbeit wurden komplexe Mehrkomponentensysteme auf der Basis einer natürlich vorkommenden Sojabohnenlecithin-Mischung, eines gereinigten Lecithins und eines Sulfobetains als Emulgatoren mit Hilfe der diffusionsgewichteten 1H-NMR-Spektroskopie unter Verwendung gepulster Feldgradienten (PFG) in Abhängigkeit des Zusatzes des Polykations Poly-(diallyl-dimethyl-ammoniumchlorid) (PDADMAC) untersucht. Der zentrale Gegenstand dieser Untersuchungen war die strukturelle und dynamische Charakterisierung der verwendeten Mikroemulsionen hinsichtlich ihrer potentiellen Anwendbarkeit als Templatphasen für die Herstellung möglichst kleiner Nanopartikel. Die konzentrations- und zeit-abhängige NMR-Diffusionsmessung stellte sich dabei als hervorragend geeignete und genaue Methode zur Untersuchung der Mikrostruktur und Dynamik in den vorliegenden Systemen heraus. Die beobachtete geschlossene Wasser-in-Öl- (W/O-) Mikrostruktur der Mikroemulsionen zeigt deutlich deren potentielle Anwendbarkeit in der Nanopartikelsynthese. Das Gesamtdiffusionsverhalten des Tensides wird durch variierende Anteile aus der Verschiebung gesamter Aggregate, der Monomerdiffusion im Medium bzw. der medium-vermittelten Oberflächendiffusion bestimmt. Dies resultierte in einigen Fällen in einer anormalen Diffusionscharakteristik. In allen Systemen liegen hydrodynamische und direkte Wechselwirkungen zwischen den Tensidaggregaten vor. Der Zusatz von PDADMAC zu den Mikroemulsionen resultiert in einer Stabilisierung der flüssigen Grenzfläche der Tensidaggregate aufgrund der Adsorption des Polykations auf den entgegengesetzt geladenen Tensidfilm und kann potentiell zu Nanopartikeln mit kleineren Dimensionen und schmaleren Größenverteilungen führen.
Als Resultat überhöhter Energieaufnahme und zu geringen Energieverbrauchs beobachten wir eine über das normale Maß hinausgehende Akkumulation von Fettgewebe, die sich als Adipositas manifestiert. Sie gilt als einer der Hauptrisikofaktoren für Krankheiten des metabolischen Syndroms. Im Rahmen von Prävention, Diagnose und Therapie der Adipositas, muss ihr wesentliches Charakteristikum; der individuelle Körperfettanteil; einer Messung zugänglich gemacht werden. Eine direkte Bestimmung der Körperzusammensetzung erlauben die Neutronenaktivierungsanalyse und die chemische Analyse. Beide Verfahren sind sehr genau, aber aufwendig und kostenintensiv und darüber hinaus die chemische Analyse nur am menschlichen Cadaver praktizierbar. Um dennoch die Körperzusammensetzung hinreichend genau bestimmen zu können, wurden zahlreiche indirekte Messverfahren entwickelt. Man kann sie in Labor- und Feldmethoden untergliedern. Die Labormethoden bestechen durch hohe Genauigkeit und Reproduzierbarkeit, sind aber zumeist aufwendig und teuer. Feldmethoden sind im Gegensatz dazu leicht anwendbar, transportabel und preiswert, weisen aber eine weniger hohe Genauigkeit und Reproduzierbarkeit auf. In der vorgestellten Arbeit wird über eine jüngere Entwicklung, die das Prinzip der unterschiedlichen Leitfähigkeit für den elektrischen Strom durch die verschiedenen Gewebe des Körpers nutzt, berichtet. Der Prototyp eines Gerätes wurde innerhalb eines von der EU geförderten multizentrischen Projekts entwickelt und auf seine Einsatzfähigkeit und Qualität hin geprüft. Der Schwerpunkt der Arbeit liegt auf der Einschätzung der Körperzusammensetzung normal- und übergewichtiger Probanden mit der neu entwickelten Technik. Das vorliegende Studiendesign diente nicht nur der Beurteilung der neuen Technik die Körperzusammensetzung und Veränderungen dieser zu erfassen, sondern darüber hinaus, etablierte Methoden hinsichtlich ihrer Genauigkeit zu bewerten. Bezüglich ihrer Anwendbarkeit und Reproduzierbarkeit hat die neue Methode Hoffnung geweckt, sich als eine Feldmethode zu etablieren. Auf der anderen Seite zeigte sich in Abhängigkeit der Gesamtkörperfettmasse eine Überschätzung der Zielgröße im Vergleich zur Referenzmethode (dual energy x ray absorptiometry (DXA)). Die Abweichungen waren dabei gerade für das einzelne Individuum sehr groß. Technische Verbesserungen und die Entwicklung spezifischer Regressionsgleichungen könnten in Zukunft zu einer wesentlichen Verbesserung der neuen Methode beitragen. Die Labormethode "Air Displacement Plethysmography" konnte durch die guten Übereinstimmungen der Ergebnisse mit denen der Referenzmethode DXA und die einfache Anwendung überzeugen. Sie stellt eine durchaus konkurrenzfähige Alternative zur Hydrodensitometrie dar, die noch heute als "goldener Standard" zur Erfassung der Körperzusammensetzung akzeptiert wird. Im Verlauf der durchgeführten Studie stellte sich heraus, dass die Hydrodensitometrie sehr hohe Anforderungen an den Probanden stellt. Das Untertauchen des gesamten Körpers unter Wasser in Kombination mit einer maximalen Ausatmung erwies sich als sehr problematisch. Die dabei auftretenden Fehler schlugen sich in der Berechnung der Gesamtkörperfettmasse des einzelnen Individuums wieder und führten zu zum Teil erheblichen Abweichungen der Ergebnisse von denen der Referenzmethode. Die Feldmethoden bioelektrische Impedanzanalyse und Hautfaltendickenmessung erwiesen sich als kostengünstige und leicht anwendbare Methoden. Die Ergebnisse beider Methoden stimmten im Mittel gut mit den Ergebnissen der Referenzmethoden überein. Dennoch zeigte die BIA größere Abstriche in der Beurteilung der Gesamtkörperfettmasse des einzelnen Individuums und bei der Dokumentation von Veränderungen der Gesamtkörperfettmasse. Die Hautfaltendickenmessung stellt – wendet man sie korrekt an – eine Methode dar, die sowohl die Gesamtkörperfettmasse als auch Veränderungen dieser gut erfassen kann. In Abhängigkeit der geforderten Genauigkeit kann diese Methode für die Erfassung der Körperzusammensetzung empfohlen werden. Demnach bleibt die Frage unbeantwortet, inwieweit die indirekten Methoden in der Lage sind, die "wahre" Körperzusammensetzung adäquat zu erfassen. Jede neu entwickelte Methode – die möglichst viele Vorteile in sich vereint – wird wieder vor dem Problem stehen: eine geeignete und dabei praktikable Referenzmethode zu finden, die die wahre Körperzusammensetzung zu bestimmen in der Lage ist. Daher sollte neben dem Streben nach der Entwicklung einer Methode, die genau und leicht anwendbar ist, das Hauptaugenmerk auf die Überarbeitung der zugrunde liegenden Modellvorstellungen und die Verbesserung von Regressionsgleichungen gelegt werden.
Mesoporous organosilica materials with amine functions : surface characteristics and chirality
(2005)
In this work mesoporous organisilica materials are synthesized through the silica sol-gel process. For this a new class of precursors which are also surfactant are synthesized and self-assembled. This leads to a high surface area functionality which is analysized with copper (II) and water adsorption.
Durch die Stilllegung der Kali-Gewinnung und -Produktion zwischen 1990 und 1993 sowie die begonnene Rekultivierung der Kali-Rückstandshalden haben sich die Salzfrachteintragsbedingungen für die Fließgwewässer im "Südharz-Kalirevier" in Thüringen zum Teil deutlich verändert. Aufgrund erheblich geringerer Salzeinträge in die Vorfluter Wipper und Bode ist es möglich geworden, zu einer ökologisch verträglichen Salzfrachtsteuerung überzugehen. Die Komplexität der zugrunde liegenden Stofftransportprozesse im Einzugsgebiet der Wipper macht es jedoch unumgänglich, den Steuerungsvorgang nicht nur durch reine Bilanzierungsvorgänge auf der betrachteten Steuerstrecke zu erfassen (so wie bisher praktiziert), sondern auch die Abflussdynamik im Fließgewässer und den Wasserhaushalt im Gebiet mit einzubeziehen. Die Ergebnisse dieser Arbeit dienen zum einen einer Vertiefung der Prozessverständnisse und der Interaktion von Wasserhaushalt, Abflussbildung sowie Stofftransport in bergbaubeeinflussten Einzugsgebieten am Beispiel der Unstrut bzw. ihrer relevanten Nebenflüsse. Zum anderen sollen sie zur Analyse und Bewertung eines Bewirtschaftungsplanes für die genannten Fließgewässer herangezogen werden können. Ziel dieser Arbeit ist die Erstellung eines prognosetauglichen Steuerungsinstrumentes, das für die Bewirtschaftung von Flusseinzugsgebieten unterschiedlicher Größe genutzt und unter den Rahmenbedingungen der bergbaubedingten salinaren Einträge effektiv zur Steuerung der anthropogenen Frachten eingesetzt werden kann. Die Quellen der anthropogen eingeleiteten Salzfracht sind vor allem die Rückstandshalden der stillgelegten Kaliwerke. Durch Niederschläge entstehen salzhaltige Haldenabwässer, die zum Teil ungesteuert über oberflächennahe Ausbreitungsvorgänge direkt in die Vorfluter gelangen, ein anderer Teil wird über die Speichereinrichtungen gefasst und gezielt abgestoßen. Durch Undichtigkeiten des Laugenstapelbeckens in Wipperdorf gelangen ebenfalls ungesteuerte Frachteinträge in die Wipper. Ein weiterer Eintragspfad ist zudem die geogene Belastung. Mit Hilfe detaillierter Angaben zu den oben genannten Eintragspfaden konnten Modellrechnungen im Zeitraum von 1992 bis 2003 durchgeführt werden. Durch die Ausarbeitung eines neuartigen Steuerungskonzeptes für das Laugenstapelbecken Wipperdorf, war es nun möglich, die gefasste Haldenlauge entsprechend der aktuellen Abflusssituation gezielt abstoßen zu können. Neben der modelltechnischen Erfassung der aktuellen hydrologischen Situation und der Vorgabe eines Chlorid-Konzentrationssteuerzieles für den Pegel Hachelbich, mussten dabei weitere Randbedingungen (Beckenkapazität, Beckenfüllstand, Mindestfüllstand, Kapazität des Ableitungskanals, usw.) berücksichtigt werden. Es zeigte sich, dass unter Anwendung des Steuerungskonzeptes die Schwankungsbreite der Chloridkonzentration insgesamt gesehen deutlich verringert werden konnte. Die Überschreitungshäufigkeiten bezüglich eines Grenzwertes von 2 g Chlorid/l am Pegel Hachelbich fielen deutlich, und auch die maximale Dauer einer solchen Periode konnte stark verkürzt werden. Kritische Situationen bei der modelltechnischen Frachtzusteuerung traten nur dann auf, wenn Niedrigwasserverhältnisse durch die Simulationsberechnungen noch unterschätzt wurden. Dies hatte deutliche Überschreitungen der Zielvorgaben für den Pegel Hachelbich zur Folge. Mit Hilfe des Steuerungsalgorithmus konnten desweiteren auch Szenarienberechnungen durchgeführt werden, um die Auswirkungen zukünftig zu erwartender Salzfrachten näher spezifizieren zu können. Dabei konnte festgestellt werden, dass Abdichtungsmaßnahmen der Haldenkörper sich direkt positiv auf die Entwicklung der Konzentration in Hachelbich auswirkten. Durch zusätzlich durchgeführte Langzeitszenarien konnte darüber hinaus nachgewiesen werden, dass langfristig eine Grenzwertfestlegung auf 1,5 g Chlorid/l in Hachelbich möglich ist, und die Stapelkapazitäten dazu ausreichend bemessen sind.
The Thesis is focused on the properties of self-organized nanostructures. Atomic and electronic properties of different systems have been investigated using methods of electron diffraction, scanning tunneling microscopy and photoelectron spectroscopy. Implementation of the STM technique (including design, construction, and tuning of the UHV experimental set-up) has been done in the framework of present work. This time-consuming work is reported to greater detail in the experimental part of this Thesis. The scientific part starts from the study of quantum-size effects in the electronic structure of a two-dimensional Ag film on the supporting substrate Ni(111). Distinct quantum well states in the sp-band of Ag were observed in photoelectron spectra. Analysis of thickness- and angle-dependent photoemission supplies novel information on the properties of the interface. For the first time the Ni(111) relative band gap was indirectly probed in the ground-state through the electronic structure of quantum well states in the adlayer. This is particularly important for Ni where valence electrons are strongly correlated. Comparison of the experiment with calculations performed in the formalism of the extended phase accumulation model gives the substrate gap which is fully consistent with the one obtained by ab-initio LDA calculations. It is, however, in controversy to the band structure of Ni measured directly by photoemission. These results lend credit to the simplest view of photoemission from Ni, assigning early observed contradictions between theory and experiments to electron correlation effects in the final state of photoemission. Further, nanosystems of lower dimensionality have been studied. Stepped surfaces W(331) and W(551) were used as one-dimensional model systems and as templates for self-organization of Au nanoclusters. Photon energy dependent photoemission revealed a surface resonance which was never observed before on W(110) which is the base plane of the terrace microsurfaces. The dispersion E(k) of this state measured on stepped W(331) and W(551) with angle-resolved photoelectron spectroscopy is modified by a strong umklapp effect. It appears as two parabolas shifted symmetrically relative to the microsurface normal by half of the Brillouin zone of the step superlattice. The reported results are very important for understanding of the electronic properties of low-dimensional nanostructures. It was also established that W(331) and W(551) can serve as templates for self-organization of metallic nanostructures. A combined study of electronic and atomic properties of sub-monolayer amounts of gold deposited on these templates have shown that if the substrate is slightly pre-oxidized and the temperature is elevated, then Au can alloy with the first monolayer of W. As a result, a nanostructure of uniform clusters of a surface alloy is produced all over the steps. Such clusters feature a novel sp-band in the vicinity of the Fermi level, which appears split into constant energy levels due to effects of lateral quantization. The last and main part of this work is devoted to large-scale reconstructions on surfaces and nanostructures self-assembled on top. The two-dimensional surface carbide W(110)/C-R(15x3) has been extensively investigated. Photoemission studies of quantum size effects in the electronic structure of this reconstruction, combined with an investigation of its surface geometry, lead to an advanced structural model of the carbide overlayer. It was discovered that W(110)/C-R(15x3) can control self-organization of adlayers into nanostructures with extremely different electronic and structural properties. Thus, it was established that at elevated temperature the R(15x3) superstructure controls the self-assembly of sub-monolayer amounts of Au into nm-wide nanostripes. Based on the results of core level photoemission, the R(15x3)-induced surface alloying which takes place between Au and W can be claimed as driving force of self-organization. The observed stripes exhibit a characteristic one-dimensional electronic structure with laterally quantized d-bands. Obviously, these are very important for applications, since dimensions of electronic devices have already stepped into the nm-range, where quantum-size phenomena must undoubtedly be considered. Moreover, formation of perfectly uniform molecular clusters of C60 was demonstrated and described in terms of the van der Waals formalism. It is the first experimental observation of two-dimensional fullerene nanoclusters with "magic numbers". Calculations of the cluster potentials using the static approach have revealed characteristic minima in the interaction energy. They are achieved for 4 and 7 molecules per cluster. The obtained "magic numbers" and the corresponding cluster structures are fully consistent with the results of the STM measurements.
Das Borna Disease Virus (BDV, Bornavirus) besitzt ein einzelsträngiges RNA-Genom negativer Polarität und ist innerhalb der Ordnung Mononegavirales der Prototyp einer eigenen Virusfamilie, die der Bornaviridae. Eine außergewöhnliche Eigenschaft des Virus ist seine nukleäre Transkription und Replikation, eine weitere besteht in seiner Fähigkeit, als neurotropes Virus sowohl in vivo als auch in vitro persistente Infektionen zu etablieren. Die zugrunde liegenden Mechanismen sowohl der Replikation als auch der Persistenz sind derzeit noch unzureichend verstanden, auch deshalb, weil das Virus noch relativ „jung“ ist: Erste komplette Sequenzen des RNA-Genoms wurden 1994 publiziert und erst vor einigen Monaten gelang die Generierung rekombinanter Viren auf der Basis klonierter cDNA. Im Mittelpunkt dieser Arbeit standen das p10 Protein und das Phosphoprotein (P), die von der gemeinsamen Transkriptionseinheit II in überlappenden Leserahmen kodiert werden. Als im Kern der Wirtszelle replizierendes Virus ist das Bornavirus auf zelluläre Importmechanismen angewiesen, um den Kernimport aller an der Replikation beteiligten viralen Proteine zu gewährleisten. Das p10 Protein ist ein negativer Regulator der viralen RNA-abhängigen RNA-Polymerase (L). In vitro Importexperimente zeigten, dass p10 über den klassischen Importin alpha/beta abhängigen Kernimportweg in den Nukleus transportiert wird. Dies war unerwartet, da p10 kein vorhersagbares klassisches Kernlokalisierungssignal (NLS) besitzt und weist darauf hin, dass der zelluläre Importapparat offensichtlich flexibler ist als allgemein angenommen. Die ersten 20 N-terminalen AS vermitteln sowohl Kernimport als auch die Bindung an den Importrezeptor Importin alpha. Durch Di-Alanin-Austauschmutagenese wurden die für diesen Transportprozess essentiellen AS identifiziert und die Bedeutung hydrophober und polarer AS-Reste demonstriert. Die Fähigkeit des Bornavirus, persistente Infektionen zu etablieren, wirft die Frage auf, wie das Virus die zellulären antiviralen Abwehrmechanismen, insbesondere das Typ I Interferon (IFN)-System, unterwandert. Das virale P Protein wurde in dieser Arbeit als potenter Antagonist der IFN-Induktion charakterisiert. Es verhindert die Phosphorylierung des zentralen Transkriptionsfaktors IRF3 durch die zelluläre Kinase TBK1 und somit dessen Aktivierung. Der Befund, dass P mit TBK1 Komplexe bildet und zudem auch als Substrat für die zelluläre Kinase fungiert, erlaubt es, erstmalig einen Mechanismus zu postulieren, in dem ein virales Protein (BDV-P) als putatives TBK1-Pseudosubstrat die IRF3-Aktivierung kompetitiv hemmt.
The role of feedback between erosional unloading and tectonics controlling the development of the Himalaya is a matter of current debate. The distribution of precipitation is thought to control surface erosion, which in turn results in tectonic exhumation as an isostatic compensation process. Alternatively, subsurface structures can have significant influence in the evolution of this actively growing orogen. Along the southern Himalayan front new 40Ar/39Ar white mica and apatite fission track (AFT) thermochronologic data provide the opportunity to determine the history of rock-uplift and exhumation paths along an approximately 120-km-wide NE-SW transect spanning the greater Sutlej region of the northwest Himalaya, India. 40Ar/39Ar data indicate, consistent with earlier studies that first the High Himalayan Crystalline, and subsequently the Lesser Himalayan Crystalline nappes were exhumed rapidly during Miocene time, while the deformation front propagated to the south. In contrast, new AFT data delineate synchronous exhumation of an elliptically shaped, NE-SW-oriented ~80 x 40 km region spanning both crystalline nappes during Pliocene-Quaternary time. The AFT ages correlate with elevation, but show within the resolution of the method no spatial relationship to preexisting major tectonic structures, such as the Main Central Thrust or the Southern Tibetan Fault System. Assuming constant exhumation rates and geothermal gradient, the rocks of two age vs. elevation transects were exhumed at ~1.4 ±0.2 and ~1.1 ±0.4 mm/a with an average cooling rate of ~50-60 °C/Ma during Pliocene-Quaternary time. The locus of pronounced exhumation defined by the AFT data coincides with a region of enhanced precipitation, high discharge, and sediment flux rates under present conditions. We therefore hypothesize that the distribution of AFT cooling ages might reflect the efficiency of surface processes and fluvial erosion, and thus demonstrate the influence of erosion in localizing rock-uplift and exhumation along southern Himalayan front, rather than encompassing the entire orogen.Despite a possible feedback between erosion and exhumation along the southern Himalayan front, we observe tectonically driven, crustal exhumation within the arid region behind the orographic barrier of the High Himalaya, which might be related to and driven by internal plateau forces. Several metamorphic-igneous gneiss dome complexes have been exhumed between the High Himalaya to the south and Indus-Tsangpo suture zone to the north since the onset of Indian-Eurasian collision ~50 Ma ago. Although the overall tectonic setting is characterized by convergence the exhumation of these domes is accommodated by extensional fault systems.Along the Indian-Tibetan border the poorly described Leo Pargil metamorphic-igneous gneiss dome (31-34°N/77-78°E) is located within the Tethyan Himalaya. New field mapping, structural, and geochronologic data document that the western flank of the Leo Pargil dome was formed by extension along temporally linked normal fault systems. Motion on a major detachment system, referred to as the Leo Pargil detachment zone (LPDZ) has led to the juxtaposition of low-grade metamorphic, sedimentary rocks in the hanging wall and high-grade metamorphic gneisses in the footwall. However, the distribution of new 40Ar/39Ar white mica data indicate a regional cooling event during middle Miocene time. New apatite fission track (AFT) data demonstrate that subsequently more of the footwall was extruded along the LPDZ in a brittle stage between 10 and 2 Ma with a minimum displacement of ~9 km. Additionally, AFT-data indicate a regional accelerated cooling and exhumation episode starting at ~4 Ma. Thus, tectonic processes can affect the entire orogenic system, while potential feedbacks between erosion and tectonics appear to be limited to the windward sides of an orogenic systems.
Bestimmung von Ozonabbauraten über der Arktis und Antarktis mittels Ozonsonden- und Satellitendaten
(2005)
Diese Arbeit beschäftigt sich mit der chemischen Ozonzerstörung im arktischen und antarktischen stratosphärischen Polarwirbel. Diese wird durch Abbauprodukte von anthropogen emittierten Fluorchlorkohlenwasserstoffen und Halonen, Chlor- und Bromradikale, verursacht. Studien in denen der gemessene und modellierte Ozonabbau verglichen wird zeigen, dass die Prozeße bekannt sind, der quantitative Verlauf allerdings nicht vollständig verstanden ist. Die Prozesse, die zur Ozonzerstörung führen sind in beiden Polarwirbeln ähnlich. Allerdings fällt als Konsequenz unterschiedlicher meteorologischer Bedingungen der chemische Ozonabbau im arktischen Polarwirbel weniger drastisch aus als über der Antarktis. Der arktische Polarwirbel ist im Mittel stärker dynamisch gestört als der antarktische und weist eine stärkere Jahr-zu-Jahr Variabilität auf. Das erschwert die Messung des chemischen Ozonabbaus. Zur Trennung des chemischen Ozonabbaus von der dynamischen Umverteilung des Ozons im arktischen Polarwirbel wurde die Matchmethode entwickelt. Bei dieser Methode werden Luftpakete innerhalb des Polarwirbels mehrfach beprobt, um den chemischen Anteil der Ozonänderung zu quantifizieren. Zur Identifizierung von doppelt beprobten Luftpaketen werden Trajektorien aus Windfeldern berechnet. Können zwei Messungen im Rahmen bestimmter Qualitätskriterien durch eine Trajektorie verbunden werden, kann die Ozondifferenz zwischen beiden Sondierungen berechnet und als chemischer Ozonabbau interpretiert werden. Eine solche Koinzidenz wird Match genannt. Der Matchmethode liegt ein statistischer Ansatz zugrunde, so dass eine Vielzahl solcher doppelt beprobter Luftmassen vorliegen muss, um gesicherte Aussagen über die Ozonzerstörung gewinnen zu können. So erhält man die Ozonzerstörung in einem bestimmten Zeitintervall, also Ozonabbauraten. Um die Anzahl an doppelt beprobten Luftpackten zu erhöhen wurde eine aktive Koordinierung der Ozonsondenaufstiege entwickelt. Im Rahmen dieser Arbeit wurden Matchkampagnen während des arktischen Winters 2002/2003 und zum ersten Mal während eines antarktischen Winter (2003) durchgeführt. Aus den gewonnenen Daten wurden Ozonabbauraten in beiden Polarwirbeln bestimmt. Diese Abbauraten dienen zum einen der Evaluierung von Modellen, ermöglichen aber auch den direkten Vergleich von Ozonabbauraten in beiden Polarwirbeln. Der Winter 2002/2003 war zu Beginn durch sehr tiefe Temperaturen in der mittleren und unteren Stratosphäre charakterisiert, so dass die Matchkampagne Ende November gestartet wurde. Ab Januar war der Polarwirbel zeitweise stark dynamisch gestört. Die Kampagne ging bis Mitte März. Für den Höhenbereich von 400 bis 550 K potentieller Temperatur (15-23 km) konnten Ozonabbauraten und der Verlust in der Gesamtsäule berechnet werden. Die Ozonabbauraten wurden in verschiedenen Tests auf ihre Stabilität überprüft. Der antarktische Polarwirbel war vom Beginn des Winters bis Mitte Oktober 2003 sehr kalt und stellte Ende September kurzzeitig den Rekord für die größte bisher aufgetretene Ozonloch-Fläche ein. Es konnten für den Kampagnenzeitraum, Anfang Juni bis Anfang Oktober, Ozonabbauraten im Höhenbereich von 400 bis 550 K potentieller Temperatur ermittelt werden. Der zeitliche Verlauf des Ozonabbaus war dabei auf fast allen Höhenniveaus identisch. Die Zunahme des Sonnenlichtes im Polarwirbel mit der Zeit führt zu einem starken Anwachsen der Ozonabbauraten. Ab Mitte September gingen die Ozonabbauraten auf Null zurück, da bis zu diesem Zeitpunkt das gesamte Ozon zwischen ca. 14 und 21 km zerstört wurde. Im letzten Teil der Arbeit wird ein neuer Algorithmus auf Basis der multivariaten Regression vorgestellt, mit dem Ozonabbauraten aus Ozonprofilen verschiedener Sensoren gleichzeitig berechnet werden können. Dabei können neben der Ozonabbaurate die systematischen Fehler zwischen den einzelnen Sensoren bestimmt werden. Dies wurde exemplarisch am antarktischen Winter 2003 für das 475 K potentielle Temperatur Niveau gezeigt. Neben den Ozonprofilen der Sonden wurden Daten von zwei Satellitenexperimenten verwendet. Die mit der multivariaten Matchtechnik berechneten Ozonabbauraten stimmen gut mit den Ozonabbauraten der Einzelsensor-Matchansätze überein.
Die Etablierung der Transkription von kompletten Genen auf planaren Oberflächen soll eine Verbindung zwischen der Mikroarraytechnologie und der Transkriptomforschung herstellen. Darüber hinaus kann mit diesem Verfahren ein Brückenschlag zwischen der Synthese der Gene und ihrer kodierenden Proteine auf einer Oberfläche erfolgen. Alle transkribierten RNAs wurden mittels RT-PCR in cDNA umgeschrieben und in einer genspezifischen PCR amplifiziert. Die PCR-Produkte wurden hierfür entweder per Hand oder maschinell auf die Oberfläche transferiert. Über eine Oberflächen-PCR war es möglich, die Gensequenz des Reportergens EGFP direkt auf der Oberfläche zu synthetisieren und anschließend zu transkribieren. Somit war eine Transkription mit weniger als 1 ng an Matrize möglich. Der Vorteil einer Oberflächen-Transkription gegenüber der in Lösung liegt in der mehrfachen Verwendung der immobilisierten Matrize, wie sie in dieser Arbeit dreimal erfolgreich absolviert wurde. Die Oberflächen-Translation des EGFP-Gens konnte ebenfalls zweimal an einer immobilisierten Matrize gezeigt werden, wobei Zweifel über eine echte Festphasen-Translation nicht ausgeräumt werden konnten. Zusammenfassend kann festgestellt werden, dass die Transkription und Translation von immobilisierten Gensequenzen auf planaren Oberflächen möglich ist, wofür die linearen Matrizen direkt auf der Oberfläche synthetisiert werden können.
Investigation of tropospheric arctic aerosol and mixed-phase clouds using airborne lidar technique
(2005)
An Airborne Mobile Aerosol Lidar (AMALi) was constructed and built at Alfred-Wegener-Institute for Polar and Marine Research (AWI) in Potsdam, Germany for the lower tropospheric aerosol and cloud research under tough arctic conditions. The system was successfully used during two AWI airborne field campaigns, ASTAR 2004 and SVALEX 2005, performed in vicinity of Spitsbergen in the Arctic. The novel evaluation schemes, the Two-Stream Inversion and the Iterative Airborne Inversion, were applied to the obtained lidar data. Thereby, calculation of the particle extinction and backscatter coefficient profiles with corresponding lidar ratio profiles characteristic for the arctic air was possible. The comparison of these lidar results with the results of other in-situ and remote instrumentation (ground based Koldewey Aerosol Raman Lidar (KARL), sunphotometer, radiosounding, satellite imagery) allowed to provided clean contra polluted (Arctic Haze) characteristics of the arctic aerosols. Moreover, the data interpretation by means of the ECMWF Operational Analyses and small-scale dispersion model EULAG allowed studying the effects of the Spitsbergens orography on the aerosol load in the Planetary Boundary Layer. With respect to the cloud studies a new methodology of alternated remote AMALi measurements with the airborne in-situ cloud optical and microphysical parameters measurements was proved feasible for the low density mixed-phase cloud studies. An example of such approach during observation of the natural cloud seeding (feeder-seeder phenomenon) with ice crystals precipitating into the lower supercooled stratocumulus deck were discussed in terms of the lidar signal intensity profiles and corresponding depolarisation ratio profiles. For parts of the cloud system characterised by almost negligible multiple scattering the calculation of the particle backscatter coefficient profiles was possible using the lidar ratio information obtained from the in-situ measurements in ice-crystal cloud and water cloud.
Ziel dieser Arbeit war die Entwicklung neuer Substanzen für die Gentherapie. Diese beinhaltet die Behebung von erblich bedingten Krankheiten wie z.B. Mucoviscidose. Dabei werden im Zellkern defekte Gene durch normale, gesunde DNA-Sequenzen ersetzt. Zur Einschleusung des Genmaterials in die Zellen (Transfektion) werden geeignete Transport-Systeme bzw. Methoden benötigt, die dort die Freisetzung der neu einzubauenden Gene (Genexpression ausgedrückt in Transfektionseffizienzen) gestatten. Hierfür wurden neue Polykation-DNA-Komplexe (Vektoren) auf Basis kationischer Polymere wie Poly(ethylenimin) (PEI) hergestellt, charakterisiert und nachfolgend in Transfektionsversuchen an verschiedenen Zelllinien eingesetzt. Sowohl das kationische Ausgangspolymer PEI als auch das Pfropfcopolymer PEI-g-PEO (PEO-Seitenketten zur Erhöhung der Biokompatibilität) wurden mit Rezeptorliganden modifiziert, um eine verbesserte und spezifische Transfektion an ausgesuchten Zellen zu erreichen. Als Liganden wurden Folsäure (Transfektion an HeLa-Zellen), Triiod-L-thyronin (HepG2-Zellen) und die Uronsäuren der Galactose, Mannose, Glucose sowie die Lactobionsäure (HeLa-, HepG2- und 16HBE-Zellen) verwendet. Das PEI, die Pfropfcopolymere PEI-g-PEO und die Ligand-funktionalisierten Copolymere wurden hinsichtlich ihrer chemischen Zusammensetzung und molekularen Parameter charakterisiert. Die Molmassenuntersuchungen mittels Größenausschlusschromatographie zeigten, dass nach der Synthese unterschiedliche Polymerfraktionen mit nicht einheitlicher chemischer Zusammensetzung vorlagen. Die anschließenden Transfektionsversuche wurden mit Hilfe einer speziellen DNA (Luciferase) an den Zelllinien HepG2 (Leberkrebszellen), HeLa (Gebärmutterhalskrebszellen) und 16HBE (Atemwegsepithelzellen) durchgeführt. Die T3(Triiod-L-thyronin)-Vektoren zeigten in Abhängigkeit vom eingesetzten Komplexverhältnis Polykation/DNA ein Maximum in der Transfektion an HepG2-Zellen. Die Hypothese der rezeptorvermittelten Endozytose ließ sich durch entsprechende T3-Überschuss-Experimente und Fluoreszenzmikroskopie-Untersuchungen bestätigen. Dagegen konnte bei den Folsäure-Vektoren keine rezeptorvermittelte Endozytose beobachtet werden. Bei den Vektoren mit Mannuronsäure-Ligand (Man) konnte an allen drei Zelllinien (HepG2, HeLa, 16HBE) eine konstante, hohe Transfereffizienz nachgewiesen werden. Sie waren bei allen eingesetzten Polymer-DNA-Verhältnissen effizienter als der Vergleichsvektor PEI. Dieses Transfektionsverhalten ließ sich durch Blockierung der Zuckerstruktur unterbinden. In Transfektionsexperimenten mit einem Überschuss an freier Mannuronsäure und fluoreszenzmikroskopischen Untersuchungen konnte eine rezeptorvermittelte Endozytose der Man-Vektoren an den o.g. Zelllinien nachgewiesen werden. Die anderen Uronsäure-Konjugate zeigten keine signifikanten Abweichungen im Transfektionsverhalten im Vergleich zum PEI-Vektor.
Unter atmosphärischen Zirkulationsregimen versteht man bevorzugte quasi-stationäre Zustände der atmosphärischen Zirkulation auf der planetaren Skala, die für eine bis mehrere Wochen persistieren können. Klimaänderungen, ob natürlich entstanden oder anthropogen verursacht, äußern sich in erster Linie durch Änderungen der Auftrittswahrscheinlichkeiten der natürlichen Regime. In der vorliegenden Arbeit wurden dynamische Mechanismen des Regimeverhaltens und der dekadischen Klimavariabilität der Atmosphäre bei Abwesenheit zeitlich veränderlicher externer Einflussfaktoren untersucht. Das Hauptwerkzeug dafür war ein quasi-geostrophisches Dreischichtenmodell der winterlichen atmosphärischen Zirkulation auf der Nordhemisphäre, das eine spektrale T21-Auflösung, einen orographischen und einen zeitlich konstanten thermischen Antrieb mit nicht-zonalen Anteilen besitzt. Ein solches Modell vermag großskalige atmosphärische Strömungsvorgänge außerhalb der Tropen mit einiger Genauigkeit zu simulieren. Nicht berücksichtigt werden Feuchteprozesse, die Wechselwirkung der Atmosphäre mit anderen Teilen des Klimasystems sowie anthropogene Einflüsse. Für das Dreischichtenmodell wurde ein automatisiertes, iteratives Verfahren zur Anpassung des thermischen Modellantriebs neu entwickelt. Jede Iteration des Verfahrens besteht aus einer Testintegration des Modells, ihrer Auswertung, dem Vergleich der Ergebnisse mit den NCEP-NCAR-Reanalysedaten aus den Wintermonaten Dezember, Januar und Februar sowie einer auf diesem Vergleich basierenden Antriebskorrektur. Nach Konvergenz des Verfahrens stimmt das Modell sowohl bezüglich des zonal gemittelten Klimazustandes als auch bezüglich der zeitgemittelten nicht-zonalen außertropischen diabatischen Erwärmung nahezu perfekt mit den wintergemittelten Reanalysedaten überein. In einer 1000-jährigen Simulation wurden die beobachtete mittlere Zirkulation im Winter sowie ihre Variabilität realitätsnah reproduziert, insbesondere die Arktische Oszillation (AO) und ihre vertikale Ausdehnung. Der AO-Index des Modells weist deutliche dekadische Schwankungen auf, die allein durch die interne Modelldynamik bedingt sind. Darüber hinaus zeigt das Modell ein Regimeverhalten, das gut mit den Beobachtungsdaten übereintimmt. Es besitzt ein Regime, das in etwa der negativen Phase der Nordatlantischen Oszillation (NAO) entspricht und eines, das der positiven Phase der AO ähnelt. Eine weit verbreitete Hypothese ist die näherungsweise Übereinstimmung zwischen Regimen und stationären Lösungen der Bewegungsgleichungen. In der vorliegenden Arbeit wurde diese Hypothese für das Dreischichtenmodell überprüft, mit negativem Resultat. Es wurden mittels eines Funktionalminimierungsverfahrens sechs verschiedene stationäre Zustände gefunden. Diese sind allesamt durch eine äußerst unrealistische Zirkulation gekennzeichnet und sind daher weit vom Modellattraktor entfernt. Fünf der sechs Zustände zeichnen sich durch einen extrem starken subtropischen Jet in der mittleren und obereren Modellschicht aus. Da die Ursache des Regimeverhaltens des Dreischichtenmodells nach wie vor unklar war, wurde auf ein einfacheres Modell, nämlich ein barotropes Modell mit T21-Auflösung zurückgegriffen. Für die Anpassung des Oberflächenantriebs wurde eine modifizierte Form der iterativen Prozedur verwendet. Die zeitgemittelte Zirkulation des barotropen Modells stimmt sehr gut mit der zeitlich und vertikal gemittelten Zirkulation des Dreischichtenmodells überein. Das dominierende räumliche Muster der Variabilität besitzt eine AO-ähnliche Struktur. Zudem besitzt das barotrope Modell zwei Regime, die näherungsweise der positiven und negativen Phase der AO entsprechen und somit auch den Regimen des Dreischichtenmodells ähneln. Im Verlauf der Justierung des Oberflächenantriebs konnte beobachtet werden, dass die zwei Regime des barotropen Modells durch die Vereinigung zweier koexistierender Attraktoren entstanden. Der wahrscheinliche Mechanismus der Attraktorvereinigung ist eine Randkrise eines der beiden Attraktoren, gefolgt von einer explosiven Bifurkation des anderen Attraktors. Es wird die Hypothese aufgestellt, dass der beim barotropen Modell vorgefundene Mechanismus der Regimeentstehung für atmosphärische Zirkulationsmodelle mit realitätsnahem Regimeverhalten Allgemeingültigkeit besitzt. Gestützt wird die Hypothese durch vier Experimente mit dem Dreischichtenmodell, bei denen jeweils der Parameter der Bodenreibung verringert und die Antriebsanpassung wiederholt wurde. Bei diesen Experimenten erhöhte sich die Persistenz und die Separiertheit der Regime bei abnehmender Reibung drastisch und damit auch der Anteil dekadischer Zeitskalen an der Variabilität. Die Zunahme der Persistenz der Regime ist charakteristisch für die Annäherung an eine inverse innere Krise, deren Existenz aber nicht nachgewiesen werden konnte.
Der Adhäsionsprozess an Cellulosefasern sollte bis hin zur molekularen Ebene aufgeklärt werden. Zuerst wurde eine definierte Celluloseoberfläche durch Aufschleudern hergestellt und eingehend charakterisiert wurde. Die Beschaffenheit der Oberfläche ist stark abhängig von der Konzentration Celluloselösung, die für das Aufschleudern benutzt wurde. Für geringe Konzentrationen bildete sich ein Netzwerk von Cellulosefibrillen über die Siliziumoberfläche aus. In einem mittleren Bereich wurden geschlossene Filme mit Dicken zwischen 1,5 und ca. 10 nm erhalten. Diese Filme wiesen eine Rauhigkeit unter 2 nm auf, was der Größe eines Cellulosemoleküls entspräche. Mit höheren Konzentrationen wurden die Filme dicker und auch rauer. Die molekular glatten Cellulosefilme wurden zur Untersuchung der Adhäsionseigenschaften zwischen Celluloseoberflächen und ihrer Modifikation durch den Einfluss von Haftvermittlern (Polyelektrolyte) eingesetzt. Dafür wurde das Haftungsvermögen von Celluloseperlen auf der glatten Celluloseoberfläche analysiert. Die Adhäsion der Celluloseperlen hängt dabei von der Menge und von der Art des adsorbierten Polyelektrolyts ab. Geringe Polyelektrolytkonzentrationen ermöglichen wegen der teilweisen Bedeckung der Celluloseoberflächen eine Verstärkung der Haftvermittlung (Adhäsion). Höhere Konzentrationen an Polyelektrolyten bedecken die Celluloseoberfläche komplett, so dass die Symmetrie der Polyelektrolytadsorption entscheidend wird. Wenn Celluloseperlen und glatte Celluloseoberfläche gleichzeitig mit Polyelektrolyten beschichtet werden verringert sich bei hohen Konzentrationen die Adhäsion erheblich. Ein hohes Maß an Adhäsion wird dagegen erreicht, wenn nur eine der beiden gegenüberliegende Celluloseoberflächen separat beschichtet und dann in Kontakt mit der anderen gebracht Oberfläche wurde. Der Einfluss einer äußeren Kraft auf die haftenden Celluloseperlen wurde untersucht, um eine Aussage über die auftretenden Adhäsionskräfte machen zu können. Dafür wurde eine spezielle Strömungszelle entwickelt, mit der die Bewegung von Celluloseperlen beobachtet werden kann. Je nach Ausrichtung der Strömungszelle bewegten sich die Celluloseperlen unterschiedlich schnell. War die Strömungszelle horizontal ausgerichtet, wirkte zusätzlich zur Adhäsionskraft noch die Gravitation auf die Oberfläche, so dass hier eine wesentlich langsamere Durchschnittsgeschwindigkeit ermittelt wurde als für die Messungen in vertikaler Ausrichtung. Die Zugabe von verschiedenen Polyelektrolyten bei den Messungen mit der Strömungszelle hatte einen erheblichen Einfluss auf die Beweglichkeit der haftenden Celluloseperlen. Bei geringen Polyelektrolytkonzentrationen wurde das Potential der einzelnen Polyelektrolyten zur effektiven Haftvermittlung durch eine signifikant geringere Durchschnittsgeschwindigkeit der rollenden Celluloseperlen sichtbar. Aus der kritischen Anfangsgeschwindigkeit der rollenden Celluloseperlen wurde die Adhäsionsarbeit errechnet, die für die Bewegung nötig ist.
Nitrogen is often a limiting factor for plant growth due to its heterogenous distribution in the soil and to seasonal and diurnal changes in growth rates. In most soils, NH4+ and NO3 – are the predominant sources of inorganic nitrogen that are available for plant nutrition. In this context, plants have evolved mechanisms that enable them to optimize nitrogen acquisition, which include transporters specialized in the uptake of nitrogen and susceptible to a regulation that responds to nitrogen limiting or excess conditions. Although the average NH4+ concentrations of soils are generally 100 to 1000 times lower than those of NO3 – (Marschner, 1995), most plants preferentially take up NH4+ when both forms are present because unlike NO3– , NH4+ has not to be reduced prior to assimilation and thus requires less energy for assimilation (Bloom et al., 1992). Apart from high uptake rates in roots, high intracellular ammonium concentrations also result from quantitatively important internal breakdown of amino acids (Feng et al., 1998), and originates in high quantities during photorespiration (Mattson et al., 1997, Pearson et al., 1998). Thus, NH4+ is a key component of nitrogen metabolism for all plants and can accumulate to varying concentrations in all compartments of the cell, including the cytosol, the vacuole and in the apoplast (Wells and Miller, 2000; Nielsen and Schjoerring, 1998). Two related families of ammonium transporters (AMT1 and AMT2), containing six genes which encode transporter proteins that are specific for ammonium had been identified prior to this thesis and some genes had partially been characterised in Arabidopsis (Gazzarrini et al., 1999; Sohlenkamp et al. 2002; Kaiser et al., 2002). However, these studies were not sufficient to assign physiological functions to the individual transporters and AMT1.4 and AMT1.5 had not been studied prior to this thesis. Given this background, it was considered desirable to acquire a deeper knowledge of the physiological functions of the six Arabidopsis ammonium transporters. To this end, tissue specific expression profiles of the individual wildtype AtAMT genes were performed by quantitative real time PCR (qRT-PCR) and promoter-GUS expression. Modern approaches such as the use of T-DNA insertional mutants and RNAi hairpin constructs were employed to reduce the expression levels of AMT genes. Transcript levels were determined, and physiological, biochemical and developmental analysis such as growth tests on different media and 14C-MA and NH4+ uptake studies with the isolated insertional mutants and RNAi lines were performed to deepen the knowledge of the individual functions of the six AMTs in Arabidopsis. In addition, double mutants of the insertional mutants were created to investigate the extent in which homologous genes could compensate for lost transporter functions. The results described in this thesis show that the six AtAMT genes display a high degree of specifity in their tissue specific expression and are likely to play complementary roles in ammonium uptake into roots, in shoots, and in flowers. AtAMT1.1 is likely to be a ‘work horse’ for cellular ammonium transport and reassimilation. A major role is probably the recapture of photorespiratory NH3/NH4+ escaping from the cytosol. In roots, it is likely to transport NH4+ from the apoplast into cortical cells. AtAMT1.3 and AtAMT1.5 appear to be specialised in the acquisition of external NH4+ from the soil. Furthermore, AtAMT1.5 plays an additional role in the reassimilation of NH3/NH4+ released during the breakdown of storage proteins in the cotyledons of germinating seedlings. It was difficult to distinguish a specialisation between the transporters AtAMt1.2 and AtAMt1.1, however the root and flower specific expression patterns are different and indicate alternative functions of both. AtAMT1.4 has a very distinct expression which is restricted to the vascular bundels of leaves and to pollen only, where it is likely to be involved in the loading of NH4+ into the cells.The AtAMT2.1 expression pattern is confined to vascular bundels and meristematic active tissues in leaves where ammonium concentrations can reach very high levels. Additionally, the Vmax of AtAMT2 increases with increasing external pH, contrasting to AtAMT1.1. Thus, AtAMT2.1 it might be specialised in ammonium transport in ammonium rich environments, where the functions of other transporters are limited, enabling cells to take up NH4+ over a wide range of concentrations. The root hair expression ascribes an additional role in NH3/NH4+ acquisition where it possibly serves as a transporter that is able to acquire ammonium from basic soils where other transporters become less effective.RNAi lines showing a reduction in AtAMT gene mRNA levels and NH4+ transport kinetics, grew slower and flowering time was delayed. This indicates that NH4+ is a crucial and limiting factor for plant growth.
Die effektive Erzeugung von Wissen ist eine der zentralen Herausforderungen des 21. Jahrhunderts. Informations- und Kommunikationstechnologien, wie die Neuen Medien, durchdringen alle Bereiche des täglichen Lebens. Sie ermöglichen den Zugriff auf gigantische Datenmengen, die die Grundvoraussetzung für die Generierung von Wissen darstellen, aber gleichzeitig eine Datenflut bedeuten, der wir ohnmächtig gegenüberstehen. Innerhalb der raumwissenschaftlichen Fachdisziplinen spielen die Neuen Medien für die Kommunikation von Sachinformation eine wichtige Rolle. Die internetbasierte Distribution von Karten, angereichert mit zusätzlichen Informationen in Form von Audiosequenzen oder Filmausschnitten, spiegelt diese Entwicklung wieder. Vor diesem Hintergrund erfolgt die Untersuchung der Frage, ob Neue Medien dazu genutzt werden können, raumwissenschaftliche Fachinhalte zu vermitteln. Von besonderem Interesse ist dabei die Frage, ob durch den Einsatz Neuer Medien in der Lehre ein Mehrwert für die Benutzer entsteht. Der Ausgangspunkt dieser Forschungsfrage besteht in der herausragenden Bedeutung von Visualisierung zur leicht verständlichen Darstellung komplexer Sachverhalte, sowie der entsprechenden Werkzeug- und Methodenkompetenz für die Nutzung Neuer Medien in den raumwissen-schaftlichen Disziplinen. Die Grundlage für die Entwicklung von mehrwertigen Lernangeboten ist die Betrachtung von Lernen als Kommunikationsprozess zur Konstruktion von Wissen, was bedeutet, dass der Entwickler derartiger Angebote über Möglichkeiten zur Optimierung dieses Kommunikationsprozesses verfügt. Auf dieser Basis erfolgt eine Erweiterung des in den raumwissenschaftlichen Disziplinen verwendeten Kommunikationsbegriffs um den Aspekt der Lehre von Fachinhalten. Als relevante Ansatzpunkte für die Optimierung der Kommunikation von Fachinhalten werden die didaktische und die mediale Aufbereitung identifiziert. Diese können zum einen die Motivation der Lernenden positiv beeinflussen und zum anderen durch Wirkung auf die Wahrnehmung der Lernenden zu einem vereinfachten Verständnis beitragen. Im Mittelpunkt der didaktischen Aufbereitung steht die problemorientierte Vermittlung der Inhalte, d.h. sie werden anhand konkreter Problemsituationen aus der Praxis vermittelt und gelten deshalb als besonders anschaulich und anwendungsorientiert. Bei der medialen Aufbereitung steht die Verwendung einer Kombination aus Text und Graphik/Animation im Mittelpunkt, die darauf abzielt, das Verstehen komplexer Sachverhalte zu erleichtern. Zur Überprüfung der Forschungsfrage haben Studierende raumwissenschaftlicher Studiengänge der Universität Potsdam das Lernangebot ausprobiert und anhand eines Fragebogens verschiedene Aspekte bewertet. Themenschwerpunkt dieser Evaluation waren die Akzeptanz, die Bedienbarkeit, die didak-tische und mediale Aufbereitung der Inhalte, die Auswahl und Verständlichkeit der Inhalte sowie die Praxistauglichkeit. Ein Großteil der Befragten hat dem Lernangebot einen Mehrwert gegenüber konventionellen Bildungsangeboten bescheinigt. Als Aspekte dieses Mehrwertes haben sich vor allem die Praxisnähe, die Unabhängigkeit von Zeit und Ort bei der Nutzung und die Vermittlung der Inhalte auf der Grundlage einer Kombination aus Text und interaktiven Animationen herauskristallisiert.
Natural and human induced environmental changes affect populations at different time scales. If they occur in a spatial heterogeneous way, they cause spatial variation in abundance. In this thesis I addressed three topics, all related to the question, how environmental changes influence population dynamics. In the first part, I analysed the effect of positive temporal autocorrelation in environmental noise on the extinction risk of a population, using a simple population model. The effect of autocorrelation depended on the magnitude of the effect of single catastrophic events of bad environmental conditions on a population. If a population was threatened by extinction only, when bad conditions occurred repeatedly, positive autocorrelation increased extinction risk. If a population could become extinct, even if bad conditions occurred only once, positive autocorrelation decreased extinction risk. These opposing effects could be explained by two features of an autocorrelated time series. On the one hand, positive autocorrelation increased the probability of series of bad environmental conditions, implying a negative effect on populations. On the other hand, aggregation of bad years also implied longer periods with relatively good conditions. Therefore, for a given time period, the overall probability of occurrence of at least one extremely bad year was reduced in autocorrelated noise. This can imply a positive effect on populations. The results could solve a contradiction in the literature, where opposing effects of autocorrelated noise were found in very similar population models. In the second part, I compared two approaches, which are commonly used for predicting effects of climate change on future abundance and distribution of species: a "space for time approach", where predictions are based on the geographic pattern of current abundance in relation to climate, and a "population modelling approach" which is based on correlations between demographic parameters and the inter-annual variation of climate. In this case study, I compared the two approaches for predicting the effect of a shift in mean precipitation on a population of the sociable weaver Philetairus socius, a common colonially living passerine bird of semiarid savannahs of southern Africa. In the space for time approach, I compared abundance and population structure of the sociable weaver in two areas with highly different mean annual precipitation. The analysis showed no difference between the two populations. This result, as well as the wide distribution range of the species, would lead to the prediction of no sensitive response of the species to a slight shift in mean precipitation. In contrast, the population modelling approach, based on a correlation between reproductive success and rainfall, predicted a sensitive response in most model types. The inconsistency of predictions was confirmed in a cross-validation between the two approaches. I concluded that the inconsistency was caused, because the two approaches reflect different time scales. On a short time scale, the population may respond sensitively to rainfall. However, on a long time scale, or in a regional comparison, the response may be compensated or buffered by a variety of mechanisms. These may include behavioural or life history adaptations, shifts in the interactions with other species, or differences in the physical environment. The study implies that understanding, how such mechanisms work, and at what time scale they would follow climate change, is a crucial precondition for predicting ecological consequences of climate change. In the third part of the thesis, I tested why colony sizes of the sociable weaver are highly variable. The high variation of colony sizes is surprising, as in studies on coloniality it is often assumed that an optimal colony size exists, in which individual bird fitness is maximized. Following this assumption, the pattern of bird dispersal should keep colony sizes near an optimum. However, I showed by analysing data on reproductive success and survival that for the sociable weaver fitness in relation to colony size did not follow an optimum curve. Instead, positive and negative effects of living in large colonies overlaid each other in a way that fitness was generally close to one, and density dependence was low. I showed in a population model, which included an evolutionary optimisation process of dispersal that this specific shape of the fitness function could lead to a dispersal strategy, where the variation of colony sizes was maintained.
Strukturwandel der Verwaltung mit eGovernment : eine Untersuchung am Beispiel von Kreis und Gemeinde
(2005)
Die folgenden Fragen standen im Mittelpunkt der Dissertation: Wie handeln Grundschulkinder aus, wenn sie von ihren Peers ungerecht behandelt werden? Welche unmittelbaren Wirkungen hat ihr Vorgehen? In welchem Zusammenhang steht das Vorgehen in der Konfliktsituation mit der Stellung unter den Peers? Theoretische Grundlage waren die Entwicklungsmodelle zum Aushandeln von Yeates und Selman (1989) sowie Hawley (1999). Es nahmen 213 Dritt- und Fünftklässler an der Untersuchung teil. Eine Kombination qualitativer und quantitativer Methoden wurde verwendet. In einem individuellen Interview wurde erhoben, welche Taktiken (eine Handlungseinheit) sowie welche Strategien (Abfolge von Taktiken) die Kinder in einer hypothetischen Normbruchsituation einsetzen würden. Die Kinder wurden auch gefragt, welche unmittelbaren Wirkungen sie erwarten, wenn sie die vorgeschlagene Taktik einsetzen. Die Stellung der Kinder wurde sowohl bezüglich ihres Einflusses (Peerrating) als auch bezüglich ihrer Akzeptanz (Soziometrie) unter den Klassenkameraden erhoben. Die von den Kindern genannten Taktiken wurden vier übergeordneten Kategorien zugeordnet: Verhandeln, Erzwingen, Ausweichen und Aufgeben. Nach den Erwartungen der Kinder führen sowohl Verhandlungstaktiken als auch erzwingende Taktiken in um die Hälfte der Fälle zur Durchsetzung. Erzwingende Taktiken gehen jedoch häufig mit unfreundlichen Reaktionen einher. Einfluss und Akzeptanz der Kinder waren davon abhängig, welche Kombination und Sequenz von Taktiken (Strategie) sie wählten. Beispielsweise waren Kinder einflussreich und beliebt, die eine Reihe von Verhandlungstaktiken generierten oder die zunächst Verhandlungstaktiken vorschlugen und danach erzwingende Taktiken. Kinder, die sofort Zwang einsetzen würden, hatten wenig Einfluss und wurden abgelehnt. Außerdem fanden sich Geschlechts- und Altersunterschiede hinsichtlich des Vorgehens in der hypothetischen Normbruchsituation sowie der Zusammenhänge zwischen Taktiken und Stellung unter Peers.
In den letzten 20 Jahren hat sich der Maiszünsler (Ostrinia nubilalis HÜBNER), aus der Schmetterlingsfamilie der Pyralidae oder Zünsler, zum bedeutendsten tierischen Schädling des Maises (Zea mays) entwickelt. Eine Möglichkeit den Befall des Maiszünslers abzuwenden, bietet der Anbau von Bacillus thuringiensis-Mais (Bt-Mais). Mit Hilfe der Gentechnik wurden Gene des Bakteriums Bacillus thuringiensis übertragen, die einen für Fraßinsekten giftigen Wirkstoff bilden, wodurch die Pflanzen während der kompletten Vegetation vor den Larven des Maiszünslers geschützt sind. Ziel des vorliegenden Projektes war es, in einer 3-jährigen Studie die Auswirkungen des großflächigen Anbaus von Bt-Mais auf die ökologische Situation und den Handlungsrahmen des integrierten Pflanzenschutzes komplex zu untersuchen. Dazu wurden in Betrieben im Oderbruch, das als permanentes Befallsgebiet des Maiszünslers gilt, in den Jahren 2002 bis 2004 jährlich zwei Felder mit jeweils einer Bt-Sorte und einer konventionellen Sorte angelegt. Zusätzlich wurden biologische und chemische Maiszünsler-Bekämpfungsvarianten geprüft. Durch verschiedene Methoden wie Bonituren, Ganzpflanzenernten, Bodenfallenfänge und Beobachtungen des Wahlverhaltens von (Flug-)insekten konnten Aussagen zum Vorkommen von Insekten und Spinnentieren getroffen werden, wobei hierfür Daten aus Untersuchungen der Jahre 2000 und 2001 im Oderbruch ergänzend herangezogen werden konnten. Durch Ertragsmessungen, Energie- und Qualitätsermittlungen, sowie Fusarium- und Mykotoxinanalysen konnte der Anbau von Bt-Mais als neue Alternative zur Bekämpfung des Maiszünslers bewertet werden. Bezüglich des Auftretens von Insekten und Spinnentieren wurden im Mittel der fünfjährigen Datenerhebung beim Vergleich der Bt-Sorte zur konventionellen Sorte, mit Ausnahme der fast 100 %igen Bekämpfung des Maiszünslers, keine signifikanten Unterschiede festgestellt. Hierfür wurde ein besonderes Augenmerk auf Thripse, Wanzen, Blattläuse und deren Fraßfeinde, sowie mittels Bodenfallenfängen auf Laufkäfer und Spinnen gerichtet. Die erwarteten ökonomischen Vorteile wie etwa Ertragsplus oder bessere Nährstoff- und Energiegehalte durch geringeren Schaden beim Anbau von Bt-Mais als Silomais blieben in den Untersuchungsjahren aus. Allerdings zeigten Fusarium- und Mykotoxinanalysen eine geringere Belastung des Bt-Maises, was möglicherweise auf den geringeren Schaden zurückzuführen ist, da beschädigte Pflanzen für Fusarium und Mykotoxine anfälliger sind. Desweiteren konnten erste methodische Ansätze für ein auf EU-Ebene gefordertes, den Anbau von Bt-Mais begleitendes Monitoring, erarbeitet werden. So konnten Vorschläge für geeignete Methoden, deren Umfang sowie des Zeitpunktes der Durchführungen gemacht werden.
Die Honigbiene Apis mellifera gilt seit langem als Modell-Organismus zur Untersuchung von Lern- und Gedächtnisvorgängen sowie zum Studium des Sozialverhaltens und der Arbeitsteilung. Bei der Steuerung und Regulation dieser Verhaltensweisen spielt das Indolalkylamin Serotonin eine wesentliche Rolle. Serotonin entfaltet seine Wirkung durch die Bindung an G-Protein-gekoppelte Rezeptoren (GPCRs). In der vorliegenden Arbeit wird der erste Serotonin-Rezeptor aus der Honigbiene molekular charakterisiert. Durch die Anwendung zwei verschiedener Klonierungsstrategien konnten drei cDNA-Sequenzen isoliert werden, die für potentielle Serotonin-Rezeptoren kodieren. Die Sequenzen weisen die größte Ähnlichkeit zu dem 5-HT7- und 5-HT2-Rezeptor von Drosophila melanogaster bzw. dem 5-HT1-Rezeptor von Panulirus interruptus auf. Die isolierten Serotonin-Rezeptoren der Honigbiene wurden dementsprechend Am(Apis mellifera)5-HT1, Am5-HT2 und Am5-HT7 benannt. Das Hydropathieprofil des Am5-HT1-, Am5-HT2- und Am5-HT7-Rezeptors deutet auf das Vorhandensein des charakteristischen heptahelikalen Aufbaus G-Protein-gekoppelter Rezeptoren hin. Die abgeleiteten Aminosäuresequenzen zeigen typische Merkmale biogener Amin-Rezeptoren. Aminosäuren, die eine Bedeutung bei der Bildung der Liganden-Bindungstasche, der Rezeptor-Aktivierung und der Kopplung eines G-Proteins an den Rezeptor haben, sind in allen drei Rezeptoren konserviert. Interessanterweise ist jedoch das in den meisten biogenen Amin-Rezeptoren vorhandene DRY-Motiv in dem Am5-HT2- und Am5-HT7-Rezeptor nicht konserviert. Das Vorhandensein einer PDZ-Domäne in dem Am5-HT1- und Am5-HT7-Rezeptor lässt vermuten, dass diese Rezeptoren als Adapterproteine fungieren, die Signalmoleküle zu einem Signaltransduktionskomplex vereinigen. RT-PCR-Experimente zeigen die Expression der Rezeptoren in verschiedenen Geweben der Honigbiene. Auffallend ist die hohe Expression im Zentralgehirn. Des Weiteren konnte die Expression der Serotonin-Rezeptoren in den optischen Loben, Antennalloben sowie in der Peripherie, d.h. in der Flugmuskulatur und den Malpighischen Gefäßen nachgewiesen werden. Durch in situ Hybridisierungen wurde die Expression in Gefrierschnitten von Gehirnen adulter Sammlerinnen im Detail untersucht. Transkripte der Rezeptoren sind in den Somata von intrinsischen Pilzkörperzellen, Neuronen der optischen Loben und Neuronen der Antennalloben vorhanden. In einem heterologen Expressionssystem wurde der intrazelluläre Signalweg des Am5-HT7-Rezeptors untersucht. Die Aktivierung des stabil exprimierten Rezeptors durch Serotonin führt zur Bildung von cAMP. Der 5-HT7-Rezeptor spezifische Agonist 5-CT zeigt eine mit Serotonin vergleichbare Fähigkeit, die intrazelluläre cAMP-Konzentration zu erhöhen. Am5-HT7 gehört daher funktionell zu der Gruppe der 5-HT7-Rezeptoren. Der EC50-Wert von 1,06~nM (5-HT), ist im Vergleich zu anderen 5-HT7-Rezeptoren äußert niedrig. Des Weiteren wurde gezeigt, dass das basale cAMP-Niveau in den transfizierten Zellen im Vergleich zu nicht transfizierten Zellen deutlich erhöht ist. Das heißt, dass der Rezeptor auch in der Abwesenheit eines Liganden aktiv ist. Diese konstitutive Aktivität ist auch von anderen biogenen Amin-Rezeptoren bekannt. Methiothepin wurde als wirksamer inverser Agonist des Am5-HT7-Rezeptors identifiziert, da es in der Lage ist, der konstitutiven Aktivität entgegenzuwirken. Die Ergebnisse der vorliegenden Arbeit deuten darauf hin, dass die Serotonin-Rezeptoren in verschiedenen Regionen des ZNS der Honigbiene an der Informationsverarbeitung beteiligt sind. Es kann eine Beeinflussung von Lern- und Gedächtnisprozessen sowie des olfaktorischen und visuellen Systems durch diese Rezeptoren vermutet werden. Mit der Klonierung und funktionellen Charakterisierung des ersten Serotonin-Rezeptors der Honigbiene ist eine Grundlage für die Untersuchung der molekularen Mechanismen der serotonergen Signaltransduktion geschaffen worden.
On the Equi-Constistency of the failure of the GAP-1 transfer property and an inaccessible cardinal
(2005)
The protection of species is one major focus in conservation biology. The basis for any management concept is the knowledge of the species autecology. In my thesis, I studied the life-history traits and population dynamics of the endangered Lesser Spotted Woodpecker (Picoides minor) in Central Europe. Here, I combine a range of approaches, from empirical investigations of a Lesser Spotted Woodpecker population in the Taunus low mountain range in Germany, the analysis of empirical data and the development of an individual-based stochastic model simulating the population dynamics. In the field studies I collected basic demographic data of reproductive success and mortality. Moreover, breeding biology and behaviour were investigated in detail. My results showed a significant decrease of the reproductive success with later timing of breeding, caused by deterioration in food supply. Moreover, mate fidelity was of benefit, since pairs composed of individuals that bred together the previous year started earlier with egg laying and obtained a higher reproductive success. Both sexes were involved in parental care, but the care was only shared equally during incubation and the early nestling stage. In the late nestling stage, parental care strategies differed between sexes: Females considerably decreased feeding rate with number of nestlings and even completely deserted small broods. Males fed their nestlings irrespective of brood size and compensated for the females absence. The organisation of parental care in the Lesser Spotted Woodpecker is discussed to provide the possibility for females to mate with two males with separate nests and indeed, polyandry was confirmed. To investigate the influence of the observed flexibility in the social mating system on the population persistence, a stochastic individual-based model simulating the population dynamics of the Lesser Spotted Woodpecker was developed, based on empirical results. However, pre-breeding survival rates could not be obtained empirically and I present in this thesis a pattern-oriented modelling approach to estimate pre-breeding survival rates by comparing simulation results with empirical pattern of population structure and reproductive success on population level. Here, I estimated the pre-breeding survival for two Lesser Spotted Woodpecker populations on different latitudes to test the reliability of the results. Finally, I used the same simulation model to investigate the effect of flexibility in the mating system on the persistence of the population. With increasing rate of polyandry in the population, the persistence increased and even low rates of polyandry had a strong influence. Even when presuming only a low polyandry rate and costs of polyandry in terms of higher mortality and lower reproductive success for the secondary male, the positive effect of polyandry on the persistence of the population was still strong. This thesis greatly helped to increase the knowledge of the autecology of an endangered woodpecker species. Beyond the relevance for the species, I could demonstrate here that in general flexibility in mating systems are buffer mechanisms and reduce the impact of environmental and demographic noise.
Mit zunehmender Komplexität technischer Softwaresysteme ist die Nachfrage an produktiveren Methoden und Werkzeugen auch im sicherheitskritischen Umfeld gewachsen. Da insbesondere objektorientierte und modellbasierte Ansätze und Methoden ausgezeichnete Eigenschaften zur Entwicklung großer und komplexer Systeme besitzen, ist zu erwarten, dass diese in naher Zukunft selbst bis in sicherheitskritische Bereiche der Softwareentwicklung vordringen. Mit der Unified Modeling Language Real-Time (UML-RT) wird eine Softwareentwicklungsmethode für technische Systeme durch die Object Management Group (OMG) propagiert. Für den praktischen Einsatz im technischen und sicherheitskritischen Umfeld muss diese Methode nicht nur bestimmte technische Eigenschaften, beispielsweise temporale Analysierbarkeit, besitzen, sondern auch in einen bestehenden Qualitätssicherungsprozess integrierbar sein. Ein wichtiger Aspekt der Integration der UML-RT in ein qualitätsorientiertes Prozessmodell, beispielsweise in das V-Modell, ist die Verfügbarkeit von ausgereiften Konzepten und Methoden für einen systematischen Modultest. Der Modultest dient als erste Qualititätssicherungsphase nach der Implementierung der Fehlerfindung und dem Qualitätsnachweis für jede separat prüfbare Softwarekomponente eines Systems. Während dieser Phase stellt die Durchführung von systematischen Tests die wichtigste Qualitätssicherungsmaßnahme dar. Während zum jetzigen Zeitpunkt zwar ausgereifte Methoden und Werkzeuge für die modellbasierte Softwareentwicklung zur Verfügung stehen, existieren nur wenig überzeugende Lösungen für eine systematische modellbasierte Modulprüfung. Die durchgängige Verwendung ausführbarer Modelle und Codegenerierung stellen wesentliche Konzepte der modellbasierten Softwareentwicklung dar. Sie dienen der konstruktiven Fehlerreduktion durch Automatisierung ansonsten fehlerträchtiger, manueller Vorgänge. Im Rahmen einer modellbasierten Qualitätssicherung sollten diese Konzepte konsequenterweise in die späteren Qualitätssicherungsphasen transportiert werden. Daher ist eine wesentliche Forderung an ein Verfahren zur modellbasierten Modulprüfung ein möglichst hoher Grad an Automatisierung. In aktuellen Entwicklungen hat sich für die Generierung von Testfällen auf Basis von Zustandsautomaten die Verwendung von Model Checking als effiziente und an die vielfältigsten Testprobleme anpassbare Methode bewährt. Der Ansatz des Model Checking stammt ursprünglich aus dem Entwurf von Kommunikationsprotokollen und wurde bereits erfolgreich auf verschiedene Probleme der Modellierung technischer Software angewendet. Insbesondere in der Gegenwart ausführbarer, automatenbasierter Modelle erscheint die Verwendung von Model Checking sinnvoll, das die Existenz einer formalen, zustandsbasierten Spezifikation voraussetzt. Ein ausführbares, zustandsbasiertes Modell erfüllt diese Anforderungen in der Regel. Aus diesen Gründen ist die Wahl eines Model Checking Ansatzes für die Generierung von Testfällen im Rahmen eines modellbasierten Modultestverfahrens eine logische Konsequenz. Obwohl in der aktuellen Spezifikation der UML-RT keine eindeutigen Aussagen über den zur Verhaltensbeschreibung zu verwendenden Formalismus gemacht werden, ist es wahrscheinlich, dass es sich bei der UML-RT um eine zu Real-Time Object-Oriented Modeling (ROOM) kompatible Methode handelt. Alle in dieser Arbeit präsentierten Methoden und Ergebnisse sind somit auf die kommende UML-RT übertragbar und von sehr aktueller Bedeutung. Aus den genannten Gründen verfolgt diese Arbeit das Ziel, die analytische Qualitätssicherung in der modellbasierten Softwareentwicklung mittels einer modellbasierten Methode für den Modultest zu verbessern. Zu diesem Zweck wird eine neuartige Testmethode präsentiert, die auf automatenbasierten Verhaltensmodellen und CTL Model Checking basiert. Die Testfallgenerierung kann weitgehend automatisch erfolgen, um Fehler durch menschlichen Einfluss auszuschließen. Das entwickelte Modultestverfahren ist in die technischen Konzepte Model Driven Architecture und ROOM, beziehungsweise UML-RT, sowie in die organisatorischen Konzepte eines qualitätsorientierten Prozessmodells, beispielsweise das V-Modell, integrierbar.
Auf der Grundlage psycholinguistischer, deutsch-didaktischer und linguistischer Forschungsergebnisse wurde ein Lesetraining auf Silbenbasis entwickelt, in dem Kindern mit Leseschwierigkeiten explizit Strategien zur visuellen Gliederung von Wörtern in größere funktionale Einheiten (Silben, einzelne Wörter (bei Zusammensetzungen), Präfixe) vermittelt werden. Es wird davon ausgegangen, dass Kinder mit Leseschwierigkeiten Wörter in zu kleinen linguistischen Einheiten erlesen. Das Training basiert linguistisch auf der Schreibsilbe als funktionaler Einheit beim Lesen. Basis des Lesetrainings ist ein von Scheerer-Neumann (1981) durchgeführtes Training zur Verbesserung der Lesegenauigkeit von Grundschulkindern. Die empirische Überprüfung des Lesetrainings hatte zum einen das Ziel, die Wirksamkeit des Trainingsprogramms als solches zu überprüfen und zum anderen, ob das Training zu einer deutlich verbesserten Lesegeschwindigkeit und -genauigkeit bei Grundschulkindern der 3. und 4. Klassen führt. Das Training wurde von der Autorin ohne den Einsatz von Hilfskräften mit einer relativ kleinen Zahl von Kindern (N=11) durchgeführt, um so intensiv auf die Bedürfnisse der einzelnen Kinder eingehen und gegebenenfalls flexibel reagieren zu können. Aus organisatorischen und ethischen Gründen wurde auf eine Kontrollgruppe verzichtet. Die Wirksamkeit des Trainings wurde als Prätest-Training-Posttest-Follow-up Test-Design überprüft. Das Training umfasst 18 Einheiten (je 45 Minuten) und fand zweimal wöchentlich statt. Trainingsgruppen bestanden aus einer Dreiergruppe und einer Zweiergruppe; die anderen sechs Kinder wurden einzeln trainiert. Der Posttest nach Abschluss des Trainings zeigte deutliche Verbesserungen der Lesegeschwindigkeit und -genauigkeit, die zum Teil auch signifikant waren. Der Follow-up Test drei Monate nach Ende des Trainings zeigte weitere Verbesserungen, die ebenfalls zum Teil signifikant waren. Die Befunde sprechen dafür, dass das Trainingsprogramm geeignet ist, die Lesefähigkeit von leseschwachen Grundschulkindern der dritten und vierten Klasse zu verbessern. Die Teilnehmerzahl ist allerdings relativ gering, so dass die Ergebnisse nicht ohne weiteres auf die allgemeine Population von Kindern mit Leseschwierigkeiten übertragen werden können. Eine erneute Durchführung des Trainingsprogramms mit einer größeren Stichprobe und einer parallelisierten Kontrollgruppe, bei der die Kinder der Experimentalgruppe in größeren Gruppen trainiert werden, erscheint deshalb sinnvoll.
Homocystein (tHcy) gilt als unabhängiger kardiovaskulärer Risikofaktor und korreliert eng mit einer endothelialen Dysfunktion, welche nichtinvasiv mittels der flussinduzierten Vasodilatation (FMD) messbar ist. Experimentelle Hyperhomocysteinämie ist mit einer reduzierten Bioverfügbarkeit von endothelialen Stickstoffmonoxid (NO) bei gleichzeitig erhöhten Spiegeln des kompetetiven Inhibitors der NO-Biosynthese asymmetrisches Dimethylarginin (ADMA) assoziiert. In-vivo senkt eine Östrogenbehandlung neben tHcy auch die ADMA-Spiegel und verbessert signifikant die Endothelfunktion. Hinsichtlich ihrer Wirkung als selektive Östrogenrezeptormodulatoren wird angenommen, dass Phytoöstrogene, speziell Sojaisoflavone, ähnliche Effekte hervorrufen. Innerhalb einer europäischen, multizentrischen, doppelblinden Interventionsstudie an 89 gesunden, postmenopausalen Frauen wurde der Einfluss von Sojaisoflavonen auf den Homocysteinmetabolismus, den Blutdruck und die in-vivo Endothelfunktion untersucht. Die cross-over Studie umfasste zwei achtwöchige Interventionsperioden, die von einer gleichlangen Wash-out-Phase unterbrochen waren. Die Zuteilung zum Isoflavon- (50 mg/d) oder Plazeboregime für die erste Interventionsphase erfolgte randomisiert. Endpunkterhebungen fanden jeweils in den Wochen 0 und 8 der Interventionsperioden statt. Die renale Ausscheidung von Genistein, Daidzein und Equol war während der Isoflavonintervention signifikant erhöht (P>0,001). Die Phyoöstrogene hatten weder einen Effekt auf die tHcy-Konzentration (P=0,286), noch auf ADMA, Erythrozytenfolat und Vitamin B-12 (P>0,05) im Plasma. Während die Summe aus Nitrat und Nitrit (NOx), welche die NO-Bioverfügbarkeit reflektiert, im Verlaufe der Plazebobehandlung abfiel, wurde ein leichter Anstieg bei der Isoflavonsupplementation beobachtet (Delta Wo8-Wo0: -2,60 [-8,75; 2,25] vs. 1,00 [-6,65; 7,85] µmol/L P<0,001), was zu einem signifikanten Behandlungseffekt führte. Weiterhin wurde eine positive Korrelation zwischen ADMA und Vitamin B-12 gefunden (R=0,252; P=0,018). Die flussinduzierte Vasodilatation (P=0,716), ein Maß für die Endothelfunktion, blieb durch die Isoflavonbehandlung unbeeinflusst, obwohl sich diese über die Zeit insgesamt verbesserte (P>0,001). Bis auf einen marginalen Anstieg des systolischen Wertes (P=0,032) im Vergleich zur Plazebobehandlung blieb der Blutdruck während der Isoflavonintervention unverändert. Im Gegensatz zu Östrogen übten Sojaisoflavone weder einen Einfluss auf die in-vivo Endothelfunktion noch auf die traditionellen und neuen kardiovaskulären Risikofaktoren den Blutdruck, tHcy und ADMA aus. Demzufolge ist der gesundheitliche Nutzen isolierter Isoflavone hinsichtlich einer Prävention hormonmangelbedingter Erkrankungen in gesunden postmenopausalen Frauen fraglich.
Kunst, Wahrheit und Gefühl : Schelling, Hegel und die Ästhetik des angselsächsichen Idealismus
(2005)
Long-Term Impact of grazing on vegetation under stochastic climate : a cross-scale simulation study
(2005)
Bankenstrukturen und Systemrisiken : eine ökonomische Analyse Russlands im internationalen Vergleich
(2005)
M-solid Pseudovarieties
(2005)
During this PhD project three technical platforms were either improved or newly established in order to identify interesting genes involved in SNF, validate their expression and functionally characterise them. An existing 5.6K cDNA array (Colebatch et al., 2004) was extended to produce the 9.6K LjNEST array, while a second array, the 11.6K LjKDRI array, was also produced. Furthermore, the protocol for array hybridisation was substantially improved (Ott et al., in press). After functional classification of all clones according to the MIPS database and annotation of their corresponding tentative consensus sequence (TIGR) these cDNA arrays were used by several international collaborators and by our group (Krusell et al., 2005; in press). To confirm results obtained from the cDNA array analysis different sets of cDNA pools were generated that facilitate rapid qRT-PCR analysis of candidate gene expression. As stable transformation of Lotus japonicus takes several months, an Agrobacterium rhizogenes transformation system was established in the lab and growth conditions for screening transformants for symbiotic phenotypes were improved. These platforms enable us to identify genes, validate their expression and functionally characterise them in the minimum of time. The resources that I helped to establish, were used in collaboration with other people to characterise several genes like the potassium transporter LjKup and the sulphate transporter LjSst1, that were transcriptionally induced in nodules compared to uninfected roots, in more detail (Desbrosses et al., 2004; Krusell et al., 2005). Another gene that was studied in detail was LjAox1. This gene was identified during cDNA array experiments and detailed expression analysis revealed a strong and early induction of the gene during nodulation with high expression in young nodules which declines with the age of the nodule. Therefore, LjAox1 is an early nodulin. Promoter:gus fusions revealed an LjAox1 expression around the nodule endodermis. The physiological role of LjAox1 is currently being persued via RNAi. Using RNA interference, the synthesis of all symbiotic leghemoglobins was silenced simultaneously in Lotus japonicus. As a result, growth of LbRNAi lines was severely inhibited compared to wild-type plants when plants were grown under symbiotic conditions in the absence of mineral nitrogen. The nodules of these plants were arrested in growth 14 post inoculation and lacked the characteristic pinkish colour. Growing these transgenic plants in conditions where reduced nitrogen is available for the plant led to normal plant growth and development. This demonstrates that leghemoglobins are not required for plant development per se, and proves for the first time that leghemoglobins are indispensable for symbiotic nitrogen fixation. Absence of leghemoglobins in LbRNAi nodules led to significant increases in free-oxygen concentrations throughout the nodules, a decrease in energy status as reflected by the ATP/ADP ratio, and an absence of the bacterial nitrogenase protein. The bacterial population within nodules of LbRNAi plants was slightly reduced. Alterations of plant nitrogen and carbon metabolism in LbRNAi nodules was reflected in changes in amino acid composition and starch deposition (Ott et al., 2005). These data provide strong evidence that nodule leghemoglobins function as oxygen transporters that facilitate high flux rates of oxygen to the sites of respiration at low free oxygen concentrations within the infected cells.
To investigate eye-movement control in reading, the present thesis examined three phenomena related to the eyes’ landing position within words, (1) the optimal viewing position (OVP), (2) the preferred viewing location (PVL), and (3) the Fixation-Duration Inverted-Optimal Viewing Position (IOVP) Effect. Based on a corpus-analytical approach (Exp. 1), the influence of variables word length, launch site distance, and word frequency was systematically explored. In addition, five experimental manipulations were conducted. First, word center was identified as the OVP, that is the position within a word where refixation probability is minimal. With increasing launch site distance, however, the OVP was found to move towards the word beginning. Several possible causes of refixations were discussed. The issue of refixation saccade programming was extensively investigated, suggesting that pre-planned and directly controlled refixation saccades coexist. Second, PVL curves, that is landing position distributions, show that the eyes are systematically deviated from the OVP, due to visuomotor constraints. By far the largest influence on mean and standard deviation of the Gaussian PVL curve was exhibited by launch site distance. Third, it was investigated how fixation durations vary as a function of landing position. The IOVP effect was replicated: Fixations located at word center are longer than those falling near the edges of a word. The effect of word frequency and/or launch site distance on the IOVP function mainly consisted in a vertical displacement of the curve. The Fixation-Duration IOVP effect is intriguing because word center (the OVP) would appear to be the best place to fixate and process a word. A critical part of the current work was devoted to investigate the origin of the effect. It was suggested that the IOVP effect arises as a consequence of mislocated fixations, i.e. fixations on unintended words, which are caused by saccadic errors. An algorithm for estimating the proportion of mislocated fixations from empirical data was developed, based on extrapolations of landing position distributions beyond word boundaries. As a new central theoretical claim it was suggested that a new saccade program is started immediately if the intended target word is missed. On average, this will lead to decreased durations for mislocated fixations. Because mislocated fixations were shown to be most prevalent at the beginning and end of words, the proposed mechanism generated the inverted U-shape for fixation durations when computed as a function of landing position. The proposed mechanism for generating the effect is generally compatible with both oculomotor and cognitive models of eye-movement control in reading.
Reversible addition-fragmentation transfer (RAFT) was used as a controlling technique for studying the aqueous heterophase polymerization. The polymerization rates obtained by calorimetric investigation of ab initio emulsion polymerization of styrene revealed the strong influence of the type and combination of the RAFT agent and initiator on the polymerization rate and its profile. The studies in all-glass reactors on the evolution of the characteristic data such as average molecular weight, molecular weight distribution, and average particle size during the polymerization revealed the importance of the peculiarities of the heterophase system such as compartmentalization, swelling, and phase transfer. These results illustrated the important role of the water solubility of the initiator in determining the main loci of polymerization and the crucial role of the hydrophobicity of the RAFT agent for efficient transportation to the polymer particles. For an optimum control during ab-initio batch heterophase polymerization of styrene with RAFT, the RAFT agent must have certain hydrophilicity and the initiator must be water soluble in order to minimize reactions in the monomer phase. An analytical method was developed for the quantitative measurements of the sorption of the RAFT agents to the polymer particles based on the absorption of the visible light by the RAFT agent. Polymer nanoparticles, temperature, and stirring were employed to simulate the conditions of a typical aqueous heterophase polymerization system. The results confirmed the role of the hydrophilicity of the RAFT agent on the effectiveness of the control due to its fast transportation to the polymer particles during the initial period of polymerization after particle nucleation. As the presence of the polymer particles were essential for the transportation of the RAFT agents into the polymer dispersion, it was concluded that in an ab initio emulsion polymerization the transport of the hydrophobic RAFT agent only takes place after the nucleation and formation of the polymer particles. While the polymerization proceeds and the particles grow the rate of the transportation of the RAFT agent increases with conversion until the free monomer phase disappears. The degradation of the RAFT agent by addition of KPS initiator revealed unambigueous evidence on the mechanism of entry in heterophase polymerization. These results showed that even extremely hydrophilic primary radicals, such as sulfate ion radical stemming from the KPS initiator, can enter the polymer particles without necessarily having propagated and reached a certain chain length. Moreover, these results recommend the employment of azo-initiators instead of persulfates for the application in seeded heterophase polymerization with RAFT agents. The significant slower rate of transportation of the RAFT agent to the polymer particles when its solvent (styrene) was replaced with a more hydrophilic monomer (methyl methacrylate) lead to the conclusion that a complicated cooperative and competitive interplay of solubility parameters and interaction parameter with the particles exist, determining an effective transportation of the organic molecules to the polymer particles through the aqueous phase. The choice of proper solutions of even the most hydrophobic organic molecules can provide the opportunity of their sorption into the polymer particles. Examples to support this idea were given by loading the extremely stiff fluorescent molecule, pentacene, and very hydrophobic dye, Sudan IV, into the polymer particles. Finally, the first application of RAFT at room temperature heterophase polymerization is reported. The results show that the RAFT process is effective at ambient temperature; however, the rate of fragmentation is significantly slower. The elevation of the reaction temperature in the presence of the RAFT agent resulted in faster polymerization and higher molar mass, suggesting that the fragmentation rate coefficient and its dependence on the temperature is responsible for the observed retardation.
Arabidopsis thaliana trichomes exhibit strong birefringence under polarized light, a characteristic of cell walls containing large amounts of highly ordered cellulose microfibrils. The tbr1 mutant of Arabidopsis lacks trichome birefringence and is deficient in secondary cell wall cellulose synthesis (Potikha and Delmer, 1995). The TBR gene was identified by recombinational mapping, candidate gene sequencing and molecular complementation using genomic cosmid clones, as well as a p35S:TBR genomic DNA construct, fully rescuing the mutant phenotype in both cases. The only mutant allele available (tbr-1) carries a substitution (G to E) in a conserved aminoacid domain of the protein. TBR gene structure was proved to have a longer size than the one found to be annotated at the time of identification in the data-base. A full cDNA clone containing the full transcript was available and also complementation experiments using different gene fragments (annotated and suggested) leaded to the result that TBR gene is indeed, longer. TBR encodes a novel plant-specific protein with predicted plasma membrane localization, therefore being consistent with idea that is required for-, or is a novel component of a functional cellulose synthase complex. TBR is part of an Arabidopsis gene/protein family, (TBL-trichome birefringence like) which, depending on homology, comprises up to 20 members, none of which has a biological or biochemical function attributed. T-DNA insertion lines in TBR gene and two close homologues have been screened by PCR, but no homozygous were found and no trichomes phenotype was identified. Promoter-GUS lines were produced for TBR, as well as for its two closest homologues (one being a segmentally duplicated gene on chromosome III), using 1.6-2 kb of promoter sequence upstream of the annotated start codons. The TBR promoter was the only one of the three that yielded trichome expression, this probably explaining the phenotype of the TBR mutant. Moreover, TBR is expressed in leaves, in growing lateral roots, and in vascular tissues of young Arabidopsis seedlings and plantlets. Later on, the expression appears in inflorescens, stems, flowers and green siliques. This expression pattern is largely overlapping with those of the two analyzed homologues and it corresponds with data of RT-PCR expression profiling performed for TBR and the two analyzed homologues in different tissues, at different developmental stages. Biochemical analysis of cell wall (leaves and trichomes), as GC and MALDI-TOF, were performed, but revealed no major differences between tbr1 and wild type plants. Scanning electron microscopy analysis and cell wall polysaccharides antibody labeling showed a clear difference in the trichomes cell wall structure between mutant plant and wild type.
Real-Time-Non-Photorealistic rendering techniques for illustrating 3D scenes and their dynamics
(2005)
Besiedlung naturnaher Wälder unterschiedlicher Isolation durch Tiergruppen verschiedener Mobilität
(2005)
Die Dissertation stellt eine neue Herangehensweise an die Lösung der Aufgabe der funktionalen Diagnostik digitaler Systeme vor. In dieser Arbeit wird eine neue Methode für die Fehlererkennung vorgeschlagen, basierend auf der Logischen Ergänzung und der Verwendung von Berger-Codes und dem 1-aus-3 Code. Die neue Fehlererkennungsmethode der Logischen Ergänzung gestattet einen hohen Optimierungsgrad der benötigten Realisationsfläche der konstruierten Fehlererkennungsschaltungen. Außerdem ist eins der wichtigen in dieser Dissertation gelösten Probleme die Synthese vollständig selbstprüfender Schaltungen.
Vlijanie solneécnoj aktivnosti na prozraécnost§ atmosfery i optiéceskie svojstva açerozolja
(2005)
Subduction zones are regions of intense earthquake activity up to great depth. Sources are located inside the subducting lithosphere and, as a consequence, seismic radiation from subduction zone earthquakes is strongly affected by the interior slab structure. The wave field of these intraslab events observed in the forearc region is profoundly influenced by a seismically slow layer atop the slab surface. This several kilometer thick low-velocity channel (wave guide) causes the entrapment of seismic energy producing strong guided wave phases that appear in P onsets in certain regions of the forearc. Observations at the Chile-Peru subduction zone presented here, as well as observations at several other circum-pacific subduction zones show such signals. Guided wave analysis contributes details of immense value regarding the processes near the slab surface, such as layering of subducted lithosphere, source locations of intraslab seismicity and most of all, range and manner of mineralogical phase transitions. Seismological data stem from intermediate depth events (depth range 70 km - 300 km) recorded in northern Chile near 21 Grad S during the collaborative research initiative " Deformation Processes in the Andes" (SFB 267). A subset of stations - all located within a slab-parallel transect close to 69 Grad W - show low-frequency first arrivals (2 Hz), sometimes followed by a second high-frequency phase. We employ 2-dimensional finite-difference simulations of complete P-SV wave propagation to explore the parameter space of subduction zone wave guides and explain the observations. Key processes underlying the guided wave propagation are studied: Two distinct mechanisms of decoupling of trapped energy from the wave guide are analyzed - a prerequisite to observe the phases at stations located at large distances from the wave guide (up to 100 km). Variations of guided wave effects perpendicular to the strike of the subduction zone are investigated, such as the influence of phases traveling in the fast slab. Further, the merits and limits of guided wave analysis are assessed. Frequency spectra of the guided wave onsets prove to be a robust quantity that captures guided wave characteristics at subduction zones including higher mode excitation. They facilitate the inference of wave guide structure and source positioning: The peak frequency of the guided wave fundamental mode is associated with a certain combination of layer width and velocity contrast. The excitation strength of the guided wave fundamental mode and higher modes is associated with source position and orientation relative to the low-velocity layer. The guided wave signals at the Chile-Peru subduction zone are caused by energy that leaks from the subduction zone wave guide. On the one hand, the bend shape of the slab allows for leakage at a depth of 100 km. On the other, equalization of velocities between the wave guide and the host rocks causes further energy leakage at the contact zone between continental and oceanic crust (70 km depth). Guided waves bearing information on deep slab structure can therefore be recorded at specific regions in the forearc. These regions are determined based on slab geometry, and their locations coincide with the observations. A number of strong constraints on the structure of the Chile-Peru slab are inferred: The deep wave guide for intraslab events is formed by a layer of 2 km average width that remains seismically slow (7 percent velocity reduction compared to surrounding mantle). This low-velocity layer at the top of the Chile-Peru slab is imaged from a depth of 100 km down to at least 160 km. Intermediate depth events causing the observed phases are located inside the layer or directly beneath it in the slab mantle. The layer is interpreted as partially eclogized lower oceanic crust persisting to depth beyond the volcanic arc.
Bei konventionellen Mikroarray-Experimenten zur Genexpressionsanalyse wird fluoreszenz- oder radioaktiv-markierte cDNA oder RNA mit immobilisierten Proben hybridisiert. Für ein gut detektierbares und auswertbares Ergebnis werden jedoch pro Array mindestens 15 - 20 µg Hybridisierungstarget benötigt. Dazu müssen entweder 15 - 20 µg RNA direkt durch Reverse Transkription in markierte cDNA umgeschrieben werden oder bei Vorhandensein von weniger Startmaterial die RNA amplifiziert werden (Standard- Affymetrix-Protokolle, Klur et al. 2004). Oft sind damit zeit- und kostenintensive Probenpräparationen verbunden und das Ergebnis ist nicht immer reproduzierbar. Obwohl es inzwischen einige Protokolle gibt, die dieses Problem zu lösen versuchen (Zhang et al. 2001, Iscove et al. 2002, McClintick et al. 2003, Stirewalt et al. 2004), eine optimale, leicht handbare und reproduzierbare Methode gibt es weiterhin nicht, weshalb in dieser Arbeit ein weiterer Lösungsansatz gesucht wurde. In der vorgestellten Arbeit werden zwei einfache Methoden beschrieben, mit denen Gene aus geringen RNA-Mengen nachgewiesen werden können: erstens die On Chip- RT-PCR mit cDNA als Matrize und zweitens diese Methode als One-Step-Reaktion mit RNA als Matrize. Beide Methoden beruhen auf dem Prinzip der PCR an immobilisierten Primern auf einer Chipoberfläche. Diese Möglichkeit der exponentiellen Amplifikation ist reproduzierbar und sensitiv. In Experimenten zur Etablierung des On-Chip-PCR-Systems wurden für die Immobilisierung der Primer verschiedene Kopplungsmethoden verwendet. Die affine Kopplung über Biotin- Streptavidin erwies sich als geeignet. Die On-Chip-Reaktion an kovalent gebundenen Primern wurde für amino-modifizierte Primer auf Epoxy-Oberflächen sowie für EDC-Kopplung auf silanisierten Oberflächen gezeigt. Für die letztgenannte Methode wurde die On-Chip-PCR optimiert, dass Spottingkonzentrationen der Primer von 5 - 10µM schon ausreichend sind. Der Einsatz von fluoreszenz-markierten Primern während der PCR ermöglicht eine unmittelbare Auswertung nach der Synthese ohne zusätzliche Detektionsschritte. In dieser Arbeit konnte außerdem mit der vorgestellten Methode der simultane Nachweis zweier Gene gezeigt werden. Die Methode kann noch als Multiplex-Analyse ausgebaut werden, um so mehrere Gene in gleichzeitig einem Ansatz nachweisen zu können. Die Ergebnisse der Versuche mit Matrizen aus unterschiedlichen Zelltypen deuten darauf hin, dass die On-Chip-RT-PCR eine weitere optimale Methode für den Nachweis von gering exprimierten Genen bietet.
The interactions between peptides and lipids are of fundamental importance in the functioning of numerous membrane-mediated biochemical processes including antimicrobial peptide action, hormone-receptor interactions, drug bioavailability across the blood-brain barrier and viral fusion processes. Alteration of peptide structure could be a cause of many diseases. Biological membranes are complex systems, therefore simplified models may be introduced in order to understand processes occurring in nature. The lipid monolayers at the air/water interface are suitable model systems to mimic biological membranes since many parameters can be easily controlled. In the present work the lipid monolayers were used as a model membrane and their interactions with two different peptides B18 and Amyloid beta (1-40) peptide were investigated. B18 is a synthetic peptide that binds to lipid membranes that leads to the membrane fusion. It was demonstrated that it adopts different structures in the aqueous solutions and in the membrane interior. It is unstructured in solutions and forms alpha-helix at the air/water interface or in the membrane bound state. The peptide has affinity to the negatively charged lipids and even can fold into beta-sheet structure in the vicinity of charged membranes at high peptide to lipid ratio. It was elucidated that in the absence of electrostatic interactions B18 does not influence on the lipid structure, whereas it provides partial liquidization of the negatively charged lipids. The understanding of mechanism of the peptide action in model system may help to develop the new type of antimicrobial peptides as well as it can shed light on the general mechanisms of peptide/membrane binding. The other studied peptide - Amyloid beta (1-40) peptide, which is the major component of amyloid plaques found in the brain of patients with Alzheimer's disease. Normally the peptide is soluble and is not toxic. During aging or as a result of the disease it aggregates and shows a pronounced neurotoxicity. The peptide aggregation involves the conformational transition from a random coil or alpha-helix to beta-sheets. Recently it was demonstrated that the membrane can play a crucial role for the peptide aggregation and even more the peptide can cause the change in the cell membranes that leads to a neuron death. In the present studies the structure of the membrane bound Amyloid beta peptide was elucidated. It was found that the peptide adopts the beta-sheet structure at the air/water interface or being adsorbed on lipid monolayers, while it can form alpha-helical structure in the presence of the negatively charged vesicles. The difference between the monolayer system and the bulk system with vesicles is the peptide to lipid ratio. The peptide adopts the helical structure at low peptide to lipid ratio and folds into beta-sheet at high ratio. Apparently, Abeta peptide accumulation in the brain is concentration driven. Increasing concentration leads to a change in the lipid to peptide ratio that induces the beta-sheet formation. The negatively charged lipids can act as seeds in the plaque formation, the peptide accumulates on the membrane and when the peptide to lipid ratio increases it the peptide forms toxic beta-sheet containing aggregates.
Collisions of black holes and neutron stars, named mixed binaries in the following, are interesting because of at least two reasons. Firstly, it is expected that they emit a large amount of energy as gravitational waves, which could be measured by new detectors. The form of those waves is expected to carry information about the internal structure of such systems. Secondly, collisions of such objects are the prime suspects of short gamma ray bursts. The exact mechanism for the energy emission is unknown so far. In the past, Newtonian theory of gravitation and modifications to it were often used for numerical simulations of collisions of mixed binary systems. However, near to such objects, the gravitational forces are so strong, that the use of General Relativity is necessary for accurate predictions. There are a lot of problems in general relativistic simulations. However, systems of two neutron stars and systems of two black holes have been studies extensively in the past and a lot of those problems have been solved. One of the remaining problems so far has been the use of hydrodynamic on excision boundaries. Inside excision regions, no evolution is carried out. Such regions are often used inside black holes to circumvent instabilities of the numerical methods near the singularity. Methods to handle hydrodynamics at such boundaries have been described and tests are shown in this work. One important test and the first application of those methods has been the simulation of a collapsing neutron star to a black hole. The success of these simulations and in particular the performance of the excision methods was an important step towards simulations of mixed binaries. Initial data are necessary for every numerical simulation. However, the creation of such initial data for general relativistic situations is in general very complicated. In this work it is shown how to obtain initial data for mixed binary systems using an already existing method for initial data of two black holes. These initial data have been used for evolutions of such systems and problems encountered are discussed in this work. One of the problems are instabilities due to different methods, which could be solved by dissipation of appropriate strength. Another problem is the expected drift of the black hole towards the neutron star. It is shown, that this can be solved by using special gauge conditions, which prevent the black hole from moving on the computational grid. The methods and simulations shown in this work are only the starting step for a much more detailed study of mixed binary system. Better methods, models and simulations with higher resolution and even better gauge conditions will be focus of future work. It is expected that such detailed studies can give information about the emitted gravitational waves, which is important in view of the newly built gravitational wave detectors. In addition, these simulations could give insight into the processes responsible for short gamma ray bursts.
In der vorliegenden Arbeit werden die Eigenschaften geschlossener fluider Membranen, sogenannter Vesikeln, bei endlichen Temperaturen untersucht. Dies beinhaltet Betrachtungen zur Form freier Vesikeln, eine Untersuchung des Adhäsionsverhaltens von Vesikeln an planaren Substraten sowie eine Untersuchung der Eigenschaften fluider Vesikeln in eingeschränkten Geometrien. Diese Untersuchungen fanden mit Hilfe von Monte-Carlo-Simulationen einer triangulierten Vesikeloberfläche statt. Die statistischen Eigenschaften der fluktuierenden fluiden Vesikeln wurden zum Teil mittels Freier-Energie-Profile analysiert. In diesem Zusammenhang wurde eine neuartige Histogrammethode entwickelt.<BR> Die Form für eine freie fluide Vesikel mit frei veränderlichem Volumen, die das Konfigurationsenergie-Funktional minimiert, ist im Falle verschwindender Temperatur eine Kugel. Mit Hilfe von Monte-Carlo-Simulationen sowie einem analytisch behandelbaren Modellsystem konnte gezeigt werden, daß sich dieses Ergebnis nicht auf endliche Temperaturen verallgemeinern lässt und statt dessen leicht prolate und oblate Vesikelformen gegenüber der Kugelgestalt überwiegen. Dabei ist die Wahrscheinlichkeit für eine prolate Form ein wenig gröoßer als für eine oblate. Diese spontane Asphärizität ist entropischen Ursprungs und tritt nicht bei zweidimensionalen Vesikeln auf. Durch osmotische Drücke in der Vesikel, die größer sind als in der umgebenden Flüssigkeit, lässt sich die Asphärizität reduzieren oder sogar kompensieren. Die Übergänge zwischen den beobachteten prolaten und oblaten Formen erfolgen im Bereich von Millisekunden in Abwesenheit osmotisch aktiver Partikel. Bei Vorhandensein derartiger Partikel ergeben sich Übergangszeiten im Bereich von Sekunden. Im Rahmen der Untersuchung des Adhäsionsverhaltens fluider Vesikeln an planaren, homogenen Substraten konnte mit Hilfe von Monte-Carlo-Simulationen festgestellt werden, dass die Eigenschaften der Kontaktfläche der Vesikeln stark davon abhängen, welche Kräfte den Kontakt bewirken. Für eine dominierende attraktive Wechselwirkung zwischen Substrat und Vesikelmembran sowie im Falle eines Massendichteunterschieds der Flüssigkeiten innerhalb und außerhalb der Vesikel, der die Vesikel auf das Substrat sinken lässt, fndet man innerhalb der Kontakt ache eine ortsunabhangige Verteilung des Abstands zwischen Vesikelmembran und Substrat. Drückt die Vesikel ohne Berücksichtigung osmotischer Effekte auf Grund einer Differenz der Massendichten der Membran und der umgebenden Flüssigkeit gegen das Substrat, so erhält man eine Abstandsverteilung zwischen Vesikelmembran und Substrat, die mit dem Abstand vom Rand der Kontaktfläche variiert. Dieser Effekt ist zudem temperaturabhängig. Ferner wurde die Adhäsion fluider Vesikeln an chemisch strukturierten planaren Substraten untersucht. Durch das Wechselspiel von entropischen Effekten und Konfigurationsenergien entsteht eine komplexe Abhängigkeit der Vesikelform von Biegesteifigkeit, osmotischen Bedingungen und der Geometrie der attraktiven Domänen. Für die Bestimmung der Biegesteifigkeit der Vesikelmembranen liefern die existierenden Verfahren stark voneinander abweichende Ergebnisse. In der vorliegenden Arbeit konnte mittels Monte-Carlo-Simulationen zur Bestimmung der Biegesteifigkeit anhand des Mikropipettenverfahrens von Evans gezeigt werden, dass dieses Verfahren die a priori für die Simulation vorgegebene Biegesteifigkeit im wesentlichen reproduzieren kann. Im Hinblick auf medizinisch-pharmazeutische Anwendungen ist der Durchgang fluider Vesikeln durch enge Poren relevant. In Monte-Carlo-Simulationen konnte gezeigt werden, dass ein spontaner Transport der Vesikel durch ein Konzentrationsgefälle osmotisch aktiver Substanzen, das den physiologischen Bedingungen entspricht, induziert werden kann. Es konnten die hierfür notwendigen osmotischen Bedingungen sowie die charakteristischen Zeitskalen abgeschätzt werden. Im realen Experiment sind Eindringzeiten in eine enge Pore im Bereich weniger Minuten zu erwarten. Ferner konnte beobachtet werden, dass bei Vesikeln mit einer homogenen, positiven spontanen Krümmung Deformationen hin zu prolaten Formen leichter erfolgen als bei Vesikeln ohne spontane Krümmung. Mit diesem Effekt ist eine Verringerung der Energiebarriere für das Eindringen in eine Pore verbunden, deren Radius nur wenig kleiner als der Vesikelradius ist.
Wetting and phase transitions play a very important role our daily life. Molecularly thin films of long-chain alkanes at solid/vapour interfaces (e.g. C30H62 on silicon wafers) are very good model systems for studying the relation between wetting behaviour and (bulk) phase transitions. Immediately above the bulk melting temperature the alkanes wet partially the surface (drops). In this temperature range the substrate surface is covered with a molecularly thin ordered, solid-like alkane film ("surface freezing"). Thus, the alkane melt wets its own solid only partially which is a quite rare phenomenon in nature. The thesis treats about how the alkane melt wets its own solid surface above and below the bulk melting temperature and about the corresponding melting and solidification processes. Liquid alkane drops can be undercooled to few degrees below the bulk melting temperature without immediate solidification. This undercooling behaviour is quite frequent and theoretical quite well understood. In some cases, slightly undercooled drops start to build two-dimensional solid terraces without bulk solidification. The terraces grow radially from the liquid drops on the substrate surface. They consist of few molecular layers with the thickness multiple of all-trans length of the molecule. By analyzing the terrace growth process one can find that, both below and above the melting point, the entire substrate surface is covered with a thin film of mobile alkane molecules. The presence of this film explains how the solid terrace growth is feeded: the alkane molecules flow through it from the undercooled drops to the periphery of the terrace. The study shows for the first time the coexistence of a molecularly thin film ("precursor") with partially wetting bulk phase. The formation and growth of the terraces is observed only in a small temperature interval in which the 2D nucleation of terraces is more likely than the bulk solidification. The nucleation mechanisms for 2D solidification are also analyzed in this work. More surprising is the terrace behaviour above bulk the melting temperature. The terraces can be slightly overheated before they melt. The melting does not occur all over the surface as a single event; instead small drops form at the terrace edge. Subsequently these drops move on the surface "eating" the solid terraces on their way. By this they grow in size leaving behind paths from were the material was collected. Both overheating and droplet movement can be explained by the fact that the alkane melt wets only partially its own solid. For the first time, these results explicitly confirm the supposed connection between the absence of overheating in solid and "surface melting": the solids usually start to melt without an energetic barrier from the surface at temperatures below the bulk melting point. Accordingly, the surface freezing of alkanes give rise of an energetic barrier which leads to overheating.
Vitamin E : elucidation of the mechanism of side chain degradation and gene regulatory functions
(2005)
For more than 80 years vitamin E has been in the focus of scientific research. Most of the progress concerning non-antioxidant functions, nevertheless, has only arisen from publications during the last decade. Most recently, the metabolic pathway of vitamin E has been almost completely elucidated. Vitamin E is metabolized by truncation of its side chain. The initial step of an omega-hydroxylation is carried out by cytochromes P450 (CYPs). This was evidenced by the inhibition of the metabolism of alpha-tocopherol by ketoconozole, an inhibitor of CYP3A expression, whereas rifampicin, an inducer of CYP3A expression increased the metabolism of alpha-tocopherol. Although the degradation pathway is identical for all tocopherols and tocotrienols, there is a marked difference in the amount of the release of metabolites from the individual vitamin E forms in cell culture as well as in experimental animals and in humans. Recent findings not only proposed an CYP3A4-mediated degradation of vitamin E but also suggested an induction of the metabolizing enzymes by vitamin E itself. In order to investigate how vitamin E is able to influence the expression of metabolizing enzymes like CYP3A4, a pregnane X receptor (PXR)-based reporter gene assay was chosen. PXR is a nuclear receptor which regulates the transcription of genes, e.g., CYP3A4, by binding to specific DNA response elements. And indeed, as shown here, vitamin E is able to influence the expression of CYP3A via PXR in an in vitro reporter gene assay. Tocotrienols showed the highest activity followed by delta- and alpha-tocopherol. An up-regulation of Cyp3a11 mRNA, the murine homolog of the human CYP3A4, could also be confirmed in an animal experiment. The PXR-mediated change in gene expression displayed the first evidence of a direct transcriptional activity of vitamin E. PXR regulates the expression of genes involved in xenobiotic detoxification, including oxidation, conjugation, and transport. CYP3A, e.g., is involved in the oxidative metabolism of numerous currently used drugs. This opens a discussion of possible side effects of vitamin E, but the extent to which supranutritional doses of vitamin E modulate these pathways in humans has yet to be determined. Additionally, as there is arising evidence that vitamin E's essentiality is more likely to be based on gene regulation than on antioxidant functions, it appeared necessary to further investigate the ability of vitamin E to influence gene expression. Mice were divided in three groups with diets (i) deficient in alpha-tocopherol, (ii) adequate in alpha-tocopherol supply and (iii) with a supranutritional dosage of alpha-tocopherol. After three months, half of each group was supplemented via a gastric tube with a supranutritional dosage of gamma-tocotrienol per day for 7 days. Livers were analyzed for vitamin E content and liver RNA was prepared for hybridization using cDNA array and oligonucleotide array technology. A significant change in gene expression was observed by alpha-tocopherol but not by gamma-tocotrienol and only using the oligonucleotide array but not using the cDNA array. The latter effect is most probably due to the limited number of genes represented on a cDNA array, the lacking gamma-tocotrienol effect is obviously caused by a rapid degradation, which might prevent bioefficacy of gamma-tocotrienol. Alpha-tocopherol changed the expression of various genes. The most striking observation was an up-regulation of genes, which code for proteins involved in synaptic transmitter release and calcium signal transduction. Synapsin, synaptotagmin, synaptophysin, synaptobrevin, RAB3A, complexin 1, Snap25, ionotropic glutamate receptors (alpha 2 and zeta 1) were shown to be up-regulated in the supranutritional group compared to the deficient group. The up-regulation of synaptic genes shown in this work are not only supported by the strong concentration of genes which all are involved in the process of vesicular transport of neurotransmitters, but were also confirmed by a recent publication. However, a confirmation by real time PCR in neuronal tissue like brain is now required to explain the effect of vitamin E on neurological functionality. The change in expression of genes coding for synaptic proteins by vitamin E is of principal interest thus far, since the only human disease directly originating from an inadequate vitamin E status is ataxia with isolated vitamin E deficiency. Therefore, with the results of this work, an explanation for the observed neurological symptoms associated with vitamin E deficiency can be presented for the first time.
Die Entwicklung von Dickdarmkrebs wird durch eine Reihe von Lebens- und Essgewohnheiten sowie Umweltfaktoren begünstigt. Den letzteren beiden sind Substanzen zuzurechnen, die bei der Zubereitung der Nahrung entstehen und mit ihr aufgenommen werden. Zu diesen Verbindungen gehört das 2-Amino-1-methyl-6-phenylimidazo[4,5-b]pyridin (PhIP) aus der Substanzklasse der heterozyklischen aromatischen Amine. Es entsteht bei der Erhitzung zahlreicher proteinhaltiger Nahrungsmittel und die Zielorgane in Nagerstudien stimmen mit der Häufung von Krebsinzidenzen in westlichen Industrienationen überein. Dieser Zusammenhang konnte jedoch bis heute nicht endgültig bewiesen werden. Fütterungsversuche mit Ratten wurden mit Konzentrationen der Substanz durchgeführt, die weit über der menschlichen Exposition liegen. Durch das Verfüttern einer humanrelevanten Dosis PhIP sollte geklärt werden, ob auch geringe Konzentrationen dickdarmkrebstypische Mutationen, präneoplastische Läsionen oder Tumore induzierten. Die mit humanrelevanten Dosen gefütterten Tiere wiesen weniger Läsionen als die Hoch-Dosis-PhIP-Gruppe auf, in der allerdings keinerlei maligne Tumoren des Dickdarms auftraten. Hinweise auf dickdarmkrebstypische Mutationen fanden sich ebenfalls in beiden Gruppen, wobei hier keine Dosisabhängigkeit beobachtet werden konnte. Die Sequenzierung ergab ein deutlich von Literaturdaten abweichendes Spektrum. In Bezug auf das verwendete Tiermodell wurden erhebliche Abweichungen in der Empfindlichkeit der Tiere gegenüber der Substanz im Vergleich zu ähnlichen Studien festgestellt. Beide Fütterungsgruppen zeigten deutlich weniger Läsionen; als mögliche Gründe wurden Unterschiede in der Futterzusammensetzung und –zubereitung sowie in der Tierhaltung und –herkunft ausgemacht. Es konnte erstmalig ein Zusammenhang zwischen PhIP in niedrigen Dosen in der Nahrung und der Induktion von Entzündungen gezeigt werden. Diese waren sowohl makroskopisch als auch histologisch sichtbar, der genaue Mechanismus ihrer Entstehung ist jedoch unbekannt. Die zusammenfassende Betrachtung aller Ergebnisse lässt vermuten, dass PhIP allein über lange Zeiträume aber in geringen Dosen verabreicht nicht für die hohe Zahl an Krebserkrankungen in westlichen Industrienationen ursächlich ist.