Refine
Year of publication
- 2005 (206) (remove)
Document Type
- Doctoral Thesis (206) (remove)
Keywords
- Modellierung (6)
- Polyelektrolyt (4)
- Selbstorganisation (4)
- Anthropogene Klimaänderung (3)
- Arabidopsis (3)
- Blockcopolymere (3)
- Klimawandel (3)
- Adhäsion (2)
- Adsorption (2)
- Climate Change (2)
Institute
- Institut für Biochemie und Biologie (40)
- Institut für Physik und Astronomie (40)
- Institut für Chemie (20)
- Bürgerliches Recht (16)
- Wirtschaftswissenschaften (14)
- Institut für Ernährungswissenschaft (9)
- Institut für Informatik und Computational Science (7)
- Institut für Umweltwissenschaften und Geographie (7)
- Historisches Institut (6)
- Department Erziehungswissenschaft (5)
Quantified Boolean formulas (QBFs) play an important role in theoretical computer science. QBF extends propositional logic in such a way that many advanced forms of reasoning can be easily formulated and evaluated. In this dissertation we present our ZQSAT, which is an algorithm for evaluating quantified Boolean formulas. ZQSAT is based on ZBDD: Zero-Suppressed Binary Decision Diagram , which is a variant of BDD, and an adopted version of the DPLL algorithm. It has been implemented in C using the CUDD: Colorado University Decision Diagram package. The capability of ZBDDs in storing sets of subsets efficiently enabled us to store the clauses of a QBF very compactly and let us to embed the notion of memoization to the DPLL algorithm. These points led us to implement the search algorithm in such a way that we could store and reuse the results of all previously solved subformulas with a little overheads. ZQSAT can solve some sets of standard QBF benchmark problems (known to be hard for DPLL based algorithms) faster than the best existing solvers. In addition to prenex-CNF, ZQSAT accepts prenex-NNF formulas. We show and prove how this capability can be exponentially beneficial.
Modern biological analysis techniques supply scientists with various forms of data. One category of such data are the so called "expression data". These data indicate the quantities of biochemical compounds present in tissue samples. Recently, expression data can be generated at a high speed. This leads in turn to amounts of data no longer analysable by classical statistical techniques. Systems biology is the new field that focuses on the modelling of this information. At present, various methods are used for this purpose. One superordinate class of these methods is machine learning. Methods of this kind had, until recently, predominantly been used for classification and prediction tasks. This neglected a powerful secondary benefit: the ability to induce interpretable models. Obtaining such models from data has become a key issue within Systems biology. Numerous approaches have been proposed and intensively discussed. This thesis focuses on the examination and exploitation of one basic technique: decision trees. The concept of comparing sets of decision trees is developed. This method offers the possibility of identifying significant thresholds in continuous or discrete valued attributes through their corresponding set of decision trees. Finding significant thresholds in attributes is a means of identifying states in living organisms. Knowing about states is an invaluable clue to the understanding of dynamic processes in organisms. Applied to metabolite concentration data, the proposed method was able to identify states which were not found with conventional techniques for threshold extraction. A second approach exploits the structure of sets of decision trees for the discovery of combinatorial dependencies between attributes. Previous work on this issue has focused either on expensive computational methods or the interpretation of single decision trees a very limited exploitation of the data. This has led to incomplete or unstable results. That is why a new method is developed that uses sets of decision trees to overcome these limitations. Both the introduced methods are available as software tools. They can be applied consecutively or separately. That way they make up a package of analytical tools that usefully supplement existing methods. By means of these tools, the newly introduced methods were able to confirm existing knowledge and to suggest interesting and new relationships between metabolites.
Subject of this work is the study of applications of the Galactic Microlensing effect, where the light of a distant star (source) is bend according to Einstein's theory of gravity by the gravitational field of intervening compact mass objects (lenses), creating multiple (however not resolvable) images of the source. Relative motion of source, observer and lens leads to a variation of deflection/magnification and thus to a time dependant observable brightness change (lightcurve), a so-called microlensing event, lasting weeks to months. The focus lies on the modeling of binary-lens events, which provide a unique tool to fully characterize the lens-source system and to detect extra-solar planets around the lens star. Making use of the ability of genetic algorithms to efficiently explore large and intricate parameter spaces in the quest for the global best solution, a modeling software (Tango) for binary lenses is developed, presented and applied to data sets from the PLANET microlensing campaign. For the event OGLE-2002-BLG-069 the 2nd ever lens mass measurement has been achieved, leading to a scenario, where a G5III Bulge giant at 9.4 kpc is lensed by an M-dwarf binary with total mass of M=0.51 solar masses at distance 2.9 kpc. Furthermore a method is presented to use the absence of planetary lightcurve signatures to constrain the abundance of extra-solar planets.
Die folgenden Fragen standen im Mittelpunkt der Dissertation: Wie handeln Grundschulkinder aus, wenn sie von ihren Peers ungerecht behandelt werden? Welche unmittelbaren Wirkungen hat ihr Vorgehen? In welchem Zusammenhang steht das Vorgehen in der Konfliktsituation mit der Stellung unter den Peers? Theoretische Grundlage waren die Entwicklungsmodelle zum Aushandeln von Yeates und Selman (1989) sowie Hawley (1999). Es nahmen 213 Dritt- und Fünftklässler an der Untersuchung teil. Eine Kombination qualitativer und quantitativer Methoden wurde verwendet. In einem individuellen Interview wurde erhoben, welche Taktiken (eine Handlungseinheit) sowie welche Strategien (Abfolge von Taktiken) die Kinder in einer hypothetischen Normbruchsituation einsetzen würden. Die Kinder wurden auch gefragt, welche unmittelbaren Wirkungen sie erwarten, wenn sie die vorgeschlagene Taktik einsetzen. Die Stellung der Kinder wurde sowohl bezüglich ihres Einflusses (Peerrating) als auch bezüglich ihrer Akzeptanz (Soziometrie) unter den Klassenkameraden erhoben. Die von den Kindern genannten Taktiken wurden vier übergeordneten Kategorien zugeordnet: Verhandeln, Erzwingen, Ausweichen und Aufgeben. Nach den Erwartungen der Kinder führen sowohl Verhandlungstaktiken als auch erzwingende Taktiken in um die Hälfte der Fälle zur Durchsetzung. Erzwingende Taktiken gehen jedoch häufig mit unfreundlichen Reaktionen einher. Einfluss und Akzeptanz der Kinder waren davon abhängig, welche Kombination und Sequenz von Taktiken (Strategie) sie wählten. Beispielsweise waren Kinder einflussreich und beliebt, die eine Reihe von Verhandlungstaktiken generierten oder die zunächst Verhandlungstaktiken vorschlugen und danach erzwingende Taktiken. Kinder, die sofort Zwang einsetzen würden, hatten wenig Einfluss und wurden abgelehnt. Außerdem fanden sich Geschlechts- und Altersunterschiede hinsichtlich des Vorgehens in der hypothetischen Normbruchsituation sowie der Zusammenhänge zwischen Taktiken und Stellung unter Peers.
Bankenstrukturen und Systemrisiken : eine ökonomische Analyse Russlands im internationalen Vergleich
(2005)
Besiedlung naturnaher Wälder unterschiedlicher Isolation durch Tiergruppen verschiedener Mobilität
(2005)
Bestimmung von Ozonabbauraten über der Arktis und Antarktis mittels Ozonsonden- und Satellitendaten
(2005)
Diese Arbeit beschäftigt sich mit der chemischen Ozonzerstörung im arktischen und antarktischen stratosphärischen Polarwirbel. Diese wird durch Abbauprodukte von anthropogen emittierten Fluorchlorkohlenwasserstoffen und Halonen, Chlor- und Bromradikale, verursacht. Studien in denen der gemessene und modellierte Ozonabbau verglichen wird zeigen, dass die Prozeße bekannt sind, der quantitative Verlauf allerdings nicht vollständig verstanden ist. Die Prozesse, die zur Ozonzerstörung führen sind in beiden Polarwirbeln ähnlich. Allerdings fällt als Konsequenz unterschiedlicher meteorologischer Bedingungen der chemische Ozonabbau im arktischen Polarwirbel weniger drastisch aus als über der Antarktis. Der arktische Polarwirbel ist im Mittel stärker dynamisch gestört als der antarktische und weist eine stärkere Jahr-zu-Jahr Variabilität auf. Das erschwert die Messung des chemischen Ozonabbaus. Zur Trennung des chemischen Ozonabbaus von der dynamischen Umverteilung des Ozons im arktischen Polarwirbel wurde die Matchmethode entwickelt. Bei dieser Methode werden Luftpakete innerhalb des Polarwirbels mehrfach beprobt, um den chemischen Anteil der Ozonänderung zu quantifizieren. Zur Identifizierung von doppelt beprobten Luftpaketen werden Trajektorien aus Windfeldern berechnet. Können zwei Messungen im Rahmen bestimmter Qualitätskriterien durch eine Trajektorie verbunden werden, kann die Ozondifferenz zwischen beiden Sondierungen berechnet und als chemischer Ozonabbau interpretiert werden. Eine solche Koinzidenz wird Match genannt. Der Matchmethode liegt ein statistischer Ansatz zugrunde, so dass eine Vielzahl solcher doppelt beprobter Luftmassen vorliegen muss, um gesicherte Aussagen über die Ozonzerstörung gewinnen zu können. So erhält man die Ozonzerstörung in einem bestimmten Zeitintervall, also Ozonabbauraten. Um die Anzahl an doppelt beprobten Luftpackten zu erhöhen wurde eine aktive Koordinierung der Ozonsondenaufstiege entwickelt. Im Rahmen dieser Arbeit wurden Matchkampagnen während des arktischen Winters 2002/2003 und zum ersten Mal während eines antarktischen Winter (2003) durchgeführt. Aus den gewonnenen Daten wurden Ozonabbauraten in beiden Polarwirbeln bestimmt. Diese Abbauraten dienen zum einen der Evaluierung von Modellen, ermöglichen aber auch den direkten Vergleich von Ozonabbauraten in beiden Polarwirbeln. Der Winter 2002/2003 war zu Beginn durch sehr tiefe Temperaturen in der mittleren und unteren Stratosphäre charakterisiert, so dass die Matchkampagne Ende November gestartet wurde. Ab Januar war der Polarwirbel zeitweise stark dynamisch gestört. Die Kampagne ging bis Mitte März. Für den Höhenbereich von 400 bis 550 K potentieller Temperatur (15-23 km) konnten Ozonabbauraten und der Verlust in der Gesamtsäule berechnet werden. Die Ozonabbauraten wurden in verschiedenen Tests auf ihre Stabilität überprüft. Der antarktische Polarwirbel war vom Beginn des Winters bis Mitte Oktober 2003 sehr kalt und stellte Ende September kurzzeitig den Rekord für die größte bisher aufgetretene Ozonloch-Fläche ein. Es konnten für den Kampagnenzeitraum, Anfang Juni bis Anfang Oktober, Ozonabbauraten im Höhenbereich von 400 bis 550 K potentieller Temperatur ermittelt werden. Der zeitliche Verlauf des Ozonabbaus war dabei auf fast allen Höhenniveaus identisch. Die Zunahme des Sonnenlichtes im Polarwirbel mit der Zeit führt zu einem starken Anwachsen der Ozonabbauraten. Ab Mitte September gingen die Ozonabbauraten auf Null zurück, da bis zu diesem Zeitpunkt das gesamte Ozon zwischen ca. 14 und 21 km zerstört wurde. Im letzten Teil der Arbeit wird ein neuer Algorithmus auf Basis der multivariaten Regression vorgestellt, mit dem Ozonabbauraten aus Ozonprofilen verschiedener Sensoren gleichzeitig berechnet werden können. Dabei können neben der Ozonabbaurate die systematischen Fehler zwischen den einzelnen Sensoren bestimmt werden. Dies wurde exemplarisch am antarktischen Winter 2003 für das 475 K potentielle Temperatur Niveau gezeigt. Neben den Ozonprofilen der Sonden wurden Daten von zwei Satellitenexperimenten verwendet. Die mit der multivariaten Matchtechnik berechneten Ozonabbauraten stimmen gut mit den Ozonabbauraten der Einzelsensor-Matchansätze überein.
This thesis is concerned with the solution of the blind source separation problem (BSS). The BSS problem occurs frequently in various scientific and technical applications. In essence, it consists in separating meaningful underlying components out of a mixture of a multitude of superimposed signals. In the recent research literature there are two related approaches to the BSS problem: The first is known as Independent Component Analysis (ICA), where the goal is to transform the data such that the components become as independent as possible. The second is based on the notion of diagonality of certain characteristic matrices derived from the data. Here the goal is to transform the matrices such that they become as diagonal as possible. In this thesis we study the latter method of approximate joint diagonalization (AJD) to achieve a solution of the BSS problem. After an introduction to the general setting, the thesis provides an overview on particular choices for the set of target matrices that can be used for BSS by joint diagonalization. As the main contribution of the thesis, new algorithms for approximate joint diagonalization of several matrices with non-orthogonal transformations are developed. These newly developed algorithms will be tested on synthetic benchmark datasets and compared to other previous diagonalization algorithms. Applications of the BSS methods to biomedical signal processing are discussed and exemplified with real-life data sets of multi-channel biomagnetic recordings.
The protection of species is one major focus in conservation biology. The basis for any management concept is the knowledge of the species autecology. In my thesis, I studied the life-history traits and population dynamics of the endangered Lesser Spotted Woodpecker (Picoides minor) in Central Europe. Here, I combine a range of approaches, from empirical investigations of a Lesser Spotted Woodpecker population in the Taunus low mountain range in Germany, the analysis of empirical data and the development of an individual-based stochastic model simulating the population dynamics. In the field studies I collected basic demographic data of reproductive success and mortality. Moreover, breeding biology and behaviour were investigated in detail. My results showed a significant decrease of the reproductive success with later timing of breeding, caused by deterioration in food supply. Moreover, mate fidelity was of benefit, since pairs composed of individuals that bred together the previous year started earlier with egg laying and obtained a higher reproductive success. Both sexes were involved in parental care, but the care was only shared equally during incubation and the early nestling stage. In the late nestling stage, parental care strategies differed between sexes: Females considerably decreased feeding rate with number of nestlings and even completely deserted small broods. Males fed their nestlings irrespective of brood size and compensated for the females absence. The organisation of parental care in the Lesser Spotted Woodpecker is discussed to provide the possibility for females to mate with two males with separate nests and indeed, polyandry was confirmed. To investigate the influence of the observed flexibility in the social mating system on the population persistence, a stochastic individual-based model simulating the population dynamics of the Lesser Spotted Woodpecker was developed, based on empirical results. However, pre-breeding survival rates could not be obtained empirically and I present in this thesis a pattern-oriented modelling approach to estimate pre-breeding survival rates by comparing simulation results with empirical pattern of population structure and reproductive success on population level. Here, I estimated the pre-breeding survival for two Lesser Spotted Woodpecker populations on different latitudes to test the reliability of the results. Finally, I used the same simulation model to investigate the effect of flexibility in the mating system on the persistence of the population. With increasing rate of polyandry in the population, the persistence increased and even low rates of polyandry had a strong influence. Even when presuming only a low polyandry rate and costs of polyandry in terms of higher mortality and lower reproductive success for the secondary male, the positive effect of polyandry on the persistence of the population was still strong. This thesis greatly helped to increase the knowledge of the autecology of an endangered woodpecker species. Beyond the relevance for the species, I could demonstrate here that in general flexibility in mating systems are buffer mechanisms and reduce the impact of environmental and demographic noise.
The thesis assesses the contribution of technology option of Carbon Capture and Sequestration (CCS) to climate change mitigation. CCS means that CO2 is captured at large industrial facilities and sequestered in goelogical structures. The technology uses the endogenous growth model MIND. Herein the various climate change mitigation options of reducing economic growth, increasing energy efficiency, changing the energy mix and CCS are assessed simultaneously. An important question is whether CCS is a temporary or long-term solution. The results show that in the middle of the 21st century CCS has its peak contribution, which allows prolonged use of relatively cheap fossil energy carriers. However, this leads to delayed introduction of renewable energy carriers. The technology path ways are accombined with different costs of climate change mitigation. The use of CCS delays and reduces the costs of climate change mitigation. However, the delayed introduction of renewable energy carriers leads to reduced technological learning, which induces higher costs in the longer term. All in all the temporary use of CCS reduces the costs of climate change mitigation costs. The result is robust, which is tested with various uncertainty analysis.
About 24 % of the land surface in the northern hemisphere are underlayed by permafrost in various states. Permafrost aggradation occurs under special environmental conditions with overall low annual precipitation rates and very low mean annual temperatures. Because the general permafrost occurrence is mainly driven by large-scale climatic conditions, the distribution of permafrost deposits can be considered as an important climate indicator. The region with the most extensive continuous permafrost is Siberia. In northeast Siberia, the ice- and organic-rich permafrost deposits of the Ice Complex are widely distributed. These deposits consist mostly of silty to fine-grained sandy sediments that were accumulated during the Late Pleistocene in an extensive plain on the then subaerial Laptev Sea shelf. One important precondition for the Ice Complex sedimentation was, that the Laptev Sea shelf was not glaciated during the Late Pleistocene, resulting in a mostly continuous accumulation of permafrost sediments for at least this period. This shelf landscape became inundated and eroded in large parts by the Holocene marine transgression after the Last Glacial Maximum. Remnants of this landscape are preserved only in the present day coastal areas. Because the Ice Complex deposits contain a wide variety of palaeo-environmental proxies, it is an excellent palaeo-climate archive for the Late Quaternary in the region. Furthermore, the ice-rich Ice Complex deposits are sensible to climatic change, i.e. climate warming. Because of the large-scale climatic changes at the transition from the Pleistocene to the Holocene, the Ice Complex was subject to extensive thermokarst processes since the Early Holocene. Permafrost deposits are not only an environmental indicator, but also an important climate factor. Tundra wetlands, which have developed in environments with aggrading permafrost, are considered a net sink for carbon, as organic matter is stored in peat or is syn-sedimentary frozen with permafrost aggradation. Contrary, the Holocene thermokarst development resulted in permafrost degradation and thus the release of formerly stored organic carbon. Modern tundra wetlands are also considered an important source for the climate-driving gas methane, originating mainly from microbial activity in the seasonal active layer. Most scenarios for future global climate development predict a strong warming trend especially in the Arctic. Consequently, for the understanding of how permafrost deposits will react and contribute to such scenarios, it is necessary to investigate and evaluate ice-rich permafrost deposits like the widespread Ice Complex as climate indicator and climate factor during the Late Quaternary. Such investigations are a pre-condition for the precise modelling of future developments in permafrost distribution and the influence of permafrost degradation on global climate. The focus of this work, which was conducted within the frame of the multi-disciplinary joint German-Russian research projects "Laptev Sea 2000" (1998-2002) and "Dynamics of Permafrost" (2003-2005), was twofold. First, the possibilities of using remote sensing and terrain modelling techniques for the observation of periglacial landscapes in Northeast Siberia in their present state was evaluated and applied to key sites in the Laptev Sea coastal lowlands. The key sites were situated in the eastern Laptev Sea (Bykovsky Peninsula and Khorogor Valley) and the western Laptev Sea (Cape Mamontovy Klyk region). For this task, techniques using CORONA satellite imagery, Landsat-7 satellite imagery, and digital elevation models were developed for the mapping of periglacial structures, which are especially indicative of permafrost degradation. The major goals were to quantify the extent of permafrost degradation structures and their distribution in the investigated key areas, and to establish techniques, which can be used also for the investigation of other regions with thermokarst occurrence. Geographical information systems were employed for the mapping, the spatial analysis, and the enhancement of classification results by rule-based stratification. The results from the key sites show, that thermokarst, and related processes and structures, completely re-shaped the former accumulation plain to a strongly degraded landscape, which is characterised by extensive deep depressions and erosional remnants of the Late Pleistocene surface. As a results of this rapid process, which in large parts happened within a short period during the Early Holocene, the hydrological and sedimentological regime was completely changed on a large scale. These events resulted also in a release of large amounts of organic carbon. Thermokarst is now the major component in the modern periglacial landscapes in terms of spatial extent, but also in its influence on hydrology, sedimentation and the development of vegetation assemblages. Second, the possibilities of using remote sensing and terrain modelling as a supplementary tool for palaeo-environmental reconstructions in the investigated regions were explored. For this task additionally a comprehensive cryolithological field database was developed for the Bykovsky Peninsula and the Khorogor Valley, which contains previously published data from boreholes, outcrops sections, subsurface samples, and subsurface samples, as well as additional own field data. The period covered by this database is mainly the Late Pleistocene and the Holocene, but also the basal deposits of the sedimentary sequence, interpreted as Pliocene to Early Pleistocene, are contained. Remote sensing was applied for the observation of periglacial strucures, which then were successfully related to distinct landscape development stages or time intervals in the investigation area. Terrain modelling was used for providing a general context of the landscape development. Finally, a scheme was developed describing mainly the Late Quaternary landscape evolution in this area. A major finding was the possibility of connecting periglacial surface structures to distinct landscape development stages, and thus use them as additional palaeo-environmental indicator together with other proxies for area-related palaeo-environmental reconstructions. In the landscape evolution scheme, i.e. of the genesis of the Late Pleistocene Ice Complex and the Holocene thermokarst development, some new aspects are presented in terms of sediment source and general sedimentation conditions. This findings apply also for other sites in the Laptev Sea region.
Nitrogen is often a limiting factor for plant growth due to its heterogenous distribution in the soil and to seasonal and diurnal changes in growth rates. In most soils, NH4+ and NO3 – are the predominant sources of inorganic nitrogen that are available for plant nutrition. In this context, plants have evolved mechanisms that enable them to optimize nitrogen acquisition, which include transporters specialized in the uptake of nitrogen and susceptible to a regulation that responds to nitrogen limiting or excess conditions. Although the average NH4+ concentrations of soils are generally 100 to 1000 times lower than those of NO3 – (Marschner, 1995), most plants preferentially take up NH4+ when both forms are present because unlike NO3– , NH4+ has not to be reduced prior to assimilation and thus requires less energy for assimilation (Bloom et al., 1992). Apart from high uptake rates in roots, high intracellular ammonium concentrations also result from quantitatively important internal breakdown of amino acids (Feng et al., 1998), and originates in high quantities during photorespiration (Mattson et al., 1997, Pearson et al., 1998). Thus, NH4+ is a key component of nitrogen metabolism for all plants and can accumulate to varying concentrations in all compartments of the cell, including the cytosol, the vacuole and in the apoplast (Wells and Miller, 2000; Nielsen and Schjoerring, 1998). Two related families of ammonium transporters (AMT1 and AMT2), containing six genes which encode transporter proteins that are specific for ammonium had been identified prior to this thesis and some genes had partially been characterised in Arabidopsis (Gazzarrini et al., 1999; Sohlenkamp et al. 2002; Kaiser et al., 2002). However, these studies were not sufficient to assign physiological functions to the individual transporters and AMT1.4 and AMT1.5 had not been studied prior to this thesis. Given this background, it was considered desirable to acquire a deeper knowledge of the physiological functions of the six Arabidopsis ammonium transporters. To this end, tissue specific expression profiles of the individual wildtype AtAMT genes were performed by quantitative real time PCR (qRT-PCR) and promoter-GUS expression. Modern approaches such as the use of T-DNA insertional mutants and RNAi hairpin constructs were employed to reduce the expression levels of AMT genes. Transcript levels were determined, and physiological, biochemical and developmental analysis such as growth tests on different media and 14C-MA and NH4+ uptake studies with the isolated insertional mutants and RNAi lines were performed to deepen the knowledge of the individual functions of the six AMTs in Arabidopsis. In addition, double mutants of the insertional mutants were created to investigate the extent in which homologous genes could compensate for lost transporter functions. The results described in this thesis show that the six AtAMT genes display a high degree of specifity in their tissue specific expression and are likely to play complementary roles in ammonium uptake into roots, in shoots, and in flowers. AtAMT1.1 is likely to be a ‘work horse’ for cellular ammonium transport and reassimilation. A major role is probably the recapture of photorespiratory NH3/NH4+ escaping from the cytosol. In roots, it is likely to transport NH4+ from the apoplast into cortical cells. AtAMT1.3 and AtAMT1.5 appear to be specialised in the acquisition of external NH4+ from the soil. Furthermore, AtAMT1.5 plays an additional role in the reassimilation of NH3/NH4+ released during the breakdown of storage proteins in the cotyledons of germinating seedlings. It was difficult to distinguish a specialisation between the transporters AtAMt1.2 and AtAMt1.1, however the root and flower specific expression patterns are different and indicate alternative functions of both. AtAMT1.4 has a very distinct expression which is restricted to the vascular bundels of leaves and to pollen only, where it is likely to be involved in the loading of NH4+ into the cells.The AtAMT2.1 expression pattern is confined to vascular bundels and meristematic active tissues in leaves where ammonium concentrations can reach very high levels. Additionally, the Vmax of AtAMT2 increases with increasing external pH, contrasting to AtAMT1.1. Thus, AtAMT2.1 it might be specialised in ammonium transport in ammonium rich environments, where the functions of other transporters are limited, enabling cells to take up NH4+ over a wide range of concentrations. The root hair expression ascribes an additional role in NH3/NH4+ acquisition where it possibly serves as a transporter that is able to acquire ammonium from basic soils where other transporters become less effective.RNAi lines showing a reduction in AtAMT gene mRNA levels and NH4+ transport kinetics, grew slower and flowering time was delayed. This indicates that NH4+ is a crucial and limiting factor for plant growth.
Die vorliegende Arbeit wurde im Rahmen des multidisziplinären Deutsch-Russischen Verbundprojektes "Laptev See 2000" erstellt. Die dargestellten bodenkundlichen und mikro-biologischen Untersuchungen verfolgten das Ziel die mikrobielle Lebensgemeinschaft eines Permafrostbodens im sibirischen Lena Delta zu charakterisieren, wobei den methanogenen Archaea besondere Beachtung zukam. Die Probennahme wurde im August 2001 im zentralen Lenadelta, auf der Insel Samoylov durchgeführt. Das Delta liegt im Bereich des kontinuierlichen Permafrostes, was bedeutet, dass nur eine flache saisonale Auftauschicht während der Sommermonate auftaut. Das untersuchte Bodenprofil lag im Zentrum eines für die Landschaft repräsentativen Low Center Polygons. Zum Zeitpunkt der Beprobung betrug die Auftautiefe des untersuchten Bodens 45 cm.. Der Wasserstand lag zum Untersuchungszeitpunkt 18 cm unter der Geländeoberfläche, so dass alle tiefer liegenden Horizonte durch anaerobe Verhältnisse charakterisiert waren. Die Untersuchung der bodenkundlichen Parameter ergab unter anderem eine mit zunehmender Tiefe abnehmende Konzentration von Kohlenstoff und Stickstoff, sowie eine Abnahme von Temperatur und Wurzeldichte. Um die Auswirkungen der sich mit der Tiefe verändernden Bodeneigenschaften auf die Mikroorganismen zu ermitteln, wurden die Mikroorganismenpopulationen der verschiedenen Bodentiefen mit Hilfe der Fluoreszenz in situ Hybridisierung hinsichtlich ihrer Anzahl, Aktivität und Zusammensetzung beschrieben. Für die Charakterisierung des physiologischen Profils dieser Gemeinschaften, bezüglich der von ihr umsetzbaren Kohlenstoffverbindungen, wurden BIOLOG Mikrotiterplatten unter den in situ Bedingungen angepassten Bedingungen eingesetzt. Die sich im Profil verändernden Bodenparameter, vor allem die abnehmende Substratversorgung, die geringe Temperatur und die anaeroben Verhältnisse in den unteren Bodenschichten führten zu einer Veränderung der Mikroorganismenpopulation im Bodenprofil. So nahm von oben nach unten die Gesamtanzahl der ermittelten Mikroorganismen von 23,0 × 108 auf 1,2 × 108 Zellen g-1 ab. Gleichzeitig sank der Anteil der aktiven Zellen von 59% auf 33%. Das bedeutet, dass im Bereich von 0-5 cm 35mal mehr aktive Zellen g-1 als im Bereich von 40-45 cm gefunden wurden. Durch den Einsatz spezieller rRNS-Sonden konn-te zusätzlich eine Abnahme der Diversität mit zunehmender Bodentiefe nachgewiesen werden. Die geringere Aktivität der Population in den unteren Horizonten sowie die Unterschiede in der Zusammensetzung wirkten sich auf den Abbau der organischen Substanz aus. So wur-den die mit Hilfe der BIOLOG Mikrotiterplatten angebotenen Substanzen in größerer Tiefe langsamer und unvollständiger abgebaut. Insbesondere in den oberen 5 cm konnten einige der angebotenen Polymere und Kohlehydrate deutlich besser als im restlichen Profil umge-setzt werden. Das außerdem unter anaeroben Versuchsbedingungen diese Substrate deutlich schlechter umgesetzt wurden, kann so interpretiert werden, dass die konstant anaeroben Bedingungen in den unteren Horizonten ein Auftreten der Arten, die diese Substrate umset-zen, erschweren. Die in den oberen, aeroben Bodenabschnitten wesentlich höheren Zellzahlen und Aktivitäten und die dadurch schnellere C-Umsetzung führen auch zu einer besseren Substratversorgung der methanogenen Archaea in den makroskopisch aeroben Horizonten. Die erhöhte Substratverfügbarkeit erklärt die Tatsache, dass im Bereich von 0-5 cm die meisten methanogenen Archaea gefunden wurden, obwohl sich dieser Bereich zum Zeitpunkt der Probennahme oberhalb des wassergesättigten Bodenbereichs befand. Trotz der aeroben Bedingungen in, liegt im Bereich von 5 10 cm die für die methanogenen Archaea am besten geeignete Kombination aus Substratangebot und anaeroben Nischen vor. Hinzu kommt, dass in diesen Tiefen die Sommertemperaturen etwas höher liegen als in den tieferen Horizonten, was wiederum die Aktivität positiv beeinflusst. Bei zusammenfassender Betrachtung der Untersuchungsergebnisse von Anzahl, Aktivität, Zusammensetzung und Leistung der gesamten, aber im besonderen auch der methanogenen Mikroorganismenpopulation wird deutlich, dass in dem untersuchten Bodenprofil unter ökologischen Gesichtspunkten die oberen 15-20 cm den für den C-Umsatz relevantesten Bereich darstellen. Das Zusammenspiel wichtiger Bodenparameter wie Bodentemperatur, Wasserstand, Nährstoffversorgung und Durchwurzelung führt dazu, dass in dem untersuchten Tundraboden in den oberen 15-20 cm eine wesentlich größere und diversere Anzahl an Mikroorganismen existiert, die für einen schnelleren und umfassenderen Kohlenstoffumsatz in diesem Bereich des active layers sorgt.
Das Borna Disease Virus (BDV, Bornavirus) besitzt ein einzelsträngiges RNA-Genom negativer Polarität und ist innerhalb der Ordnung Mononegavirales der Prototyp einer eigenen Virusfamilie, die der Bornaviridae. Eine außergewöhnliche Eigenschaft des Virus ist seine nukleäre Transkription und Replikation, eine weitere besteht in seiner Fähigkeit, als neurotropes Virus sowohl in vivo als auch in vitro persistente Infektionen zu etablieren. Die zugrunde liegenden Mechanismen sowohl der Replikation als auch der Persistenz sind derzeit noch unzureichend verstanden, auch deshalb, weil das Virus noch relativ „jung“ ist: Erste komplette Sequenzen des RNA-Genoms wurden 1994 publiziert und erst vor einigen Monaten gelang die Generierung rekombinanter Viren auf der Basis klonierter cDNA. Im Mittelpunkt dieser Arbeit standen das p10 Protein und das Phosphoprotein (P), die von der gemeinsamen Transkriptionseinheit II in überlappenden Leserahmen kodiert werden. Als im Kern der Wirtszelle replizierendes Virus ist das Bornavirus auf zelluläre Importmechanismen angewiesen, um den Kernimport aller an der Replikation beteiligten viralen Proteine zu gewährleisten. Das p10 Protein ist ein negativer Regulator der viralen RNA-abhängigen RNA-Polymerase (L). In vitro Importexperimente zeigten, dass p10 über den klassischen Importin alpha/beta abhängigen Kernimportweg in den Nukleus transportiert wird. Dies war unerwartet, da p10 kein vorhersagbares klassisches Kernlokalisierungssignal (NLS) besitzt und weist darauf hin, dass der zelluläre Importapparat offensichtlich flexibler ist als allgemein angenommen. Die ersten 20 N-terminalen AS vermitteln sowohl Kernimport als auch die Bindung an den Importrezeptor Importin alpha. Durch Di-Alanin-Austauschmutagenese wurden die für diesen Transportprozess essentiellen AS identifiziert und die Bedeutung hydrophober und polarer AS-Reste demonstriert. Die Fähigkeit des Bornavirus, persistente Infektionen zu etablieren, wirft die Frage auf, wie das Virus die zellulären antiviralen Abwehrmechanismen, insbesondere das Typ I Interferon (IFN)-System, unterwandert. Das virale P Protein wurde in dieser Arbeit als potenter Antagonist der IFN-Induktion charakterisiert. Es verhindert die Phosphorylierung des zentralen Transkriptionsfaktors IRF3 durch die zelluläre Kinase TBK1 und somit dessen Aktivierung. Der Befund, dass P mit TBK1 Komplexe bildet und zudem auch als Substrat für die zelluläre Kinase fungiert, erlaubt es, erstmalig einen Mechanismus zu postulieren, in dem ein virales Protein (BDV-P) als putatives TBK1-Pseudosubstrat die IRF3-Aktivierung kompetitiv hemmt.
This work explores the equilibrium structure and thermodynamic phase behavior of complexes formed by charged polymer chains (polyelectrolytes) and oppositely charged spheres (macroions). Polyelectrolyte-macroion complexes form a common pattern in soft-matter physics, chemistry and biology, and enter in numerous technological applications as well. From a fundamental point of view, such complexes are interesting in that they combine the subtle interplay between electrostatic interactions and elastic as well as entropic effects due to conformational changes of the polymer chain, giving rise to a wide range of structural properties. This forms the central theme of theoretical studies presented in this thesis, which concentrate on a number of different problems involving strongly coupled complexes, i.e. complexes that are characterized by a large adsorption energy and small chain fluctuations. In the first part, a global analysis of the structural phase behavior of a single polyelectrolyte-macroion complex is presented based on a dimensionless representation, yielding results that cover a wide range of realistic system parameters. Emphasize is made on the interplay between the effects due to the polyelectrolytes chain length, salt concentration and the macroion charge as well as the mechanical chain persistence length. The results are summarized into generic phase diagrams characterizing the wrapping-dewrapping behavior of a polyelectrolyte chain on a macroion. A fully wrapped chain state is typically obtained at intermediate salt concentrations and chain lengths, where the amount of polyelectrolyte charge adsorbed on the macroion typically exceeds the bare macroion charge leading thus to a highly overcharged complex. Perhaps the most striking features occur when a single long polyelectrolyte chain is complexed with many oppositely charged spheres. In biology, such complexes form between DNA (which carries the cell's genetic information) and small oppositely charged histone proteins serving as an efficient mechanism for packing a huge amount of DNA into the micron-size cell nucleus in eucaryotic cells. The resultant complex fiber, known as the chromatin fiber, appears with a diameter of 30~nm under physiological conditions. Recent experiments indicate a zig-zag spatial arrangement for individual DNA-histone complexes (nucleosome core particles) along the chromatin fiber. A numerical method is introduced in this thesis based on a simple generic chain-sphere cell model that enables one to investigate the mechanism of fiber formation on a systematic level by incorporating electrostatic and elastic contributions. As will be shown, stable complex fibers exhibit an impressive variety of structures including zig-zag, solenoidal and beads-on-a-string patterns, depending on system parameters such as salt concentration, sphere charge as well as the chain contour length (per sphere). The present results predict fibers of compact zig-zag structure within the physiologically relevant regime with a diameter of about 30~nm, when DNA-histone parameters are adopted. In the next part, a numerical method is developed in order to investigate the role of thermal fluctuations on the structure and thermodynamic phase behavior of polyelectrolyte-macroion complexes. This is based on a saddle-point approximation, which allows to describe the experimentally observed reaction (or complexation) equilibrium in a dilute solution of polyelectrolytes and macroions on a systematic level. This equilibrium is determined by the entropy loss a single polyelectrolyte chain suffers as it binds to an oppositely charged macroion. This latter quantity can be calculated from the spectrum of polyelectrolyte fluctuations around a macroion, which is determined by means of a normal-mode analysis. Thereby, a stability phase diagram is obtained, which exhibits qualitative agreement with experimental findings. At elevated complex concentrations, one needs to account for the inter-complex interactions as well. It will be shown that at small separations, complexes undergo structural changes in such a way that positive patches from one complex match up with negative patches on the other. Furthermore, one of the polyelectrolyte chains may bridge between the two complexes. These mechanisms lead to a strong inter-complex attraction. As a result, the second virial coefficient associated with the inter-complex interaction becomes negative at intermediate salt concentrations in qualitative agreement with recent experiments on solutions of nucleosome core particles.
Natural and human induced environmental changes affect populations at different time scales. If they occur in a spatial heterogeneous way, they cause spatial variation in abundance. In this thesis I addressed three topics, all related to the question, how environmental changes influence population dynamics. In the first part, I analysed the effect of positive temporal autocorrelation in environmental noise on the extinction risk of a population, using a simple population model. The effect of autocorrelation depended on the magnitude of the effect of single catastrophic events of bad environmental conditions on a population. If a population was threatened by extinction only, when bad conditions occurred repeatedly, positive autocorrelation increased extinction risk. If a population could become extinct, even if bad conditions occurred only once, positive autocorrelation decreased extinction risk. These opposing effects could be explained by two features of an autocorrelated time series. On the one hand, positive autocorrelation increased the probability of series of bad environmental conditions, implying a negative effect on populations. On the other hand, aggregation of bad years also implied longer periods with relatively good conditions. Therefore, for a given time period, the overall probability of occurrence of at least one extremely bad year was reduced in autocorrelated noise. This can imply a positive effect on populations. The results could solve a contradiction in the literature, where opposing effects of autocorrelated noise were found in very similar population models. In the second part, I compared two approaches, which are commonly used for predicting effects of climate change on future abundance and distribution of species: a "space for time approach", where predictions are based on the geographic pattern of current abundance in relation to climate, and a "population modelling approach" which is based on correlations between demographic parameters and the inter-annual variation of climate. In this case study, I compared the two approaches for predicting the effect of a shift in mean precipitation on a population of the sociable weaver Philetairus socius, a common colonially living passerine bird of semiarid savannahs of southern Africa. In the space for time approach, I compared abundance and population structure of the sociable weaver in two areas with highly different mean annual precipitation. The analysis showed no difference between the two populations. This result, as well as the wide distribution range of the species, would lead to the prediction of no sensitive response of the species to a slight shift in mean precipitation. In contrast, the population modelling approach, based on a correlation between reproductive success and rainfall, predicted a sensitive response in most model types. The inconsistency of predictions was confirmed in a cross-validation between the two approaches. I concluded that the inconsistency was caused, because the two approaches reflect different time scales. On a short time scale, the population may respond sensitively to rainfall. However, on a long time scale, or in a regional comparison, the response may be compensated or buffered by a variety of mechanisms. These may include behavioural or life history adaptations, shifts in the interactions with other species, or differences in the physical environment. The study implies that understanding, how such mechanisms work, and at what time scale they would follow climate change, is a crucial precondition for predicting ecological consequences of climate change. In the third part of the thesis, I tested why colony sizes of the sociable weaver are highly variable. The high variation of colony sizes is surprising, as in studies on coloniality it is often assumed that an optimal colony size exists, in which individual bird fitness is maximized. Following this assumption, the pattern of bird dispersal should keep colony sizes near an optimum. However, I showed by analysing data on reproductive success and survival that for the sociable weaver fitness in relation to colony size did not follow an optimum curve. Instead, positive and negative effects of living in large colonies overlaid each other in a way that fitness was generally close to one, and density dependence was low. I showed in a population model, which included an evolutionary optimisation process of dispersal that this specific shape of the fitness function could lead to a dispersal strategy, where the variation of colony sizes was maintained.
Connective ties in discourse: Three ERP studies on causal, temporal and concessive connective ties and their influence on language processing. Questions In four experiments the influence of lexical connectives such as " darum", therefore, " danach", afterwards, and " trotzdem", nevertheless, on the processing of short two-sentence discourses was examined and compared to the processing of deictical sentential adverbs such as " gestern", yesterday, and " lieber", rather. These latter words do not have the property of signaling a certain discourse relation between two sentences, as connective ties do. Three questions were central to the work: * Do the processing contrasts found between connective and non-connective elements extend to connective ties and deictical sentential adverbs (experiments 2 and 3)? * Does the semantic content of the connective ties play the primary role, i.e is the major distinction to be made indeed between connective and non-connective or instead between causal, temporal and concessive? * When precisely is the information provided by connective ties used? There is some evidence that connective ties can have an immediate influence on the integration of subsequent elements, but the end of the second sentences appears to play an important role as well: experiments 2, 3, and 4. Conclusions First of all, the theoretical distinction between connective and non-connective elements does indeed have " cognitive reality" . This has already been shown in previous studies. The present studies do however show, that there is also a difference between one-place discourse elements (deictical sentential adverbs) and two-place discourse elements, namely connective ties, since all experiments examining this contrast found evidence for qualitatively and quantitatively different processing (experiments 1, 2, and 3). Secondly, the semantic type of the connective ties also plays a role. This was not shown for the LAN, found for all connective ties when compared to non-connective elements, and consequently interpreted as a more abstract reflection of the integration of connective ties. There was also no difference between causal and temporal connective ties before the end of the discourses in experiment 3. However, the N400 found for incoherent discourses in experiment 2, larger for connective incoherent than non-connective incoherent discourses, as well as the P3b found for concessive connective ties in the comparison between causal and concessive connective ties gave reason to assume that the semantic content of connective ties is made use of in incremental processing, and that the relation signaled by the connective tie is the one that readers attempt to construct. Concerning when the information provided by connective ties is used, it appears as if connectivity is generally and obligatorily taken at face value. As long as the meaning of a connective tie did not conflict with a preferred canonical discourse relation, there were no differences found for varying connective discourses (experiment 3). However, the fact that concessive connective ties announce the need for a more complex text representation was recognized and made use of immediately (experiment 4). Additionally, a violation of the discourse relation resulted in more difficult semantic integration if a connective tie was present (experiment 2). It is therefore concluded here that connective ties influence processing immediately. This claim has to be modified somewhat, since the sentence-final elements suggested that connective ties trigger different integration processes than non-connective elements. It seems as if the answer to the question of when connective ties are processed is neither exclusively immediately nor exclusively afterwards, but that both viewpoints are correct. It is suggested here that before the end of a discourse economy plays a central role in that a canonical relation is assumed unless there is evidence to the contrary. A connective tie could have the function of reducing the dimensions evaluated in a discourse to the one signaled by the connective tie. At the end of the discourse the representation is evaluated and verified, and an integrated situation model constructed. Here, the complexity of the different discourse relations that connective ties can signal, is expressed.
Homocystein (tHcy) gilt als unabhängiger kardiovaskulärer Risikofaktor und korreliert eng mit einer endothelialen Dysfunktion, welche nichtinvasiv mittels der flussinduzierten Vasodilatation (FMD) messbar ist. Experimentelle Hyperhomocysteinämie ist mit einer reduzierten Bioverfügbarkeit von endothelialen Stickstoffmonoxid (NO) bei gleichzeitig erhöhten Spiegeln des kompetetiven Inhibitors der NO-Biosynthese asymmetrisches Dimethylarginin (ADMA) assoziiert. In-vivo senkt eine Östrogenbehandlung neben tHcy auch die ADMA-Spiegel und verbessert signifikant die Endothelfunktion. Hinsichtlich ihrer Wirkung als selektive Östrogenrezeptormodulatoren wird angenommen, dass Phytoöstrogene, speziell Sojaisoflavone, ähnliche Effekte hervorrufen. Innerhalb einer europäischen, multizentrischen, doppelblinden Interventionsstudie an 89 gesunden, postmenopausalen Frauen wurde der Einfluss von Sojaisoflavonen auf den Homocysteinmetabolismus, den Blutdruck und die in-vivo Endothelfunktion untersucht. Die cross-over Studie umfasste zwei achtwöchige Interventionsperioden, die von einer gleichlangen Wash-out-Phase unterbrochen waren. Die Zuteilung zum Isoflavon- (50 mg/d) oder Plazeboregime für die erste Interventionsphase erfolgte randomisiert. Endpunkterhebungen fanden jeweils in den Wochen 0 und 8 der Interventionsperioden statt. Die renale Ausscheidung von Genistein, Daidzein und Equol war während der Isoflavonintervention signifikant erhöht (P>0,001). Die Phyoöstrogene hatten weder einen Effekt auf die tHcy-Konzentration (P=0,286), noch auf ADMA, Erythrozytenfolat und Vitamin B-12 (P>0,05) im Plasma. Während die Summe aus Nitrat und Nitrit (NOx), welche die NO-Bioverfügbarkeit reflektiert, im Verlaufe der Plazebobehandlung abfiel, wurde ein leichter Anstieg bei der Isoflavonsupplementation beobachtet (Delta Wo8-Wo0: -2,60 [-8,75; 2,25] vs. 1,00 [-6,65; 7,85] µmol/L P<0,001), was zu einem signifikanten Behandlungseffekt führte. Weiterhin wurde eine positive Korrelation zwischen ADMA und Vitamin B-12 gefunden (R=0,252; P=0,018). Die flussinduzierte Vasodilatation (P=0,716), ein Maß für die Endothelfunktion, blieb durch die Isoflavonbehandlung unbeeinflusst, obwohl sich diese über die Zeit insgesamt verbesserte (P>0,001). Bis auf einen marginalen Anstieg des systolischen Wertes (P=0,032) im Vergleich zur Plazebobehandlung blieb der Blutdruck während der Isoflavonintervention unverändert. Im Gegensatz zu Östrogen übten Sojaisoflavone weder einen Einfluss auf die in-vivo Endothelfunktion noch auf die traditionellen und neuen kardiovaskulären Risikofaktoren den Blutdruck, tHcy und ADMA aus. Demzufolge ist der gesundheitliche Nutzen isolierter Isoflavone hinsichtlich einer Prävention hormonmangelbedingter Erkrankungen in gesunden postmenopausalen Frauen fraglich.
Self-assembly of polymeric building blocks is a powerful tool for the design of novel materials and structures that combine different properties and may respond to external stimuli. In the past decades, most studies were focused on the self-assembly of amphiphilic diblock copolymers in solution. The dissolution of these block copolymers in a solvent selective for one block results mostly in the formation of micelles. The micellar structure of diblock copolymers is inherently limited to a homogeneous core surrounded by a corona, which keeps the micelle in solution. Thus, for drug-delivery applications, such structures only offer a single domain (the hydrophobic inner core) for drug entrapment. Whereas multicompartment micelles composed of a water-soluble shell and a segregated hydrophobic core are novel, interesting morphologies for applications in a variety of fields including medicine, pharmacy and biotechnology. The separated incompatible compartments of the hydrophobic core could enable the selective entrapment and release of various hydrophobic drugs while the hydrophilic shell would permit the stabilization of these nanostructures in physiological media. However, so far, the preparation and control of stable multicompartment micellar systems are in the first stages and the number of morphological studies concerning such micelles is rather low. Thus considerably little is known about their exact inner structures. In the present study, we concentrate on four different approaches for the preparation of multicompartment micelles by self-assembly in aqueous media. A similarity of all approaches was that hydrocarbon and fluorocarbon blocks were selected for all employed copolymers since such segments tend to be strongly incompatible, and thus favor the segregation into distinct domains. Our studies have shown that the self-assembly of the utilized copolymers in aqueous solution leads in three cases to the formation of multicompartment micelles. As expected the shape and size of the micelles depend on the molecular architecture and to some extent also on the way of preparation. These novel structured colloids may serve as models as well as mimics for biological structures such as globular proteins, and may open interesting opportunities for nanotechnology applications.
Aufgrund des großen Verhältnisses von Oberfläche zu Volumen zeigen Nanopartikel interessante, größenabhängige Eigenschaften, die man im ausgedehnten Festkörper nicht beobachtet. Sie sind daher von großem wissenschaftlichem und technologischem Interesse. Die Herstellung kleinster Partikel ist aus diesem Grund überaus wünschenswert. Dieses Ziel kann mit Hilfe von Mikroemulsionen als Templatphasen bei der Herstellung von Nanopartikeln erreicht werden. Mikroemulsionen sind thermodynamisch stabile, transparente und isotrope Mischungen von Wasser und Öl, die durch einen Emulgator stabilisiert sind. Sie können eine Vielzahl verschiedener Mikrostrukturen bilden. Die Kenntnis der einer Mikroemulsion zugrunde liegenden Struktur und Dynamik ist daher von außerordentlicher Bedeutung, um ein gewähltes System potentiell als Templatphase zur Nanopartikelherstellung einsetzen zu können. In der vorliegenden Arbeit wurden komplexe Mehrkomponentensysteme auf der Basis einer natürlich vorkommenden Sojabohnenlecithin-Mischung, eines gereinigten Lecithins und eines Sulfobetains als Emulgatoren mit Hilfe der diffusionsgewichteten 1H-NMR-Spektroskopie unter Verwendung gepulster Feldgradienten (PFG) in Abhängigkeit des Zusatzes des Polykations Poly-(diallyl-dimethyl-ammoniumchlorid) (PDADMAC) untersucht. Der zentrale Gegenstand dieser Untersuchungen war die strukturelle und dynamische Charakterisierung der verwendeten Mikroemulsionen hinsichtlich ihrer potentiellen Anwendbarkeit als Templatphasen für die Herstellung möglichst kleiner Nanopartikel. Die konzentrations- und zeit-abhängige NMR-Diffusionsmessung stellte sich dabei als hervorragend geeignete und genaue Methode zur Untersuchung der Mikrostruktur und Dynamik in den vorliegenden Systemen heraus. Die beobachtete geschlossene Wasser-in-Öl- (W/O-) Mikrostruktur der Mikroemulsionen zeigt deutlich deren potentielle Anwendbarkeit in der Nanopartikelsynthese. Das Gesamtdiffusionsverhalten des Tensides wird durch variierende Anteile aus der Verschiebung gesamter Aggregate, der Monomerdiffusion im Medium bzw. der medium-vermittelten Oberflächendiffusion bestimmt. Dies resultierte in einigen Fällen in einer anormalen Diffusionscharakteristik. In allen Systemen liegen hydrodynamische und direkte Wechselwirkungen zwischen den Tensidaggregaten vor. Der Zusatz von PDADMAC zu den Mikroemulsionen resultiert in einer Stabilisierung der flüssigen Grenzfläche der Tensidaggregate aufgrund der Adsorption des Polykations auf den entgegengesetzt geladenen Tensidfilm und kann potentiell zu Nanopartikeln mit kleineren Dimensionen und schmaleren Größenverteilungen führen.
This thesis aimed to investigate several fundamental and perplexing questions relating to the phloem loading and transport mechanisms of Cucurbita maxima, by combining metabolomic analysis with cell biological techniques. This putative symplastic loading species has long been used for experiments on phloem anatomy, phloem biochemistry, phloem transport physiology and phloem signalling. Symplastic loading species have been proposed to use a polymer trapping mechanism to accumulate RFO (raffinose family oligosaccharides) sugars to build up high osmotic pressure in minor veins which sustains a concentration gradient that drives mass flow. However, extensive evidence indicating a low sugar concentration in their phloem exudates is a long-known problem that conflicts with this hypothesis. Previous metabolomic analysis shows the concentration of many small molecules in phloem exudates is higher than that of leaf tissues, which indicates an active apoplastic loading step. Therefore, in the view of the phloem metabolome, a symplastic loading mechanism cannot explain how small molecules other than RFO sugars are loaded into phloem. Most studies of phloem physiology using cucurbits have neglected the possible functions of vascular architecture in phloem transport. It is well known that there are two phloem systems in cucurbits with distinctly different anatomical features: central phloem and extrafascicular phloem. However, mistaken conclusions on sources of cucurbit phloem exudation from previous reports have hindered consideration of the idea that there may be important differences between these two phloem systems. The major results are summarized as below: 1) O-linked glycans in C.maxima were structurally identified as beta-1,3 linked glucose polymers, and the composition of glycans in cucurbits was found to be species-specific. Inter-species grafting experiments proved that these glycans are phloem mobile and transported uni-directionally from scion to stock. 2) As indicated by stable isotopic labelling experiments, a considerable amount of carbon is incorporated into small metabolites in phloem exudates. However, the incorporation of carbon into RFO sugars is much faster than for other metabolites. 3) Both CO2 labelling experiments and comparative metabolomic analysis of phloem exudates and leaf tissues indicated that metabolic processes other than RFO sugar metabolism play an important role in cucurbit phloem physiology. 4) The underlying assumption that the central phloem of cucurbits continuously releases exudates after physical incision was proved wrong by rigorous experiments including direct observation by normal microscopy and combined multiple-microscopic methods. Errors in previous experimental confirmation of phloem exudation in cucurbits are critically discussed. 5) Extrafascicular phloem was proved to be functional, as indicated by phloem-mobile carboxyfluorescein tracer studies. Commissural sieve tubes interconnect phloem bundles into a complete super-symplastic network. 6) Extrafascicular phloem represents the main source of exudates following physical incision. The major transported metabolites by these extrafacicular phloem are non-sugar compounds including amino acids, O-glycans, amines. 7) Central phloem contains almost exclusively RFO sugars, the estimated amount of which is up to 1 to 2 molar. The major RFO sugar present in central phloem is stachyose. 8) Cucurbits utilize two structurally different phloem systems for transporting different group of metabolites (RFO sugars and non-RFO sugar compounds). This implies that cucurbits may use spatially separated loading mechanisms (apoplastic loading for extrafascicular phloem and symplastic loading for central phloem) for supply of nutrients to sinks. 9) Along the transport systems, RFO sugars were mainly distributed within central phloem tissues. There were only small amounts of RFO sugars present in xylem tissues (millimolar range) and trace amounts of RFO sugars in cortex and pith. The composition of small molecules in external central phloem is very different from that in internal central phloem. 10) Aggregated P-proteins were manually dissected from central phloem and analysed by both SDS-PAGE and mass spectrometry. Partial sequences of peptides were obtained by QTOF de novo sequencing from trypsin digests of three SDS-PAGE bands. None of these partial sequences shows significant homology to known cucurbit phloem proteins or other plant proteins. This proves that these central phloem proteins are a completely new group of proteins different from those in extrafascicular phloem. The extensively analysed P-proteins reported in literature to date are therefore now shown to arise from extrafascicular phloem and not central phloem, and therefore do not appear to be involved in the occlusion processes in central phloem.
In der vorliegenden Arbeit werden die Eigenschaften geschlossener fluider Membranen, sogenannter Vesikeln, bei endlichen Temperaturen untersucht. Dies beinhaltet Betrachtungen zur Form freier Vesikeln, eine Untersuchung des Adhäsionsverhaltens von Vesikeln an planaren Substraten sowie eine Untersuchung der Eigenschaften fluider Vesikeln in eingeschränkten Geometrien. Diese Untersuchungen fanden mit Hilfe von Monte-Carlo-Simulationen einer triangulierten Vesikeloberfläche statt. Die statistischen Eigenschaften der fluktuierenden fluiden Vesikeln wurden zum Teil mittels Freier-Energie-Profile analysiert. In diesem Zusammenhang wurde eine neuartige Histogrammethode entwickelt.<BR> Die Form für eine freie fluide Vesikel mit frei veränderlichem Volumen, die das Konfigurationsenergie-Funktional minimiert, ist im Falle verschwindender Temperatur eine Kugel. Mit Hilfe von Monte-Carlo-Simulationen sowie einem analytisch behandelbaren Modellsystem konnte gezeigt werden, daß sich dieses Ergebnis nicht auf endliche Temperaturen verallgemeinern lässt und statt dessen leicht prolate und oblate Vesikelformen gegenüber der Kugelgestalt überwiegen. Dabei ist die Wahrscheinlichkeit für eine prolate Form ein wenig gröoßer als für eine oblate. Diese spontane Asphärizität ist entropischen Ursprungs und tritt nicht bei zweidimensionalen Vesikeln auf. Durch osmotische Drücke in der Vesikel, die größer sind als in der umgebenden Flüssigkeit, lässt sich die Asphärizität reduzieren oder sogar kompensieren. Die Übergänge zwischen den beobachteten prolaten und oblaten Formen erfolgen im Bereich von Millisekunden in Abwesenheit osmotisch aktiver Partikel. Bei Vorhandensein derartiger Partikel ergeben sich Übergangszeiten im Bereich von Sekunden. Im Rahmen der Untersuchung des Adhäsionsverhaltens fluider Vesikeln an planaren, homogenen Substraten konnte mit Hilfe von Monte-Carlo-Simulationen festgestellt werden, dass die Eigenschaften der Kontaktfläche der Vesikeln stark davon abhängen, welche Kräfte den Kontakt bewirken. Für eine dominierende attraktive Wechselwirkung zwischen Substrat und Vesikelmembran sowie im Falle eines Massendichteunterschieds der Flüssigkeiten innerhalb und außerhalb der Vesikel, der die Vesikel auf das Substrat sinken lässt, fndet man innerhalb der Kontakt ache eine ortsunabhangige Verteilung des Abstands zwischen Vesikelmembran und Substrat. Drückt die Vesikel ohne Berücksichtigung osmotischer Effekte auf Grund einer Differenz der Massendichten der Membran und der umgebenden Flüssigkeit gegen das Substrat, so erhält man eine Abstandsverteilung zwischen Vesikelmembran und Substrat, die mit dem Abstand vom Rand der Kontaktfläche variiert. Dieser Effekt ist zudem temperaturabhängig. Ferner wurde die Adhäsion fluider Vesikeln an chemisch strukturierten planaren Substraten untersucht. Durch das Wechselspiel von entropischen Effekten und Konfigurationsenergien entsteht eine komplexe Abhängigkeit der Vesikelform von Biegesteifigkeit, osmotischen Bedingungen und der Geometrie der attraktiven Domänen. Für die Bestimmung der Biegesteifigkeit der Vesikelmembranen liefern die existierenden Verfahren stark voneinander abweichende Ergebnisse. In der vorliegenden Arbeit konnte mittels Monte-Carlo-Simulationen zur Bestimmung der Biegesteifigkeit anhand des Mikropipettenverfahrens von Evans gezeigt werden, dass dieses Verfahren die a priori für die Simulation vorgegebene Biegesteifigkeit im wesentlichen reproduzieren kann. Im Hinblick auf medizinisch-pharmazeutische Anwendungen ist der Durchgang fluider Vesikeln durch enge Poren relevant. In Monte-Carlo-Simulationen konnte gezeigt werden, dass ein spontaner Transport der Vesikel durch ein Konzentrationsgefälle osmotisch aktiver Substanzen, das den physiologischen Bedingungen entspricht, induziert werden kann. Es konnten die hierfür notwendigen osmotischen Bedingungen sowie die charakteristischen Zeitskalen abgeschätzt werden. Im realen Experiment sind Eindringzeiten in eine enge Pore im Bereich weniger Minuten zu erwarten. Ferner konnte beobachtet werden, dass bei Vesikeln mit einer homogenen, positiven spontanen Krümmung Deformationen hin zu prolaten Formen leichter erfolgen als bei Vesikeln ohne spontane Krümmung. Mit diesem Effekt ist eine Verringerung der Energiebarriere für das Eindringen in eine Pore verbunden, deren Radius nur wenig kleiner als der Vesikelradius ist.
Moderne Softwaresysteme sind komplexe Gebilde, welche häufig im Verbund mit anderen technischen und betriebswirtschaftlichen Systemen eingesetzt werden. Für die Hersteller solcher Systeme stellt es oft eine große Herausforderung dar, den oft weit reichenden Anforderungen bezüglich der Anpassbarkeit solcher Systeme gerecht zu werden. Zur Erfüllung dieser Anforderungen hat es sich vielfach bewährt, eine virtuelle Maschine in das betreffende System zu integrieren. Die Dissertation richtet sich insbesondere an Personen, die vor der Aufgabe der Integration virtueller Maschinen in bestehende Systeme stehen und zielt darauf ab, solche für die Entscheidung über Integrationsfragen wichtigen Zusammenhänge klar darzustellen. Typischerweise treten bei der Integration einer virtuellen Maschine in ein System eine Reihe unterschiedlicher Problemstellungen auf. Da diese Problemstellungen oft eng miteinander verzahnt sind, ist eine isolierte Betrachtung meist nicht sinnvoll. Daher werden die Problemstellungen anhand eines zentral gewählten, sehr umfangreichen Beispiels aus der industriellen Praxis eingeführt. Dieses Beispiel hat die Integration der "Java Virtual Machine" in den SAP R/3 Application Server zum Gegenstand. Im Anschluss an dieses Praxisbeispiel wird die Diskussion der Integrationsproblematik unter Bezug auf eine Auswahl weiterer, in der Literatur beschriebener Integrationsbeispiele vertieft. Das Hauptproblem bei der Behandlung der Integrationsproblematik bestand darin, dass die vorgefundenen Beschreibungen, der als Beispiel herangezogenen Systeme, nur bedingt als Basis für die Auseinandersetzung mit der Integrationsproblematik geeignet waren. Zur Schaffung einer verwertbaren Diskussionsgrundlage war es daher erforderlich, eine homogene, durchgängige Modellierung dieser Systeme vorzunehmen. Die Modellierung der Systeme erfolgte dabei unter Verwendung der "Fundamental Modeling Concepts (FMC)". Die erstellten Modelle sowie die auf Basis dieser Modelle durchgeführte Gegenüberstellung der unterschiedlichen Ansätze zur LÖsung typischer Integrationsprobleme bilden den Hauptbeitrag der Dissertation. Im Zusammenhang mit der Integration virtueller Maschinen in bestehende Systeme besteht häufig der Bedarf, zeitgleich mehrere "Programme" durch die integrierte virtuelle Maschine ausführen zu lassen. Angesichts der Konstruktionsmerkmale vieler heute verbreiteter virtueller Maschinen stellt die Realisierung eines "betriebsmittelschonenden Mehrprogrammbetriebs" eine große Herausforderung dar. Die Darstellung des Spektrums an Maßnahmen zur Realisierung eines "betriebsmittelschonenden Mehrprogrammbetriebs" bildet einen zweiten wesentlichen Beitrag der Dissertation.
Einfluss von Intraguild Predation auf die Dynamik der Planktonsukzession in einem sauren Bergbausee
(2005)
Polymere sind zweifelsohne der Werkstoff in unserer Zeit. Ein bedeutender Anteil der heute industriell produzierten Polymere wird durch Emulsionspolymerisation hergestellt. Obwohl die Emulsionspolymerisation breite Anwendung findet, sind die involvierten Mechanismen von Teilchenbildung und -wachstum noch heute Gegenstand heftiger Kontroversen. Ein Spezialfall der Emulsionspolymerisation ist die emulgatorfreie Emulsionspolymerisation. Hierbei handelt es sich um ein scheinbar einfacheres System der Emulsionspolymerisation, weil diese Methode ohne Zusatz von Emulgatoren auskommt. Die Teilchenbildung ist ein fundamentaler Vorgang im Verlauf der Emulsionspolymerisation, da sie zur Ausbildung der polymeren Latexphase führt. Detaillierte Kenntnisse zum Mechanismus der Nukleierung ermöglichen eine bessere Kontrolle des Reaktionsverlaufes und damit der Eigenschaften des Endproduktes der Emulsionspolymerisation, dem Polymer-Latex. Wie bereits vorangegangene Arbeiten auf dem Gebiet der emulgatorfreien Emulsionspolymerisation von Styrol sowie Methylmethacrylat und Vinylacetat zeigen konnten, verläuft die Teilchenbildung in diesen Systemen über den Mechanismus der aggregativen Nukleierung. Im Zusammenhang mit den Ergebnissen der genannten Arbeiten tauchte dabei immer wieder ein interessanter Effekt im Bereich der Partikelnukleierung auf. Dieses als JUMBO-Effekt bezeichnete Phänomen zeigte sich reproduzierbar in einem Anstieg der Transmission im Bereich der Teilchenbildung von emulgatorfreien Emulsionspolymerisationen von Styrol, MMA und VAc. Nach der Initiierung der Polymerisation in einer wässrigen Monomerlösung durch Kaliumperoxodisulfat steigt die Durchlässigkeit bei 546 nm auf über 100 % an. Für diese „Abnahme der optischen Dichte“ wurden verschiedene Erklärungsmöglichkeiten vorgeschlagen, jedoch blieb ein Nachweis der Ursache für den JUMBO-Effekt bisher aus. Dieser Mangel an Aufklärung eines offenbar grundlegenden Phänomens in der emulgatorfreien Emulsionspolymerisation bildet den „Nukleus“ für die vorlie¬gende Arbeit. Durch die vorliegende Dissertation konnte das Verständnis für Phänomene der Teilchenbildung in der emulgatorfreien Emulsionspolymerisation von Styrol mit KPS erweitert werden. In diesem Rahmen wurde das Online-Monitoring des Polymerisationsvorganges verbessert und um verschiedene Methoden erweitert: Zur simultanen Erfassung von Trübungsdaten bei verschiedenen Wellenlängen konnte ein modernes Spektrometer in Kombination mit einer Lichtleitersonde in die Reaktionsapparatur integriert werden. Es wurde ein verbesserter Algorithmus zur Datenbearbeitung für die Partikelgrößenbestimmung mittels faseroptischer dynamischer Lichtstreuung entwickelt. Es wurden Online-Partikelgrößenanalysen mittels statischer Vielwinkellichtstreuung bei Polymerisationen direkt in entsprechenden Lichtstreuküvetten durchgeführt. Diese zur Beschreibung des untersuchten Systems eingeführten Methoden sowie ein zeitlich vollständiges Monitoring des gesamten Polymerisationsverlaufes, beginnend mit der Zugabe von Monomer zu Wasser, führten zu neuen Erkenntnissen zur emulgatorfreien Emulsionspolymerisation. Es wurden große Monomeraggregate, die sog. Nanotröpfchen, in wässriger Lösung (emulgatorfrei) nachgewiesen. Diese Aggregate bilden sich spontan und treten verstärkt in entgastem Wasser auf. Die Existenz von Nanotröpfchen in Verbindung mit Trübungs- und gaschromatografischen Messungen lässt auf eine molekular gelöste „Wirkkonzentration“ von Styrol in Wasser schließen, die bedeutend geringer ist als die absolute Sättigungskonzentration. Es konnten Hinweise auf eine Reaktion höherer Ordnung im System Wasser/Styrol/KPS gefunden werden. Es konnte gezeigt werden, dass eine präzise Einstellung der Nukleierungsdauer über die Zeit der Equilibrierung von Wasser mit Styrol möglich ist. Der JUMBO-Effekt, dem in dieser Arbeit ein besonderes Interesse galt, konnte in gewisser Weise entmystifiziert werden. Es konnte gezeigt werden, dass die Durchlässigkeit der Reaktionsmischung bereits beim Lösen von Styrol in Wasser durch Bildung von Styrolaggregaten abnimmt. Der darauf folgende kurzzeitige Transmissionsanstieg im Zusammenhang mit der Nukleierung erreicht dabei nicht mehr 100 % des Referenzwertes von reinem Wasser. Alle experimentellen Daten sprechen für die Nanotröpfchen als Ursache des JUMBO-Effekts. Wie die Ergebnisse dieser Arbeit zeigen, ist selbst das relativ „einfache“ System der emulgatorfreien Emulsionspolymerisation komplizierter als angenommen. Die Existenz von großen Styrolaggregaten in wässriger Lösung erfordert eine neue Betrachtungsweise des Reaktionssystems, in die auch der Lösungszustand des Monomers mit einbezogen werden muss.
Auf der Grundlage psycholinguistischer, deutsch-didaktischer und linguistischer Forschungsergebnisse wurde ein Lesetraining auf Silbenbasis entwickelt, in dem Kindern mit Leseschwierigkeiten explizit Strategien zur visuellen Gliederung von Wörtern in größere funktionale Einheiten (Silben, einzelne Wörter (bei Zusammensetzungen), Präfixe) vermittelt werden. Es wird davon ausgegangen, dass Kinder mit Leseschwierigkeiten Wörter in zu kleinen linguistischen Einheiten erlesen. Das Training basiert linguistisch auf der Schreibsilbe als funktionaler Einheit beim Lesen. Basis des Lesetrainings ist ein von Scheerer-Neumann (1981) durchgeführtes Training zur Verbesserung der Lesegenauigkeit von Grundschulkindern. Die empirische Überprüfung des Lesetrainings hatte zum einen das Ziel, die Wirksamkeit des Trainingsprogramms als solches zu überprüfen und zum anderen, ob das Training zu einer deutlich verbesserten Lesegeschwindigkeit und -genauigkeit bei Grundschulkindern der 3. und 4. Klassen führt. Das Training wurde von der Autorin ohne den Einsatz von Hilfskräften mit einer relativ kleinen Zahl von Kindern (N=11) durchgeführt, um so intensiv auf die Bedürfnisse der einzelnen Kinder eingehen und gegebenenfalls flexibel reagieren zu können. Aus organisatorischen und ethischen Gründen wurde auf eine Kontrollgruppe verzichtet. Die Wirksamkeit des Trainings wurde als Prätest-Training-Posttest-Follow-up Test-Design überprüft. Das Training umfasst 18 Einheiten (je 45 Minuten) und fand zweimal wöchentlich statt. Trainingsgruppen bestanden aus einer Dreiergruppe und einer Zweiergruppe; die anderen sechs Kinder wurden einzeln trainiert. Der Posttest nach Abschluss des Trainings zeigte deutliche Verbesserungen der Lesegeschwindigkeit und -genauigkeit, die zum Teil auch signifikant waren. Der Follow-up Test drei Monate nach Ende des Trainings zeigte weitere Verbesserungen, die ebenfalls zum Teil signifikant waren. Die Befunde sprechen dafür, dass das Trainingsprogramm geeignet ist, die Lesefähigkeit von leseschwachen Grundschulkindern der dritten und vierten Klasse zu verbessern. Die Teilnehmerzahl ist allerdings relativ gering, so dass die Ergebnisse nicht ohne weiteres auf die allgemeine Population von Kindern mit Leseschwierigkeiten übertragen werden können. Eine erneute Durchführung des Trainingsprogramms mit einer größeren Stichprobe und einer parallelisierten Kontrollgruppe, bei der die Kinder der Experimentalgruppe in größeren Gruppen trainiert werden, erscheint deshalb sinnvoll.
Thema dieser Arbeit sind echtzeitfähige 3D-Renderingverfahren, die 3D-Geometrie mit über der Standarddarstellung hinausgehenden Qualitäts- und Gestaltungsmerkmalen rendern können. Beispiele sind Verfahren zur Darstellung von Schatten, Reflexionen oder Transparenz. Mit heutigen computergraphischen Software-Basissystemen ist ihre Integration in 3D-Anwendungssysteme sehr aufwändig: Dies liegt einerseits an der technischen, algorithmischen Komplexität der Einzelverfahren, andererseits an Ressourcenkonflikten und Seiteneffekten bei der Kombination mehrerer Verfahren. Szenengraphsysteme, intendiert als computergraphische Softwareschicht zur Abstraktion von der Graphikhardware, stellen derzeit keine Mechanismen zur Nutzung dieser Renderingverfahren zur Verfügung. Ziel dieser Arbeit ist es, eine Software-Architektur für ein Szenengraphsystem zu konzipieren und umzusetzen, die echtzeitfähige 3D-Renderingverfahren als Komponenten modelliert und es damit erlaubt, diese Verfahren innerhalb des Szenengraphsystems für die Anwendungsentwicklung effektiv zu nutzen. Ein Entwickler, der ein solches Szenengraphsystem nutzt, steuert diese Komponenten durch Elemente in der Szenenbeschreibung an, die die sichtbare Wirkung eines Renderingverfahrens auf die Geometrie in der Szene angeben, aber keine Hinweise auf die algorithmische Implementierung des Verfahrens enthalten. Damit werden Renderingverfahren in 3D-Anwendungssystemen nutzbar, ohne dass ein Entwickler detaillierte Kenntnisse über sie benötigt, so dass der Aufwand für ihre Entwicklung drastisch reduziert wird. Ein besonderer Augenmerk der Arbeit liegt darauf, auf diese Weise auch verschiedene Renderingverfahren in einer Szene kombiniert einsetzen zu können. Hierzu ist eine Unterteilung der Renderingverfahren in mehrere Kategorien erforderlich, die mit Hilfe unterschiedlicher Ansätze ausgewertet werden. Dies erlaubt die Abstimmung verschiedener Komponenten für Renderingverfahren und ihrer verwendeten Ressourcen. Die Zusammenarbeit mehrerer Renderingverfahren hat dort ihre Grenzen, wo die Kombination von Renderingverfahren graphisch nicht sinnvoll ist oder fundamentale technische Beschränkungen der Verfahren eine gleichzeitige Verwendung unmöglich machen. Die in dieser Arbeit vorgestellte Software-Architektur kann diese Grenzen nicht verschieben, aber sie ermöglicht den gleichzeitigen Einsatz vieler Verfahren, bei denen eine Kombination aufgrund der hohen Komplexität der Implementierung bislang nicht erreicht wurde. Das Vermögen zur Zusammenarbeit ist dabei allerdings von der Art eines Einzelverfahrens abhängig: Verfahren zur Darstellung transparenter Geometrie beispielsweise erfordern bei der Kombination mit anderen Verfahren in der Regel vollständig neuentwickelte Renderingverfahren; entsprechende Komponenten für das Szenengraphsystem können daher nur eingeschränkt mit Komponenten für andere Renderingverfahren verwendet werden. Das in dieser Arbeit entwickelte System integriert und kombiniert Verfahren zur Darstellung von Bumpmapping, verschiedene Schatten- und Reflexionsverfahren sowie bildbasiertes CSG-Rendering. Damit stehen wesentliche Renderingverfahren in einem Szenengraphsystem erstmalig komponentenbasiert und auf einem hohen Abstraktionsniveau zur Verfügung. Das System ist trotz des zusätzlichen Verwaltungsaufwandes in der Lage, die Renderingverfahren einzeln und in Kombination grundsätzlich in Echtzeit auszuführen.
Finding millisecond binary pulsars in 47 tucanae by applying the hough transformation to radio data
(2005)
The multidrug and toxic compounds extrusion (MATE) family includes hundreds of functionally uncharacterised proteins from bacteria and all eukaryotic kingdoms except the animal kingdom, that function as drug/toxin::Na<sup>+ or H<sup>+ antiporters. In Arabidopsis thaliana the MATE family comprises 56 members, one of which is NIC2 (Novel Ion Carrier 2). Using heterologous expression systems including Escherichia coli and Saccharomyces cerevisiae, and the homologous expression system of Arabidopsis thaliana, the functional characterisation of NIC2 was performed. It has been demonstrated that NIC2 confers resistance of E. coli towards the chemically diverse compounds such as tetraethylammonium chloride (TEACl), tetramethylammonium chloride (TMACl) and a toxic analogue of indole-3-acetic acid, 5-fluoro-indole-acetic acid (F-IAA). Therefore, NIC2 may be able to transport a broad range of drug and toxic compounds. In wild-type yeast the expression of NIC2 increased the tolerance towards lithium and sodium, but not towards potassium and calcium. In A. thaliana, the overexpression of NIC2 led to strong phenotypic changes. Under normal growth condtions overexpression caused an extremely bushy phenotype with no apical dominance but an enhanced number of lateral flowering shoots. The amount of rossette leaves and flowers with accompanying siliques were also much higher than in wild-type plants and the senescence occurred earlier in the transgenic plants. In contrast, RNA interference (RNAi) used to silence NIC2 expression, induced early flower stalk development and flowering compared with wild-type plants. In additon, the main flower stalks were not able to grow vertically, but instead had a strong tendency to bend towards the ground. While NIC2 RNAi seedlings produced many lateral roots outgrowing from the primary root and the root-shoot junction, NIC2 overexpression seedlings displayed longer primary roots that were characterised by a 2 to 4 h delay in the gravitropic response. In addition, these lines exhibited an enhanced resistance to exogenously applied auxins, i.e. indole-3-acetic acid (IAA) and indole-3-butyric acid (IBA) when compared with the wild-type roots. Based on these results, it is suggested that the NIC2 overexpression and NIC2 RNAi phenotypes were due to decreased or increased levels of auxin, respectively. The ProNIC2:GUS fusion gene revealed that NIC2 is expressed in the stele of the elongation zone, in the lateral root cap, in new lateral root primordia, and in pericycle cells of the root system. In the vascular tissue of rosette leaves and inflorescence stems, the expression was observed in the xylem parenchyma cells, while in siliques it was also in vascular tissue, but as well in the dehiscence and abscission zones. The organ- and tissue-specific expression sites of NIC2 correlate with the sites of auxin action in mature Arabidopsis plants. Further experiments using ProNIC2:GUS indicated that NIC2 is an auxin-inducible gene. Additionally, during the gravitropic response when an endogenous auxin gradient across the root tip forms, the GUS activity pattern of the ProNIC2:GUS fusion gene markedly changed at the upper side of the root tip, while at the lower side stayed unchanged. Finally, at the subcellular level NIC2-GFP fusion protein localised in the peroxisomes of Nicotana tabacum BY2 protoplasts. Considering the experimental results, it is proposed that the hypothetical function of NIC2 is the efflux transport which takes part in the auxin homeostasis in plant tissues probably by removing auxin conjugates from the cytoplasm into peroxisomes.
During this PhD project three technical platforms were either improved or newly established in order to identify interesting genes involved in SNF, validate their expression and functionally characterise them. An existing 5.6K cDNA array (Colebatch et al., 2004) was extended to produce the 9.6K LjNEST array, while a second array, the 11.6K LjKDRI array, was also produced. Furthermore, the protocol for array hybridisation was substantially improved (Ott et al., in press). After functional classification of all clones according to the MIPS database and annotation of their corresponding tentative consensus sequence (TIGR) these cDNA arrays were used by several international collaborators and by our group (Krusell et al., 2005; in press). To confirm results obtained from the cDNA array analysis different sets of cDNA pools were generated that facilitate rapid qRT-PCR analysis of candidate gene expression. As stable transformation of Lotus japonicus takes several months, an Agrobacterium rhizogenes transformation system was established in the lab and growth conditions for screening transformants for symbiotic phenotypes were improved. These platforms enable us to identify genes, validate their expression and functionally characterise them in the minimum of time. The resources that I helped to establish, were used in collaboration with other people to characterise several genes like the potassium transporter LjKup and the sulphate transporter LjSst1, that were transcriptionally induced in nodules compared to uninfected roots, in more detail (Desbrosses et al., 2004; Krusell et al., 2005). Another gene that was studied in detail was LjAox1. This gene was identified during cDNA array experiments and detailed expression analysis revealed a strong and early induction of the gene during nodulation with high expression in young nodules which declines with the age of the nodule. Therefore, LjAox1 is an early nodulin. Promoter:gus fusions revealed an LjAox1 expression around the nodule endodermis. The physiological role of LjAox1 is currently being persued via RNAi. Using RNA interference, the synthesis of all symbiotic leghemoglobins was silenced simultaneously in Lotus japonicus. As a result, growth of LbRNAi lines was severely inhibited compared to wild-type plants when plants were grown under symbiotic conditions in the absence of mineral nitrogen. The nodules of these plants were arrested in growth 14 post inoculation and lacked the characteristic pinkish colour. Growing these transgenic plants in conditions where reduced nitrogen is available for the plant led to normal plant growth and development. This demonstrates that leghemoglobins are not required for plant development per se, and proves for the first time that leghemoglobins are indispensable for symbiotic nitrogen fixation. Absence of leghemoglobins in LbRNAi nodules led to significant increases in free-oxygen concentrations throughout the nodules, a decrease in energy status as reflected by the ATP/ADP ratio, and an absence of the bacterial nitrogenase protein. The bacterial population within nodules of LbRNAi plants was slightly reduced. Alterations of plant nitrogen and carbon metabolism in LbRNAi nodules was reflected in changes in amino acid composition and starch deposition (Ott et al., 2005). These data provide strong evidence that nodule leghemoglobins function as oxygen transporters that facilitate high flux rates of oxygen to the sites of respiration at low free oxygen concentrations within the infected cells.
Arabidopsis thaliana trichomes exhibit strong birefringence under polarized light, a characteristic of cell walls containing large amounts of highly ordered cellulose microfibrils. The tbr1 mutant of Arabidopsis lacks trichome birefringence and is deficient in secondary cell wall cellulose synthesis (Potikha and Delmer, 1995). The TBR gene was identified by recombinational mapping, candidate gene sequencing and molecular complementation using genomic cosmid clones, as well as a p35S:TBR genomic DNA construct, fully rescuing the mutant phenotype in both cases. The only mutant allele available (tbr-1) carries a substitution (G to E) in a conserved aminoacid domain of the protein. TBR gene structure was proved to have a longer size than the one found to be annotated at the time of identification in the data-base. A full cDNA clone containing the full transcript was available and also complementation experiments using different gene fragments (annotated and suggested) leaded to the result that TBR gene is indeed, longer. TBR encodes a novel plant-specific protein with predicted plasma membrane localization, therefore being consistent with idea that is required for-, or is a novel component of a functional cellulose synthase complex. TBR is part of an Arabidopsis gene/protein family, (TBL-trichome birefringence like) which, depending on homology, comprises up to 20 members, none of which has a biological or biochemical function attributed. T-DNA insertion lines in TBR gene and two close homologues have been screened by PCR, but no homozygous were found and no trichomes phenotype was identified. Promoter-GUS lines were produced for TBR, as well as for its two closest homologues (one being a segmentally duplicated gene on chromosome III), using 1.6-2 kb of promoter sequence upstream of the annotated start codons. The TBR promoter was the only one of the three that yielded trichome expression, this probably explaining the phenotype of the TBR mutant. Moreover, TBR is expressed in leaves, in growing lateral roots, and in vascular tissues of young Arabidopsis seedlings and plantlets. Later on, the expression appears in inflorescens, stems, flowers and green siliques. This expression pattern is largely overlapping with those of the two analyzed homologues and it corresponds with data of RT-PCR expression profiling performed for TBR and the two analyzed homologues in different tissues, at different developmental stages. Biochemical analysis of cell wall (leaves and trichomes), as GC and MALDI-TOF, were performed, but revealed no major differences between tbr1 and wild type plants. Scanning electron microscopy analysis and cell wall polysaccharides antibody labeling showed a clear difference in the trichomes cell wall structure between mutant plant and wild type.
Durch die anthropogene Nutzung sind viele Auen in Mitteleuropa verändert worden, wobei insbesondere die Retentionsflächen stark verringert wurden. Während Auen seit längerem im Fokus der wissenschaftlichen Bearbeitung stehen, gibt es bisher große Wissensdefizite in der Frage der Auenreaktivierungen. Zum einen sind derartige Projekte bisher kaum verwirklicht und zum anderen ist ein langfristiges Monitoring notwendig, um die Anpassung von Biozönosen an die veränderten Standortbedingungen beobachten zu können. Um die Folgen derartiger Eingriffe zu analysieren, bieten sich computergestützte Modellierungen der Landschaftsentwicklung an, wie sie in der vorliegenden Arbeit verwirklicht wurden. Ziel der Arbeit war, mit Hilfe eines Geografischen Informationssystems (GIS) das Entwicklungspotenzial der Landschaft bei verschiedenen Rückdeichungsvarianten auf der Ebene der Biotoptypen darzustellen. Dabei ging es nicht um die Erstellung eines allgemein gültigen Auenmodells sondern um die Erarbeitung eines Modells für einen konkreten Anwendungsfall. Der erarbeitete Ansatz sollte zudem für die landschaftsplanerische Praxis geeignet sein. Als Beispielgebiete wurden Flächen an der Mittleren Elbe bei Rogätz und Sandau, beide im nördlichen Teil von Sachsen-Anhalt, ausgewählt. Die vorliegende Arbeit gliedert sich in zwei Teile. Im ersten Teil werden Erhebungen und Auswertungen als Grundlage der Modellentwicklung dargestellt. Dazu wurden die Biotoptypen der Beispielgebiete flächendeckend erhoben und mit punktuellen Vegetationserhebungen ergänzt. Aus dem Forschungsprojekt "Rückgewinnung von Retentionsflächen und Altauenreaktivierung an der Mittleren Elbe in Sachsen-Anhalt" des Bundesministeriums für Bildung und Forschung (BMBF) standen standortökologische Daten der Hydrologie und Bodenkunde zur Verfügung. Ziel der Auswertung war, Schlüsselfaktoren für Hydrologie und Bodenbedingungen innerhalb der rezenten Aue zu identifizieren, die zur Ausprägung bestimmter Biotoptypen führen. Im zweiten Teil der Arbeit wurde ein Modell für Biotoptypenpotenziale auf den geplanten Rück–deichungsflächen entwickelt. Das Modell bearbeitet die Datenbank der verwendeten GIS-Dateien, die auf Daten zum Bestand beruht und um solche der Prognose der Standortökologie (Hydrologie und Boden) im Rückdeichungsfalle aus dem BMBF-Projekt erweitert wurde. Weitere Voraussetzung für die Modellierung war die Erarbeitung von Leitbildern, in denen unterschiedliche Nutzungsszenarios für die Landschaft nach Deichrückverlegung hypothetisch festgelegt wurden. Insbesondere die Nutzungsintensität wurde variiert, von einer Variante intensiver land- und forstwirtschaftlicher Nutzung über sogenannte integrierte Entwicklungsziele aus dem BMBF-Projekt bis hin zu einer Variante der Naturschutznutzung. Zusätzlich wurde eine zukünftige Potentielle Natürliche Vegetation modelliert. Eine Überprüfung des Modell fand für den Raum der rezenten Aue in der intensiven Nutzungsvariante statt, die der gegenwärtigen Nutzung am nächsten kommt. Werden Informationen des Bestandsbiotoptyps als Korrekturgröße in das Modell einbezogen, konnte für viele Biotoptypen eine Trefferquote von über 90 % erreicht werden. Bei flächenmäßig weniger bedeutenden Bio–toptypen lag dieser Wert aufgrund der schmaleren Datenbasis zwischen 20 und 40 %. Als Ergebnis liegt für unterschiedliche Deichvarianten und Leitbilder in den Beispielgebieten die Landschaftsentwicklung als Biotoppotenzial vor. Als eine vereinfachte Regionalisierung der punktuellen Vegetationsdaten wurde im Modell geprüft, inwieweit die modellierten Biotopflächen der Charakteristik der pflanzensoziologischen Aufnahmen aus der rezenten Aue entsprechen. In dem Falle wurde die Pflanzengesellschaft der jeweiligen ökologisch im Rahmen der Untersuchung einheitlichen Flächeneinheit zugeordnet. Anteilig lässt sich damit die Biotopprognosefläche pflanzensoziologisch konkretisieren. Die vorliegende Arbeit gehört zu den bisher wenigen Arbeiten, die sich mit den Folgen von Auenreaktivierung auf die Entwicklung der Landschaft auseinandersetzen. Sie zeigt eine Möglichkeit auf, Prognosemodelle für Biotoptypen und Vegetation anhand begrenzter Felduntersuchungen zu entwerfen. Derartige Modelle können zum Verständnis von Eingriffen in den Naturhaushalt, wie sie die Deichrückverlegungen darstellen, beitragen und eine Folgenabschätzung unterstützen.
In einer Zeit, in der eine Zunahme von ernährungsbedingten Erkrankungen in steigendem Maße zu beobachten ist, wird dem Getreide als Grundlage der menschlichen Ernährung erhöhte Aufmerksamkeit gewidmet. Ein hoher Verzehr von Ballaststoffen ist ein wesentlicher Aspekt in der präventiv-medizinischen Ernährung. Die von der Deutschen Gesellschaft für Ernährung vorgeschlagene tägliche Ballaststoffzufuhr liegt bei 30 g. Die Aufnahme von Ballaststoffen ist jedoch in Deutschland deutlich unterhalb dieser empfohlenen Menge. Getreideprodukte, besonders vom Vollkorntyp, sind die wichtigste Quelle für Ballaststoffe. Deshalb sollten im Rahmen dieser Arbeit direkt verzehrsfähige, Ballaststoff-angereicherte Haferprodukte (vorwiegend Extrudate) mit hohen Gehalten an b-Glucanen und resistenter Stärke hergestellt, analysiert und nachfolgend auf relevante ernährungsphysiologische Wirkungen geprüft werden. Als Basis für die Produkte wurden Hafermehl und Haferkleie eingesetzt. Der erste Teil der Arbeit beschäftigte sich mit der Analyse der Haferprodukte. Diese wiesen eine hohe Wasserbindungskapazität auf. Bei den Untersuchungen am Tiermodell wurde gezeigt, dass im Dünndarm eine größere Menge an Wasser durch die Haferprodukte gebunden wurde, was zu einem höheren Feuchtigkeitsanteil der gastrointestinalen Inhalte der Tiere führte, die ballaststoffreiches Futter erhielten. Trotz der hydrothermischen Behandlung während der Extrusion wurden Produkte gewonnen, deren β-Glucane im hochmolekularen Zustand erhalten blieben und somit eine hohe Viskosität in wässrigen Lösungen beibehielten. In rheologischen Untersuchungen wurde bestätigt, dass die aus Haferprodukten isolierten β-Glucane ein pseudoplastisches Fließverhalten besitzen. Demgegenüber führte ein Autoklavieren der Produkte zu einer starken Depolymerisation der b-Glucane, was sich in einer Änderung der funktionellen Eigenschaften der b-Glucane widerspiegelte. Im Mittelpunkt der Untersuchungen standen ernährungsphysiologische In-vitro- und In-vivo-Experimente mit Extrudaten und Proben auf der Basis von Hafer, die einen erhöhten Anteil an Ballaststoffen, speziell an b-Glucan und an resistenter Stärke, besaßen und die direkt verzehrbar sind. Diese Haferprodukte zeigten eine Reihe von ernährungsphysiologisch vorteilhaften und protektiven Wirkungen in In-vitro-Experimenten. So traten sie mit Gallensäuren unter den Bedingungen des Dünndarms in Wechselwirkung und waren gut mit Faecesflora vom Menschen fermentierbar. Die In-vitro-Verdauung von Maisstärke durch Pankreatin, wurde durch die ballaststoffreichen Haferprodukte partiell gehemmt. Dieser Befund lässt eine Abschwächung des postprandialen Glukoseanstieges erwarten. In einem sechswöchigen Fütterungsversuch erhielten Ratten Diäten, die zu 50 % aus ballaststoffreichen Haferprodukten bestanden. Diese Haferprodukte bewirkten einen erhöhten Transport von Gallensäuren und neutralen Sterolen in den unteren Intestinaltrakt sowie deren verstärkte Ausscheidung. Durch den Verzehr der ballaststoffreichen Haferprodukte kam es zu Veränderungen in der Mikroflora, wobei sich besonders die coliformen Keime verminderten und die Keimzahlen der Lactobacillen sowie die Bifidobakterien erhöhten. Die Fermentation der Ballaststoffe führte zur erhöhten Bildung von kurzkettigen Fettsäuren einschließlich von Butyrat. Die Bildung der kurzkettigen Fettsäuren geht mit einer pH-Wert-Absenkung im Caecum und Colon einher, die wiederum für eine geringere Bildung von sekundären Gallensäuren verantwortlich ist. Die Ergebnisse des Fütterungsversuchs an Ratten wurden prinzipiell durch eine vierwöchige Pilotstudie am Menschen, in der Probanden täglich 100 g Haferextrudat erhielten, bestätigt. Das Extrudat wurde von den Probanden gut akzeptiert. In der 4. Woche wurden eine geringe Abnahme der Cholesterolfraktionen im Serum, höhere Keimzahlen für Lactobacillen, Bifidobacterien und Bacteroides, geringere pH-Werte und Trockenmassegehalte in den Faeces, eine Zunahme der individuellen und Gesamt-SCFA sowie des Butyratanteils in den Faeces, eine erhöhte Ausscheidung an Steroiden, eine Zunahme der primären Gallensäuren und eine Abnahme des prozentualen Anteils an sekundären Gallensäuren sowie der Cholesterol-Metaboliten gefunden. Diese Parameter gingen 2 Wochen nach Beendigung der Intervention mit dem Haferextrudat wieder in Richtung der Ausgangswerte (0. Woche) zurück. Die untersuchten Haferprodukte erwiesen sich als gut fermentierbare Substrate für die intestinale Mikroflora und können deshalb als ein Präbiotikum mit Ballaststoffcharakter eingeschätzt werden. Diese Produkte, die mit einem erhöhten Anteil an resistenter Stärke und wertvollen Haferballaststoffen hergestellt wurden, können dazu beitragen, die Ballaststofflücke in unserer Ernährung zu schließen und positive ernährungsphysiologische Effekte zu bewirken.
Der Adhäsionsprozess an Cellulosefasern sollte bis hin zur molekularen Ebene aufgeklärt werden. Zuerst wurde eine definierte Celluloseoberfläche durch Aufschleudern hergestellt und eingehend charakterisiert wurde. Die Beschaffenheit der Oberfläche ist stark abhängig von der Konzentration Celluloselösung, die für das Aufschleudern benutzt wurde. Für geringe Konzentrationen bildete sich ein Netzwerk von Cellulosefibrillen über die Siliziumoberfläche aus. In einem mittleren Bereich wurden geschlossene Filme mit Dicken zwischen 1,5 und ca. 10 nm erhalten. Diese Filme wiesen eine Rauhigkeit unter 2 nm auf, was der Größe eines Cellulosemoleküls entspräche. Mit höheren Konzentrationen wurden die Filme dicker und auch rauer. Die molekular glatten Cellulosefilme wurden zur Untersuchung der Adhäsionseigenschaften zwischen Celluloseoberflächen und ihrer Modifikation durch den Einfluss von Haftvermittlern (Polyelektrolyte) eingesetzt. Dafür wurde das Haftungsvermögen von Celluloseperlen auf der glatten Celluloseoberfläche analysiert. Die Adhäsion der Celluloseperlen hängt dabei von der Menge und von der Art des adsorbierten Polyelektrolyts ab. Geringe Polyelektrolytkonzentrationen ermöglichen wegen der teilweisen Bedeckung der Celluloseoberflächen eine Verstärkung der Haftvermittlung (Adhäsion). Höhere Konzentrationen an Polyelektrolyten bedecken die Celluloseoberfläche komplett, so dass die Symmetrie der Polyelektrolytadsorption entscheidend wird. Wenn Celluloseperlen und glatte Celluloseoberfläche gleichzeitig mit Polyelektrolyten beschichtet werden verringert sich bei hohen Konzentrationen die Adhäsion erheblich. Ein hohes Maß an Adhäsion wird dagegen erreicht, wenn nur eine der beiden gegenüberliegende Celluloseoberflächen separat beschichtet und dann in Kontakt mit der anderen gebracht Oberfläche wurde. Der Einfluss einer äußeren Kraft auf die haftenden Celluloseperlen wurde untersucht, um eine Aussage über die auftretenden Adhäsionskräfte machen zu können. Dafür wurde eine spezielle Strömungszelle entwickelt, mit der die Bewegung von Celluloseperlen beobachtet werden kann. Je nach Ausrichtung der Strömungszelle bewegten sich die Celluloseperlen unterschiedlich schnell. War die Strömungszelle horizontal ausgerichtet, wirkte zusätzlich zur Adhäsionskraft noch die Gravitation auf die Oberfläche, so dass hier eine wesentlich langsamere Durchschnittsgeschwindigkeit ermittelt wurde als für die Messungen in vertikaler Ausrichtung. Die Zugabe von verschiedenen Polyelektrolyten bei den Messungen mit der Strömungszelle hatte einen erheblichen Einfluss auf die Beweglichkeit der haftenden Celluloseperlen. Bei geringen Polyelektrolytkonzentrationen wurde das Potential der einzelnen Polyelektrolyten zur effektiven Haftvermittlung durch eine signifikant geringere Durchschnittsgeschwindigkeit der rollenden Celluloseperlen sichtbar. Aus der kritischen Anfangsgeschwindigkeit der rollenden Celluloseperlen wurde die Adhäsionsarbeit errechnet, die für die Bewegung nötig ist.
Die Entwicklung von Dickdarmkrebs wird durch eine Reihe von Lebens- und Essgewohnheiten sowie Umweltfaktoren begünstigt. Den letzteren beiden sind Substanzen zuzurechnen, die bei der Zubereitung der Nahrung entstehen und mit ihr aufgenommen werden. Zu diesen Verbindungen gehört das 2-Amino-1-methyl-6-phenylimidazo[4,5-b]pyridin (PhIP) aus der Substanzklasse der heterozyklischen aromatischen Amine. Es entsteht bei der Erhitzung zahlreicher proteinhaltiger Nahrungsmittel und die Zielorgane in Nagerstudien stimmen mit der Häufung von Krebsinzidenzen in westlichen Industrienationen überein. Dieser Zusammenhang konnte jedoch bis heute nicht endgültig bewiesen werden. Fütterungsversuche mit Ratten wurden mit Konzentrationen der Substanz durchgeführt, die weit über der menschlichen Exposition liegen. Durch das Verfüttern einer humanrelevanten Dosis PhIP sollte geklärt werden, ob auch geringe Konzentrationen dickdarmkrebstypische Mutationen, präneoplastische Läsionen oder Tumore induzierten. Die mit humanrelevanten Dosen gefütterten Tiere wiesen weniger Läsionen als die Hoch-Dosis-PhIP-Gruppe auf, in der allerdings keinerlei maligne Tumoren des Dickdarms auftraten. Hinweise auf dickdarmkrebstypische Mutationen fanden sich ebenfalls in beiden Gruppen, wobei hier keine Dosisabhängigkeit beobachtet werden konnte. Die Sequenzierung ergab ein deutlich von Literaturdaten abweichendes Spektrum. In Bezug auf das verwendete Tiermodell wurden erhebliche Abweichungen in der Empfindlichkeit der Tiere gegenüber der Substanz im Vergleich zu ähnlichen Studien festgestellt. Beide Fütterungsgruppen zeigten deutlich weniger Läsionen; als mögliche Gründe wurden Unterschiede in der Futterzusammensetzung und –zubereitung sowie in der Tierhaltung und –herkunft ausgemacht. Es konnte erstmalig ein Zusammenhang zwischen PhIP in niedrigen Dosen in der Nahrung und der Induktion von Entzündungen gezeigt werden. Diese waren sowohl makroskopisch als auch histologisch sichtbar, der genaue Mechanismus ihrer Entstehung ist jedoch unbekannt. Die zusammenfassende Betrachtung aller Ergebnisse lässt vermuten, dass PhIP allein über lange Zeiträume aber in geringen Dosen verabreicht nicht für die hohe Zahl an Krebserkrankungen in westlichen Industrienationen ursächlich ist.
The major aim of this work was the identification of new phloem sap proteins and a metabolic characterisation of this transport fluid. The experiments were performed on the three plant species C. sativus, C. maxima and B. napus. To characterise the phloem samples from B. napus, a new model plant for phloem analysis, western blot tests together with metabolite profiling were performed. GC-MS metabolite profiling and enzyme assays were used for measuring metabolites in the phloem of B. napus. Results from the phloem sap measurements showed, as expected, a typical sugar distribution for apoplasmic phloem loaders with sucrose being the predominant sugar. In stem extracts, the most abundant sugar was glucose with much lower fructose and sucrose levels. With the GC-MS approach it was possible to identify a number of metabolites which showed a differential distribution when phloem and stem tissue extracts were compared. For protein identification, two different approaches were employed (i) screening expression libraries with total phloem protein specific antisera and (ii) protein separation on 2 DE gels followed by ESI-MS/MS sequence analyses. For the first approach, three different phloem protein-specific antisera were produced and expression libraries were constructed. Phloem protein antisera were tested for specificity and some attempts to estimate specific epitopes were undertaken. Screening of the libraries resulted in the identification of 14 different proteins from all investigated species. Analyses of B. napus phloem sap proteins from 2 DE with ESI-MS/MS resulted in the identification of 5 different proteins. The phloem localisation of the identified proteins was additionally confirmed by western blot tests using specific antibodies. In order to functionally characterise some selected phloem proteins from B. napus, the group of potential calcium-binding polypeptides was analysed for functional Ca<sup>+2 binding properties and several Ca<sup>+2–binding proteins could be isolated. However, their sequences could as yet not be determined. Another approach used for functional protein characterisation was the analysis of Arabidopsis T-DNA insertion mutants. Four available mutants with insertions in phloem protein-specific genes were chosen from the SALK and GABI-Kat collections and selected homozygous lines were tested for the presence of the investigated proteins. In order to verify if the product of one of the mutated gene (GRP 7) is transported through the phloem, grafting experiments were performed followed by western blot analyses. Although the employed antiserum against GRP 7 protein did not allow distinguishing between the mutant and the wild type plants, successful Arabidopsis grafting could be established as a promising method for further studies on protein translocation through the phloem.
We present an application of imprecise probability theory to the quantification of uncertainty in the integrated assessment of climate change. Our work is motivated by the fact that uncertainty about climate change is pervasive, and therefore requires a thorough treatment in the integrated assessment process. Classical probability theory faces some severe difficulties in this respect, since it cannot capture very poor states of information in a satisfactory manner. A more general framework is provided by imprecise probability theory, which offers a similarly firm evidential and behavioural foundation, while at the same time allowing to capture more diverse states of information. An imprecise probability describes the information in terms of lower and upper bounds on probability. For the purpose of our imprecise probability analysis, we construct a diffusion ocean energy balance climate model that parameterises the global mean temperature response to secular trends in the radiative forcing in terms of climate sensitivity and effective vertical ocean heat diffusivity. We compare the model behaviour to the 20th century temperature record in order to derive a likelihood function for these two parameters and the forcing strength of anthropogenic sulphate aerosols. Results show a strong positive correlation between climate sensitivity and ocean heat diffusivity, and between climate sensitivity and absolute strength of the sulphate forcing. We identify two suitable imprecise probability classes for an efficient representation of the uncertainty about the climate model parameters and provide an algorithm to construct a belief function for the prior parameter uncertainty from a set of probability constraints that can be deduced from the literature or observational data. For the purpose of updating the prior with the likelihood function, we establish a methodological framework that allows us to perform the updating procedure efficiently for two different updating rules: Dempster's rule of conditioning and the Generalised Bayes' rule. Dempster's rule yields a posterior belief function in good qualitative agreement with previous studies that tried to constrain climate sensitivity and sulphate aerosol cooling. In contrast, we are not able to produce meaningful imprecise posterior probability bounds from the application of the Generalised Bayes' Rule. We can attribute this result mainly to our choice of representing the prior uncertainty by a belief function. We project the Dempster-updated belief function for the climate model parameters onto estimates of future global mean temperature change under several emissions scenarios for the 21st century, and several long-term stabilisation policies. Within the limitations of our analysis we find that it requires a stringent stabilisation level of around 450 ppm carbon dioxide equivalent concentration to obtain a non-negligible lower probability of limiting the warming to 2 degrees Celsius. We discuss several frameworks of decision-making under ambiguity and show that they can lead to a variety of, possibly imprecise, climate policy recommendations. We find, however, that poor states of information do not necessarily impede a useful policy advice. We conclude that imprecise probabilities constitute indeed a promising candidate for the adequate treatment of uncertainty in the integrated assessment of climate change. We have constructed prior belief functions that allow much weaker assumptions on the prior state of information than a prior probability would require and, nevertheless, can be propagated through the entire assessment process. As a caveat, the updating issue needs further investigation. Belief functions constitute only a sensible choice for the prior uncertainty representation if more restrictive updating rules than the Generalised Bayes'Rule are available.
In an experimental study the attempt was made to examine the effects of the Reciprocal Teaching method on measures of metacognition and try to identify the effective features of this method that are necessary for the learning gains to occur. Reciprocal Teaching, originally developed by Palincsar and Brown (1984), is a very successful training program which was designed to improve student's reading comprehension skills by teaching them reading strategies. In the present study the tasks and responsibilities assumed by 5thgrade elementary students (N = 55) participating in a 16-session reading strategy training were varied systematically. Not only the students who participated in the training program in one of the three experimental conditions were compared with respect to knowledge and performance measures, but there was also a comparison to their control classmates who did not participate in strategy training (N = 86). Detailed analyses of video-taped sessions provided additional information. The strategy training was most beneficial for measures of knowledge and performance more closely related to the content of the training program, namely knowledge about specific reading strategies taught in training and application of those strategies. No significant effects were observed for more distal measures (general strategy knowledge, reading comprehension). As for the features of the program, it could be shown that students of the two experimental conditions where the students were responsible for giving each other feedback on performance (with respect to both content and strategy application) and guiding the correction of the answer outperformed both the experimental condition in which the trainer was responsible for those tasks and the control group. It is concluded that it is not merely the application of strategies, but the combination of strategy application with concurrent teaching and learning of metacognitive acquisition procedures (analysis, monitoring, evaluation, and regulation) in an inter-individual way as the precedent of these processes occurring intra-individually that seems to be an efficient way of acquiring metacognitive knowledge and skills. It was also shown that strategy training does not necessarily have to include the precise kind of interaction that characterizes the Reciprocal Teaching method. Instead, the tasks of monitoring, evaluating, and regulating other children's learning processes - i.e., tasks associated with the "teacher role" - are the ones that promote the acquisition of metacognitive knowledge and skills. Generally, any strategy training program that not only provides children with plentiful opportunities for practice, but also prompts them to engage in these kinds of metacognitive processes, may help children to acquire metacognitive knowledge and skills.
In silico identification of genes regulated by abscisic acid in Arabidopsis thaliana (L.) Heynh.
(2005)
Abscisic acid (ABA) is a major plant hormone that plays an important role during plant growth and development. During vegetative growth ABA mediates (in part) responses to various environmental stresses such as cold, drought and high salinity. The response triggered by ABA includes changes in the transcript level of genes involved in stress tolerance. The aim of this project was the In silico identification of genes putatively regulated by ABA in A. thaliana. In silico predictions were combined with experimental data in order to evaluate the reliability of computational predictions. Taking advantage of the genome sequence of A. thaliana publicly available since 2000, 1 kb upstream sequences were screened for combinations of cis-elements known to be involved in the regulation of ABA-responsive genes. It was found that around 10 to 20 percent of the genes of A. thaliana might be regulated by ABA. Further analyses of the predictions revealed that certain combinations of cis-elements that confer ABA-responsiveness were significantly over-represented compared with results in random sequences and with random expectations. In addition, it was observed that other combinations that confer ABA-responsiveness in monocotyledonous species might not be functional in A. thaliana. It is proposed that ABA-responsive genes in A. thaliana show pairs of ABRE (abscisic acid responsive element) with MYB binding sites, DRE (dehydration responsive element) or with itself. The analysis of the distances between pairs of cis-elements suggested that pairs of ABREs are bound by homodimers of ABRE binding proteins. In contrast, pairs between MYB binding sites and ABRE, or DRE and ABRE showed a distance between cis-elements that suggested that the binding proteins interact through protein complexes and not directly. The comparison of computational predictions with experimental data confirmed that the regulatory mechanisms leading to the induction or repression of genes by ABA is very incompletely understood. It became evident that besides the cis-elements proposed in this study to be present in ABA-responsive genes, other known and unknown cis-elements might play an important role in the transcriptional regulation of ABA-responsive genes. For example, auxin-related cis elements, or the cis-elements recognized by the NAM-family of transcription factors (Non-Apical meristem). This work documents the use of computational and experimental approaches to analyse possible interactions between cis-elements involved in the regulation of ABA-responsive genes. The computational predictions allowed the distinction between putatively relevant combinations of cis-elements from irrelevant combinations of cis-elements in ABA-responsive genes. The comparison with experimental data allowed to identify certain cis-elements that have not been previously associated to the ABA-mediated transcriptional regulation, but that might be present in ABA-responsive genes (e.g. auxin responsive elements). Moreover, the efforts to unravel the gene regulatory network associated with the ABA-signalling pathway revealed that NAM-transcription factors and their corresponding binding sequences are important components of this network.
The scope of this study is to investigate the environmental change in the German part of the Elbe river basin, whereby the focus is on two water related problems: having too little water and having water of poor quality. The Elbe region is representative of humid to semi-humid landscapes in central Europe, where water availability during the summer season is the limiting factor for plant growth and crop yields, especially in the loess areas, where the annual precipitation is lower than 500 mm. It is most likely that water quantity problems will accelerate in future, because both the observed and the projected climate trend show an increase in temperature and a decrease in annual precipitation, especially in the summer. Another problem is nutrient pollution of rivers and lakes. In the early 1990s, the Elbe was one of the most heavily polluted rivers in Europe. Even though nutrient emissions from point sources have notably decreased in the basin due to reduction of industrial sources and introduction of new and improved sewage treatment facilities, the diffuse sources of pollution are still not sufficiently controlled. The investigations have been done using the eco-hydrological model SWIM (Soil and Water Integrated Model), which has been embedded in a model framework of climate and agro-economic models. A global scenario of climate and agro-economic change has been regionalized to generate transient climate forcing data and land use boundary conditions for the model. The model was used to transform the climate and land use changes into altered evapotranspiration, groundwater recharge, crop yields and river discharge, and to investigate the development of water quality in the river basin. Particular emphasis was given to assessing the significance of the impacts on the hydrology, taking into account in the analysis the inherent uncertainty of the regional climate change as well as the uncertainty in the results of the model. The average trend of the regional climate change scenario indicates a decrease in mean annual precipitation up to 2055 of about 1.5 %, but with high uncertainty (covering the range from -15.3 % to +14.8 %), and a less uncertain increase in temperature of approximately 1.4 K. The relatively small change in precipitation in conjunction with the change in temperature leads to severe impacts on groundwater recharge and river flow. Increasing temperature induces longer vegetation periods, and the seasonality of the flow regime changes towards longer low flow spells in summer. As a results the water availability will decrease on average of the scenario simulations by approximately 15 %. The increase in temperatures will improve the growth conditions for temperature limited crops like maize. The uncertainty of the climate trend is particularly high in regions where the change is the highest. The simulation results for the Nuthe subbasin of the Elbe indicate that retention processes in groundwater, wetlands and riparian zones have a high potential to reduce the nitrate concentrations of rivers and lakes in the basin, because they are located at the interface between catchment area and surface water bodies, where they are controlling the diffuse nutrient inputs. The relatively high retention of nitrate in the Nuthe basin is due to the long residence time of water in the subsurface (about 40 years), with good conditions for denitrification, and due to nitrate retention and plant uptake in wetlands and riparian zones. The concluding result of the study is that the natural environment and communities in parts of Central Europe will have considerably lower water resources under scenario conditions. The water quality will improve, but due to the long residence time of water and nutrients in the subsurface, this improvement will be slower in areas where the conditions for nutrient turn-over in the subsurface are poor.
Durch die Stilllegung der Kali-Gewinnung und -Produktion zwischen 1990 und 1993 sowie die begonnene Rekultivierung der Kali-Rückstandshalden haben sich die Salzfrachteintragsbedingungen für die Fließgwewässer im "Südharz-Kalirevier" in Thüringen zum Teil deutlich verändert. Aufgrund erheblich geringerer Salzeinträge in die Vorfluter Wipper und Bode ist es möglich geworden, zu einer ökologisch verträglichen Salzfrachtsteuerung überzugehen. Die Komplexität der zugrunde liegenden Stofftransportprozesse im Einzugsgebiet der Wipper macht es jedoch unumgänglich, den Steuerungsvorgang nicht nur durch reine Bilanzierungsvorgänge auf der betrachteten Steuerstrecke zu erfassen (so wie bisher praktiziert), sondern auch die Abflussdynamik im Fließgewässer und den Wasserhaushalt im Gebiet mit einzubeziehen. Die Ergebnisse dieser Arbeit dienen zum einen einer Vertiefung der Prozessverständnisse und der Interaktion von Wasserhaushalt, Abflussbildung sowie Stofftransport in bergbaubeeinflussten Einzugsgebieten am Beispiel der Unstrut bzw. ihrer relevanten Nebenflüsse. Zum anderen sollen sie zur Analyse und Bewertung eines Bewirtschaftungsplanes für die genannten Fließgewässer herangezogen werden können. Ziel dieser Arbeit ist die Erstellung eines prognosetauglichen Steuerungsinstrumentes, das für die Bewirtschaftung von Flusseinzugsgebieten unterschiedlicher Größe genutzt und unter den Rahmenbedingungen der bergbaubedingten salinaren Einträge effektiv zur Steuerung der anthropogenen Frachten eingesetzt werden kann. Die Quellen der anthropogen eingeleiteten Salzfracht sind vor allem die Rückstandshalden der stillgelegten Kaliwerke. Durch Niederschläge entstehen salzhaltige Haldenabwässer, die zum Teil ungesteuert über oberflächennahe Ausbreitungsvorgänge direkt in die Vorfluter gelangen, ein anderer Teil wird über die Speichereinrichtungen gefasst und gezielt abgestoßen. Durch Undichtigkeiten des Laugenstapelbeckens in Wipperdorf gelangen ebenfalls ungesteuerte Frachteinträge in die Wipper. Ein weiterer Eintragspfad ist zudem die geogene Belastung. Mit Hilfe detaillierter Angaben zu den oben genannten Eintragspfaden konnten Modellrechnungen im Zeitraum von 1992 bis 2003 durchgeführt werden. Durch die Ausarbeitung eines neuartigen Steuerungskonzeptes für das Laugenstapelbecken Wipperdorf, war es nun möglich, die gefasste Haldenlauge entsprechend der aktuellen Abflusssituation gezielt abstoßen zu können. Neben der modelltechnischen Erfassung der aktuellen hydrologischen Situation und der Vorgabe eines Chlorid-Konzentrationssteuerzieles für den Pegel Hachelbich, mussten dabei weitere Randbedingungen (Beckenkapazität, Beckenfüllstand, Mindestfüllstand, Kapazität des Ableitungskanals, usw.) berücksichtigt werden. Es zeigte sich, dass unter Anwendung des Steuerungskonzeptes die Schwankungsbreite der Chloridkonzentration insgesamt gesehen deutlich verringert werden konnte. Die Überschreitungshäufigkeiten bezüglich eines Grenzwertes von 2 g Chlorid/l am Pegel Hachelbich fielen deutlich, und auch die maximale Dauer einer solchen Periode konnte stark verkürzt werden. Kritische Situationen bei der modelltechnischen Frachtzusteuerung traten nur dann auf, wenn Niedrigwasserverhältnisse durch die Simulationsberechnungen noch unterschätzt wurden. Dies hatte deutliche Überschreitungen der Zielvorgaben für den Pegel Hachelbich zur Folge. Mit Hilfe des Steuerungsalgorithmus konnten desweiteren auch Szenarienberechnungen durchgeführt werden, um die Auswirkungen zukünftig zu erwartender Salzfrachten näher spezifizieren zu können. Dabei konnte festgestellt werden, dass Abdichtungsmaßnahmen der Haldenkörper sich direkt positiv auf die Entwicklung der Konzentration in Hachelbich auswirkten. Durch zusätzlich durchgeführte Langzeitszenarien konnte darüber hinaus nachgewiesen werden, dass langfristig eine Grenzwertfestlegung auf 1,5 g Chlorid/l in Hachelbich möglich ist, und die Stapelkapazitäten dazu ausreichend bemessen sind.
Interkonversion zellulärer Signaltransduktionsprozesse durch Phosphorylierung und Redoxregulation
(2005)
Origin and symmetry of the observed global magnetic fields in galaxies are not fully understood. We intend to clarify the question of the magnetic field origin and investigate the global action of the magneto-rotational instability (MRI) in galactic disks with the help of 3D global magneto-hydrodynamical (MHD) simulations. The calculations were done with the time-stepping ZEUS 3D code using massive parallelization. The alpha-Omega dynamo is known to be one of the most efficient mechanisms to reproduce the observed global galactic fields. The presence of strong turbulence is a pre-requisite for the alpha-Omega dynamo generation of the regular magnetic fields. The observed magnitude and spatial distribution of turbulence in galaxies present unsolved problems to theoreticians. The MRI is known to be a fast and powerful mechanism to generate MHD turbulence and to amplify magnetic fields. We find that the critical wavelength increases with the increasing of magnetic fields during the simulation, transporting the energy from critical to larger scales. The final structure, if not disrupted by supernovae explosions, is the structure of `thin layers' of thickness of about 100 pcs. An important outcome of all simulations is the magnitude of the horizontal components of the Reynolds and Maxwell stresses. The result is that the MRI-driven turbulence is magnetic-dominated: its magnetic energy exceeds the kinetic energy by a factor of 4. The Reynolds stress is small and less than 1% of the Maxwell stress. The angular momentum transport is thus completely dominated by the magnetic field fluctuations. The volume-averaged pitch angle is always negative with a magnitude of about -30. The non-saturated MRI regime is lasting sufficiently long to fill the time between the galactic encounters, independently of strength and geometry of the initial field. Therefore, we may claim the observed pitch angles can be due to MRI action in the gaseous galactic disks. The MRI is also shown to be a very fast instability with e-folding time proportional to the time of one rotation. Steep rotation curves imply a stronger growth for the magnetic energy due to MRI. The global e-folding time is from 44 Myr to 100 Myr depending on the rotation profile. Therefore, MRI can explain the existence of rather large magnetic field in very young galaxies. We also have reproduced the observed rms values of velocities in the interstellar turbulence as it was observed in NGC 1058. We have shown with the simulations that the averaged velocity dispersion of about 5 km/s is a typical number for the MRI-driven turbulence in galaxies, which agrees with observations. The dispersion increases outside of the disk plane, whereas supernovae-driven turbulence is found to be concentrated within the disk. In our simulations the velocity dispersion increases a few times with the heights. An additional support to the dynamo alpha-effect in the galaxies is the ability of the MRI to produce a mix of quadrupole and dipole symmetries from the purely vertical seed fields, so it also solves the seed-fields problem of the galactic dynamo theory. The interaction of magneto-rotational instability and random supernovae explosions remains an open question. It would be desirable to run the simulation with the supernovae explosions included. They would disrupt the calm ring structure produced by global MRI, may be even to the level when we can no longer blame MRI to be responsible for the turbulence.
Investigation of tropospheric arctic aerosol and mixed-phase clouds using airborne lidar technique
(2005)
An Airborne Mobile Aerosol Lidar (AMALi) was constructed and built at Alfred-Wegener-Institute for Polar and Marine Research (AWI) in Potsdam, Germany for the lower tropospheric aerosol and cloud research under tough arctic conditions. The system was successfully used during two AWI airborne field campaigns, ASTAR 2004 and SVALEX 2005, performed in vicinity of Spitsbergen in the Arctic. The novel evaluation schemes, the Two-Stream Inversion and the Iterative Airborne Inversion, were applied to the obtained lidar data. Thereby, calculation of the particle extinction and backscatter coefficient profiles with corresponding lidar ratio profiles characteristic for the arctic air was possible. The comparison of these lidar results with the results of other in-situ and remote instrumentation (ground based Koldewey Aerosol Raman Lidar (KARL), sunphotometer, radiosounding, satellite imagery) allowed to provided clean contra polluted (Arctic Haze) characteristics of the arctic aerosols. Moreover, the data interpretation by means of the ECMWF Operational Analyses and small-scale dispersion model EULAG allowed studying the effects of the Spitsbergens orography on the aerosol load in the Planetary Boundary Layer. With respect to the cloud studies a new methodology of alternated remote AMALi measurements with the airborne in-situ cloud optical and microphysical parameters measurements was proved feasible for the low density mixed-phase cloud studies. An example of such approach during observation of the natural cloud seeding (feeder-seeder phenomenon) with ice crystals precipitating into the lower supercooled stratocumulus deck were discussed in terms of the lidar signal intensity profiles and corresponding depolarisation ratio profiles. For parts of the cloud system characterised by almost negligible multiple scattering the calculation of the particle backscatter coefficient profiles was possible using the lidar ratio information obtained from the in-situ measurements in ice-crystal cloud and water cloud.
Diagenetic studies of carbonate rocks focused for a long time on photozoan carbonate assemblages deposited in tropical climates. The results of these investigations were taken as models for the diagenetic evolution of many fossil carbonates. Only in recent years the importance of heterozoan carbonates, generally formed out of the tropics or in deeper waters, was realized. Diagenetic studies focusing on this kind of rocks are still scarce, but indicate that the diagenetic evolution of these rocks might be a better model for many fossil carbonate settings ("calcite-sea" carbonates) than the photozoan model used before. This study deals with the determination of the diagenetic pathways and environments in such shallow-water heterozoan carbonate assemblages. Special emphasis is put on the identification of early, near-seafloor diagenetic processes and on the evaluation of the amount of constructive diagenesis in form of cementation in this diagenetic environment. As study area the Central Mediterranean, the Maltese Islands and Sicily, was chosen. Here two sections were logged in Olio-Miocene shallow-water carbonates consisting of different kinds of heterozoan assemblages. The study area is very suitable for the investigation of constructive early diagenetic processes, as the rocks were never deeply buried and burial diagenetic pressure solution and cementation as cause of lithification could be ruled out. Nevertheless, the carbonate rocks are well lithified and form steep cliffs, implying cementation/lithification in another, shallower diagenetic environment. To determine the diagenetic pathways and environments, detailed transmitted light and cathodoluminescence petrography was carried out on thin sections. Furthermore the stable isotope (δ<sup>18O and δ<sup>13C) composition of the bulk rock, single biota and single cement phases was determined, as well as the major and trace element composition of the single cement phases. Petrographically three (Sicily) to four (Maltese Islands) cementation phases, two phases of fabric selective and one of non-fabric selective dissolution, one phase of neomorphism and one of chemical compaction could be distinguished. The stable isotope measurements of the single cement phases pointed to cement precipitation from marine, marine-derived and meteoric waters. The trace element analysis indicated precipitation under reducing conditions, (A) in an open system with low rock-water interaction on the Maltese Islands and (B) in a closed system with high rock-water interaction on Sicily. For the closed systems case, aragonite as cement source could be concluded because its chemical composition was preserved in the newly formed cements. By integrating these results, diagenetic pathways and environments for the investigated locations were established, and the cement source(s) in the different environments were determined. The diagenetic evolution started in the marine environment with the precipitation of fibrous/fibrous-bladed and epitaxial cement I. These cements formed as High Mg Calcite (HMC) directly out of marine waters. The paleoenvironmentally shallowest part of the section on the Maltese Islands was also exposed to meteoric diagenetic fluids. This meteoric influence lead to the dissolution of aragonitic and HMC skeletons, which sourced the cementation by Low Mg Calcitic (LMC) epitaxial cement II in this part of the Maltese section. Entering the burial-marine environment the main part of dissolution, cementation and neomorphism started to take place. The elevated CO2 content in this environment, caused by the decay of organic matter, lead to the dissolution of aragonitic skeletons, which sourced the cementation by LMC epitaxial cement II, bladed and blocky cements. The earlier precipitated HMC cement phases were either partly dissolved (epitaxial cement I) or neomorphosed to LMC (fibrous/fibrous-bladed and epitaxial cement I). In the burial environment weak chemical compaction took place without sourcing significant amounts of cementation. In a last phase the rocks entered the meteoric realm by uplift, which caused non-fabric selective dissolution. This study shows that early diagenetic processes, taking place at or just below the sediment-water-interface, are very important for the mineralogical stabilization of heterozoan carbonate strata. The main amount of constructive diagenesis in form of cementation takes place in this environment, sourced by dissolution of aragonitic and, to a lesser degree, of HMC skeletons. The results of this study imply that the primary amount of aragonitic skeletons in heterozoan carbonate sediments must be carefully assessed, as they are the main early diagenetic cement source. In fossil heterozoan carbonate rocks, aragonitic skeletons might be the cement source even when no relict structures like micritic envelops or biomolds are preserved. In general, the diagenetic evolution of heterozoan carbonate rocks is a good model for the diagenesis of "calcite-sea" time carbonate rocks.