Filtern
Erscheinungsjahr
Dokumenttyp
- Wissenschaftlicher Artikel (35334)
- Dissertation (6471)
- Monographie/Sammelband (5521)
- Postprint (3296)
- Rezension (2285)
- Teil eines Buches (Kapitel) (1014)
- Sonstiges (879)
- Preprint (567)
- Konferenzveröffentlichung (533)
- Ausgabe (Heft) zu einer Zeitschrift (452)
Sprache
- Englisch (30234)
- Deutsch (25862)
- Spanisch (362)
- Französisch (329)
- Italienisch (114)
- Russisch (112)
- Mehrsprachig (65)
- Hebräisch (36)
- Portugiesisch (25)
- Polnisch (24)
Schlagworte
- Germany (200)
- climate change (174)
- Deutschland (142)
- European Union (78)
- machine learning (78)
- Sprachtherapie (77)
- diffusion (74)
- Patholinguistik (73)
- morphology (73)
- patholinguistics (73)
Institut
- Institut für Biochemie und Biologie (5381)
- Institut für Physik und Astronomie (5351)
- Institut für Geowissenschaften (3569)
- Institut für Chemie (3452)
- Wirtschaftswissenschaften (2642)
- Historisches Institut (2488)
- Department Psychologie (2334)
- Institut für Mathematik (2132)
- Institut für Romanistik (2106)
- Sozialwissenschaften (1883)
This MA thesis examines novels by Native American authors of the 20th century in regard to their representation of conflicts between the indigenous population of North America and the dominant Christian religion of the mainstream society. Several major points can be followed throughout the century, which have been presented repeatedly and discussed in various perspectives. Historical conflicts of colonization and Christianization, as well as the perpetual question of Native American Christians -- 'How can you go to a church that killed so many Indians?' [Alexie, Reservation Blues] -- are debated in these novels and analyzed in this paper. Furthermore, I have tried to position and classify the works according to their representation of these problems within literary history. Following Charles Larson's chronologic and thematic examination of American Indian Fiction, the categories rejection, (syncretic) adaptation, and postmodern-ironic revision are introduced to describe the various forms of representation. On the basis of five main examples, we can observe an evolution of contemporary Native American literature, which has liberated itself from the narrow definition of the 1960s and 1970s, in favor of a broader and more varied approach. In so doing, and by means of intercultural and intertextual referencing, postmodern irony, and a new Indian self-confidence, it has also taken a new position towards the religion of the former colonizer.
Im Rahmen dieser Arbeit wurden zwei humane Varianten des von Wang et al., 1999, erstmals beschriebenen muskelspezifischen Proteins Xin (Huhn und Maus) über Sequenzanalyse, Immunofluoreszenzmikroskopie, Transfektionsstudien und biochemischer Analyse näher charakterisiert. Die Proteine wurden mit human Xin related proteins 1 und 2 – hXirp1 und 2 –bezeichnet. Die Xin-Proteine enthielten bisher unbekannte, sowie spezifische, repetitive Motive, die aus jeweils mindestens 16 Aminosäuren bestanden. Ihre Aminosäuresequenz, mit einer Vielzahl weiterer putativer Motivsequenzen, verwies auf eine potentielle Funktion von hXirp als Adapterprotein in Muskelzellen. Das hier näher untersuchte hXirp1 lokalisierte an den Zell-Matrix-Verbindungen der Muskel-Sehnen-Übergangszone im Skelettmuskel, sowie an den Zell-Zell-Verbindungen der Glanzstreifen im Herzmuskel. Während der Muskelentwicklung zeigte hXirp1 eine sehr frühe Expression, zusammen mit einer prägnanten Lokalisation an den Prämyofibrillen und deren Verankerungsstrukturen, die auf eine Funktion des Proteins in der Myofibrillogenese deuten. Ektopische Expressionen von hXirp1 in einer Vielzahl von Nichtmuskel-Kulturzellen zeigten wiederum eine Lokalisation des Proteins an den Zell-Matrix-Kontakten dieser Zellen. Am Beispiel von hXirp1 und 2 wurde stellvertretend für die Familie der Xin-Proteine gezeigt, daß es sich bei den repetitiven Motiven um neuartige, F-Aktin bindende Sequenzmotive handelte. Die Xin-Proteine können somit als muskelspezifische, aktinbindende, potentielle Adapterproteine bezeichnet werden, denen eine strukturelle und funktionelle Beteiligung an der Verankerung der Myofibrillen im adulten Muskel, wie auch während der Myofibrillogenese zukommt.
This work incorporates three treatises which are commonly concerned with a stochastic theory of the Lyapunov exponents. With the help of this theory universal scaling laws are investigated which appear in coupled chaotic and disordered systems. First, two continuous-time stochastic models for weakly coupled chaotic systems are introduced to study the scaling of the Lyapunov exponents with the coupling strength (coupling sensitivity of chaos). By means of the the Fokker-Planck formalism scaling relations are derived, which are confirmed by results of numerical simulations. Next, coupling sensitivity is shown to exist for coupled disordered chains, where it appears as a singular increase of the localization length. Numerical findings for coupled Anderson models are confirmed by analytic results for coupled continuous-space Schrödinger equations. The resulting scaling relation of the localization length resembles the scaling of the Lyapunov exponent of coupled chaotic systems. Finally, the statistics of the exponential growth rate of the linear oscillator with parametric noise are studied. It is shown that the distribution of the finite-time Lyapunov exponent deviates from a Gaussian one. By means of the generalized Lyapunov exponents the parameter range is determined where the non-Gaussian part of the distribution is significant and multiscaling becomes essential.
Menschen nehmen Tausende von Stoffen als bitter wahr. Die chemische Struktur der verschiedenen Bitterstoffe ist sehr vielfältig: Sie reicht von kleinen Molekülen wie Kaliumchlorid oder Harnstoff, bis zu sehr komplexen organischen Verbindungen. Die Größe der einzigen bekannten menschlichen Familie von Bitterrezeptoren (TAS2Rs) wurde auf nur ca. 80-120 Mitglieder geschätzt. In Anbetracht der hohen Zahl und Komplexität der Bitterstoffe erscheint die Zahl von Rezeptoren als sehr gering. Dies führt natürlich zu einer Reihe von Fragen: Wie viele Mitglieder hat die menschliche TAS2R-Genfamilie? Wie viele verschiedene Substanzen können denselben Rezeptor aktivieren? Scheint die Zahl der TAS2R-Rezeptoren ausreichend, alle Bitterstoffe wahrnehmen zu können oder muss es noch andere Bitterrezeptorfamilien geben? Diese Fragen zu beantworten, ist das Ziel der vorliegenden Arbeit. Hier durchgeführte Analysen des menschlichen Genomprojektes zeigen, dass Menschen ca. 25 TAS2R-Rezeptoren besitzt, die eine sehr divergente Aminosäurestruktur aufweisen. Diese Rezeptoren wurden in eine neu entwickelte Expressionskassette kloniert, die den Transport des Rezeptors an die Zelloberfläche ermöglicht. Um Liganden für die menschliche TAS2R-Rezeptoren zu identifizieren, wurden die Rezeptoren in HEK293 Zellen exprimiert und mit verschiedenen Bitterstoffen stimuliert. Der Nachweis der Rezeptoraktivierung erfolgte durch Calcium-Imaging. Es konnte gezeigt werden, dass hTAS2R16 der menschliche Rezeptor zur Wahrnehmung von Salicin und verwandten bitteren Pyranosiden ist. So wird hTAS2R16 in HEK293 Zellen durch Salicin und chemisch verwandte Substanzen aktiviert. Ein Vergleich der in diesem Messsystem erhaltenen Daten mit psychophysikalisch ermittelten Geschmackswahrnehmungen beim Menschen, ergab eine hohe Übereinstimmung. Die Ergebnisse deuten auch darauf hin, dass die Desensitiverung einzelner Rezeptoren die Ursache für die Adaption des Bittergeschmacks ist. Der Nachweis der Expression des Rezeptors in menschlichen Geschmackspapillen, sowie die festgestellte Assoziation des G/A Polymorpphismus an Position 665 des hTAS2R16 Gens mit einer reduzierten Salicinwahrnehmung, sind weitere unabhängige Beweise für diese These. Ein anderer menschlicher Rezeptor, hTAS2R10, wird durch die Bitterstoffe Strychnin, Brucin und Denatonium aktiviert. Dies sowie die Tatsache, dass die zur Aktivierung benutzten Konzentrationen eine sinnvolle Korrelation zu dem menschlichen Geschmacksschwellwert von Strychnin zeigen, sind starke Hinweise, dass hTAS2R10 der menschliche Rezeptor zur Wahrnehmung von Strychnin und verwandten Substanzen ist. Die vorliegenden Daten zeigen eindeutig, dass die TAS2R-Rezeptoren auch beim Menschen Bitterrezeptoren darstellen. Sowohl hTAS2R16, als auch hTAS2R10 werden durch ein Spektrum strukturell sehr unterschiedlicher Bitterstoffe aktiviert. Falls die anderen Mitglieder der TAS2R-Familie ebenfalls dieses Verhalten zeigen, wäre es möglich, dass die nur ca. 25 Mitglieder umfassende TAS2R-Rezeptorfamilie des Menschen tatsächlich zur Wahrnehmung aller Bitterstoffe ausreicht.
Die Präeklampsie ist eine schwangerschaftsspezifische Bluthochdruck-Erkrankung, die im Allgemeinen nach der 20. Schwangerschaftswoche auftritt. Neben der Hypertonie sind die Proteinurie und die Ödembildung charakteristische Symptome der Präeklampsie. Obwohl heute die Pathophysiologie der Präeklampsie zum großen Teil verstanden ist, ist die Ätiologie dieser Erkrankung noch unklar. 1999 konnten wir in den Seren von Präeklampsie-Patientinnen agonistische Autoantikörper, die gegen den Angiotensin II AT1-Rezeptor gerichtet sind (AT1-AAK), nachweisen. Diese AT1-AAK gehören zur Antikörpersubklasse IgG3. Die AT1-AAK führen in Kulturen neonataler Rattenkardiomyozyten AT1-Rezeptor spezifisch zu einem positiv chronotropen Effekt. Mittels Immunpräzipitation wurde gezeigt, dass AT1-AAK spezifisch den AT1-Rezeptor präzipitieren. Kontrollproben, aus denen die AT1-AAK entfernt wurden, führen zu keiner Präzipitation des AT1-Rezeptors. Die Präzipitation des AT1-Rezeptors bleibt ebenfalls aus, wenn die AT1-AAK mit einem Peptid, welches der Aminosäuresequenz des zweiten extrazellulären Loops des humanen AT1-Rezeptors entspricht, behandelt wurden. Eine Langzeitbehandlung der Kulturen neonataler Rattenherzzellen mit AT1-AAK vermindert die funktionelle Ansprechbarkeit der Zellen auf einen erneuten AT1-Rezeptor-Stimulus. Eine veränderte AT1-Rezeptorexpression wurde nicht nachgewiesen. In guter Übereinstimmung mit den in vitro-Expressionsdaten wurde gezeigt, dass die plazentare AT1-Rezeptorexpression bei Präeklampsie-Patientinnen nicht verschieden von der plazentaren AT1-Rezeptorexpression gesunder Schwangerer mit nicht pathogen verändertem Blutdruck ist. Im Zellsystem der neonatalen Rattenherzzellen führen die AT1-AAK zur Aktivierung von Gi-Proteinen und zu verringerten intrazellulären cAMP-Spiegeln. Des Weiteren wurde gezeigt, dass die AT1-AAK in Kulturen neonataler Rattenherzzellen die Transkriptionsfaktoren AP-1 und NFkB aktivieren. Die Aktivierung des Transkriptionsfaktors NFkB wurde vornehmlich in den Nicht-Myozyten der Rattenherzzellkultur nachgewiesen. Generell wurde festgestellt, dass sich die AT1-AAK pharmakologisch wie der natürliche Agonist des AT1-Rezeptors, Angiotensin II, verhalten. Erste Daten dieser Arbeit deuten auf einen eventuellen Einfluss der AT1-AAK auf die Expression von Komponenten der extrazellulären Matrix bzw. assoziierter Faktoren (Kollagen III, MMP-2, TIMP-2, Colligin) hin. In allen in dieser Arbeit untersuchten Seren von klinisch diagnostizierten Präeklampsie-Patientinnen wurden agonistische AT1-AAK nachgewiesen. Wir vermuten daher, dass die AT1-AAK möglicherweise bedeutend in der Pathogenese der Präeklampsie sind.
Understanding the formation of stars in galaxies is central to much of modern astrophysics. For several decades it has been thought that the star formation process is primarily controlled by the interplay between gravity and magnetostatic support, modulated by neutral-ion drift. Recently, however, both observational and numerical work has begun to suggest that supersonic interstellar turbulence rather than magnetic fields controls star formation. This review begins with a historical overview of the successes and problems of both the classical dynamical theory of star formation, and the standard theory of magnetostatic support from both observational and theoretical perspectives. We then present the outline of a new paradigm of star formation based on the interplay between supersonic turbulence and self-gravity. Supersonic turbulence can provide support against gravitational collapse on global scales, while at the same time it produces localized density enhancements that allow for collapse on small scales. The efficiency and timescale of stellar birth in Galactic gas clouds strongly depend on the properties of the interstellar turbulent velocity field, with slow, inefficient, isolated star formation being a hallmark of turbulent support, and fast, efficient, clustered star formation occurring in its absence. After discussing in detail various theoretical aspects of supersonic turbulence in compressible self-gravitating gaseous media relevant for star forming interstellar clouds, we explore the consequences of the new theory for both local star formation and galactic scale star formation. The theory predicts that individual star-forming cores are likely not quasi-static objects, but dynamically evolving. Accretion onto these objects will vary with time and depend on the properties of the surrounding turbulent flow. This has important consequences for the resulting stellar mass function. Star formation on scales of galaxies as a whole is expected to be controlled by the balance between gravity and turbulence, just like star formation on scales of individual interstellar gas clouds, but may be modulated by additional effects like cooling and differential rotation. The dominant mechanism for driving interstellar turbulence in star-forming regions of galactic disks appears to be supernovae explosions. In the outer disk of our Milky Way or in low-surface brightness galaxies the coupling of rotation to the gas through magnetic fields or gravity may become important.
During the past several decades polymer materials become widely used as components of medical devices and implants such as hemodialysers, bioartificial organs as well as vascular and recombinant surgery. Most of the devices cannot avoid the blood contact in their use. When the polymer materials come in contact with blood they can cause different undesired host responses like thrombosis, inflammatory reactions and infections. Thus the materials must be hemocompatible in order to minimize these undesired body responses. The earliest and one of the main problems in the use of blood-contacting biomaterials is the surface induced thrombosis. The sequence of the thrombus formation on the artificial surfaces has been well established. The first event, which occurs, after exposure of biomaterials to blood, is the adsorption of blood proteins. Surface physicochemical properties of the materials as wettability greatly influence the amount and conformational changes of adsorbed proteins. In turn the type, amount and conformational state of the adsorbed protein layer determines whether platelets will adhere and become activated or not on the artificial surface and thus to complete the thrombus formation. The adsorption of fibrinogen (FNG), which is present in plasma, has been shown to be closely related to surface induced thrombosis by participating in all processes of the thrombus formation such as fibrin formation, platelet adhesion and aggregation. Therefore study the FNG adsorption to artificial surfaces could contribute to better understanding of the mechanisms of platelet adhesion and activation and thus to controlling the surface induced thrombosis. Endothelization of the polymer surfaces is one of the strategies for improving the materials hemocompatibility, which is believed to be the most ideal solution for making truly blood-compatible materials. Since at physiological conditions proteins such as FNG and fibronectin (FN) are the usual extracellular matrix (ECM) for endothelial cells (EC) adhesion, precoating of the materials with these proteins has been shown to improve EC adhesion and growth in vitro. ECM proteins play an essential role not only like a structural support for cell adhesion and spreading, but also they are important factor in transmitting signals for different cell functions. The ability of cells to remodel plasma proteins such as FNG and FN in matrix-like structures together with the classical cell parameters such as actin cytoskeleton and focal adhesion formation could be used as an criteria for proper cell functioning. The establishment and the maintaining of delicate balance between cell-cell and cell-substrate contacts is another important factor for better EC colonization of the implants. The functionality of newly established endothelium in order to produce antithromotic substances should be always considered when EC seeding is used for improving the hemocompatibility of the polymer materials. Controlling the polymer surface properties such as surface wettability represents a versatile approach to manipulate the above cellular responses and therefore can be used in biomaterial and tissue engineering applications for producing better hemocompatible materials.
This thesis describes the development and application of the impacts module of the ICLIPS model, a global integrated assessment model of climate change. The presentation of the technical aspects of this model component is preceded by a discussion of the sociopolitical context for model-based integrated assessments, which defines important requirements for the specification of the model. Integrated assessment of climate change comprises a broad range of scientific efforts to support the decision-making about objectives and measures for climate policy, whereby many different approaches have been followed to provide policy-relevant information about climate impacts. Major challenges in this context are the large diversity of the relevant spatial and temporal scales, the multifactorial causation of many climate impacts', considerable scientific uncertainties, and the ambiguity associated with unavoidable normative evaluations. A hierarchical framework is presented for structuring climate impact assessments that reflects the evolution of their practice and of the underlying theory. Integrated assessment models of climate change (IAMs) are scientific tools that contain simplified representations of the relevant components of the coupled society-climate system. The major decision-analytical frameworks for IAMs are evaluated according to their ability to address important aspects of the pertinent social decision problem. The guardrail approach is presented as an inverse' framework for climate change decision support, which aims to identify the whole set of policy strategies that are compatible with a set of normatively specified constraints (guardrails'). This approach combines, to a certain degree, the scientific rigour and objectivity typical of predictive approaches with the ability to consider virtually all decision options that is at the core of optimization approaches. The ICLIPS model is described as the first IAM that implements the guardrail approach. The representation of climate impacts is a key concern in any IAM. A review of existing IAMs reveals large differences in the coverage of impact sectors, in the choice of the impact numeraire(s), in the consideration of non-climatic developments, including purposeful adaptation, in the handling of uncertainty, and in the inclusion of singular events. IAMs based on an inverse approach impose specific requirements to the representation of climate impacts. This representation needs to combine a level of detail and reliability that is sufficient for the specification of impact guardrails with the conciseness and efficiency that allows for an exploration of the complete domain of plausible climate protection strategies. Large-scale singular events can often be represented by dynamic reduced-form models. This approach, however, is less appropriate for regular impacts where the determination of policy-relevant results generally needs to consider the heterogeneity of climatic, environmental, and socioeconomic factors at the local or regional scale. Climate impact response functions (CIRFs) are identified as the most suitable reduced-form representation of regular climate impacts in the ICLIPS model. A CIRF depicts the aggregated response of a climate-sensitive system or sector as simulated by a spatially explicit sectoral impact model for a representative subset of plausible futures. In the CIRFs presented here, global mean temperature and atmospheric CO2 concentration are used as predictors for global and regional impacts on natural vegetation, agricultural crop production, and water availability. Application of a pattern scaling technique makes it possible to consider the regional and seasonal patterns in the climate anomalies simulated by several general circulation models while ensuring the efficiency of the dynamic model components. Efforts to provide quantitative estimates of future climate impacts generally face a trade-off between the relevance of an indicator for stakeholders and the exactness with which it can be determined. A number of non-monetary aggregated impact indicators for the CIRFs is presented, which aim to strike the balance between these two conflicting goals while taking into account additional constraints of the ICLIPS modelling framework. Various types of impact diagrams are used for the visualization of CIRFs, each of which provides a different perspective on the impact result space. The sheer number of CIRFs computed for the ICLIPS model precludes their comprehensive presentation in this thesis. Selected results referring to changes in the distribution of biomes in different biogeographical regions, in the agricultural potential of various countries, and in the water availability in selected major catchments are discussed. The full set of CIRFs is accessible via the ICLIPS Impacts Tool, a graphical user interface that provides convenient access to more than 100,000 impact diagrams developed for the ICLIPS model. The technical aspects of the software are described as well as the accompanying database of CIRFs. The most important application of CIRFs is in inverse' mode, where they are used to translate impact guardrails into simultaneous constraints for variables from the optimizing ICLIPS climate-economy model. This translation is facilitated by algorithms for the computation of reachable climate domains and for the parameterized approximation of admissible climate windows derived from CIRFs. The comprehensive set of CIRFs, together with these algorithms, enables the ICLIPS model to flexibly explore sets of climate policy strategies that explicitly comply with impact guardrails specified in biophysical units. This feature is not found in any other intertemporally optimizing IAM. A guardrail analysis with the integrated ICLIPS model is described that applies selected CIRFs for ecosystem changes. So-called necessary carbon emission corridors' are determined for a default choice of normative constraints that limit global vegetation impacts as well as regional mitigation costs, and for systematic variations of these constraints. A brief discussion of recent developments in integrated assessment modelling of climate change connects the work presented here with related efforts.
In this thesis the gravitational lensing effect is used to explore a number of cosmological topics. We determine the time delay in the gravitationally lensed quasar system HE1104-1805 using different techniques. We obtain a time delay Delta_t(A-B) Delta_t(A-B) =-310 +- 20 days (2 sigma errors) between the two components. We also study the double quasar Q0957+561 during a three years monitoring campaign. The fluctuations we find in the difference light curves are completely consistent with noise and no microlensing is needed to explain these fluctuations. Microlensing is also studied in the quadruple quasar Q2237+0305 during the GLITP collaboration (Oct.1999-Feb.2000). We use the absence of a strong microlensing signal to obtain an upper limit of v=600 km/s for the effective transverse velocity of the lens galaxy (considering microlenses with 0.1 solar masses). The distribution of dark matter in galaxy clusters is also studied in the second part of the thesis. In the cluster of galaxies Cl0024+1654 we obtain a mass-to-light ratio of M/L = 200 M_sun/L_sun (within a radius of 3 arcminutes). In the galaxy cluster RBS380 we find a relatively low X-ray luminosity for a massive cluster of L =2*10^(44) erg/s, but a rich distribution of galaxies in the optical band.
Ein Spezialgebiet der modernen Mikroelektronik ist die Miniaturisierung und Entwicklung von neuen nanostrukturierten und Komposit-Materialen aus 3d-Metallen. Durch geeignete Zusammensetzungen können diese sowohl mit einer hohen Sättigungsmagnetisierung und Koerzitivfeldstärke als mit besserer Oxidationsbeständigkeit im Vergleich zu den reinen Elementen erzielt werden. In der vorliegenden Arbeit werden neue Methoden für die Herstellung von bimetallischen kolloidalen Nanopartikeln vor allem mit einer Kern-Hülle-Struktur (Kern@Hülle) präsentiert. Bei der überwiegenden Zahl der vorgestellten Reaktionen handelt es sich um die thermische Zersetzung von metallorganischen Verbindungen wie Kobaltcarbonyl, Palladium- und Platinacetylacetonate oder die chemische Reduktion von Metallsalze mit langkettigem Alkohol in organischem Lösungsmittel. Daneben sind auch Kombinationen aus diesen beiden Verfahren beschrieben. Es wurden Kolloide aus einem reinen Edelmetall (Pt, Pd, Ag) in einem organischen Lösungsmittel synthetisiert und daraus neue, bisher in dieser Form nicht bekannte Ag@Co-, Pt@Co-, Pd@Co- und Pt@Pd@Co-Nanopartikel gewonnen. Der Kobaltgehalt der Ag@Co-, Teilchen konnte im Bereich von 5 bis 73 At. % beliebig eingestellt werden. Der mittlere Durchmesser der Ag@Co-Partikel wurde von 5 nm bis 15 nm variiert. Bei der Herstellung von Pt@Co-Teilchen wurde eine unterschiedlich dicke Kobalt-Hülle von ca. 1,0 bis 2,5 nm erzielt. Im Fall des Palladiums wurden sowohl monodispere als auch polydisperse Pd-Nanopartikel mit einer maximal 1,7-2,0nm dicken Kobalthülle synthetisiert. Ein großer Teil dieser Arbeit befasst sich mit den magnetischen Eigenschaften der kolloidalen Teilchen, wobei die SQUID-Magnetometrie und Röntgenzirkulardichroismus (XMCD) dafür eingesetzt wurden. Weil magnetische Messungen alleine nur indirekte Schlüsse über die untersuchten Systeme erlauben, wurde dabei besonderer Wert auf die möglichst genaue strukturelle Charakterisierung der Proben mittels moderner Untersuchungsmethoden gelegt. Röntgendiffraktometrie (XRD), Röntgenabsorptionsfeinstruktur- (EXAFS) und UV-Vis-Spektroskopie sowie Transmissionselektronenmikroskopie (TEM) in Kombination mit Elektronen Energieverlustspektroskopie (EELS) und energiedispersive Röntgenfluoreszensanalyse (EDX) wurden verwendet.
Zur Ermittlung der Akzeptanz und ihres prädiktiven Wertes für den Verzehr von Lebensmitteln bzw. Getränken, sind Beliebtheitsprüfungen mit Konsumenten unter standardisierten Bedingungen im Sensoriklabor üblich. Die prädiktive Aussagekraft dieser Laboruntersuchungen wird jedoch durch folgende Aspekte eingeschränkt: (1) Der situative Kontext wird ausgeschaltet, d.h. die Verzehrssituation, in der ein Produkt üblicherweise konsumiert wird, ist im Labor bewusst eliminiert und das zu bewertende Produkt wird nicht in einer kompletten Mahlzeit dargeboten (2) Der Produktkontakt im Labor ist im Gegensatz zu der anhaltenden Konfrontation unter alltäglichen Bedingungen nur kurzfristig, was Langzeitaussagen bzw. Dauerpräferenzen nicht zuläßt; (3) Im Labortest ist die freie Auswahl auf eine geringe Anzahl angebotener Produkte beschränkt. In dieser Arbeit soll daher die Frage beantwortet werden, welchen prädiktiven Wert sensorische Beliebtheitsuntersuchungen im Labor für Lebensmittelakzeptanz und -verzehr unter Alltagssituationen haben. Dies wird für verschiedene Altersgruppen gezeigt, die frei in ihrer Entscheidungsfindung sind. Dazu gaben 56 Studenten (23,1±3,7 Jahre) und zwei Seniorengruppen, zum einen aus einer Begegnungsstätte (20 Probanden; 75,6±8,1 Jahre) und zum anderen aus dem betreuten Wohnen (14 Probanden; 76,1±12,5 Jahre), in einer ersten Laboruntersuchung Beliebtheitsbewertungen (Akzeptanz und Rangordnungsprüfung) zu 6 Erfrischungsgetränken ab. Anschließend folgte ein mindestens vierwöchiger Zeitraum, in denen die Probanden aus einem speziell für die Studie konzipierten Automaten Getränke in Einrichtungen der Gemeinschaftsverpflegung entnehmen konnten. Die Entnahme war via Chipkarte ad libitum möglich. Computergestützt wurden dabei individuelle Getränkewahl, Menge und Entnahmezeit aufgezeichnet. Unmittelbar nach der Automatenphase wurde eine erneute Laboruntersuchung durchgeführt. In allen Untersuchungsphasen wurden dieselben Erfrischungsgetränke aus Konzentrat, variiert in Apfel- oder Orangensaftgeschmack, ohne oder mit Zusatz von Zucker (20g/l) und Kohlensäure (4 g/l CO2), angeboten. Eine Quntitativ Deskriptive Analyse bestätigte unterschiedliche Profile bei den Produkten, so dass von sensorisch wahrnehmbaren Unterschieden zwischen den Produkten ausgegangen werden konnte. Die Probanden bekamen zu keiner Zeit Informationen über die exakte Zusammensetzung der Getränke. Sowohl in der Laborbewertung als auch nach Getränkekonsum via Automat, fanden sich unterschiede zwischen den Altersgruppen. In der Akzeptanzprüfung bewerteten Studenten die Apfelvarianten besser als die Orangenvarianten. Senioren, die insgesamt höhere Akzeptanzwerte vergaben, bewerteten alle Getränke in fast allen Attributen gleichermaßen gut. Nach der 4-wöchigen Automatenphase hatte sich die Akzeptanz der sechs Getränke nicht wesentlich geändert. Auch in beiden Rangordnungsprüfungen waren bei den Studenten „Apfel“ und „Apfel mit Kohlensäure“ auf den ersten Plätzen, „Orange mit Zuckerzusatz“ auf dem letzten Platz. Nach Adjustierung auf die individuelle Trinkmenge (in Wenig-, Mittel- Vieltrinker) und wurde „Apfel mit Kohlensäure“ in der Automatenphase von den Studenten am meisten getrunken. In der Vieltrinkergruppe wurde „Orange mit Zuckerzusatz“ deutlich vernachlässigt. Der Automatenkonsum der Studenten bestätigte damit im Wesentlichen die Ergebnisse der Beliebtheitsprüfung im Labor. Bei den Senioren waren in der Rangordnungsprüfung, die eine Lieblingsreihenfolge erzwang, alle süßeren Getränke (mit Zuckerzusatz) auf den ersten Plätzen. In der Automatenphase wurden jedoch viele Getränke ohne Zuckerzusatz bevorzugt. Dies zeigte sich sowohl in der individuellen Präferenz, als auch im Gesamtkonsum. Aufgrund der Ergebnisse kann der prädiktive Wert von Laboruntersuchungen mit Senioren in Bezug auf die Auswahl und den Konsum unter alltäglichen Bedingungen als gering beurteilt werden. Die Getränke mit der individuell höchsten Laborpräferenz wurden unter Alltagsumgebung in der Gemeinschaftsverpflegung in deutlich geringeren Umfang als erwartet verzehrt. In der Vergleichsgruppe der Studenten ist die Übereinstimmung größer(p<0,05). In Häufigkeitsfragebögen vor und nach der Automatenphase wurde das Trinkverhalten speziell von kohlensäurehaltigen Getränken erfragt. Der Anteil von kohlensäurehaltigen Getränken ist sehr variabel, und kann tagesabhängig von einem geringen bis zum Hauptanteil ausmachen. Senioren tranken von den Automatengetränken weniger kohlensäurehaltige Getränke als Studenten(p<0,001). Trotzdem zeigte nur eine Minderheit einen völligen Verzicht, wie sich durch Fragebogen und auch Automatenkonsum ermitteln ließ. Die Verwendung eines computergestützten Getränkeautomaten bietet eine neue Möglichkeit, die Langzeitpräferenz und den tatsächlichen Konsum unter gewohnten Alltagsbedingungen und bei freier Produktauswahl zu ermitteln. Selbst bei Altersgruppen, die mit Laboruntersuchungen überfordert sind, können Vorlieben untersucht werden.
The development of fast and reliable biochemical tools for on-site screening in environmental analysis was the main target of the present work. Due to various hazardous effects such as endocrine disruption and toxicity phenolic compounds are key analytes in environmental analysis and thus were chosen as model analytes. Three different methods were developed: For the enzymatic detection of phenols in environmental samples an enzyme-based biosensor was developed. In contrast to reported work using tyrosinase or peroxidases, we developed a biosensor based on glucose dehydrogenase as biorecognition element. This biosensor was devoted for an application in a laboratory flow system as well as in a portable device for on-site measurements. This enzymatic detection is applicable only for a limited number of phenols due to substrate specificity of the enzyme. For other relevant compounds based on a phenolic structure (i.e. nitrophenol, alkylphenols and alkylphenol ethoxylates) immunological methods had to be developed. The electrochemical GDH-biosensor was used as the label detector in these immunoassays. Two heterogeneous immunoassays were developed where ßGal was used as the label. An electrochemical method for the determination of the marker enzyme activity was processed. The separation step was realized with protein A/G columns (laboratory flow system) or by direct immobilization of the antibodies in small disposable capillaries (on-site analysis). All methods were targeted on the contemporary analysis of small numbers of samples.
Der "Leukocyte Receptor Complex" (LRC) ist ein DNA-Sequenzabschnitt auf dem Chromosom 19 des Menschen, der eine Länge von über 900.000 Basenpaaren umfaßt. In diesem Chromosomenabschnitt ist eine Vielzahl von Genen lokalisiert, die für die Funktion verschiedener weißer Blutzellen (Leukozyten) von entscheidender Bedeutung sind. Bei den aus diesen Genen synthetisierten Proteinen (Eiweißen) handelt es sich um Strukturen, die auf der Oberfläche dieser Zellen lokalisiert sind und zur Interaktion der Leukozyten mit ihrer Umgebung dienen. Diese auch als Rezeptoren bezeichneten Proteine können mit Oberflächenproteinen auf anderen Körperzellen wechselwirken und daraus resultierende Signale in das Innere der Blutzelle weiterleiten. In der vorliegenden Doktorarbeit wurde der LRC im Detail untersucht. Hierzu wurde zunächst der gesamte Chromosomenabschnitt aus kleineren, einander überlappenden DNA-Fragmenten rekonstruiert. Aufgrund der in diesen DNA-Fragmenten enthaltenen DNA-Sequenzen war es möglich, den gesamten Chromosomenabschnitt ähnlich einem Puzzle zusammenzusetzen. Die anschließende Analyse des LRC zeigte, daß sich dieser in drei Bereiche, sogenannte Cluster, unterteilen läßt. Diese Cluster sind dadurch gekennzeichnet, daß in ihnen jeweils nur Gene eines Rezeptortyps vorkommen. Hierbei handelt es sich um ‚immunoglobulin-like transcript′ -Gene (ILT) und ‚killer cell Ig-like receptor′-Gene (KIR). Die KIR- und ILT-Cluster werden von weiteren stammesgeschichtlich verwandten Genen unterbrochen und flankiert. Je nach Individuum können im LRC bis zu 31 solcher verwandten Rezeptorgene lokalisiert sein. Auf der Grundlage der Kartierungsdaten und von Daten des humanen Genomprojekts war es zudem möglich, evolutionäre Untersuchungen zur Entwicklung des LRC durchzuführen. Dabei wurde eine Hypothese zur Entstehung des LRC entworfen und zu anderen Spezies in Beziehung gesetzt. Im zweiten Teil der Arbeit habe ich aufbauend auf der sogenannten HRCA-Methode eine Technik entwickelt, die es erlaubt kleinste Unterschiede zwischen DNA-Sequenzen, sogenannte Einzelbasenpaaraustausche, nachzuweisen. Die entwickelte Methode kann verwendet werden, um sehr ähnliche DNA-Sequenzen, wie z.B. verschiedene KIR-Sequenzen, zu unterscheiden und ihre Menge zu bestimmen. Sie ist außerdem geeignet Mutationen, die mit bestimmten Krankheiten assoziiert sind, nachzuweisen und könnte somit in der Diagnostik Anwendung finden.
Chemical transformations and hydraulic processes in soil and groundwater often lead to an apparent retention of nitrate in lowland catchments. Models are needed to evaluate the interaction of these processes in space and time. The objectives of this study are i) to develop a specific modelling approach by combining selected modelling tools simulating N-transport and turnover in soils and groundwater of lowland catchments, ii) to study interactions between catchment properties and nitrogen transport. Special attention was paid to potential N-loads to surface waters. The modelling approach combines various submodels for water flow and solute transport in soil and groundwater: The soil-water- and nitrogen-model mRISK-N, the groundwater flow model MODFLOW and the solute transport model RT3D. In order to investigate interactions of N-transport and catchment characteristics, the distribution and availability of reaction partners have to be taken into account. Therefore, a special reaction-module is developed, which simulates various chemical processes in groundwater, such as the degradation of organic matter by oxygen, nitrate, sulphate or pyrite oxidation by oxygen and nitrate. The model approach is applied to different simulation, focussing on specific submodels. All simulation studies are based on field data from the Schaugraben catchment, a pleistocene catchment of approximately 25 km², close to Osterburg(Altmark) in the North of Saxony-Anhalt. The following modelling studies have been carried out: i) evaluation of the soil-water- and nitrogen-model based on lysimeter data, ii) modelling of a field scale tracer experiment on nitrate transport and turnover in the groundwater as a first application of the reaction module, iii) evaluation of interactions between hydraulic and chemical aquifer properties in a two-dimensional groundwater transect, iv) modelling of distributed groundwater recharge and soil nitrogen leaching in the study area, to be used as input data for subsequent groundwater simulations, v) study of groundwater nitrate distribution and nitrate breakthrough to the surface water system in the Schaugraben catchment area and a subcatchment, using three-dimensional modelling of reactive groundwater transport. The various model applications prove the model to be capable of simulating interactions between transport, turnover and hydraulic and chemical catchment properties. The distribution of nitrate in the sediment and the resulting loads to surface waters are strongly affected by the amount of reactive substances and by the residence time within the aquifer. In the Schaugraben catchment simulations, it is found that a period of 70 years is needed to raise the average seepage concentrations of nitrate to a level corresponding to the given input situation, if no reactions are considered. Under reactive transport conditions, nitrate concentrations are reduced effectively. Simulation results show that groundwater exfiltration does not contribute considerably to the nitrate pollution of surface waters, as most nitrate entering soils and groundwater is lost by denitrification. Additional sources, such as direct inputs or tile drains have to be taken into account to explain surface water loads. The prognostic value of the models for the study site is limited by uncertainties of input data and estimation of model parameters. Nevertheless, the modelling approach is a useful aid for the identification of source and sink areas of nitrate pollution as well as the investigation of system response to management measures or landuse changes with scenario simulations. The modelling approach assists in the interpretation of observed data, as it allows to integrate local observations into a spatial and temporal framework.
Ziel dieser Arbeit war es, die Auswirkungen der geothermischen Energieerzeugung aus umwelt- und naturschutzfachlicher Sicht zu untersuchen und zu bewerten. Auf der Grundlage einer umfassenden Literaturstudie, von Expertenbefragungen sowie der Besichtigung des Hydrothermalen Erdwärmekraftwerkes in Neustadt-Glewe und der Erdwärmesondenanlage auf dem Max-Planck-Campus in Golm wurden die für eine behördliche Genehmigung der Erschließung und Nutzung von Erdwärmevorkommen notwendigen gesetzlichen Regelungen systematisch aufgearbeitet und die mit den Techniken zur Erschließung bzw. den Anlagen zur Nutzung von Erdwärme verbundenen umweltrelevanten Wirkfaktoren ausgewiesen und systematisch dargestellt. Darauf aufbauend wurden die potenziellen Wirkungen auf die Schutzgüter des UVPG qualitativ erfasst und, soweit es in Anbetracht des derzeitigen Standes der Forschung möglich war, quantifiziert. Die Wirkungen wurden schließlich hinsichtlich ihrer Bedeutung und Erheblichkeit im Rahmen von behördlichen Genehmigungsentscheidungen bewertet und miteinander verglichen. Die Anforderungen an den Inhalt von Antragsunterlagen wurden dargestellt. Gutachter / Betreuer: Dr. Holger Rößling ; Dipl.-Biol. Karl Scheurlen
Nanostructured materials are the materials having structural features on the scale of nanometers i.e. 10-9 m. the structural features can enhance the natural properties of the materials or induce additional properties, which are useful for day to technology as well as the future technologies One way to synthesize nanostructured materials is using templating techniques. The templating process involves use of a certain “mould” or “scaffold” to generate the structure. The mould is called as the template, can be a single molecule or assembly of molecule or a larger object, which has its own structure. The product material can be obtained by filling the space around the template with a “precursor”, transformation of precursor into the desired material and then removal of template to get product. The precursor can be any chemical moiety that can be easily transformed in to the desired material. Alternatively the desired material is processed into very tiny bricks or “nano building blocks (NBB)” and the product is obtained by arrangement of the NBB by using a scaffold. We synthesized porous metal oxide spheres of namely TiO2-M2O3: titanium dioxide- M-oxide (M = aluminum, gallium and indium) TiO2-M2O3 and cerium oxide-zirconium oxide solid solution. We used porous polymeric beads as templates. These beads used for chromatographic purposes. For the synthesis of TiO2-M2O3 we used metal- alkoxides as precursor. The pore of beads were filled with precursor and then reacted with water to give transformation of the precursor to amorphous oxide network. The network is crystallized and template is removed by heat treatment at high temperatures. In a similar way we obtained porous spheres of CexZr1-xO2. For this we synthesized nanoparticle of CexZr1-xO2 and used then for the templating process to obtain porous CexZr1-xO2 spheres. Additionally, using the same nanoparticles we synthesized nano-porous powder using self-assembly process between a block-copolymers scaffold and nanoparticles. Morphological and physico-chemical properties of these materials were studies systematically by using various analytical techniques TiO2-M2O3 material were tested for photocatalytic degradation of 2-Chlorophenol a poisonous pollutant. While CexZr1-xO2 spheres were tested for methanol steam reforming reaction to generate hydrogen, which is a fuel for future generation power sources like fuel cells. All the materials showed good catalytic performance.
In festen azobenzenhaltigen Polymeren wurde bei Bestrahlung mit blauem Licht ein makroskopischer Materialtransport beobachtet. Um die Dynamik der Gitterentstehung zu verfolgen, wurde am Speicherring für Synchrotronstrahlung ein Gitterschreibaufbau errichtet. Damit konnte erstmals in dieser Arbeit die Gitterbildungsgeschwindigkeit in-situ simultan mit Röntgen- und Lichtstreuung untersucht werden. Mit Hilfe einer speziellen Anpassung der Röntgenstreutheorie konnten sehr gute Übereinstimmungen von theoretischen Berechnungen mit den Messergebnissen erzielt werden. Dabei konnte nachgewiesen werden, dass sich zeitgleich mit einem Oberflächengitter auch ein Dichtegitter entwickelt. Durch die Trennung beider Streuanteile ließ sich die Dynamik der Strukturentstehungen bestimmen. Des weiteren konnte erstmals mit Hilfe der Photoelektronenspektroskopie die molekulare Orientierung an der Oberfläche eines Oberflächengitters nachgewiesen werden. Die Bewegungsursache kann auf einen Impulsübertrag während der Isomerisierung zurückgeführt werden, während die Bewegungsrichtung durch den elektrischen Feldvektor festgelegt wird. Die Theorie der Gitterentstehung konnte verbessert werden.
Eine Nutzung der optischen Anisotropie dünner Schichten ist vor allem für die Displaytechnologie, die optische Datenspeicherung und für optische Sicherheitselemente von hoher Bedeutung. Diese Doktorarbeit befasst sich mit theoretischen und experimentellen Untersuchung von dreidimensionaler Anisotropie und dabei insbesondere mit der Untersuchung von lichtinduzierter dreidimensionaler Anisotropie in organischen dünnen Polymer-Schichten. Die gewonnenen Erkentnisse und entwickelten Methoden können wertvolle Beiträge für Optimierungsprozesse, wie bei der Kompensation der Blickwinkelabhängigkeit von Flüssigkristall-Displays, liefern. Die neue Methode der Immersions-Transmissions-Ellipsometrie (ITE) zur Untersuchung von dünneren Schichten wurde im Rahmen dieser Dissertation entwickelt. Diese Methode gestattet es, in Kombination mit konventioneller Reflexions- und Transmissionsellipsometrie, die absoluten dreidimensionalen Brechungsindices einer biaxialen Schicht zu bestimmen. Erstmals gelang es damit, das dreidimensionale Brechungsindexellipsoid von transparenten, dünneren (150 nm) Filmen hochgenau (drei Stellen hinter dem Komma) zu bestimmen. Die ITE-Methode hat demzufolge das Potential, auch bei noch dünneren Schichten mit Gewinn eingesetzt werden zu können. Die lichtinduzierte Generierung von dreidimensionaler Anisotropie wurde in dünnen Schichten von azobenzenhaltigen und zimtsäurehaltigen, amorphen und flüssig-kristallinen Homo- und Copolymeren untersucht. Erstmals wurden quantitative Untersuchungen zur Änderung von lichtinduzierten, dreidimensionalen Anisotropien in dünnen Schichten von azobenzenhaltigen und zimtsäurehaltigen Polymeren bei Tempern oberhalb der Glastemperatur durchgeführt. Bei vielen der untersuchten Polymere war die dreidimensionale Ordnung nach dem Bestrahlen mit polarisiertem Licht und anschließendem Tempern oberhalb der Glastemperatur scheinbar von der Schichtdicke abhängig. Die Ursache liegt wohl in der, mit der neuentwickelten ITE-Methode detektierten, planaren Ausgangsorientierung der aufgeschleuderten dünneren Schichten. Um Verkippungs-Gradienten in dickeren Polymerschichten in ihrem Verlauf zu bestimmen, wurde eine spezielle Methode unter Benutzung der Wellenleitermoden-Spektroskopie entwickelt. Quantenchemisch bestimmte, maximal induzierbare Doppelbrechungen in flüssig-kristallinen Polymeren wurden mit den experimentell gefundenen Ordnungen verglichen.
Zwischen 1990 und 1994 wurden rund 1000 Liegenschaften, die in der ehemaligen DDR von der Sowjetarmee und der NVA für militärische Übungen genutzt wurden, an Bund und Länder übergeben. Die größten Truppenübungsplätze liegen in Brandenburg und sind heute teilweise in Großschutzgebiete integriert, andere Plätze werden von der Bundeswehr weiterhin aktiv genutzt. Aufgrund des militärischen Betriebs sind die Böden dieser Truppenübungsplätze oft durch Blindgänger, Munitionsreste, Treibstoff- und Schmierölreste bis hin zu chemischen Kampfstoffen belastet. Allerdings existieren auf fast allen Liegenschaften neben diesen durch Munition und militärische Übungen belasteten Bereichen auch naturschutzfachlich wertvolle Flächen; gerade in den Offenlandbereichen kann dies durchaus mit einer Belastung durch Kampfmittel einhergehen. Charakteristisch für diese offenen Flächen, zu denen u.a. Zwergstrauchheiden, Trockenrasen, wüstenähnliche Sandflächen und andere nährstoffarme baumlose Lebensräume gehören, sind Großflächigkeit, Abgeschiedenheit sowie ihre besondere Nutzung und Bewirtschaftung, d.h. die Abwesenheit von land- und forstwirtschaftlichem Betrieb sowie von Siedlungsflächen. Diese Charakteristik war die Grundlage für die Entwicklung einer speziell angepassten Flora und Fauna. Nach Beendigung des Militärbetriebs setzte dann in weiten Teilen eine großflächige Sukzession – die allmähliche Veränderung der Zusammensetzung von Pflanzen- und Tiergesellschaften – ein, die diese offenen Bereiche teilweise bereits in Wald verwandelte und somit verschwinden ließ. Dies wiederum führte zum Verlust der an diese Offenlandflächen gebundenen Tier- und Pflanzenarten. Zur Erhaltung, Gestaltung und Entwicklung dieser offenen Flächen wurden daher von einer interdisziplinären Gruppe von Naturwissenschaftlern verschiedene Methoden und Konzepte auf ihre jeweilige Wirksamkeit untersucht. So konnten schließlich die für die jeweiligen Standortbedingungen geeigneten Maßnahmen eingeleitet werden. Voraussetzung für die Einleitung der Maßnahmen sind zum einen Kenntnisse zu diesen jeweiligen Standortbedingungen, d.h. zum Ist-Zustand, sowie zur Entwicklung der Flächen, d.h. zur Dynamik. So kann eine Abschätzung über die zukünftige Flächenentwicklung getroffen werden, damit ein effizienter Maßnahmeneinsatz stattfinden kann. Geoinformationssysteme (GIS) spielen dabei eine entscheidende Rolle zur digitalen Dokumentation der Biotop- und Nutzungstypen, da sie die Möglichkeit bieten, raum- und zeitbezogene Geometrie- und Sachdaten in großen Mengen zu verarbeiten. Daher wurde ein fachspezifisches GIS für Truppenübungsplätze entwickelt und implementiert. Die Aufgaben umfassten die Konzeption der Datenbank und des Objektmodells sowie fachspezifischer Modellierungs-, Analyse- und Präsentationsfunktionen. Für die Integration von Fachdaten in die GIS-Datenbank wurde zudem ein Metadatenkatalog entwickelt, der in Form eines zusätzlichen GIS-Tools verfügbar ist. Die Basisdaten für das GIS wurden aus Fernerkundungsdaten, topographischen Karten sowie Geländekartierungen gewonnen. Als Instrument für die Abschätzung der zukünftigen Entwicklung wurde das Simulationstool AST4D entwickelt, in dem sowohl die Nutzung der (Raster-)Daten des GIS als Ausgangsdaten für die Simulationen als auch die Nutzung der Simulationsergebnisse im GIS möglich ist. Zudem können die Daten in AST4D raumbezogen visualisiert werden. Das mathematische Konstrukt für das Tool war ein so genannter Zellulärer Automat, mit dem die Flächenentwicklung unter verschiedenen Voraussetzungen simuliert werden kann. So war die Bildung verschiedener Szenarien möglich, d.h. die Simulation der Flächenentwicklung mit verschiedenen (bekannten) Eingangsparametern und den daraus resultierenden unterschiedlichen (unbekannten) Endzuständen. Vor der Durchführung einer der drei in AST4D möglichen Simulationsstufen können angepasst an das jeweilige Untersuchungsgebiet benutzerspezifische Festlegungen getroffen werden.
In this work, an approach of paleoclimate reconstruction for tropical East Africa is presented. After giving a short summary of modern climate conditions in the tropics and the East African climate peculiarity, the potential of reconstructing climate from paleolake sediments is discussed. As demonstrated, the hydrologic sensitivity of high-elevated closed-basin lakes in the Central Kenya Rift yields valuable guaranties for the establishment of long-term climate records. Temporal fluctuations of the limnological characteristics saved in the lake sediments are used to define variations in the Quaternary climate history. Based on diatom analyses in radiocarbon- and 40Ar/39Ar-dated sediments, a chronology of paleoecologic fluctuations is developed for the Central Kenya Rift -lakes Nakuru, Elmenteita and Naivasha. At least during the penultimate interglacial (around 140 to 60 kyr BP) and during the last interglacial (around 12 to 4 kyr BP), these lakes experienced several transgression-regression cycles on time intervals of about 11,000 years. Additionally, a long-term trend of lake evolution is found suggesting the general succession from deep freshwater lakes towards more saline waters during the last million years. Using ecologic transfer functions and a simple lake-balance model, the observed paleohydrologic fluctuations are linked to potential precipitation-evaporation changes in the lake basins. Though also tectonic influences on the drainage pattern and the effect of varied seepage are investigated, it can be shown that already a small increase in precipitation of about 30±10 % may have affected the hydrologic budget of the intra-rift lakes within the reconstructed range. The findings of this study help to assess the natural climate variability of East Africa. They furthermore reflect the sensitivity of the Central Kenya Rift -lakes to fluctuations of large-scale climate parameters, such as solar radiation and sea-surface temperatures of the Indian Ocean.