Refine
Has Fulltext
- yes (2501) (remove)
Year of publication
Document Type
- Doctoral Thesis (2501) (remove)
Language
Keywords
- climate change (52)
- Klimawandel (50)
- Modellierung (34)
- Nanopartikel (28)
- machine learning (21)
- Fernerkundung (20)
- Synchronisation (19)
- remote sensing (18)
- Spracherwerb (17)
- Blickbewegungen (16)
Institute
- Institut für Physik und Astronomie (402)
- Institut für Biochemie und Biologie (380)
- Institut für Geowissenschaften (325)
- Institut für Chemie (301)
- Extern (147)
- Institut für Umweltwissenschaften und Geographie (121)
- Institut für Ernährungswissenschaft (102)
- Wirtschaftswissenschaften (96)
- Department Psychologie (87)
- Hasso-Plattner-Institut für Digital Engineering GmbH (85)
In der randomisierten, multizentrischen DASH-Studie (Dietary Approaches to Stop Hy-pertension), die unter kontrollierten Bedingungen stattfand, führte eine fettreduzierte Mischkost, reich an Obst, Gemüse und Milchprodukten, bei Borderline-Hypertonikern zu einer signifikanten Blutdrucksenkung. Während der Studienphase wurden Körpermasse, Natrium-Aufnahme sowie Alkoholzufuhr aufgrund der bekannten Einflussnahme auf den Blutdruck konstant gehalten. In der eigenen Pilot-Studie sollte untersucht werden, ob das Ergebnis der DASH-Studie (i) mit deutschen Hypertonikern und (ii) unter habituellen Ernährungs- und Lebensbedingungen mit regelmäßig durchgeführter Ernährungsberatung und ad libitum Verzehr anstelle des streng kontrollierten Studienansatzes bestätigt werden kann. Eine Konstanz der Körpermasse, der Natrium-Urinausscheidung (unter diesem Studienansatz valider als die Aufnahme) und des Alkoholkonsums wurde vorausgesetzt. Die Studienpopulation setzte sich aus 53 übergewichtigen Probanden mit einer nicht medikamentös therapierten Borderline-Hypertonie und ohne Stoffwechselerkrankungen zusammen. Die Studienteilnehmer wurden randomisiert entweder der Idealgruppe mit einer fettarmen Kost reich an Milchprodukten, Obst und Gemüse (ähnlich der DASH-Idealgruppe) oder der Kontrollgruppe mit habitueller Ernährungsweise zugeteilt. Über einen Zeitraum von fünf Wochen wurde den Probanden etwa 50% ihres täglichen Lebensmittelbedarfes entsprechend ihrer Gruppenzugehörigkeit kostenfrei zur Verfügung gestellt. Gelegenheitsblutdruckmessungen und 24h-Blutdruckmessungen, Ernährungs- und Aktivitätsprotokolle, Blut- und Urinproben sowie anthropometrische Messungen wurden vor, während und fünf Wochen nach der Interventionsphase durchgeführt. Die Ergebnisse zeigen, dass in der Idealgruppe keine signifikante Blutdrucksenkung beobachtet werden konnte. Dies lässt sich durch die Tatsache erklären, dass die Lebens-mittel- und Nährstoffaufnahme der deutschen Kontrollgruppe eher der amerikanischen Idealgruppe entsprach. In der Pilot-Studie waren die Unterschiede in der Nährstoffzufuhr zwischen den beiden Gruppen viel geringer als in der DASH-Studie; für eine blutdrucksenkende Ernährungsumstellung bestand somit nur ein geringer Spielraum. Eine weitere Erklärung besteht in der unterschiedlichen Zusammensetzung der Studienpopulation. Bei DASH wurden vorwiegend farbige Probanden (40% höhere Hypertonieprävalenz) untersucht. Die Studienergebnisse lassen also den Schluss zu, dass Ernährungs- und Lebensstilgewohnheiten sowie der genetische Hintergrund der entsprechenden Bevölkerungsgruppe bei der Formulierung von nährstoff- oder lebensmittelbezogenen Empfehlungen zur Senkung des Bluthochdruckes Berücksichtigung finden müssen.
Mercaptursäure und Nukleosidaddukt im Harn als Biomarker in 1-Hydroxymethylpyren-exponierten Ratten
(2002)
1-Methylpyren (MP) ist hepatokanzerogen in neugeborenen männlichen Mäusen. Durch Hydroxylierung an der benzylischen Stelle und anschließende Sulfonierung wird MP zu DNA-reaktivem 1-Sulfooxymethylpyren (SMP) aktiviert. In der Ratte führt die Exposition des benzylischen Alkohols, 1-Hydroxymethylpyren (HMP), zur DNA-Adduktbildung in verschiedenen Geweben. Eventuelle Konsequenz der Toxifizierung ist die Ausscheidung entsprechender Mercaptursäure und Nukleosidaddukt im Harn, welche aufgrund ihrer Herkunft als Biomarker eignen könnten. In dieser Arbeit wird die Ausscheidung der Mercaptursäure und des N2-Desoxyguanosinadduktes in HMP-exponierten Ratten untersucht. Nach der Applikation von HMP bzw. MP wurden weniger als 1 % der Dosis als MPMA über Urin und Faeces ausgeschieden (0 - 48 h). Die Ausscheidung erfolgt hauptsächlich in den ersten 24 h nach der Applikation. MPdG konnte weder in Urin noch in Faeces der HMP-behandelten Tieren identifiziert werden. Nach direkter SMP-Applikation wurde MPdG nur in sehr geringe Menge (weniger als 0,9 ppm in 12 h) im Urin gefunden. Aufgrund der geringen Menge eignet sich MPdG nicht als Biomarker. MPMA dagegen, lässt sich analytisch gut erfassen. Es sollte daher untersucht werden, ob MPMA die Toxifizierung des HMP wiederspiegelt. Die Voraussetzung dafür ist die Kenntnisse über das Metabolismusmuster von HMP. Es wurde daher umfassende Untersuchungen zum Metabolismus des HMP durchgeführt. Die Ergebnisse zeigten, dass mehr als 80 % der Metaboiten in ihrer oxidierten Form (PCS, deren Glucuronsäure-Konjugate sowie phenolische Sulfatester der PCS) ausgeschieden wurden. Demnach spielt die Oxidation des HMP zu PCS eine sehr wichtige Rolle bei der Detoxifizierung und Ausscheidung von HMP. Ferne konnte nachgewiesen werden, dass die Enzyme Alkohol- und Aldehyd-Dehydrogenase an der Oxidation von HMP beteiligt waren. Die Inhibitoren Disulfiram und Ethanol der o. g. Enzyme wurde daher zur Modulation der Detoxifizierung in vivo eingesetzt. Die Veränderungen in der Toxifizierung von HMP zu SMP wurden durch die SMP-Konzentration im Plasma, die DNA-Addukthäufigkeit und die MPMA-Ausscheidung erfasst. Die Vorbehandlung von Disulfiram und Ethanol führte zu tendentielle Erhöhung der SMP-Konzentration im Plasma, DNA-Addukthäufigkeit in der Leber und die MPMA-Ausscheidung. Bemerkenswert ist jedoch, dass bereits eine Dosis von 0,2 g Ethanol/kg Körpermasse bereits zu statistisch signifikanten Erhöhungen der MPMA-Ausscheidung bei weiblichen Ratten.
Am Beispiel der Wiederkäuer wurde unter Zuhilfenahme von biochemischen und molekularbiologischen Methoden die Adaptation von Pflanzenfressern (Herbivoren) an pflanzliche Sekundärmetabolite wie z.B. Tannine untersucht. Tannine können in nicht an ihren Verzehr adaptierten Spezies durch ihr Proteinbindungsvermögen die Nahrungsverwertung und damit Wachstum und Gesundheit des Pflanzenfressers beeinträchtigen (antinutritive Wirkung). Einige Wiederkäuerarten wie z.B. das Reh (Capreolus capreolus) haben in ihrem Nahrungsspektrum viele stark tanninhaltige Pflanzen, leiden aber nicht unter den erwähnten postdigestiven Konsequenzen. Eine Möglichkeit, die antinutritive Wirkung von Tanninen zu neutralisieren, besteht in der Produktion tanninbindender Speichelproteine. Der Speichel verschiedener Wiederkäuerarten wurde auf das Vorhandensein tanninbindender Proteine untersucht. Diese Arten wurden so ausgewählt, dass alle drei Ernährungstypen (Konzentratselektierer, Intermediärtyp, Gras- und Rauhfutterfresser) in den Vergleich eingeschlossen werden konnten. Als Referenzspezies wurde der Konzentratselektierer Reh herangezogen. Die Speichelproteine des Rehs und die der Intermediärtypen (Rentier, Rangifer tarandus; Damhirsch, Cervus dama; Moschusochse, Ovibos moschatus) banden ungefähr doppelt so effektiv an hydrolysierbare Tannine (Tanninsäure), wie die der untersuchten Gras- und Rauhfutterfresser (Rind, Bos taurus; und Mufflon, Ovis orientalis musimon). Diese Abstufung zeigte sich auch bei der Untersuchung der Bindung an kondensierte Tannine (Quebracho). Eine Ausnahme stellte Mufflonspeichel dar, dieser band ebenso gut an Quebracho wie die Speichelproteine der anderen Ernährungstypen. Über eine Aminosäuretotalanalyse konnte festgestellt werden, dass der Speichel einiger untersuchter Wiederkäuerarten prolinreiche Proteine (PRPs) enthielt. Unter Ausnutzung ihrer Trichloressigsäure (TCA)-Löslichkeit wurden diese angereichert und genauer untersucht. Die Analyse der TCA-löslichen Speichelproteine der Konzentratselektierer (Reh, Elch) ergab einen relativen Prolingehalt von über 35 %, während beim Moschusochsen noch 29 % gemessen wurden. In Damhirsch- und Rinderspeichel wurden keine prolinreichen Proteine gefunden. Für die TCA-löslichen Speichelproteine des Rehs konnte eine hohe Tanninbindungskapazität nachgewiesen werden. Diese banden 24 - 30 x effektiver an Tannine als die TCA-löslichen Speichelproteine des Rindes. Die Tanninbindungskapazitäten der TCA-löslichen Speichelproteine von Moschusochse und Damhirsch waren ebenfalls höher als die des Rindes, aber niedriger als die des Rehs. Die Kohlenhydrat-Analyse der TCA-löslichen Speichelproteine des Rehs erbrachte, dass es sich bei ihnen um Glykoproteine handelt. Mittels Gelfiltration und zweidimensionaler Polyacrylamidgelektrophorese konnten fünf Proteingruppen mit Molekulargewichten zwischen 15 und 50 kd sowie isoelektrischen Punkten zwischen 4,0 und 8,2 detektiert werden. Von 15 dieser Proteine konnten die N-terminalen Aminosäuresequenzen ermittelt werden. Ausgehend von diesen Informationen wurden Reh-PRP spezifische mRNAs isoliert und partiell sequenziert. Die meisten dieser Fragmente hatten eine gemeinsame 18 Aminosäuren lange C-terminale Sequenz PPPEEQPEE/QSPDEE/DSPSE. Die Suche nach Übereinstimmungen der analysierten Sequenzen mit anderen Säugetier-PRPs in der Genbank ergab keine sinnvollen Ähnlichkeiten. Die Ergebnisse können zu Informationen über tanninbindende Proteine anderer Wiederkäuer führen. Die Sequenzinformationen stellen einen Ausgangspunkt bei der Analyse der evolutiven Zusammenhänge der Cerviden dar.
Im Rahmen dieser Arbeit gelang es, katalytische Antikörper zur Hydrolyse von Benzylphenylcarbamaten sowie zahlreiche monoklonale Antikörper gegen Haptene herzustellen. Es wurden verschiedene Hapten-Protein-Konjugate unter Verwendung unterschiedlicher Kopplungsmethoden hergestellt und charakterisiert. Zur Generierung der hydrolytisch aktiven Antikörper wurden Inzuchtmäuse mit KLH-Konjugaten von 4 Übergangszustandsanaloga (ÜZA) immunisiert. Mit Hilfe der Hybridomtechnik wurden verschiedene monoklonale Antikörper gegen diese ÜZA gewonnen. Dabei wurden sowohl verschiedene Immunisierungsschemata als auch verschiedene Inzuchtmausstämme und Fusionstechniken verwendet. Insgesamt wurden 32 monoklonale Antikörper gegen die verwendeten ÜZA selektiert. Diese Antikörper wurden in großen Mengen hergestellt und gereinigt. Zum Nachweis der Antikörper-vermittelten Katalyse wurden verschiedene Methoden entwickelt und eingesetzt, darunter immunologische Nachweismethoden mit Anti-Substrat- und Anti-Produkt-Antikörpern und eine photometrische Methode mit Dimethylaminozimtaldehyd. Der Nachweis der hydrolytischen Aktivität gelang mit Hilfe eines Enzymsensors, basierend auf immobilisierter Tyrosinase. Die Antikörper N1-BC1-D11, N1-FA7-C4, N1-FA7-D12 und R3-LG2-F9 hydrolysierten die Benzylphenylcarbamate POCc18, POCc19 und Substanz 27. Der Nachweis der hydrolytischen Aktivität dieser Antikörper gelang auch mit Hilfe der HPLC. Der katalytische Antikörper N1-BC1-D11 wurde kinetisch und thermodynamisch untersucht. Es wurde eine Michaelis-Menten-Kinetik mit Km von 210 µM, vmax von 3 mM/min und kcat von 222 min-1 beobachtet. Diese Werte korrelieren mit den Werten der wenigen bekannten Diphenylcarbamat-spaltenden Abzyme. Die Beschleunigungsrate des Antikörpers N1-BC1-D11 betrug 10. Das ÜZA Hei3 hemmte die hydrolytische Aktivität. Dies beweist, dass die Hydrolyse in der Antigenbindungsstelle stattfindet. Weiter wurde zwischen der Antikörperkonzentration und der Umsatzgeschwindigkeit eine lineare Abhängigkeit festgestellt. Die thermodynamische Gleichtgewichtsdissoziationskonstante KD des Abzyms von 2,6 nM zeugt von einer sehr guten Affinität zum ÜZA. Hydrolytisch aktiv waren nur Antikörper, die gegen das Übergangszustandsanalogon Hei3 hergestellt worden waren. Es wird vermutet, dass die Hydrolyse der Benzylphenylcarbamate über einen Additions-Eliminierungsmechanismus unter Ausbildung eines tetraedrischen Übergangszustandes verläuft, dessen analoge Verbindung Hei3 ist. Im Rahmen der Generierung von Nachweisantikörpern zur Detektion der Substratabnahme bei der Hydrolyse wurden Anti-Diuron-Antikörper hergestellt. Einer der Antikörper (B91-CG5) ist spezifisch für das Herbizid Diuron und hat einen IC50-Wert von 0,19 µg/l und eine untere Nachweisgrenze von 0,04 µg/l. Ein anderer Antikörper (B91-KF5) reagiert kreuz mit einer Palette ähnlicher Herbizide. Mit diesen Antikörpern wurde ein empfindlicher Labortest, der ein Monitoring von Diuron auf Grundlage des durch die Trinkwasserverordnung festgeschriebenen Wertes für Pflanzenschutzmittel von 0,1 µg/l erlaubt, aufgebaut. Der Effekt der Anti-Diuron-Antikörper auf die Diuron-inhibierte Photosynthese wurde in vitro und in vivo untersucht. Es wurde nachgewiesen, dass sowohl in isolierten Thylakoiden, als auch in intakten Algen eine Vorinkubation der Anti-Diuron-Antikörper mit Diuron zur Inaktivierung seiner Photosynthese-hemmenden Wirkung führt. Wurde der Elektronentransport in den isolierten Thylakoiden oder in Algen durch Diuron unterbrochen, so führte die Zugabe der Anti-Diuron-Antikörper zur Reaktivierung der Elektronenübertragung.
New polymers and low molecular compounds, suitable for organic light emitting devices and organic electronic applications, have been synthesised in this years in order to obtain electron transport characteristics compatible with requirements for applications in real plastic devices. However, despite of the technological importance and of the relevant progress in devices manufacture, fundamental physical properties of such class of materials are still not enough studied. In particular extensive presence of distributions of localised states inside the band gap has a deep impact on their electronic properties. Such presence of shallow traps as well as the influence of the sample preparation conditions on deep and shallow localised states have not been, until now, systematically explored. The thermal techniques are powerful tools in order to study localised levels in inorganic and organic materials. Thermally stimulated luminescence (TSL), thermally stimulated currents (TSC) and thermally stimulated depolarisation currents (TSDC) allow to deeply look to shallow and deep trap levels as well as they permit to study, in synergy with dielectric spectroscopy (DES), polarisation and depolarisation effects. We studied, by means of numerical simulations, the first and the second order kinetic equations characterised by negligible and strong re-trapping respectively. We included in the equations Gaussian, exponential and quasi-continuous distributions of localised states. The shapes of the theoretical peaks have been investigated by means of systematic variation of the two main parameters of the equations, i. e. the energy trap depth E and the frequency factor a and of the parameters regulating the distributions, in particular for a Gaussian distribution the distribution width s and the integration limits. The theoretical findings have been applied to experimental glow curves. Thin films of polymers and low molecular compounds. Polyphenylquinoxalines, trisphenylquinoxalines and oxadiazoles, studied because of their technological relevance, show complex thermograms, having several levels of localised states and depolarisation peaks. In particular well ordered films of an amphiphilic substituted 2-(p-nitrophenyl)-5-(p-undecylamidophenyl)-1,3,4-oxadiazole (NADPO) are characterised by rich TSL thermograms. A wide region of shallow traps, localised at Em = 4 meV, has been successfully fit by means of a first order kinetic equation having a Gaussian distribution of localised states. Two further peaks, having a different origin, have been characterised. The peaks at Tm = 221.5 K and Tm = 254.2 have activation energy of Em= 0.63 eV and Em = 0.66 eV, frequency factor s = 2.4x1012 s-1 and s = 1.85x1011 s-1, distribution width s = 0.045 eV and s = 0.088 eV respectively. Increasing the number of thermal cycle, a peak, probably connected with structural defects, appears at Tm = 197.7 K. The numerical analysis of this peak was performed by means of a first order equation containing a Gaussian distribution of traps. The activation energy of the trap level is centred at Em = 0.55 eV. The distribution is perfectly symmetric with a quite small width s = 0.028 eV. The frequency factor is s = 1.15 x 1012 s-1, resulting of the same order of magnitude of its neighbour peak at Tm = 221.5 K, having both, probably, the same origin. Furthermore the work demonstrates that the shape of the glow curves is strongly influenced by the excitation temperature and by the thermal cycles. For that reason Gaussian distributions of localised states can be confused with exponential distributions if the previous thermal history of the samples is not adequately considered.
Hämoglobin-A1c (HbA1c) ist ein Hämoglobin (Hb)-Subtypus, der durch nicht-enzymatische Glykierung des N-terminalen Valinrestes der Hämoglobin-beta-Kette entsteht. Das gemessene Verhältnis von HbA1c zum Gesamt-Hämoglobin (5-20 % bei Diabetikern) repräsentiert den Mittelwert der Blutglucosekonzentration über einen zweimonatigen Zeitraum und stellt zur Beurteilung der diabetischen Stoffwechsellage eine Ergänzung zur Akutkontrolle der Glukosekonzentration dar. Ziel der vorliegenden Arbeit war es, einen amperometrischen Biosensor für die Bestimmung des medizinisch relevanten Parameters HbA1c zu entwickeln. Durch Selektion geeigneter Bioerkennungselemente und deren Immobilisierung unter Erhalt der Bindungsfunktion für die Zielmoleküle Hämoglobin bzw. HbA1c wurden spezifische, hochaffine und regenerationsstabile Sensoroberflächen geschaffen. Für die Entwicklung des HbA1c-Biosensors wurden zwei Konzepte - Enzymsensor und Immunosensor - miteinander verglichen. Die enzymatische Umsetzung von HbA1c erfolgte mit der Fructosylamin Oxidase (FAO) aus Pichia pastoris N 1-1 unter Freisetzung von H2O2, welches sowohl optisch über eine Indikatorreaktion als auch elektrochemisch nach Einschluss der FAO in PVA-SbQ und Fixierung des Immobilisats vor einer H2O2-Elektrode nachgewiesen wurde. Die Kalibration des Enzymsensors mit der HbA1c-Modellsubstanz Fructosyl-Valin ergab Nachweisgrenzen, die ausserhalb des physiologisch relevanten HbA1c-Konzentrationsbereich lagen. Aus der Umsetzung von glykierten Peptiden mit einer nicht HbA1c analogen Aminosäurensequenz, z.B. Fructosyl-Valin-Glycin wurde zudem eine geringe HbA1c-Spezifität abgeleitet. Für den Immunosensor wurden zwei heterogene Immunoassay-Formate unter Verwendung von hochaffinen und spezifischen Antikörpern in Kombination mit Glucose Oxidase (GOD) als Markerenzym zum Nachweis von HbA1c untersucht. Beim indirekt-kompetitiven Immunoassay wurde anstelle des kompletten HbA1c-Moleküls das glykierte Pentapeptid Fructosyl-Valin-Histidin-Leucin-Threonin-Prolin (glkPP) als Kompetitor und Affinitätsligand immobilisiert und so eine regenerierfähige Oberfläche geschaffen. Beim Sandwich-Immunoassay wurde im ersten Schritt Gesamt-Hämoglobin an die mit Haptoglobin (Hp) modifizierte Festphase angereichert und im zweiten Schritt der gebundene HbA1c-Anteil nachgewiesen. Für die Konstruktion des HbA1c-Immunosensors wurden Affinitätsmatrizen durch Modifizierung von Cellulose-Dialysemembranen mit glkPP bzw. Hp hergestellt. Grundlegend studiert wurde die Aktivierung der Cellulose-Membranen mit 1,1'-Carbonyldiimidazol (CDI) und 1-Cyano-4-dimethylaminopyridintetrafluoroborat (CDAP) als Aktivierungsagenzien. Eine gerichtete Immobilisierung der Liganden wurde realisiert, indem glkPP über dessen C-Terminus (einzige Carboxylatgruppe) und Hp über dessen periodat-oxidiertem Kohlenhydratrest an die amino- oder hydrazidfunktionalisierte Membranen kovalent gekoppelt wurden. Mit dem Einsatz der glkPP- und Hp-modifizierten Membranen in der elektrochemischen Messzelle war erstmalig der biosensorische Nachweis von HbA1c möglich. Als Transduktor diente eine Pt-Elektrode, an der das von der GOD generierte H2O2 umgesetzt und ein mit der HbA1c-Konzentration korrelierendes Stromsignal erzeugt wurde. Die Immunosensoren zeigten Ansprechzeiten von 3 s. Mit dem Immunosensor auf Basis des indirekt-kompetitiven Testprinzips wurde eine Kalibrationskurve für HbA1c im Bereich von 0,25-30 µg/ml (3,9-465 nM, CV 3-9 %) mit Assayzeiten von 60 min und mit dem Immunosensor im Sandwich-Format eine Kalibrationskurve im Bereich von 0,5-5 µg/ml (7,8-78 nM; 5-50 % HbA1c vom Gesamt-Hb, CV 6-10 %, 3 h) aufgenommen.
The primary focus on the present study was to identify early risk factors for infant aggression in a sample of high risk, low-income teenager mothers and their infants. Despite the amount of research on externalizing behavior, relatively little is known about its development in early childhood. Because chronically aggressive school-age children tend to be those who first display symptoms during preschool years, an examination of the early manifestations of aggressive behavior and the development of measurements for infants is needed. The present study explored a model of infant aggression development that emphasized infant aggression developing largely through the interaction of infant′s dispositional characteristics with their caregiving environment. The study addressed the following relations: (1) Maternal psychosocial functioning with reported and observed infant aggression and negative emotionality, (2) reported measurements of infant aggression and negative emotionality with observed infant measurements of infant aggression and negative emotionality, (3) infant negative emotionality and infant aggression, (4) infant emotion regulation with infant aggression and negative emotionality, (5) the interaction between emotion regulation and negative emotionality in relation to infant aggression, and (6) attachment classification with infant aggression and negative emotionality. Finally, the question of whether these six relations would differ by gender was also addressed. Maternal psychosocial functioning was assessed with self-reported measurements. Infant aggression, negative emotionality and emotion regulation were measured during two standardized assessments, the Strange Situation and the Bayley Scales of Infant Development Assessment and maternal reported with the Infant-Toddler Social and Emotional Assessment. Several interesting findings emerged. One of the main findings concerned maternal attribution and its possible role as a risk factor for later externalizing behaviors. That is, mothers, especially depressed and stressed mothers, tended to report higher levels of infant aggression and negative emotionality than was noted by more objective observers. This tendency was particularly evident in mothers with girl infants. Another important finding concerned emotion regulation. Even at this early age, clear differences in emotion regulation could be seen. Interestingly, infants with high negative emotionality and low emotion regulation were observed to be the most aggressive. Also significant relations emerged for infant negative emotionality and aggression and vise versa. Thus, for purposes of treatment and scientific study, the three constructs (emotion regulation, negative emotionality, and aggression) should be considered in combination. Investigating each alone may not prove fruitful in future examinations. Additionally, different emotion regulation behaviors were observed for girl and boy infants. Aggressive girls looked more at the environment, their toys and their mother, whereas aggressive boys looked less at the environment and their mother and explored their toys more, although looked at the toys less. Although difficult to interpret at this point, it is nonetheless interesting that gender differences exist at this young age in emotion regulatory behaviors. In conclusion, although preliminary, findings from the present study provide intriguing directions for future research. More studies need to conducted focusing on infant aggression, as well as longitudinal studies following the infants over time.
The length of the vegetation period (VP) plays a central role for the interannual variation of carbon fixation of terrestrial ecosystems. Observational data analysis has indicated that the length of the VP has increased in the last decades in the northern latitudes mainly due to an advancement of bud burst (BB). This phenomenon has been widely discussed in the context of Global Warming because phenology is correlated to temperatures. Analyzing the patterns of spring phenology over the last century in Southern Germany provided two main findings: - The strong advancement of spring phases especially in the decade before 1999 is not a singular event in the course of the 20th century. Similar trends were also observed in earlier decades. Distinct periods of varying trend behavior for important spring phases could be distinguished. - Marked differences in trend behavior between the early and late spring phases were detected. Early spring phases changed as regards the magnitude of their negative trends from strong negative trends between 1931 and 1948 to moderate negative trends between 1948 and 1984 and back to strong negative trends between 1984 and 1999. Late spring phases showed a different behavior. Negative trends between 1931 and 1948 are followed by marked positive trends between 1948 and 1984 and then strong negative trends between 1984 and 1999. This marked difference in trend development between early and late spring phases was also found all over Germany for the two periods 1951 to 1984 and 1984 to 1999. The dominating influence of temperature on spring phenology and its modifying effect on autumn phenology was confirmed in this thesis. However, - temperature functions determining spring phenology were not significantly correlated with a global annual CO2 signal which was taken as a proxy for a Global Warming pattern. - an index for large scale regional circulation patterns (NAO index) could only to a small part explain the observed phenological variability in spring. The observed different trend behavior of early and late spring phases is explained by the differing behavior of mean March and April temperatures. Mean March temperatures have increased on average over the 20th century accompanied by an increasing variation in the last 50 years. April temperatures, however, decreased between the end of the 1940s and the mid-1980s, followed by a marked warming after the mid-1980s. It can be concluded that the advancement of spring phenology in recent decades are part of multi-decadal fluctuations over the 20th century that vary with the species and the relevant seasonal temperatures. Because of these fluctuations a correlation with an observed Global Warming signal could not be found. On average all investigated spring phases advanced between 5 and 20 days between 1951 and 1999 for all Natural Regions in Germany. A marked difference be! tween late and early spring phases is due to the above mentioned differing behavior before and after the mid-1980s. Leaf coloring (LC) was delayed between 1951 and 1984 for all tree species. However, after 1984 LC was advanced. Length of the VP increased between 1951 and 1999 for all considered tree species by an average of ten days throughout Germany. It is predominately the change in spring phases which contributes to a change in the potentially absorbed radiation. Additionally, it is the late spring species that are relatively more favored by an advanced BB because they can additionally exploit longer days and higher temperatures per day advancement. To assess the relative change in potentially absorbed radiation among species, changes in both spring and autumn phenology have to be considered as well as where these changes are located in the year. For the detection of the marked difference between early and late spring phenology a new time series construction method was developed. This method allowed the derivation of reliable time series that spanned over 100 years and the construction of locally combined time series increasing the available data for model development. Apart from analyzed protocolling errors, microclimatic site influences, genetic variation and the observers were identified as sources of uncertainty of phenological observational data. It was concluded that 99% of all phenological observations at a certain site will vary within approximately 24 days around the parametric mean. This supports to the proposed 30-day rule to detect outliers. New phenology models that predict local BB from daily temperature time series were developed. These models were based on simple interactions between inhibitory and promotory agents that are assumed to control the developmental status of a plant. Apart from the fact that, in general, the new models fitted and predicted the observations better than classical models, the main modeling results were: - The bias of the classical models, i.e. overestimation of early observations and underestimation of late observations, could be reduced but not completely removed. - The different favored model structures for each species indicated that for the late spring phases photoperiod played a more dominant role than for early spring phases. - Chilling only plays a subordinate role for spring BB compared to temperatures directly preceding BB.
Comparative study of gene expression during the differentiation of white and brown preadipocytes
(2002)
Introduction Mammals have two types of adipose tissue: the lipid storing white adipose tissue and the brown adipose tissue characterised by its capacity for non-shivering thermogenesis. White and brown adipocytes have the same origin in mesodermal stem cells. Yet nothing is known so far about the commitment of precursor cells to the white and brown adipose lineage. Several experimental approaches indicate that they originate from the differentiation of two distinct types of precursor cells, white and brown preadipocytes. Based on this hypothesis, the aim of this study was to analyse the gene expression of white and brown preadipocytes in a systematic approach. Experimental approach The white and brown preadipocytes to compare were obtained from primary cell cultures of preadipocytes from the Djungarian dwarf hamster. Representational difference analysis was used to isolate genes potentially differentially expressed between the two cell types. The thus obtained cDNA libraries were spotted on microarrays for a large scale gene expression analysis in cultured preadipocytes and adipocytes and in tissue samples. Results 4 genes with higher expression in white preadipocytes (3 members of the complement system and a fatty acid desaturase) and 8 with higher expression in brown preadipocytes were identified. From the latter 3 coded for structural proteins (fibronectin, metargidin and a actinin 4), 3 for proteins involved in transcriptional regulation (necdin, vigilin and the small nuclear ribonucleoprotein polypeptide A) and 2 are of unknown function. Cluster analysis was applied to the gene expression data in order to characterise them and led to the identification of four major typical expression profiles: genes up-regulated during differentiation, genes down-regulated during differentiation, genes higher expressed in white preadipocytes and genes higher expressed in brown preadipocytes. Conclusion This study shows that white and brown preadipocytes can be distinguished by different expression levels of several genes. These results draw attention to interesting candidate genes for the determination of white and brown preadipocytes (necdin, vigilin and others) and furthermore indicate that potential importance of several functional groups in the differentiation of white and brown preadipocytes, mainly the complement system and extracellular matrix.
Today, analytical chemistry does not longer consist of only the big measuring devices and methods which are time consuming and expensive, which can furthermore only be handled by the qualified staff and in addition the results can also only be evaluated by this qualified staff. Usually, this technique, which shall be described in the following as 'classic analytic measuring technique', requires also rooms equipped especially and often a relative big quantity of the test compounds which should be prepared especially. Beside this classic analytic measuring technique, limited on definite substance groups and requests, a new measuring technique has gained acceptance particularly within the last years, which one can often be used by a layman, too. Often the new measuring technique has very little pieces of equipment. The needed sample volumes are also small and a special sample preparation isn't required. In addition, the new measuring instruments are simple to handle. They are cheap both in their production and in the use and they permit even a continuous measurement recording usually. Numerous of this new measuring instruments base on the research in the field of Biosensorik during the last 40 years. Since Clark and Lyon in the year 1962 were able to measure glucose with a simple oxygen electrode, completed by an enzyme the development of the new measuring technique did not have to be held back any longer. Biosensors, special pickups which consists of a combination from a biological component (permits a specific recognition of the analyte also without purification of the sample previously) and a physical pickup (convert the primary physicochemical effect into an electronically measurable signal), conquered the market. In the context of this thesis different tyrosinasesensors were developed which fulfilling the various requests, depending on origin and features of the used tyrosinase. One of the tyrosinasesensors for example was used for quantification of phenolic compounds in river and sea water and the results could correlated very well with the corresponding DIN-test for the determination of phenolic compounds. An other developed tyrosinasesensor showed a very high sensitiveness for catecholamines, substances which are of special importance in the medical diagnostics. In addition, the investigations of two different tyrosinases, which were carried out also in the context of this thesis, have shown, that a special tyrosinase (tyrosinase from Streptomyces antibioticus) will be the better choice as tyrosinase from Agaricus bisporus, which is used in the area of biosensor research till now, if one wants to develop in future even more sensitive tyrosinasesensors. Furthermore, first successes became reached on a molecular biological field, the production of tyrosinasemutants with special, before well-considered features. These successes can be used to develop a new generation of tyrosinasesensors, tyrosinasesensors in which tyrosinase can be bound directionally both to the corresponding physical pickup or also to another enzyme. From this one expects to achieve ways minimized which the substance to be determined (or whose product) otherwise must cover. Finally, this should result in an clearly visible increase of sensitivity of the Biosensor.
In der nichtlinearen Datenreihenanalyse hat sich seit etwa 10 Jahren eine Monte-Carlo-Testmethode etabliert, die Theiler-surrogatmethode, mit Hilfe derer entschieden werden kann, ob eine Datenreihe nichtlinearen Ursprungs sei. Diese Methode wird kritisiert, modifiziert und verallgemeinert. Das, was Theiler untersuchen will braucht andere Surrogatmethoden, die hier konstruiert werden. Und das, was Theiler untersucht braucht gar keine Monte-Carlo-Methoden. Mit Hilfe des in der Arbeit eingeführten Begriffs des Phasensignals werden Testmöglichkeiten dargelegt und Beziehungen zwischen den nichtlinearen Eigenschaften der Zeitreihe und deren Phasenspektrum erforscht. Das Phasensignal wird aus dem Phasenspektrum der Zeitreihe hergeleitet und registriert außerordentliche Geschehnisse im Zeitbereich sowie Phasenkopplungen im Frequenzbereich. Die gewonnenen Erkenntnisse werden auf das Problem der Polbewegung angewendet. Die Hypothese einer nichtlinearen Beziehung zwischen der atmosphärischen Erregung und der Polbewegung wird untersucht. Eine nichtlineare Behandlung wird nicht für nötig gehalten.
In der vorliegenden Dissertation wird die Bedeutung von Brachen für Artenvielfalt und Stabilität von Blüte-Bestäuber-Nahrungsnetzen in agrarisch genutzten Landschaften anhand ausgewählter blütenbesuchender Insektengruppen (Syrphidae, Lepidoptera) untersucht. Die Freilandarbeiten fanden von 1998-2000 im Raum der Feldberger Seenlandschaft, Mecklenburg-Vorpommern, statt. Es werden die beiden Hauptnahrungsquellen Nektar und Pollen betrachtet, dabei fanden Untersuchungen zur Intensität der Blüte-Bestäuber-Interaktion auf Stilllegungsflächen, zum flächenbezogenen quantitativen Nektarangebot im Jahresverlauf, zur individuellen Pollennutzung bei Syrphiden und zur Breite und Überlappung der Nahrungsnischen bei den dominanten Arten Episyrphus balteatus, Metasyrphus corollae, Syritta pipiens und Sphaerophoria scripta statt. Im Ergebnis zeigt sich eine hohe Bedeutung der Brachflächen für die Stabilität des Blüte-Bestäuber-Netzes, während die Diversität von anderen, eher landschaftsbezogenen Faktoren abhängig ist.
Die Eifel ist eines der jüngsten vulkanischen Gebiete Mitteleuropas. Die letzte Eruption ereignete sich vor ungefähr 11000 Jahren. Bisher ist relativ wenig bekannt über die tieferen Mechanismen, die für den Vulkanismus in der Eifel verantwortlich sind. Erdbebenaktivität deutet ebenso darauf hin, dass die Eifel eines der geodynamisch aktivsten Gebiete Mitteleuropas ist. In dieser Arbeit wird die Receiver Function Methode verwendet, um die Strukturen des oberen Mantels zu untersuchen. 96 teleseismische Beben (mb > 5.2) wurden ausgewertet, welche von permanenten und mobilen breitbandigen und kurzperiodischen Stationen aufgezeichnet wurden. Das temporäre Netzwerk registrierte von November 1997 bis Juni 1998 und überdeckte eine Fläche von ungefähr 400x250 km². Das Zentrum des Netzwerkes befand sich in der Vulkaneifel. Die Auswertung der Receiver Function Analyse ergab klare Konversionen von der Moho und den beiden Manteldiskontinuitäten in 410 km und 660 km Tiefe, sowie Hinweise auf einen Mantel-Plume in der Region der Eifel. Die Moho wurde bei ungefähr 30 km Tiefe beobachtet und zeigt nur geringe Variationen im Bereich des Netzwerkes. Die beobachteten Variationen der konvertierten Phasen der Moho können mit lateralen Schwankungen in der Kruste zu tun haben, die mit den Receiver Functions nicht aufgelöst werden können. Die Ergebnisse der Receiver Function Methode deuten auf eine Niedriggeschwindigkeitszone zwischen 60 km bis 90 km in der westlichen Eifel hin. In etwa 200 km Tiefe werden im Bereich der Eifel amplitudenstarke positive Phasen von Konversionen beobachtet. Als Ursache hierfür wird eine Hochgeschwindigkeitszone vorgeschlagen, welche durch mögliches aufsteigendes, dehydrierendes Mantel-Material verursacht wird. Die P zu S Konversionen an der 410 km Diskontinuität zeigen einen späteren Einsatz als nach dem IASP91-Modell erwartet wird. Die migrierten Daten weisen eine Absenkung der 410 km Diskontinuität um bis zu 20 km Tiefe auf, was einer Erhöhung der Temperatur von bis zu etwa 140° Celsius entspricht. Die 660 km Diskontinuität weist keine Aufwölbung auf. Dies deutet darauf hin, dass kein Mantelmaterial direkt von unterhalb der 660 km Diskontinuität in der Eifel-Region aufsteigt oder, dass der Ursprung des Eifel-Plumes innerhalb der Übergangszone liegt.
Die wachsenden Kosten für die Behandlung chronischer lumbaler Rückenschmerzen stehen zunehmend in Diskrepanz mit den begrenzten Mitteln für das Gesundheitswesen. Untersuchungen zeigen, dass aktive Trainingsprogramme, je früher sie eingesetzt werden, einen positiven Einfluss auf die Senkung von Kosten für die Gesellschaft haben. Ein rechtzeitiger Einsatz der medizinischen Kräftigungstherapie bei Rückenschmerzpatienten ist somit unter rehabilitativen Gesichtspunkten notwendig. Insbesondere das Training im Wasser gestattet gelenkschonende Übungen in frühen Phasen der Rehabilitation und lassen eine raschere Wiederherstellung erwarten. Über die körperlichen Auswirkungen therapeutischer Trainingsmaßnahmen im Wasser sind bis dato wenige Studien verfügbar, welche die Wirkung des Mediums Wasser auf konditionelle Parameter objektiv quantifizieren und bewerten. Jedoch sind bislang die Möglichkeiten für ein gezieltes Krafttraining im Wasser begrenzt. Eine gerätetechnische Entwicklung, die ein rumpfstabilisierendes Krafttraining im Warmwasser ermöglicht, lässt im Vergleich zu herkömmlichen Trainingsmöglichkeiten eine noch effizientere rehabilitative Behandlung erwarten. Es wird die Fragestellung verfolgt, inwieweit aktive Trainingsformen im Wasser die Maximalkraft und die neuromuskuläre Funktion der Rumpfmuskulatur, sowie den Schmerz von Rückenpatienten beeinflussen. Ferner soll im Rahmen der Untersuchungen die Effektivität eines neu entwickelten Wassertrainingsgerätes geprüft werden. Die Untersuchungen der Ergebnisse von 80 weiblichen Probanden (in fünf Gruppen aufgeteilt: Kontrollgruppe, Aquajogging, Aquarücken, Aquagerät und Rückengymnastik an Land) zeigen, dass durch aktive Interventionsmaßnahmen eine Verbesserung der Kraftfähigkeit und eine Reduzierung von Schmerzen erzielt werden kann. Hingegen kommt es in der Kontrollgruppe, ohne Trainingsanwendungen, zur Stagnation des chronischen Schmerzzustandes, sogar zur Verschlechterung der Kraftentwicklung der Rückenstreckmuskulatur. In allen Trainingsgruppen konnten kurzfristig und mittelfristig weniger Muskelfunktionsstörungen nachgewiesen werden. Bei Betrachtung der Kraftentwicklung der unteren Rumpfmuskulatur fällt auf, dass die höchsten Zuwächse der Bauchmuskelkraft in den Gruppen Aquarücken und Aquagerät festzustellen sind. Die Kraft der Rückenstreckermuskulatur entwickelte sich in der Gruppe Aquagerät mit einer Steigerung von 55% nach der Intervention am stärksten. Es kann die Hypothese aufgestellt werden, dass das Training im warmen Wasser unter stabilisierten Voraussetzungen eine effizientere Methode zur Stärkung der unteren Rumpfmuskulatur zu sein scheint. Bei der Entwicklung der Kraft der oberen Rücken- und Schultergürtelmuskulatur kommt es in den Gruppen Aquajogging und Aquarücken zu den größten Steigerungen. Dies könnte mit der höheren Aktivität der Arme im Übungsprogramm zusammenhängen. Positiv ist die hohe Reduzierung der Schmerzen in allen Trainingsgruppen zu bewerten. Jedoch ist bei Betrachtung der Ergebnisse festzustellen, dass für eine weitere Manifestierung der Trainingserfolge ein weiterführendes Training bedeutsam ist. Die Ergebnisse dieser Studie belegen, dass durch ein gezieltes Training im Wasser und an Land über 6 Wochen, je zweimal pro Woche, deutliche Verbesserungen in der Entwicklung von Kraft, Schmerzintensität, Funktionseinschränkung und Muskelfunktion möglich sind. Ferner werden in dieser Arbeit positive Zusammenhänge zwischen den Entwicklungen Schmerzintensität und Rückenstreckerkraft, sowie Schmerzintensität und Bauchmuskelkraft beobachtet. Zwischen den Versuchsgruppen im Wasser und der Versuchsgruppe an Land konnten nur geringe Unterschiede in den Ergebnissen nachgewiesen werden. Jedoch geben die Resultate Hinweis darauf, dass bei höheren Schmerzintensitäten die Intervention im Wasser die Therapie der Wahl zu sein scheint. Die Resultate dieser Untersuchungen machen deutlich, dass der Einsatz eines Wassertrainingsgerätes in der Therapie chronischer Rückenschmerzpatienten eine effiziente Methode zur Senkung von Schmerzen und zur Steigerung der Kraft der Rücken- und Bauchmuskulatur ist. Vorteile des Wassertraingsgerätes sind die gute Stabilisation des Beckens, trotz auftriebswirksamer Mechanismen im Wasser, die bedienerfreundliche Handhabung, der separat einstellbare Widerstand, die schnellen Therapieerfolge und die hohe Motivation der Kursteilnehmer. Diese Beobachtungen lassen eine effizientere Therapie und damit Kostenersparnisse vermuten. Nachteile sind das hohe Gewicht des Wassertraingsgerätes und die relativ hohen Anschaffungskosten. Die hohe Reduzierung der Schmerzintensität bei den Probanden, die am Wassertrainingsgerät Interventionen durchführten, lassen vermuten, dass diese Geräteanwendungen für Patienten mit sehr schmerzhaften oder subakuten Verlaufsformen besonders geeignet ist. Der schonende Charakter der Aquatherapie und der Einsatz eines neuen Wassertrainingsgerätes unterstützt in effektiver Weise die modernen Konzepte der Rehabilitation chronischer Rückenschmerzpatienten.
Das nationale Recht wird mehr und mehr durch EG-Recht beeinflussst. In diesem Zusammenhang ergeben sich bei denjenigen EG-Rechtsakten, die anders als EG-Verordnungen nicht unmittelbar in den Mitgliedstaaten gelten, sondern von diesen in nationales Recht umgesetzt werden müssen, vielfältige Probleme. Diese Probleme behandelt der Verfasser aus der Sicht des Anwalts in einer Weise, dass diejenigen, die sich in der Praxis mit derartigen Umsetzungsfragen zu beschäftigen haben, wertvolle Hinweise für eine konkret zu lösende Umsetzungsproblematik erhalten. Ergänzt und damit noch transparenter werden seine Lösungsvorschläge dadurch, dass der Verfasser sie im zweiten Teil der Untersuchung auf die konkrete Fragestellung anwendet, inwieweit es zu einer Umsetzung bzw. ordnungsgemäßen Umsetzung der in den Jahren 1988 bis 2001 erlassenen Fleischhygienegebührenrechtsakte der EG gekommen ist. Diese Arbeit wurde betreut von Professor Dr. D.C. Umbach an der Universität Potsdam. Aus dem Inhalt: Abgrenzung der Umsetzungszuständigkeit zwischen Bund und Ländern. Anforderungen an das Vorliegen eines Umsetzungsaktes sowie an eine ordnungsgemäße Umsetzung. Rechtsfolgen bei Umsetzungsverstößen. Prozessuale Fragen.
Die Pektat-Lyasen gehören zu einer Proteinfamilie, die meistens von pflanzenpathogenen Mikroorganismen sekretiert werden. Die Enzyme katalysieren den Abbau von Polygalakturonsäure, einem Hauptbestandteil in pflanzlichen Mittellamellen und Primärzellwänden. Der Abbau der alpha-1,4-verbrückten Galakturonsäurereste erfogt durch eine beta-Eliminierungsreaktion, dabei entsteht ein Produkt mit einer ungesättigten C4-C5 Bindung am nicht reduzierenden Ende, das durch spektroskopische Messungen beobachtet werden kann. Für die enzymatische Reaktion der Pektat-Lyasen ist Calcium nötig und das pH-Optimum der Reaktion liegt bei pH 8.5. Alle bis jetzt bekannten Strukturen der Pektat- und Pektin-Lyasen haben das gleiche Strukturmotiv - eine rechtsgängige parallele beta-Helix. Die Struktur der Pektat-Lyase aus Bacillus subtilis (BsPel) ist im Komplex mit Calcium gelöst worden. BsPel ist ein monomeres Protein mit einer ungefähren Molekularmasse von 43 kDa, das keine Disulfidbrücken enthält. Dies erlaubte sowohl eine effiziente rekombinante Expression des Wildtypproteins, als auch von destabilisierten Mutanten im Cytoplasma von E. coli. Parallele beta-Helices sind relativ große, jedoch verhältnismäßig einfach aufgebaute Proteine. Um detailliertere Informationen über die kritischen Schritte bei der in vitro-Faltung von parallelen beta-Helices zu erhalten, sollte in der vorliegenden Arbeit versucht werden, den Faltungsmechanismus dieses Proteins näher zu charakterisieren. Dabei sollte vor allem die Frage geklärt werden, welche Wechselwirkungen für die Stabilität dieses Proteins einerseits und für die Stabilität von essentiellen Faltungsintermediaten andererseits besonders wichtig sind.<BR>Rückfaltung von BsPel, ausgehend vom guanidiniumchlorid-denaturierten Zustand, war bei kleinen Proteinkonzentrationen und niedrigen Temperaturen vollständig möglich. GdmCl-induzierte Faltungsübergänge waren aber nicht reversibel und zeigten eine apparente Hysterese. Kinetische Messungen des Fluoreszenz- und CD-Signals im fernen UV ergaben eine extreme Denaturierungsmittelabhängigkeit der Rückfaltungsrate im Bereich des Übergangmittelpunktes. Der extreme Abfall der Rückfaltungsraten mit steigender Denaturierungsmittelkonzentration kann als kooperative Entfaltung eines essentiellen Faltungsintermediats verstanden werden. Dieses Faltungsintermediat ist temperaturlabil und kann durch den Zusatz Glycerin im Renaturierungspuffer stabilisiert werden, wobei sich die Hysterese verringert, jedoch nicht vollständig aufgehoben wird. Durch reverse Doppelsprungexperimente konnten zwei transiente Faltungsintermediate nachgewiesen werden, die auf zwei parallelen Faltungswegen liegen und beide zum nativen Zustand weiterreagieren können. Fluoreszenzemissionsspektren der beiden Intermediate zeigten, daß beide schon nativähnliche Struktur aufweisen. Kinetische Daten von Prolin-Doppelsprungexperimenten zeigten, daß Prolinisomerisierung den geschwindigkeitsbestimmenden Schritt in der Reaktivierung des denaturierten Enzyms darstellt. Desweiteren konnte durch Prolin-Doppelsprungexperimenten an Mutanten mit Substitutionen im Prolinrest 281 gezeigt werden, daß die langsame Renaturierung von BsPel nicht durch die Isomerisierung der einzigen cis-Peptidbindung an Prolin 281 verursacht wird, sondern durch die Isomerisierung mehrerer trans-Proline. Die beiden beobachteten transienten Faltungsintermediate sind somit wahrscheinlich zwei Populationen von Faltungsintermediaten mit nicht-nativen X-Pro-Peptidbindungen, wobei sich die Populationen durch mindestens eine nicht-native X-Pro-Peptidbindung unterscheiden.<BR>Der Austausch des Prolinrestes 281 gegen verschiedene Aminosäuren (Ala, Ile, Leu, Phe, Gly) führte zu einer starken Destabilisierung des nativen Proteins und daneben auch zu einer Reduktion in der Aktivität, da die Mutationsstelle in der Nähe der putativen Substratbindetasche liegt. Die Rückfaltungskinetiken der Prolinmutanten war bei 10°C annähernd gleich zum Wildtyp und die geschwindigkeitsbestimmenden Schritte der Faltung waren durch die Mutation nicht verändert. Die durch die Mutation verursachte drastische Destabilisierung des nativen Zustands führte zu einem reversiblen Entfaltungsgleichgewicht bei pH 7 und 10°C. GdmCl-induzierte Faltungsübergänge der Mutante P281A zeigten bei Messungen der Tryptophanfluoreszenzemission und der Aktivität einen kooperativen Phasenübergang mit einem Übergangsmittelpunkt bei 1.1 M GdmCl. Durch die Übereinstimmung der Faltungsübergänge bei beiden Messparametern konnten die Faltungsübergänge nach dem Zwei-Zustandsmodell ausgewertet werden. Dabei wurde eine freie Sabilisierungsenthalpie der Faltung für die Mutante von <nobr>- 64.2 ± 0.4 kJ/mol</nobr> und eine Kooperativität des Übergangs von <nobr>- 58.2 ± 0.3 kJ/(mol·M)</nobr> bestimmt.<BR> BsPel enthält, wie die meisten monomeren rechtsgängigen parallelen beta-Helix-Proteine, einen internen Stapel wasserstoffverbrückter Asparagin-Seitenketten. Die Mehrheit der erzeugten Mutanten mit Substitutionen im Zentrum der Asn-Leiter (N271X) waren als enzymatisch aktives Protein zugänglich. Die Auswirkung der Mutation auf die Stabilität und Rückfaltung wurde an den Proteinen BsPel-N271T und BsPel-N271A näher analysiert. Dabei führte die Unterbrechung des Asparaginstapels im Inneren der beta-Helix zu keiner drastischen Destabilisierung des nativen Proteins. Allerdings führten diese Mutationen zu einem temperatur-sensitiven Faltungsphänotyp und die Hysterese im Denaturierungsübergang wurde verstärkt. Offenbar wird durch die Unterbrechung des Asparaginstapel ein essentielles, thermolabiles Faltungsintermediat destabilisiert. Der Asparaginstapel wird somit bei der Faltung sehr früh ausgebildet und ist wahrscheinlich schon im Übergangszustand vorhanden.
Jets are highly collimated flows of matter. They are present in a large variety of astrophysical sources: young stars, stellar mass black holes (microquasars), galaxies with an active nucleus (AGN) and presumably also intense flashes of gamma-rays. In particular, the jets of microquasars, powered by accretion disks, are probably small-scale versions of the outflows from AGN. Beside observations of astrophysical jet sources, also theoretical considerations have shown that magnetic fields play an important role in jet formation, acceleration and collimation. Collimated jets seem to be systematically associated with the presence of an accretion disk around a star or a collapsed object. If the central object is a black hole, the surrounding accretion disk is the only possible location for a magnetic field generation. We are interested in the formation process of highly relativistic jets as observed from microquasars and AGN. We theoretically investigate the jet collimation region, whose physical dimensions are extremely tiny even compared to radio telescopes spatial resolution. Thus, for most of the jet sources, global theoretical models are, at the moment, the only possibility to gain information about the physical processes in the innermost jet region. For the first time, we determine the global two-dimensional field structure of stationary, axisymmetric, relativistic, strongly magnetized (force-free) jets collimating into an asymptotically cylindrical jet (taken as boundary condition) and anchored into a differentially rotating accretion disk. This approach allows for a direct connection between the accretion disk and the asymptotic collimated jet. Therefore, assuming that the foot points of the field lines are rotating with Keplerian speed, we are able to achieve a direct scaling of the jet magnetosphere in terms of the size of the central object. We find a close compatibility between the results of our model and radio observations of the M87 galaxy innermost jet. We also calculate the X-ray emission in the energy range 0.2--10.1\,keV from a microquasar relativistic jet close to its source of 5 solar masses. In order to do it, we apply the jet flow parameters (densities, velocities, temperatures of each volume element along the collimating jet) derived in the literature from the relativistic magnetohydrodynamic equations. We obtain theoretical thermal X-ray spectra of the innermost jet as composition of the spectral contributions of the single volume elements along the jet. Since relativistic effects as Doppler shift and Doppler boosting due to the motion of jets toward us might be important, we investigate how the spectra are affected by them considering different inclinations of the line of sight to the jet axis. Emission lines of highly ionized iron are clearly visible in our spectra, probably also observed in the Galactic microquasars GRS 1915+105 and XTE J1748-288. The Doppler shift of the emission lines is always evident. Due to the chosen geometry of the magnetohydrodynamic jet, the inner X-ray emitting part is not yet collimated. Ergo, depending on the viewing angle, the Doppler boosting does not play a major role in the total spectra. This is the first time that X-ray spectra have been calculated from the numerical solution of a magnetohydrodynamic jet.
Das Lektin aus Pisum sativum, der Gartenerbse, ist Teil der Familie der Leguminosenlektine. Diese Proteine haben untereinander eine hohe Sequenzhomologie, und die Struktur ihrer Monomere, ein all-ß-Motiv, ist hoch konserviert. Dagegen gibt es innerhalb der Familie eine große Vielfalt an unterschiedlichen Quartärstrukturen, die Gegenstand kristallographischer und theoretischer Arbeiten waren. Das Erbsenlektin ist ein dimeres Leguminosenlektin mit einer Besonderheit in seiner Struktur: Nach der Faltung in der Zelle wird aus einem Loop eine kurze Aminosäuresequenz herausgeschnitten, so dass sich in jeder Untereinheit zwei unabhängige Polypeptidketten befinden. Beide Ketten sind aber stark miteinander verschränkt und bilden eine gemeinsame strukturelle Domäne. Wie alle Lektine bindet Erbsenlektin komplexe Oligosaccharide, doch sind seine physiologische Rolle und der natürliche Ligand unbekannt. In dieser Arbeit wurden Versuche zur Entwicklung eines Funktionstests für Erbsenlektin durchgeführt und seine Faltung, Stabilität und Monomer-Dimer-Gleichgewicht charakterisiert. Um die spezifische Rolle der Prozessierung für Stabilität und Faltung zu untersuchen, wurde ein unprozessiertes Konstrukt in E. coli exprimiert und mit der prozessierten Form verglichen. Beide Proteine zeigen die gleiche kinetische Stabilität gegenüber chemischer Denaturierung. Sie denaturieren extrem langsam, weil nur die isolierten Untereinheiten entfalten können und das Monomer-Dimer-Gleichgewicht bei mittleren Konzentrationen an Denaturierungsmittel auf der Seite der Dimere liegt. Durch die extrem langsame Entfaltung zeigen beide Proteine eine apparente Hysterese im Gleichgewichtsübergang, und es ist nicht möglich, die thermodynamische Stabilität zu bestimmen. Die Stabilität und die Geschwindigkeit der Assoziation und Dissoziation in die prozessierten bzw. nichtprozessierten Untereinheiten sind für beide Proteine gleich. Darüber hinaus konnte gezeigt werden, dass auch unter nicht-denaturierenden Bedingungen die Untereinheiten zwischen den Dimeren ausgetauscht werden. Die Renaturierung der unprozessierten Variante ist unter stark nativen Bedingungen zu 100 % möglich. Das prozessierte Protein dagegen renaturiert nur zu etwa 50 %, und durch die Prozessierung ist die Faltung stark verlangsamt, der Faltungsprozess ist erst nach mehreren Tagen abgeschlossen. Im Laufe der Renaturierung wird ein Intermediat populiert, in dem die längere der beiden Polypeptidketten ein Homodimer mit nativähnlicher Untereinheitenkontaktfläche bildet. Der geschwindigkeitsbestimmende Schritt der Renaturierung ist die Assoziation der entfalteten kürzeren Kette mit diesem Dimer.
Combined structural and magnetotelluric investigation across the West Fault Zone in northern Chile
(2002)
The characterisation of the internal architecture of large-scale fault zones is usually restricted to the outcrop-based investigation of fault-related structural damage on the Earth's surface. A method to obtain information on the downward continuation of a fault is to image the subsurface electrical conductivity structure. This work deals with such a combined investigation of a segment of the West Fault, which itself is a part of the more than 2000 km long trench-linked Precordilleran Fault System in the northern Chilean Andes. Activity on the fault system lasted from Eocene to Quaternary times. In the working area (22°04'S, 68°53'W), the West Fault exhibits a clearly defined surface trace with a constant strike over many tens of kilometers. Outcrop condition and morphology of the study area allow ideally for a combination of structural geology investigation and magnetotelluric (MT) / geomagnetic depth sounding (GDS) experiments. The aim was to achieve an understanding of the correlation of the two methods and to obtain a comprehensive view of the West Fault's internal architecture. Fault-related brittle damage elements (minor faults and slip-surfaces with or without striation) record prevalent strike-slip deformation on subvertically oriented shear planes. Dextral and sinistral slip events occurred within the fault zone and indicate reactivation of the fault system. Youngest deformation increments mapped in the working area are extensional and the findings suggest a different orientation of the extension axes on either side of the fault. Damage element density increases with approach to the fault trace and marks an approximately 1000 m wide damage zone around the fault. A region of profound alteration and comminution of rocks, about 400 m wide, is centered in the damage zone. Damage elements in this central part are predominantly dipping steeply towards the east (70-80°). Within the same study area, the electrical conductivity image of the subsurface was measured along a 4 km long MT/GDS profile. This main profile trends perpendicular to the West Fault trace. The MT stations of the central 2 km were 100 m apart from each other. A second profile with 300 m site spacing and 9 recording sites crosses the fault a few kilometers away from the main study area. Data were recorded in the frequency range from 1000 Hz to 0.001 Hz with four real time instruments S.P.A.M. MkIII. The GDS data reveal the fault zone for both profiles at frequencies above 1 Hz. Induction arrows indicate a zone of enhanced conductivity several hundred meters wide, that aligns along the WF strike and lies mainly on the eastern side of the surface trace. A dimensionality analysis of the MT data justifies a two dimensional model approximation of the data for the frequency range from 1000 Hz to 0.1 Hz. For this frequency range a regional geoelectric strike parallel to the West Fault trace could be recovered. The data subset allows for a resolution of the conductivity structure of the uppermost crust down to at least 5 km. Modelling of the MT data is based on an inversion algorithm developed by Mackie et al. (1997). The features of the resulting resistivity models are tested for their robustness using empirical sensitivity studies. This involves variation of the properties (geometry, conductivity) of the anomalies, the subsequent calculation of forward or constrained inversion models and check for consistency of the obtained model results with the data. A fault zone conductor is resolved on both MT profiles. The zones of enhanced conductivity are located to the east of the West Fault surface trace. On the dense MT profile, the conductive zone is confined to a width of about 300 m and the anomaly exhibits a steep dip towards the east (about 70°). Modelling implies that the conductivity increase reaches to a depth of at least 1100 m and indicates a depth extent of less than 2000 m. Further conductive features are imaged but their geometry is less well constrained. The fault zone conductors of both MT profiles coincide in position with the alteration zone. For the dense profile, the dip of the conductive anomaly and the dip of the damage elements of the central part of the fault zone correlate. This suggests that the electrical conductivity enhancement is causally related to a mesh of minor faults and fractures, which is a likely pathway for fluids. The interconnected rock-porosity that is necessary to explain the observed conductivity enhancement by means of fluids is estimated on the basis of the salinity of several ground water samples (Archie's Law). The deeper the source of the water sample, the more saline it is due to longer exposure to fluid-rock interaction and the lower is the fluid's resistivity. A rock porosity in the range of 0.8% - 4% would be required at a depth of 200 m. That indicates that fluids penetrating the damaged fault zone from close to the surface are sufficient to explain the conductivity anomalies. This is as well supported by the preserved geochemical signature of rock samples in the alteration zone. Late stage alteration processes were active in a low temperature regime (<95°C) and the involvement of ascending brines from greater depth is not indicated. The limited depth extent of the fault zone conductors is a likely result of sealing and cementation of the fault fracture mesh due to dissolution and precipitation of minerals at greater depth and increased temperature. Comparison of the results of the apparently inactive West Fault with published studies on the electrical conductivity structure of the currently active San Andreas Fault, suggests that the depth extent and conductivity of the fault zone conductor may be correlated to fault activity. Ongoing deformation will keep the fault/fracture mesh permeable for fluids and impede cementation and sealing of fluid pathways.
Die intensive Auswertung unterschiedlicher schriftlicher und mündlicher Quellen sowie die Erschließung von damals "geheimer" Literatur für die Forschung heute ermöglicht eine differenzierte Rekonstruktion historischer Abläufe. Die vorliegende Arbeit nutzt diesen Zugang zur Darstellung von kleineren und größeren DDR-internen sportpolitischen Strukturwandlungen der 1960er und 1970er Jahre, die ihren Höhepunkt in einer dramatischen Umsteuerung des DDR-Hochleistungssports fanden. Es wird gezeigt, wie die Akteure unter Führung von Manfred EWALD, gewähltem Mitglied des SED-Zentralkomitees, einer Zentralfigur des DDR-Sports (vergleichbar mit der Bedeutung eines Willi DAUME im Westen) zwischen Systemzwängen und individueller Handlungsfreiheit innerhalb des Rahmens einer Diktatur in der Phase des Wechsels von Walter ULBRICHT zu Erich HONECKER eine Effektivierung des zentralistischen Modells durchsetzten (eine Parallele zum Ansatz von Monika KAISER). Im Gegensatz zu vielen kontroversen Erklärungsmodellen belegt der Verf., dass die Medaillenerfolge durch die zentrale Steuerung aller Abläufe gewährleistet wurden. Ohne SED-Auftrag wurde 1967 die "Leistungssportkommission der DDR" (LSK der DDR) gebildet. Im Unterschied zu den zahlreichen vom Verf. erstmals dargestellten Vorgängermodellen war diese SED-LSK "oberhalb des DTSB" angesiedelt und erteilte ihm Parteiaufträge - die Unterordnung des organisierten Sports unter die Autorität des Zentralkomitee machte angesichts der "Nationalen Fronten" von Armeesportvereinigung "Vorwärts" und Sportvereinigung "Dynamo" (SPITZER) jegliche zentrale Sportpolitik erst durchsetzbar. Zur "LSK der DDR" waren SED-Mitglieder abgeordnet, welche ihr Sachgebiet vertraten und nach gemeinsamer Beschlussfassung die Ergebnisse der LSK-Arbeit wiederum in ihrem jeweiligen Tätigkeitsfeld durchzusetzen hatten, was in der Diss. ausgeführt wird. Sportvertreter ebenso wie hochrangige Abgesandte der Ministerien, die mit der Produktion von Gütern für den Hochleistungssport befasst waren, gehörten den LSK-Gremien an, die auch die DDR-Sportwissenschaft steuerten; es lässt sich sogar nachweisen, dass die Herrschaft über diesen wichtigen Apparat sowie die Dopingforschung ein Hauptmotiv der LSK-Bildung gewesen ist. Durch seine Quellenorientierung und die Fülle an Belegen gibt die vorliegende Arbeit neue Anreize zur Auseinandersetzung mit dem Phänomen der Steuerung des Hochleistungssports in der DDR - auch über den Untersuchungszeitraum hinaus. Die Untersuchung wurde von der Humanwissenschaftlichen Fakultät der Universität Potsdam als Dissertation angenommen. Sie geht auf ein Stipendium dieser Universität zurück; das Verfahren konnte mit einem Prädikat abgeschlossen werden. Gutachter waren Prof. Dr. Dr. Gertrud PFISTER, Kopenhagen, Prof. Dr. Christoph KLEßMANN, Potsdam, und der Betreuer, Steady Visiting Prof. Univ. Odense, Priv.-Doz. Dr. habil. Giselher SPITZER, Berlin / Potsdam / Odense (Dänemark).
Motivated by recent proposals on the experimental detectability of quantum gravity effects, the present thesis investigates assumptions and methods which might be used for the prediction of such effects within the framework of loop quantum gravity. To this end, a scalar field coupled to gravity is considered as a model system. Starting from certain assumptions about the dynamics of the coupled gravity-matter system, a quantum theory for the scalar field is proposed. Then, assuming that the gravitational field is in a semiclassical state, a "QFT on curved space-time limit" of this theory is defined. In contrast to ordinary quantum field theory on curved space-time however, in this limit the theory describes a quantum scalar field propagating on a (classical) random lattice. Then, methods to obtain the low energy limit of such a lattice theory, especially regarding the resulting modified dispersion relations, are discussed and applied to simple model systems. Finally, under certain simplifying assumptions, using the methods developed before as well as a specific class of semiclassical states, corrections to the dispersion relations for the scalar and the electromagnetic field are computed within the framework of loop quantum gravity. These calculations are of preliminary character, as many assumptions enter whose validity remains to be studied more thoroughly. However they exemplify the problems and possibilities of making predictions based on loop quantum gravity that are in principle testable by experiment.
In order to face the rapidly increasing need for computational resources of various scientific and engineering applications one has to think of new ways to make more efficient use of the worlds current computational resources. In this respect, the growing speed of wide area networks made a new kind of distributed computing possible: Metacomputing or (distributed) Grid computing. This is a rather new and uncharted field in computational science. The rapidly increasing speed of networks even outperforms the average increase of processor speed: Processor speeds double on average each 18 month whereas network bandwidths double every 9 months. Due to this development of local and wide area networks Grid computing will certainly play a key role in the future of parallel computing. This type of distributed computing, however, distinguishes from the traditional parallel computing in many ways since it has to deal with many problems not occurring in classical parallel computing. Those problems are for example heterogeneity, authentication and slow networks to mention only a few. Some of those problems, e.g. the allocation of distributed resources along with the providing of information about these resources to the application have been already attacked by the Globus software. Unfortunately, as far as we know, hardly any application or middle-ware software takes advantage of this information, since most parallelizing algorithms for finite differencing codes are implicitly designed for single supercomputer or cluster execution. We show that although it is possible to apply classical parallelizing algorithms in a Grid environment, in most cases the observed efficiency of the executed code is very poor. In this work we are closing this gap. In our thesis, we will - show that an execution of classical parallel codes in Grid environments is possible but very slow - analyze this situation of bad performance, nail down bottlenecks in communication, remove unnecessary overhead and other reasons for low performance - develop new and advanced algorithms for parallelisation that are aware of a Grid environment in order to generelize the traditional parallelization schemes - implement and test these new methods, replace and compare with the classical ones - introduce dynamic strategies that automatically adapt the running code to the nature of the underlying Grid environment. The higher the performance one can achieve for a single application by manual tuning for a Grid environment, the lower the chance that those changes are widely applicable to other programs. In our analysis as well as in our implementation we tried to keep the balance between high performance and generality. None of our changes directly affect code on the application level which makes our algorithms applicable to a whole class of real world applications. The implementation of our work is done within the Cactus framework using the Globus toolkit, since we think that these are the most reliable and advanced programming frameworks for supporting computations in Grid environments. On the other hand, however, we tried to be as general as possible, i.e. all methods and algorithms discussed in this thesis are independent of Cactus or Globus.
In recent years, there has been a dramatic increase in available compute capacities. However, these “Grid resources” are rarely accessible in a continuous stream, but rather appear scattered across various machine types, platforms and operating systems, which are coupled by networks of fluctuating bandwidth. It becomes increasingly difficult for scientists to exploit available resources for their applications. We believe that intelligent, self-governing applications should be able to select resources in a dynamic and heterogeneous environment: Migrating applications determine a resource when old capacities are used up. Spawning simulations launch algorithms on external machines to speed up the main execution. Applications are restarted as soon as a failure is detected. All these actions can be taken without human interaction. A distributed compute environment possesses an intrinsic unreliability. Any application that interacts with such an environment must be able to cope with its failing components: deteriorating networks, crashing machines, failing software. We construct a reliable service infrastructure by endowing a service environment with a peer-to-peer topology. This “Grid Peer Services” infrastructure accommodates high-level services like migration and spawning, as well as fundamental services for application launching, file transfer and resource selection. It utilizes existing Grid technology wherever possible to accomplish its tasks. An Application Information Server acts as a generic information registry to all participants in a service environment. The service environment that we developed, allows applications e.g. to send a relocation requests to a migration server. The server selects a new computer based on the transmitted resource requirements. It transfers the application's checkpoint and binary to the new host and resumes the simulation. Although the Grid's underlying resource substrate is not continuous, we achieve persistent computations on Grids by relocating the application. We show with our real-world examples that a traditional genome analysis program can be easily modified to perform self-determined migrations in this service environment.
Die vorliegende Arbeit beschäftigt sich mit der Synthese und den Eigenschaften von doppelthydrophilen Blockcopolymeren und ihrer Anwendung in einem biomimetischen Mineralisationsprozeß von Calciumcarbonat und Bariumsulfat. Doppelthydrophile Blockcopolymere bestehen aus einem hydrophilen Block, der nicht mit Mineralien wechselwirkt und einem zweiten Polyelektrolyt-Block, der stark mit Mineraloberflächen wechselwirkt. Diese Blockcopolymere wurden durch ringöffnende Polymerisation von N-carboxyanhydriden (NCA′s) und a-methoxy-ω-amino[poly(ethylene glycol)] PEG-NH2 als Initiator hergestellt. Die hergestellten Blockcopolymere wurden als effektive Wachstumsmodifikatoren für die Kristallisation von Calciumcarbonat und Bariumsulfat Mineralien eingesetzt. Die so erhaltenen Mineralpartikel (Kugeln, Hantel, eiförmige Partikel) wurden durch Lichtmikroskopie in Lösung, SEM und TEM charakterisiert. Röntgenweitwinkelstreuung (WAXS) wurde verwendet, um die Modifikation von Calciumcarbonat zu ermitteln und die Größe der Calciumcarbonat- und Bariumsulfat-Nanopartikel zu ermitteln.
Das Phänomen der Subduktion eines aktiven Spreizungszentrums an der Südspitze Südamerikas ist seit langem bekannt. Eine Vielzahl von geologischen Beobachtungen wurden mit diesem Phänomen in Verbindung gebracht, trotzdem ist der genaue Mechanismus der Beeinflussung des aktiven Kontinentalrandes weitgehend unbekannt. Die Zusammenhänge zwischen den Subduktionsprozessen und der Entwicklung der patagonischen Anden zwischen 47°S und 48°S stehen im Mittelpunkt der Untersuchungen. Um eine detaillierte zeitliche Auflösung der zugrunde liegenden Prozesse untersuchen zu können, wurde die Entwicklung der Vorlandsedimentation, die thermische Entwicklung und die Heraushebung der Oberkruste des andinen Orogens untersucht und diese in Bezug zur Subduktion des Chile-Rückens gesetzt. Im Bereich von 47°30′S wurden die synorogenen Vorlandsedimente der Santa Cruz Formation sedimentologisch untersucht. Diese fluviatilen Sedimente wurden in einem reliefarmen Vorlandgebiet durch häufige Rinnenverlagerung und dem Aufbau von Rinnenumlagerungsgürteln in Kombination mit assoziierten großräumigen Überflutungsablagerungen akkumuliert. Sie stehen in einem engen Zusammenhang mit der orogenen Entwicklung im andinen Liefergebiet. Dies spiegelt sich in dem nach oben gröber werdenden Zyklus der Santa Cruz Formation wider. Die magnetostratigraphischen Untersuchungen einer 270 m mächtigen Sequenz aus der Basis der Santa Cruz Formation, die mit 329 Einzelproben aus 96 Probenpunkten beprobt wurde, ergab 7 Umkehrungen der geomagnetischen Feldrichtung. Mit Hilfe der geomagnetischen Polaritätszeitskala (CANDE AND KENT, 1995) konnte der untersuchte Abschnitt der Santa Cruz Formation zwischen 16.2 und 18.5 Ma datiert werden. Als Träger der Sedimentations-Remanenz konnten überwiegend Pseudoeinbereichs-Magentitpartikel und untergeordnet Hämatitpartikel identifiziert werden. An drei Profilen der Santa Cruz Formation wurden aus Sandsteinlagen unterschiedlicher stratigraphischer Position detritische Apatite mit Hilfe der thermochronologischen Spaltspurmethode untersucht. Die thermisch nicht rückgesetzten, detritischen Apatite spiegeln das Auftreten unterschiedlicher Altersdomänen im Liefergebiet der Sedimente wider. In der Kombination mit den geochemischen Gesamtgesteinsuntersuchungen der Sedimente und den petrographischen Untersuchungen der Sandsteine, die ein überwiegend andesitisch-vulkanisch geprägtes Liefergebiet widerspiegeln, kann nachgewiesen werden, dass die Erosion im Liefergebiet um 16.5 Ma in tiefere, deformierte Krustensegmente einschneidet. Dies bedeutet, dass aufgrund der Denudation im andinen Orogen erste Sockelgesteinseinheiten in den Bereich der Abtragung gelangen und dass dieser Eintrag um 12 bis 10 Ma ein Volumen einnimmt, das zu signifikanten Änderungen der Gesamtgesteinsgeochemie der Vorlandsedimente führt. Die thermochronologische Untersuchung von Apatiten aus rezenten topographischen Höhenprofilen aus der Kernzone der patagonischen Anden im Bereich von 47°30′S zeigen den Beginn einer beschleunigten Heraushebung des Orogens um 7.5 Ma. Aus diesen Untersuchungen kann eine Denudationsrate im Zeitraum der letzen 7 bis 8 Ma von 600 bis 650 m/Ma abgeschätzt werden. Die Modellierung der Apatit-Spaltspurergebnisse zeigt eine signifikante Temperaturerhöhung im Zeitraum zwischen 12 und 8 Ma um 20 bis 30°C für diesen Krustenbereich, die mit der Subduktion des aktiven Chile-Rückens in diesem Bereich der Anden in Verbindung gebracht wird. Aus den gewonnen Daten kann ein Modell für die Entwicklung der patagonischen Anden seit dem frühen Miozän abgeleitet werden. In diesem Modell wird die orogene Entwicklung in den patagonischen Anden auf eine erhöhte Konvergenzrate zwischen der Nazca Platte und der Südamerikanischen Platte zurückgeführt, die für die Heraushebung und Denudation der Anden sowie für die damit verbundene Entwicklung im Vorlandbereich verantwortlich ist. Diese orogene Entwicklung wird in einer späten Phase durch die nordwärts wandernde Subduktion des aktiven Spreizungszentrums des Chile Rückens überprägt und beeinflusst. Das auf der Integration von geologischen, chronologischen sowie thermochronologischen Daten beruhende Modell kann zahlreiche geologische und geophysikalische Beobachtungen in diesem Bereich der südlichen Anden konsistent erklären.
In this thesis, I investigated the factors influencing the growth and vertical distribution of planktonic algae in extremely acidic mining lakes (pH 2-3). In the focal study site, Lake 111 (pH 2.7; Lusatia, Germany), the chrysophyte, Ochromonas sp., dominates in the upper water strata and the chlorophyte, Chlamydomonas sp., in the deeper strata, forming a pronounced deep chlorophyll maximum (DCM). Inorganic carbon (IC) limitation influenced the phototrophic growth of Chlamydomonas sp. in the upper water strata. Conversely, in deeper strata, light limited its phototrophic growth. When compared with published data for algae from neutral lakes, Chlamydomonas sp. from Lake 111 exhibited a lower maximum growth rate, an enhanced compensation point and higher dark respiration rates, suggesting higher metabolic costs due to the extreme physico-chemical conditions. The photosynthetic performance of Chlamydomonas sp. decreased in high-light-adapted cells when IC limited. In addition, the minimal phosphorus (P) cell quota was suggestive of a higher P requirement under IC limitation. Subsequently, it was shown that Chlamydomonas sp. was a mixotroph, able to enhance its growth rate by taking up dissolved organic carbon (DOC) via osmotrophy. Therefore, it could survive in deeper water strata where DOC concentrations were higher and light limited. However, neither IC limitation, P availability nor in situ DOC concentrations (bottom-up control) could fully explain the vertical distribution of Chlamydomonas sp. in Lake 111. Conversely, when a novel approach was adopted, the grazing influence of the phagotrophic phototroph, Ochromonas sp., was found to exert top-down control on its prey (Chlamydomonas sp.) reducing prey abundance in the upper water strata. This, coupled with the fact that Chlamydomonas sp. uses DOC for growth, leads to a pronounced accumulation of Chlamydomonas sp. cells at depth; an apparent DCM. Therefore, grazing appears to be the main factor influencing the vertical distribution of algae observed in Lake 111. The knowledge gained from this thesis provides information essential for predicting the effect of strategies to neutralize the acidic mining lakes on the food-web.
Encounters with neighbours
(2003)
In this work, different aspects and applications of the recurrence plot analysis are presented. First, a comprehensive overview of recurrence plots and their quantification possibilities is given. New measures of complexity are defined by using geometrical structures of recurrence plots. These measures are capable to find chaos-chaos transitions in processes. Furthermore, a bivariate extension to cross recurrence plots is studied. Cross recurrence plots exhibit characteristic structures which can be used for the study of differences between two processes or for the alignment and search for matching sequences of two data series. The selected applications of the introduced techniques to various kind of data demonstrate their ability. Analysis of recurrence plots can be adopted to the specific problem and thus opens a wide field of potential applications. Regarding the quantification of recurrence plots, chaos-chaos transitions can be found in heart rate variability data before the onset of life threatening cardiac arrhythmias. This may be of importance for the therapy of such cardiac arrhythmias. The quantification of recurrence plots allows to study transitions in brain during cognitive experiments on the base of single trials. Traditionally, for the finding of these transitions the averaging of a collection of single trials is needed. Using cross recurrence plots, the existence of an El Niño/Southern Oscillation-like oscillation is traced in northwestern Argentina 34,000 yrs. ago. In further applications to geological data, cross recurrence plots are used for time scale alignment of different borehole data and for dating a geological profile with a reference data set. Additional examples from molecular biology and speech recognition emphasize the suitability of cross recurrence plots.
In der vorliegenden Arbeit habe ich wichtige Teilmechanismen der Erregungs-Sekretionskopplung in der Speicheldrüse der Schabe Periplaneta americana (L.) untersucht. Die Speicheldrüse ist von dopaminergen und serotonergen Fasern innerviert (Baumann et al., 2002). Beide Transmitter stimulieren eine unterschiedliche Reaktion der Drüse: Dopamin (DA) stimuliert die P-Zellen der Acini und die Ausführgangzellen, während Serotonin (5-HT) die P- und C-Zellen der Acini stimuliert, nicht jedoch die Ausführgangzellen. Der Endspeichel ist nach einer DA-Stimulierung proteinfrei. Dagegen enthält er nach einer 5-HT-Stimulierung Proteine, die von den C-Zellen sezerniert werden (Just & Walz, 1996). Im ersten Teil meiner Arbeit habe ich mittels Kapillarelektrophoretischer Analyse (CE-Analyse) die Elektrolytkonzentrationen im Endspeichel untersucht sowie die Raten der Flüssigkeitssekretion gemessen. Damit wollte ich klären, welche Transporter an der Sekretion des Primärspeichels und an dessen Modifikation beteiligt sind. Ausserdem wollte ich die Rolle der transportaktiven Epithelzellen der Ausführgänge für die Modifikation des Primärspeichels untersuchen. Dafür habe ich einen Vergleich der Elektrolytkonzentrationen im DA- und 5-HT-stimulierten Endspeichel durchgeführt. Der Elektrolytgehalt des DA- und 5-HT-stimulierten Endspeichels unterscheidet sich nicht signifikant voneinander. Er ist nach beiden Stimulierungen hypoosmotisch zum verwendeten Ringer. Die Ausführgangzellen werden durch DA stimuliert und modifizieren den Primärspeichel durch eine netto-Ionenreabsorption. Meine Versuche zeigen jedoch, dass auch die während einer 5-HT-Stimulierung der Drüse unstimulierten Ausführgangzellen den Primärspeichel modifizieren. In einer nachfolgenden Versuchsreihe habe ich den Einfluss von Ouabain, einem Hemmstoff der Na+-K+-ATPase, und Bumetanid, einem Hemmstoff des NKCC, auf die Raten der Flüssigkeitssekretion sowie den Elektrolytgehalt des Endspeichels untersucht. Ich habe gefunden, dass die Aktivität der Na+-K+-ATPase wichtig für die Modifikation des DA-stimulierten Primärspeichels ist. Im Gegensatz dazu ist sie für die Modifikation des 5-HT-stimulierten Primärspeichels nicht von Bedeutung. Bezüglich der Flüssigkeitssekretion habe ich keinen Einfluss der Na+-K+-ATPase-Aktivität auf die DA-stimulierten Sekretionsraten gefunden, dagegen ist die 5-HT-stimulierte Sekretionsrate in Anwesenheit von Ouabain gesteigert. Die Aktivität des NKCC ist für beide sekretorische Prozesse, die Ionen- und die Flüssigkeitssekretion, wichtig. Eine Hemmung des NKCC bewirkt eine signifikante Verringerung der Raten der Flüssigkeitssekretion nach DA- und 5-HT-Stimulierung sowie in beiden Fällen einen signifikanten Abfall der Ionenkonzentrationen im Endspeichel. Im zweiten Teil meiner Arbeit habe ich versucht, Änderungen der intrazellulären Ionenkonzentrationen in den Acinuszellen während einer DA- oder 5-HT-Stimulierung zu messen. Diese Experimente sollten mit der Methode des "ratiometric imaging" durchgeführt werden. Messungen mit dem Ca2+-sensitiven Fluoreszenzfarbstoff Fura-2 zeigten keinen globalen Anstieg in der intrazellulären Ca2+-Konzentration der P-Zellen. Aufgrund von Problemen mit einer schlechten Beladung der Zellen, einer starken und sich während der Stimulierung ändernden Autofluoreszenz der Zellen sowie Änderungen im Zellvolumen wurden keine Messungen mit Na+- und K+-sensitiven Fluoreszenzfarbstoffen durchgeführt. Im dritten Teil dieser Arbeit habe ich die intrazellulären Signalwege untersucht, die zwischen einer 5-HT-Stimulierung der Drüse und der Proteinsekretion vermitteln. Dazu wurde der Proteingehalt im Endspeichel biochemisch mittels eines modifizierten Bradford Assay gemessen. Eine erstellte Dosis-Wirkungskurve zeigt, dass die Rate der Proteinsekretion von der zur Stimulierung verwendeten 5-HT-Konzentration abhängt. In einer Serie von Experimenten habe ich die intrazellulären Konzentrationen von Ca2+, cAMP und / oder cGMP erhöht und anschließend den Proteingehalt im Endspeichel gemessen. Ein Anstieg der intrazellulären Ca2+-Konzentration aktiviert nur eine geringe Rate der Proteinsekretion. Dagegen kann die Steigerung der intrazellulären cAMP-Konzentration eine stärkere Proteinsekretion aktivieren, die sich nicht signifikant von der nach 5-HT-Stimulierung unterscheidet. Die cAMP-stimulierte Proteinsekretion kann durch gleichzeitige Erhöhung der intrazellulären Ca2+-Konzentration weiter gesteigert werden. Dagegen aktivierte eine Erhöhung der intrazellulären cGMP-Konzentration die Proteinsekretion nicht. Aufgrund dieser Ergebnisse postuliere ich die Existenz eines die Adenylatcyclase aktivierenden 5-HT-Rezeptors in der Basolateralmembran der C-Zellen.
Late Miocene to Quaternary volcanic rocks from the frontal arc to the back-arc region of the Central Volcanic Zone in the Andes show a wide range of delta 11B values (+4 to -7 ‰) and boron concentrations (6 to 60 ppm). Positive delta 11B values of samples from the volcanic front indicate involvement of a 11B-enriched slab component, most likely derived from altered oceanic crust, despite the thick Andean continental lithosphere, and rule out a pure crust-mantle origin for these lavas. The delta 11B values and B concentrations in the lavas decrease systematically with increasing depth of the Wadati-Benioff Zone. This across-arc variation in delta 11B values and decreasing B/Nb ratios from the arc to the back-arc samples are attributed to the combined effects of B-isotope fractionation during progressive dehydration in the slab and a steady decrease in slab-fluid flux towards the back arc, coupled with a relatively constant degree of crustal contamination as indicated by similar Sr, Nd and Pb isotope ratios in all samples. Modelling of fluid-mineral B-isotope fractionation as a function of temperature fits the across-arc variation in delta 11B and we conclude that the B-isotope composition of arc volcanics is dominated by changing delta 11B composition of B-rich slab-fluids during progressive dehydration. Crustal contamination becomes more important towards the back-arc due to the decrease in slab-derived fluid flux. Because of this isotope fractionation effect, high delta 11B signatures in volcanic arcs need not necessarily reflect differences in the initial composition of the subducting slab. Three-component mixing calculations for slab-derived fluid, the mantle wedge and the continental crust based on B, Sr and Nd isotope data indicate that the slab-fluid component dominates the B composition of the fertile mantle and that the primary arc magmas were contaminated by an average addition of 15 to 30 % crustal material.
Aromatische Amine und Amide (aAA) sind aufgrund ihrer starken Verbreitung in der menschlichen Umwelt und ihres kanzerogenen Potenzials von großer toxikologischer Bedeutung. Die Kanzerogenität der aAA wird durch die Mutagenität hochreaktiver Stoffwechselprodukte vermittelt, die in zwei sequenziellen katalytischen Reaktionen entstehen. Die erste ist meistens eine N-Hydroxylierung, die oft durch Cytochrom P450 1A2 (CYP1A2) katalysiert wird. Daran schließt sich eine O-Konjugation durch Sulfotransferasen (SULT) oder N-Acetyltransferasen (NAT) an. Die Bioaktivierung ist ein kritischer Parameter für die Übertragbarkeit von Ergebnissen aus Tiermodellen auf den Menschen. Rekombinante in vitro Systeme, die fremdstoffmetabolisierende Enzyme verschiedener Spezies exprimieren, ermöglichen die vergleichende Untersuchung der Bioaktivierung im Menschen und in Versuchstieren. Ziel des Projektes war die Aufklärung der Bioaktivierung der aAA durch humane Enzyme. Im Vordergrund stand die Untersuchung der Rolle humaner SULT in diesem Prozess. Es wurden rekombinante in vitro Systeme, konstruiert, die CYP1A2 und SULT des Menschen koexprimieren. SULT-cDNAs wurden in den Säugerzell Expressionsvektor pMPSV kloniert und in Standardindikatorzellen für Mutagenitätsuntersuchungen (V79 Zellen aus dem Chinesischen Hamster) transfiziert. Das Expressionsniveau von CYP1A2 und SULT wurde mittels Immunblotanalyse und radiometrischen Aktivitätsmessungen charakterisiert. In den rekombinanten Zellen wurden vier aAA als Modellsubstanzen (2-Acetylaminofluoren, 2-Aminoanthracen, 3′-Methyl-4-dimethylaminoazobenzol, 2,4-Diaminotoluol) auf ihre Mutagenität am hprt-Locus hin untersucht.Die aAA waren in Zellen, die keine rekombinanten Enzyme oder lediglich CYP1A2 exprimierten, nicht mutagen. In Zellen, die CYP1A2 und SULT der Subfamilie 1A koexprimierten, erzeugten sie bereits in geringen Konzentrationen klare mutagene Effekte (0,3 µM für 2-Acetylaminofluoren und 3′-Methyl-4-dimethylaminoazobenzol; 0,1 µM für 2-Aminoanthracen; 10 µM für 2,4-Diaminotoluol). Die stärkste Aktivierung von 2-Acetylaminofluoren und 3′-Methyl-4-dimethylaminoazobenzol erfolgte in der Zelllinie, die CYP1A2 und SULT1A2 koexprimierte; die stärkste Aktivierung von 2,4-Diaminotoluol und 2-Aminoanthracen erfolgte in der Zelllinie, die CYP1A2 und SULT1A1 koexprimierte. Sowohl SULT1A1 als auch SULT1A2 sind im Menschen genetisch polymorph. Ein unterschiedlich starkes Aktivierungspotenzial der Alloenzyme könnte eine individuell unterschiedliche Suszeptibilität für die durch aAA ausgelöste Kanzerogenese bedingen. In HPRT-Mutationsuntersuchungen mit rekombinanten Zellen zeigten die allelischen Varianten der SULT1A2 starke Unterschiede in ihrem Aktivierungpotenzial. Nur in der Zelllinie, die das Alloenzym SULT1A2*1 mit CYP1A2 koexprimierte, wurde 2-Acetylaminofluoren zum Mutagen aktiviert. Zur Aktivierung von 3′-Methyl-4-dimethylaminoazobenzol waren jedoch sowohl das Alloenzym SULT1A2*1 als auch das Alloenzym SULT1A2*2 in der Lage. Die Alloenzyme der SULT1A1 zeigten ein ähnlich gutes Aktivierungspotenzial für aAA. In früheren Studien wurde gezeigt, dass die SULT1C1 der Ratte eine wichtige Rolle bei der Aktivierung der aAA in dieser Spezies spielt. Dahingegen war die humane SULT1C1 nicht in der Lage die untersuchten aAA zu aktivieren. Die Kenntnis solcher Spezieunterschiede könnte wichtig sein um unterschiedliche Organotropismen aAA in Menschen und Tiermodellen zu erklären, da SULT mit starker Gewebespezifität exprimiert werden und das Expressionsmuster für die einzelnen SULT-Formen in Menschen und Ratten sich stark unterscheidet.
Der Buchfinkengesang wurde in Potsdam in zwei Hauptpopulationen über drei Jahre aufgenommen. Jedes Individuum wurde eindeutig am individuellen Strophentypenrepertoire identifiziert. Ein weiterer Punkt der die individuelle Wiedererkennung bestätigt ist die hohe Standorttreue der adulten Männchen. Die beschriebene Methode eignet sich für die Untersuchung von gesamten Populationen, um den Wandel des Gesangs von Populationen in Raum und Zeit zu beschreiben. Die Haupterkenntnisse der Arbeit sind: - Die Gesamtanzahl der Grundstrophentypen innerhalb einer Population bleibt über Jahre konstant. - Die relative Häufigkeit jedes einzelnen Strophentyps variiert von Jahr zu Jahr und von Population zu Population. - Gesangslernen erfolgt exakt mit einem Korrektheitsgrad von mindestens 96%. - Das Song-Sharing ist innerhalb der Population hoch. Die diskutierten Mechanismen für das Song-Sharing sind: Die Lebenserwartung, das Zugverhalten, das Lernverhalten, die Etabliertheit von Strophentypen, Weibchenpräferenzen und die Reaktionen der territorialen Männchen. - Weiterhin wurde ein Modell zur kulturellen Evolution des Buchfinkengesangs programmiert, um die Rolle der Einflussfaktoren, wie Fehlerquote, Abwanderungsrate und Laufzeit zu ermitteln. Der Wandel des Dialektes erfolgt graduell in Raum und Zeit. Daher sind keine scharfen Dialektgrenzen anzutreffen. Trotz dieser Tatsache markieren die etablierten Strophentypen die Population. 50 % der Juvenilen siedeln am Geburtsort, auf diese Weise bleibt der Dialekt erhalten und Inzest wird vermieden. -Analysiert man das Repertoire benachbarten Männchen bei isolierten Alleen, so entspricht die Gesangsangleichung in etwa dem Zufall. -Intraindividuelle Vergleiche der quantitativen Parameter des jeweiligen Strophentyps wurden saisonal und annuell durchgeführt. Saisonal konnten für einen Strophentyp ein Trend ermittelt werden. Bei jährlichen Vergleichen konnten intraindividuell ausschließlich nicht signifikante Ergebnisse ermittelt werden, wohingegen die interindividuelle Variation in zwei Fällen signifikant war. In einem Fall bestand ein Trend und in einem weiteren Fall war die Variationsunterschiede nicht signifikant. - Der Verlauf der Brutsaison lässt sich an der jährlichen Gesangsaktivität nachvollziehen.
In der wissenschaftlichen Literatur, in der betrieblichen Praxis und in der gesellschaftlichen Diskussion wird wieder zunehmend mehr die Bedeutung der Beschäftigten für den Unternehmenserfolg hervorgehoben und diskutiert. Unternehmen, die zielgerichtet geeignete Managementstrategien mit Blick auf den Umgang mit ihren Beschäftigten einsetzen, werden in bezug auf ihre ökonomische Wertschöpfung als erfolgreicher charakterisiert. Besonders im Bereich Human Resources Management lassen sich erste Belege finden, die es ermöglichen, den ökonomischen Erfolg von Unternehmen kausal auf einzelne Personalmanagementstrategien zurückzuführen. Ziel eigener Untersuchungen in der IT- und Softwarebranche war es, Unternehmenserfolg auf der Grundlage ökonomischer Erfolgsmaße und des subjektiven Erlebens der Beschäftigten in kleinen und mittleren Softwareunternehmen unter besonderer Fokussierung des Human Resources Management und der Unternehmenskultur zu untersuchen.
In einer Längsschnittstudie mit 215 Schülern der achten Klasse wurde der Zusammenhang zwischen selbstgesteuertem Lernen, motivationalen (Zielorientierungen, Selbstwirksamkeit, schulischer Affekt) und kognitiven Variablen (Intelligenz) sowie Leistungsindikatoren (Schulleistung, Noten) erhoben. Selbstgesteuertes Lernen wurde mit Hilfe eines strukturierten Interviews (Zimmerman, 1986) und eines Lernstrategie-Fragebogens erfasst. Zum einen zeigte sich, dass die Lernstrategie-Angaben im Interview und im Fragebogen in keiner bedeutsamen Beziehung zueinander standen. Zum anderen ergaben sich deutliche Unterschiede in der Vorhersage der Leistungsindikatoren. Die per Interview erfassten Lernstrategien besaßen sowohl Vorhersagekraft bezüglich Schulnoten und Schulleistung und zeigten signifikante Zusammenhänge zu den individuellen Zielorientierungen, dem schulischen Affekt und der Selbstwirksamkeit. Darüber hinaus konnten Leistungsveränderungen von der achten zur neunten Klasse vorhergesagt werden. Der parallel eingesetzte Lernstrategie-Fragebogen leistete im Vergleich dazu keine Erklärung der Leistungsvarianz. Implikationen für die Diagnostik selbstgesteuerten Lernens werden diskutiert.
Studies of the role of disturbance in vegetation or ecosystems showed that disturbances are an essential and intrinsic element of ecosystems that contribute substantially to ecosystem health, to structural diversity of ecosystems and to nutrient cycling at the local as well as global level. Fire as a grassland, bush or forest fire is a special disturbance agent, since it is caused by biotic as well abiotic environmental factors. Fire affects biogeochemical cycles and plays an important role in atmospheric chemistry by releasing climate-sensitive trace gases and aerosols, and thus in the global carbon cycle by releasing approximately 3.9 Gt C p.a. through biomass burning. A combined model to describe effects and feedbacks between fire and vegetation became relevant as changes in fire regimes due to land use and land management were observed and the global dimension of biomass burnt as an important carbon flux to the atmosphere, its influence on atmospheric chemistry and climate as well as vegetation dynamics were emphasized. The existing modelling approaches would not allow these investigations. As a consequence, an optimal set of variables that best describes fire occurrence, fire spread and its effects in ecosystems had to be defined, which can simulate observed fire regimes and help to analyse interactions between fire and vegetation dynamics as well as to allude to the reasons behind changing fire regimes. Especially, dynamic links between vegetation, climate and fire processes are required to analyse dynamic feedbacks and effects of changes of single environmental factors. This led us to the point, where new fire models had to be developed that would allow the investigations, mentioned above, and could help to improve our understanding of the role of fire in global ecology. In conclusion of the thesis, one can state that moisture conditions, its persistence over time and fuel load are the important components that describe global fire pattern. If time series of a particular region are to be reproduced, specific ignition sources, fire-critical climate conditions and vegetation composition become additional determinants. Vegetation composition changes the level of fire occurrence and spread, but has limited impact on the inter-annual variability of fire. The importance to consider the full range of major fire processes and links to vegetation dynamics become apparent under climate change conditions. Increases in climate-dependent length of fire season does not automatically imply increases in biomass burnt, it can be buffered or accelerated by changes in vegetation productivity. Changes in vegetation composition as well as enhanced vegetation productivity can intensify changes in fire and lead to even more fire-related emissions. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2002/2003.
In this thesis the gravitational lensing effect is used to explore a number of cosmological topics. We determine the time delay in the gravitationally lensed quasar system HE1104-1805 using different techniques. We obtain a time delay Delta_t(A-B) Delta_t(A-B) =-310 +- 20 days (2 sigma errors) between the two components. We also study the double quasar Q0957+561 during a three years monitoring campaign. The fluctuations we find in the difference light curves are completely consistent with noise and no microlensing is needed to explain these fluctuations. Microlensing is also studied in the quadruple quasar Q2237+0305 during the GLITP collaboration (Oct.1999-Feb.2000). We use the absence of a strong microlensing signal to obtain an upper limit of v=600 km/s for the effective transverse velocity of the lens galaxy (considering microlenses with 0.1 solar masses). The distribution of dark matter in galaxy clusters is also studied in the second part of the thesis. In the cluster of galaxies Cl0024+1654 we obtain a mass-to-light ratio of M/L = 200 M_sun/L_sun (within a radius of 3 arcminutes). In the galaxy cluster RBS380 we find a relatively low X-ray luminosity for a massive cluster of L =2*10^(44) erg/s, but a rich distribution of galaxies in the optical band.
This thesis describes the development and application of the impacts module of the ICLIPS model, a global integrated assessment model of climate change. The presentation of the technical aspects of this model component is preceded by a discussion of the sociopolitical context for model-based integrated assessments, which defines important requirements for the specification of the model. Integrated assessment of climate change comprises a broad range of scientific efforts to support the decision-making about objectives and measures for climate policy, whereby many different approaches have been followed to provide policy-relevant information about climate impacts. Major challenges in this context are the large diversity of the relevant spatial and temporal scales, the multifactorial causation of many climate impacts', considerable scientific uncertainties, and the ambiguity associated with unavoidable normative evaluations. A hierarchical framework is presented for structuring climate impact assessments that reflects the evolution of their practice and of the underlying theory. Integrated assessment models of climate change (IAMs) are scientific tools that contain simplified representations of the relevant components of the coupled society-climate system. The major decision-analytical frameworks for IAMs are evaluated according to their ability to address important aspects of the pertinent social decision problem. The guardrail approach is presented as an inverse' framework for climate change decision support, which aims to identify the whole set of policy strategies that are compatible with a set of normatively specified constraints (guardrails'). This approach combines, to a certain degree, the scientific rigour and objectivity typical of predictive approaches with the ability to consider virtually all decision options that is at the core of optimization approaches. The ICLIPS model is described as the first IAM that implements the guardrail approach. The representation of climate impacts is a key concern in any IAM. A review of existing IAMs reveals large differences in the coverage of impact sectors, in the choice of the impact numeraire(s), in the consideration of non-climatic developments, including purposeful adaptation, in the handling of uncertainty, and in the inclusion of singular events. IAMs based on an inverse approach impose specific requirements to the representation of climate impacts. This representation needs to combine a level of detail and reliability that is sufficient for the specification of impact guardrails with the conciseness and efficiency that allows for an exploration of the complete domain of plausible climate protection strategies. Large-scale singular events can often be represented by dynamic reduced-form models. This approach, however, is less appropriate for regular impacts where the determination of policy-relevant results generally needs to consider the heterogeneity of climatic, environmental, and socioeconomic factors at the local or regional scale. Climate impact response functions (CIRFs) are identified as the most suitable reduced-form representation of regular climate impacts in the ICLIPS model. A CIRF depicts the aggregated response of a climate-sensitive system or sector as simulated by a spatially explicit sectoral impact model for a representative subset of plausible futures. In the CIRFs presented here, global mean temperature and atmospheric CO2 concentration are used as predictors for global and regional impacts on natural vegetation, agricultural crop production, and water availability. Application of a pattern scaling technique makes it possible to consider the regional and seasonal patterns in the climate anomalies simulated by several general circulation models while ensuring the efficiency of the dynamic model components. Efforts to provide quantitative estimates of future climate impacts generally face a trade-off between the relevance of an indicator for stakeholders and the exactness with which it can be determined. A number of non-monetary aggregated impact indicators for the CIRFs is presented, which aim to strike the balance between these two conflicting goals while taking into account additional constraints of the ICLIPS modelling framework. Various types of impact diagrams are used for the visualization of CIRFs, each of which provides a different perspective on the impact result space. The sheer number of CIRFs computed for the ICLIPS model precludes their comprehensive presentation in this thesis. Selected results referring to changes in the distribution of biomes in different biogeographical regions, in the agricultural potential of various countries, and in the water availability in selected major catchments are discussed. The full set of CIRFs is accessible via the ICLIPS Impacts Tool, a graphical user interface that provides convenient access to more than 100,000 impact diagrams developed for the ICLIPS model. The technical aspects of the software are described as well as the accompanying database of CIRFs. The most important application of CIRFs is in inverse' mode, where they are used to translate impact guardrails into simultaneous constraints for variables from the optimizing ICLIPS climate-economy model. This translation is facilitated by algorithms for the computation of reachable climate domains and for the parameterized approximation of admissible climate windows derived from CIRFs. The comprehensive set of CIRFs, together with these algorithms, enables the ICLIPS model to flexibly explore sets of climate policy strategies that explicitly comply with impact guardrails specified in biophysical units. This feature is not found in any other intertemporally optimizing IAM. A guardrail analysis with the integrated ICLIPS model is described that applies selected CIRFs for ecosystem changes. So-called necessary carbon emission corridors' are determined for a default choice of normative constraints that limit global vegetation impacts as well as regional mitigation costs, and for systematic variations of these constraints. A brief discussion of recent developments in integrated assessment modelling of climate change connects the work presented here with related efforts.
During the past several decades polymer materials become widely used as components of medical devices and implants such as hemodialysers, bioartificial organs as well as vascular and recombinant surgery. Most of the devices cannot avoid the blood contact in their use. When the polymer materials come in contact with blood they can cause different undesired host responses like thrombosis, inflammatory reactions and infections. Thus the materials must be hemocompatible in order to minimize these undesired body responses. The earliest and one of the main problems in the use of blood-contacting biomaterials is the surface induced thrombosis. The sequence of the thrombus formation on the artificial surfaces has been well established. The first event, which occurs, after exposure of biomaterials to blood, is the adsorption of blood proteins. Surface physicochemical properties of the materials as wettability greatly influence the amount and conformational changes of adsorbed proteins. In turn the type, amount and conformational state of the adsorbed protein layer determines whether platelets will adhere and become activated or not on the artificial surface and thus to complete the thrombus formation. The adsorption of fibrinogen (FNG), which is present in plasma, has been shown to be closely related to surface induced thrombosis by participating in all processes of the thrombus formation such as fibrin formation, platelet adhesion and aggregation. Therefore study the FNG adsorption to artificial surfaces could contribute to better understanding of the mechanisms of platelet adhesion and activation and thus to controlling the surface induced thrombosis. Endothelization of the polymer surfaces is one of the strategies for improving the materials hemocompatibility, which is believed to be the most ideal solution for making truly blood-compatible materials. Since at physiological conditions proteins such as FNG and fibronectin (FN) are the usual extracellular matrix (ECM) for endothelial cells (EC) adhesion, precoating of the materials with these proteins has been shown to improve EC adhesion and growth in vitro. ECM proteins play an essential role not only like a structural support for cell adhesion and spreading, but also they are important factor in transmitting signals for different cell functions. The ability of cells to remodel plasma proteins such as FNG and FN in matrix-like structures together with the classical cell parameters such as actin cytoskeleton and focal adhesion formation could be used as an criteria for proper cell functioning. The establishment and the maintaining of delicate balance between cell-cell and cell-substrate contacts is another important factor for better EC colonization of the implants. The functionality of newly established endothelium in order to produce antithromotic substances should be always considered when EC seeding is used for improving the hemocompatibility of the polymer materials. Controlling the polymer surface properties such as surface wettability represents a versatile approach to manipulate the above cellular responses and therefore can be used in biomaterial and tissue engineering applications for producing better hemocompatible materials.
Die Präeklampsie ist eine schwangerschaftsspezifische Bluthochdruck-Erkrankung, die im Allgemeinen nach der 20. Schwangerschaftswoche auftritt. Neben der Hypertonie sind die Proteinurie und die Ödembildung charakteristische Symptome der Präeklampsie. Obwohl heute die Pathophysiologie der Präeklampsie zum großen Teil verstanden ist, ist die Ätiologie dieser Erkrankung noch unklar. 1999 konnten wir in den Seren von Präeklampsie-Patientinnen agonistische Autoantikörper, die gegen den Angiotensin II AT1-Rezeptor gerichtet sind (AT1-AAK), nachweisen. Diese AT1-AAK gehören zur Antikörpersubklasse IgG3. Die AT1-AAK führen in Kulturen neonataler Rattenkardiomyozyten AT1-Rezeptor spezifisch zu einem positiv chronotropen Effekt. Mittels Immunpräzipitation wurde gezeigt, dass AT1-AAK spezifisch den AT1-Rezeptor präzipitieren. Kontrollproben, aus denen die AT1-AAK entfernt wurden, führen zu keiner Präzipitation des AT1-Rezeptors. Die Präzipitation des AT1-Rezeptors bleibt ebenfalls aus, wenn die AT1-AAK mit einem Peptid, welches der Aminosäuresequenz des zweiten extrazellulären Loops des humanen AT1-Rezeptors entspricht, behandelt wurden. Eine Langzeitbehandlung der Kulturen neonataler Rattenherzzellen mit AT1-AAK vermindert die funktionelle Ansprechbarkeit der Zellen auf einen erneuten AT1-Rezeptor-Stimulus. Eine veränderte AT1-Rezeptorexpression wurde nicht nachgewiesen. In guter Übereinstimmung mit den in vitro-Expressionsdaten wurde gezeigt, dass die plazentare AT1-Rezeptorexpression bei Präeklampsie-Patientinnen nicht verschieden von der plazentaren AT1-Rezeptorexpression gesunder Schwangerer mit nicht pathogen verändertem Blutdruck ist. Im Zellsystem der neonatalen Rattenherzzellen führen die AT1-AAK zur Aktivierung von Gi-Proteinen und zu verringerten intrazellulären cAMP-Spiegeln. Des Weiteren wurde gezeigt, dass die AT1-AAK in Kulturen neonataler Rattenherzzellen die Transkriptionsfaktoren AP-1 und NFkB aktivieren. Die Aktivierung des Transkriptionsfaktors NFkB wurde vornehmlich in den Nicht-Myozyten der Rattenherzzellkultur nachgewiesen. Generell wurde festgestellt, dass sich die AT1-AAK pharmakologisch wie der natürliche Agonist des AT1-Rezeptors, Angiotensin II, verhalten. Erste Daten dieser Arbeit deuten auf einen eventuellen Einfluss der AT1-AAK auf die Expression von Komponenten der extrazellulären Matrix bzw. assoziierter Faktoren (Kollagen III, MMP-2, TIMP-2, Colligin) hin. In allen in dieser Arbeit untersuchten Seren von klinisch diagnostizierten Präeklampsie-Patientinnen wurden agonistische AT1-AAK nachgewiesen. Wir vermuten daher, dass die AT1-AAK möglicherweise bedeutend in der Pathogenese der Präeklampsie sind.
Menschen nehmen Tausende von Stoffen als bitter wahr. Die chemische Struktur der verschiedenen Bitterstoffe ist sehr vielfältig: Sie reicht von kleinen Molekülen wie Kaliumchlorid oder Harnstoff, bis zu sehr komplexen organischen Verbindungen. Die Größe der einzigen bekannten menschlichen Familie von Bitterrezeptoren (TAS2Rs) wurde auf nur ca. 80-120 Mitglieder geschätzt. In Anbetracht der hohen Zahl und Komplexität der Bitterstoffe erscheint die Zahl von Rezeptoren als sehr gering. Dies führt natürlich zu einer Reihe von Fragen: Wie viele Mitglieder hat die menschliche TAS2R-Genfamilie? Wie viele verschiedene Substanzen können denselben Rezeptor aktivieren? Scheint die Zahl der TAS2R-Rezeptoren ausreichend, alle Bitterstoffe wahrnehmen zu können oder muss es noch andere Bitterrezeptorfamilien geben? Diese Fragen zu beantworten, ist das Ziel der vorliegenden Arbeit. Hier durchgeführte Analysen des menschlichen Genomprojektes zeigen, dass Menschen ca. 25 TAS2R-Rezeptoren besitzt, die eine sehr divergente Aminosäurestruktur aufweisen. Diese Rezeptoren wurden in eine neu entwickelte Expressionskassette kloniert, die den Transport des Rezeptors an die Zelloberfläche ermöglicht. Um Liganden für die menschliche TAS2R-Rezeptoren zu identifizieren, wurden die Rezeptoren in HEK293 Zellen exprimiert und mit verschiedenen Bitterstoffen stimuliert. Der Nachweis der Rezeptoraktivierung erfolgte durch Calcium-Imaging. Es konnte gezeigt werden, dass hTAS2R16 der menschliche Rezeptor zur Wahrnehmung von Salicin und verwandten bitteren Pyranosiden ist. So wird hTAS2R16 in HEK293 Zellen durch Salicin und chemisch verwandte Substanzen aktiviert. Ein Vergleich der in diesem Messsystem erhaltenen Daten mit psychophysikalisch ermittelten Geschmackswahrnehmungen beim Menschen, ergab eine hohe Übereinstimmung. Die Ergebnisse deuten auch darauf hin, dass die Desensitiverung einzelner Rezeptoren die Ursache für die Adaption des Bittergeschmacks ist. Der Nachweis der Expression des Rezeptors in menschlichen Geschmackspapillen, sowie die festgestellte Assoziation des G/A Polymorpphismus an Position 665 des hTAS2R16 Gens mit einer reduzierten Salicinwahrnehmung, sind weitere unabhängige Beweise für diese These. Ein anderer menschlicher Rezeptor, hTAS2R10, wird durch die Bitterstoffe Strychnin, Brucin und Denatonium aktiviert. Dies sowie die Tatsache, dass die zur Aktivierung benutzten Konzentrationen eine sinnvolle Korrelation zu dem menschlichen Geschmacksschwellwert von Strychnin zeigen, sind starke Hinweise, dass hTAS2R10 der menschliche Rezeptor zur Wahrnehmung von Strychnin und verwandten Substanzen ist. Die vorliegenden Daten zeigen eindeutig, dass die TAS2R-Rezeptoren auch beim Menschen Bitterrezeptoren darstellen. Sowohl hTAS2R16, als auch hTAS2R10 werden durch ein Spektrum strukturell sehr unterschiedlicher Bitterstoffe aktiviert. Falls die anderen Mitglieder der TAS2R-Familie ebenfalls dieses Verhalten zeigen, wäre es möglich, dass die nur ca. 25 Mitglieder umfassende TAS2R-Rezeptorfamilie des Menschen tatsächlich zur Wahrnehmung aller Bitterstoffe ausreicht.
Im Rahmen dieser Arbeit wurden zwei humane Varianten des von Wang et al., 1999, erstmals beschriebenen muskelspezifischen Proteins Xin (Huhn und Maus) über Sequenzanalyse, Immunofluoreszenzmikroskopie, Transfektionsstudien und biochemischer Analyse näher charakterisiert. Die Proteine wurden mit human Xin related proteins 1 und 2 – hXirp1 und 2 –bezeichnet. Die Xin-Proteine enthielten bisher unbekannte, sowie spezifische, repetitive Motive, die aus jeweils mindestens 16 Aminosäuren bestanden. Ihre Aminosäuresequenz, mit einer Vielzahl weiterer putativer Motivsequenzen, verwies auf eine potentielle Funktion von hXirp als Adapterprotein in Muskelzellen. Das hier näher untersuchte hXirp1 lokalisierte an den Zell-Matrix-Verbindungen der Muskel-Sehnen-Übergangszone im Skelettmuskel, sowie an den Zell-Zell-Verbindungen der Glanzstreifen im Herzmuskel. Während der Muskelentwicklung zeigte hXirp1 eine sehr frühe Expression, zusammen mit einer prägnanten Lokalisation an den Prämyofibrillen und deren Verankerungsstrukturen, die auf eine Funktion des Proteins in der Myofibrillogenese deuten. Ektopische Expressionen von hXirp1 in einer Vielzahl von Nichtmuskel-Kulturzellen zeigten wiederum eine Lokalisation des Proteins an den Zell-Matrix-Kontakten dieser Zellen. Am Beispiel von hXirp1 und 2 wurde stellvertretend für die Familie der Xin-Proteine gezeigt, daß es sich bei den repetitiven Motiven um neuartige, F-Aktin bindende Sequenzmotive handelte. Die Xin-Proteine können somit als muskelspezifische, aktinbindende, potentielle Adapterproteine bezeichnet werden, denen eine strukturelle und funktionelle Beteiligung an der Verankerung der Myofibrillen im adulten Muskel, wie auch während der Myofibrillogenese zukommt.
Im Landschaftszustand und in der Landschaftsentwicklung kommen funktionale Beziehungen zwischen dem naturbedingten Energie-, Wasser- und Stoffhaushalt einerseits und den Auswirkungen der Landnutzung andererseits zum Ausdruck. Gegenwärtig verändert der globale Anstieg der bodennahen Temperaturen vielerorts den landschaftlichen Energie-, Wasser- und Stoffhaushalt, wobei besonders in Trockengebieten zu erwarten ist, dass dieser Trend in Verbindung mit einer unangepassten Landnutzung das Regenerationsvermögen der Vegetation einschränkt und zur Zerstörung der Bodendecke führt. Für die Mongolei und für benachbarte Gebiete Asiens sind in Szenarien zur globalen Erwärmung hohe Werte des Temperaturanstiegs prognostiziert worden. Eine globale Einschätzung der anthropogen induzierten Bodendegradation hat diese Region als stark oder extrem stark betroffen eingestuft. Vor diesem Hintergrund wurde im Uvs-Nuur-Becken, das im Nordwesten der Mongolei und damit in einer der trockensten Regionen des Landes gelegen ist, untersucht, wie sich der globale Temperaturanstieg auf der lokalen und regionalen Ebene widerspiegelt und wie der Landschaftshaushalt dabei verändert wird. Die Auswirkungen des sommerlichen Witterungsverlaufes auf den Landschaftszustand sind 1997 bis 1999 an einem Transsekt erfasst worden, das sich zwischen dem Kharkhiraa-Gebirge am Westrand des Beckens und dem See Uvs Nuur im Beckeninneren von den Polsterfluren und Matten der alpinen Stufe über die Gebirgswaldsteppe, die Trockensteppe bis zur Halbwüste erstreckt. An neun Messpunkten wurden witterungsklimatische Daten in Verbindung mit Merkmalen der Vegetation, des Bodens und der Bodenfeuchte aufgenommen. Die im Sommer 1998 gewonnenen Messwerte wurden mit Hilfe einer Clusteranalyse gebündelt und verdichtet. Auf dieser Grundlage konnten landschaftliche Zustandsformen inhaltlich gekennzeichnet, zeitlich eingeordnet und durch Zeit-Verhaltens-Modelle (Stacks) abgebildet werden. Aus den Zeit-Verhaltens-Modellen wird ersichtlich, dass man Zustandsformen, in denen die Hitze und die Trockenheit des Sommers 1998 besonders stark zum Ausdruck kommen, an allen Messpunkten beobachten kann, nimmt man die Station auf dem fast 3.000 m hohen Gipfel des Khukh Uul sowie die grundwasserbeeinflusste Station in unmittelbarer Seenähe aus. In ihrer extremen Form sind Trockenperioden jedoch nur im Beckeninneren und am Fuß der Randgebirge, also in der Halbwüste, in der Trockensteppe und in der Wiesensteppe aufgetreten. Im Bergwald sowie im Bereich der alpinen Matten und Polsterfluren fehlen sie. Am stärksten sind die grundwasserfreien Bereiche der Halbwüste von der Hitze und Niederschlagsarmut des Sommers 1998 betroffen. An vier Fünfteln der Tage des Beobachtungszeitraumes herrscht an diesem Messpunkt extreme Trockenheit. Es fällt entweder gar kein Niederschlag oder nur so wenig, dass der seit dem Frühjahr erschöpfte Bodenwasservorrat nicht aufgefüllt wird. Das Verhältnis zwischen Niederschlag und potenzieller Verdunstung liegt hier bei 1:12. In der Halbwüste zeichnet sich eine fortschreitende Desertifikation ab, zumal hier eine nichtangepasste Weidenutzung dominiert, in der Ziegen eine immer größere Rolle spielen. Dies gilt insbesondere für Bereiche in Siedlungsnähe. Örtlich ist auch der Bestand der Trockensteppe gefährdet, die sich an die Halbwüste zum Beckenrand hin anschließt. Hier ist nicht nur die Viehdichte am höchsten, sondern hier werden auch die meisten unbefestigten Fahrwege wild angelegt und die Bodendecke damit zerstört. Dies kann im Endeffekt zu einem Übergreifen von Prozessen der Desertifikation führen. Aus methodischer Sicht zeigt sich, dass die Kennzeichnung landschaftlicher Zustandsformen durch Zeit-Verhaltens-Modelle die Ermittlung der Auswirkungen von Witterung und Klima auf den Landschaftszustand erleichtert, da sie deren Aussage konzentriert. Zur Interpretation der Ergebnisse ist jedoch ein Rückgriff auf die beschreibende Darstellung der Messwerte notwendig. Die im westlichen Uvs-Nuur-Becken und seinen Randgebirgen angewandte Verfahrensweise ermöglicht es, globale Aussagen zur globalen Erwärmung der Kontinente regional oder lokal zu überprüfen und zu untersetzen."
Der "Leukocyte Receptor Complex" (LRC) ist ein DNA-Sequenzabschnitt auf dem Chromosom 19 des Menschen, der eine Länge von über 900.000 Basenpaaren umfaßt. In diesem Chromosomenabschnitt ist eine Vielzahl von Genen lokalisiert, die für die Funktion verschiedener weißer Blutzellen (Leukozyten) von entscheidender Bedeutung sind. Bei den aus diesen Genen synthetisierten Proteinen (Eiweißen) handelt es sich um Strukturen, die auf der Oberfläche dieser Zellen lokalisiert sind und zur Interaktion der Leukozyten mit ihrer Umgebung dienen. Diese auch als Rezeptoren bezeichneten Proteine können mit Oberflächenproteinen auf anderen Körperzellen wechselwirken und daraus resultierende Signale in das Innere der Blutzelle weiterleiten. In der vorliegenden Doktorarbeit wurde der LRC im Detail untersucht. Hierzu wurde zunächst der gesamte Chromosomenabschnitt aus kleineren, einander überlappenden DNA-Fragmenten rekonstruiert. Aufgrund der in diesen DNA-Fragmenten enthaltenen DNA-Sequenzen war es möglich, den gesamten Chromosomenabschnitt ähnlich einem Puzzle zusammenzusetzen. Die anschließende Analyse des LRC zeigte, daß sich dieser in drei Bereiche, sogenannte Cluster, unterteilen läßt. Diese Cluster sind dadurch gekennzeichnet, daß in ihnen jeweils nur Gene eines Rezeptortyps vorkommen. Hierbei handelt es sich um ‚immunoglobulin-like transcript′ -Gene (ILT) und ‚killer cell Ig-like receptor′-Gene (KIR). Die KIR- und ILT-Cluster werden von weiteren stammesgeschichtlich verwandten Genen unterbrochen und flankiert. Je nach Individuum können im LRC bis zu 31 solcher verwandten Rezeptorgene lokalisiert sein. Auf der Grundlage der Kartierungsdaten und von Daten des humanen Genomprojekts war es zudem möglich, evolutionäre Untersuchungen zur Entwicklung des LRC durchzuführen. Dabei wurde eine Hypothese zur Entstehung des LRC entworfen und zu anderen Spezies in Beziehung gesetzt. Im zweiten Teil der Arbeit habe ich aufbauend auf der sogenannten HRCA-Methode eine Technik entwickelt, die es erlaubt kleinste Unterschiede zwischen DNA-Sequenzen, sogenannte Einzelbasenpaaraustausche, nachzuweisen. Die entwickelte Methode kann verwendet werden, um sehr ähnliche DNA-Sequenzen, wie z.B. verschiedene KIR-Sequenzen, zu unterscheiden und ihre Menge zu bestimmen. Sie ist außerdem geeignet Mutationen, die mit bestimmten Krankheiten assoziiert sind, nachzuweisen und könnte somit in der Diagnostik Anwendung finden.
The development of fast and reliable biochemical tools for on-site screening in environmental analysis was the main target of the present work. Due to various hazardous effects such as endocrine disruption and toxicity phenolic compounds are key analytes in environmental analysis and thus were chosen as model analytes. Three different methods were developed: For the enzymatic detection of phenols in environmental samples an enzyme-based biosensor was developed. In contrast to reported work using tyrosinase or peroxidases, we developed a biosensor based on glucose dehydrogenase as biorecognition element. This biosensor was devoted for an application in a laboratory flow system as well as in a portable device for on-site measurements. This enzymatic detection is applicable only for a limited number of phenols due to substrate specificity of the enzyme. For other relevant compounds based on a phenolic structure (i.e. nitrophenol, alkylphenols and alkylphenol ethoxylates) immunological methods had to be developed. The electrochemical GDH-biosensor was used as the label detector in these immunoassays. Two heterogeneous immunoassays were developed where ßGal was used as the label. An electrochemical method for the determination of the marker enzyme activity was processed. The separation step was realized with protein A/G columns (laboratory flow system) or by direct immobilization of the antibodies in small disposable capillaries (on-site analysis). All methods were targeted on the contemporary analysis of small numbers of samples.
Zur Ermittlung der Akzeptanz und ihres prädiktiven Wertes für den Verzehr von Lebensmitteln bzw. Getränken, sind Beliebtheitsprüfungen mit Konsumenten unter standardisierten Bedingungen im Sensoriklabor üblich. Die prädiktive Aussagekraft dieser Laboruntersuchungen wird jedoch durch folgende Aspekte eingeschränkt: (1) Der situative Kontext wird ausgeschaltet, d.h. die Verzehrssituation, in der ein Produkt üblicherweise konsumiert wird, ist im Labor bewusst eliminiert und das zu bewertende Produkt wird nicht in einer kompletten Mahlzeit dargeboten (2) Der Produktkontakt im Labor ist im Gegensatz zu der anhaltenden Konfrontation unter alltäglichen Bedingungen nur kurzfristig, was Langzeitaussagen bzw. Dauerpräferenzen nicht zuläßt; (3) Im Labortest ist die freie Auswahl auf eine geringe Anzahl angebotener Produkte beschränkt. In dieser Arbeit soll daher die Frage beantwortet werden, welchen prädiktiven Wert sensorische Beliebtheitsuntersuchungen im Labor für Lebensmittelakzeptanz und -verzehr unter Alltagssituationen haben. Dies wird für verschiedene Altersgruppen gezeigt, die frei in ihrer Entscheidungsfindung sind. Dazu gaben 56 Studenten (23,1±3,7 Jahre) und zwei Seniorengruppen, zum einen aus einer Begegnungsstätte (20 Probanden; 75,6±8,1 Jahre) und zum anderen aus dem betreuten Wohnen (14 Probanden; 76,1±12,5 Jahre), in einer ersten Laboruntersuchung Beliebtheitsbewertungen (Akzeptanz und Rangordnungsprüfung) zu 6 Erfrischungsgetränken ab. Anschließend folgte ein mindestens vierwöchiger Zeitraum, in denen die Probanden aus einem speziell für die Studie konzipierten Automaten Getränke in Einrichtungen der Gemeinschaftsverpflegung entnehmen konnten. Die Entnahme war via Chipkarte ad libitum möglich. Computergestützt wurden dabei individuelle Getränkewahl, Menge und Entnahmezeit aufgezeichnet. Unmittelbar nach der Automatenphase wurde eine erneute Laboruntersuchung durchgeführt. In allen Untersuchungsphasen wurden dieselben Erfrischungsgetränke aus Konzentrat, variiert in Apfel- oder Orangensaftgeschmack, ohne oder mit Zusatz von Zucker (20g/l) und Kohlensäure (4 g/l CO2), angeboten. Eine Quntitativ Deskriptive Analyse bestätigte unterschiedliche Profile bei den Produkten, so dass von sensorisch wahrnehmbaren Unterschieden zwischen den Produkten ausgegangen werden konnte. Die Probanden bekamen zu keiner Zeit Informationen über die exakte Zusammensetzung der Getränke. Sowohl in der Laborbewertung als auch nach Getränkekonsum via Automat, fanden sich unterschiede zwischen den Altersgruppen. In der Akzeptanzprüfung bewerteten Studenten die Apfelvarianten besser als die Orangenvarianten. Senioren, die insgesamt höhere Akzeptanzwerte vergaben, bewerteten alle Getränke in fast allen Attributen gleichermaßen gut. Nach der 4-wöchigen Automatenphase hatte sich die Akzeptanz der sechs Getränke nicht wesentlich geändert. Auch in beiden Rangordnungsprüfungen waren bei den Studenten „Apfel“ und „Apfel mit Kohlensäure“ auf den ersten Plätzen, „Orange mit Zuckerzusatz“ auf dem letzten Platz. Nach Adjustierung auf die individuelle Trinkmenge (in Wenig-, Mittel- Vieltrinker) und wurde „Apfel mit Kohlensäure“ in der Automatenphase von den Studenten am meisten getrunken. In der Vieltrinkergruppe wurde „Orange mit Zuckerzusatz“ deutlich vernachlässigt. Der Automatenkonsum der Studenten bestätigte damit im Wesentlichen die Ergebnisse der Beliebtheitsprüfung im Labor. Bei den Senioren waren in der Rangordnungsprüfung, die eine Lieblingsreihenfolge erzwang, alle süßeren Getränke (mit Zuckerzusatz) auf den ersten Plätzen. In der Automatenphase wurden jedoch viele Getränke ohne Zuckerzusatz bevorzugt. Dies zeigte sich sowohl in der individuellen Präferenz, als auch im Gesamtkonsum. Aufgrund der Ergebnisse kann der prädiktive Wert von Laboruntersuchungen mit Senioren in Bezug auf die Auswahl und den Konsum unter alltäglichen Bedingungen als gering beurteilt werden. Die Getränke mit der individuell höchsten Laborpräferenz wurden unter Alltagsumgebung in der Gemeinschaftsverpflegung in deutlich geringeren Umfang als erwartet verzehrt. In der Vergleichsgruppe der Studenten ist die Übereinstimmung größer(p<0,05). In Häufigkeitsfragebögen vor und nach der Automatenphase wurde das Trinkverhalten speziell von kohlensäurehaltigen Getränken erfragt. Der Anteil von kohlensäurehaltigen Getränken ist sehr variabel, und kann tagesabhängig von einem geringen bis zum Hauptanteil ausmachen. Senioren tranken von den Automatengetränken weniger kohlensäurehaltige Getränke als Studenten(p<0,001). Trotzdem zeigte nur eine Minderheit einen völligen Verzicht, wie sich durch Fragebogen und auch Automatenkonsum ermitteln ließ. Die Verwendung eines computergestützten Getränkeautomaten bietet eine neue Möglichkeit, die Langzeitpräferenz und den tatsächlichen Konsum unter gewohnten Alltagsbedingungen und bei freier Produktauswahl zu ermitteln. Selbst bei Altersgruppen, die mit Laboruntersuchungen überfordert sind, können Vorlieben untersucht werden.
Ein Spezialgebiet der modernen Mikroelektronik ist die Miniaturisierung und Entwicklung von neuen nanostrukturierten und Komposit-Materialen aus 3d-Metallen. Durch geeignete Zusammensetzungen können diese sowohl mit einer hohen Sättigungsmagnetisierung und Koerzitivfeldstärke als mit besserer Oxidationsbeständigkeit im Vergleich zu den reinen Elementen erzielt werden. In der vorliegenden Arbeit werden neue Methoden für die Herstellung von bimetallischen kolloidalen Nanopartikeln vor allem mit einer Kern-Hülle-Struktur (Kern@Hülle) präsentiert. Bei der überwiegenden Zahl der vorgestellten Reaktionen handelt es sich um die thermische Zersetzung von metallorganischen Verbindungen wie Kobaltcarbonyl, Palladium- und Platinacetylacetonate oder die chemische Reduktion von Metallsalze mit langkettigem Alkohol in organischem Lösungsmittel. Daneben sind auch Kombinationen aus diesen beiden Verfahren beschrieben. Es wurden Kolloide aus einem reinen Edelmetall (Pt, Pd, Ag) in einem organischen Lösungsmittel synthetisiert und daraus neue, bisher in dieser Form nicht bekannte Ag@Co-, Pt@Co-, Pd@Co- und Pt@Pd@Co-Nanopartikel gewonnen. Der Kobaltgehalt der Ag@Co-, Teilchen konnte im Bereich von 5 bis 73 At. % beliebig eingestellt werden. Der mittlere Durchmesser der Ag@Co-Partikel wurde von 5 nm bis 15 nm variiert. Bei der Herstellung von Pt@Co-Teilchen wurde eine unterschiedlich dicke Kobalt-Hülle von ca. 1,0 bis 2,5 nm erzielt. Im Fall des Palladiums wurden sowohl monodispere als auch polydisperse Pd-Nanopartikel mit einer maximal 1,7-2,0nm dicken Kobalthülle synthetisiert. Ein großer Teil dieser Arbeit befasst sich mit den magnetischen Eigenschaften der kolloidalen Teilchen, wobei die SQUID-Magnetometrie und Röntgenzirkulardichroismus (XMCD) dafür eingesetzt wurden. Weil magnetische Messungen alleine nur indirekte Schlüsse über die untersuchten Systeme erlauben, wurde dabei besonderer Wert auf die möglichst genaue strukturelle Charakterisierung der Proben mittels moderner Untersuchungsmethoden gelegt. Röntgendiffraktometrie (XRD), Röntgenabsorptionsfeinstruktur- (EXAFS) und UV-Vis-Spektroskopie sowie Transmissionselektronenmikroskopie (TEM) in Kombination mit Elektronen Energieverlustspektroskopie (EELS) und energiedispersive Röntgenfluoreszensanalyse (EDX) wurden verwendet.
The present work investigates the structure formation and wetting in two dimensional (2D) Langmuir monolayer phases in local thermodynamic equilibrium. A Langmuir monolayer is an isolated 2D system of surfactants at the air/water interface. It exhibits crystalline, liquid crystalline, liquid and gaseous phases differing in positional and/or orientational order. Permanent electric dipole moments of the surfactants lead to a long range repulsive interaction and to the formation of mesoscopic patterns. An interaction model is used describing the structure formation as a competition between short range attraction (bare line tension) and long range repulsion (surface potentials) on a scale Delta. Delta has the meaning of a dividing length between the short and long range interaction. In the present work the thermodynamic equilibrium conditions for the shape of two phase boundary lines (Young-Laplace equation) and three phase intersection points (Young′s condition) are derived and applied to describe experimental data: The line tension is measured by pendant droplet tensiometry. The bubble shape and size of 2D foams is calculated numerically and compared to experimental foams. Contact angles are measured by fitting numerical solutions of the Young-Laplace equation on micron scale. The scaling behaviour of the contact angle allows to measure a lower limit for Delta. Further it is discussed, whether in biological membranes wetting transitions are a way in order to control reaction kinetics. Studies performed in our group are discussed with respect to this question in the framework of the above mentioned theory. Finally the apparent violation of Gibbs′ phase rule in Langmuir monolayers (non-horizontal plateau of the surface pressure/area-isotherm, extended three phase coexistence region in one component systems) is investigated quantitatively. It has been found that the most probable explanation are impurities within the system whereas finite size effects or the influence of the long range electrostatics can not explain the order of magnitude of the effect.
In der vorliegenden Untersuchung wurde ein arbeitspsychologisches Problem thematisiert, dass in Mensch-Maschine-Systemen auftritt. In Mensch-Maschine-Systemen werden Informationen in kodierter Form ausgetauscht. Diese inhaltlich verkürzte Informationsübertragung hat den Vorteil, keine lange Zustandsbeschreibung zu benötigen, so dass der Mensch auf die veränderten Zustände schnell und effizient reagieren kann. Dies wird aber nur dann ermöglicht, wenn der Mensch die kodierten Informationen (Kodes) vorher erlernten Bedeutungen zuordnen kann. Je nach Art der kodierten Informationen (visuelle, akustische oder alphanumerische Signale) wurden Gestaltungsempfehlungen für Kodealphabete entwickelt. Für Operateure resultiert die mentale Belastung durch Dekodierungsprozesse vor allem aus dem Umfang des Kodealphabetes (Anzahl von Kodezeichen), der wahrnehmungsmäßigen Gestaltung der Kodes und den Regeln über die Zuordnung von Bedeutungen zu Kodezeichen. Die Entscheidung über die Güte von Kodealphabeten geschieht in der Arbeitspsychologie in der Regel über Leistungsindikatoren. Dies sind üblicherweise die zur Dekodierung der Kodes benötigte Zeit und dabei auftretende Zuordnungsfehler. Psychophysiologische Daten werden oft nicht herangezogen. Fraglich ist allerdings, ob Zeiten und Fehler allein verlässliche Indikatoren für den kognitiven Aufwand bei Dekodierungsprozessen sind, da im hochgeübten Zustand bei gleichen Alphabetlängen, aber unterschiedlicher Kodezeichengestaltung sich häufig die mittleren Dekodierungszeiten zwischen Kodealphabeten nicht signifikant unterscheiden und Fehler überhaupt nicht auftreten. Die in der vorliegenden Arbeit postulierte Notwendigkeit der Ableitung von Biosignalen gründet sich auf die Annahme, dass mit ihrer Hilfe zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen gewonnen werden können, die mit der Erhebung von Leistungsdaten nicht erfasst werden. Denn gerade dann, wenn sich die Leistungsdaten zweier Kodealphabete nicht unterscheiden, können psychophysiologische Daten unterschiedliche Aspekte mentaler Beanspruchung erfassen, die mit Hilfe von Leistungsdaten nicht bestimmt werden können. Daher wird in Erweiterung des etablierten Untersuchungsansatzes vorgeschlagen, Biosignale als dritten Datenbereich, neben Leistungsdaten und subjektiven Daten mentaler Beanspruchung, abzuleiten, um zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen zu erhalten. Diese Annahme sollte mit Hilfe der Ableitung von Biosignalen überprüft werden. Der Begriff mentaler Beanspruchung wird in der bisherigen Literatur nur unzureichend definiert und differenziert. Daher wird zur Untersuchung dieses Konzepts, die wissenschaftliche Literatur berücksichtigend, ein erweitertes Modell mentaler Beanspruchung vorgestellt. Dabei wird die mentale Beanspruchung abgegrenzt von der emotionalen Beanspruchung. Mentale Beanspruchung wird weiterhin unterschieden in psychomotorische, perzeptive und kognitive Beanspruchung. Diese Aspekte mentaler Beanspruchung werden jeweils vom psychomotorischen, perzeptiven oder kognitiven Aufwand der zu bearbeitenden Aufgabe ausgelöst. In der vorliegenden Untersuchung wurden zwei zentrale Fragestellungen untersucht: Einerseits wurde die Analyse der anwendungsbezogenen Frage fokussiert, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung über die Leistungsdaten (Dekodierungszeiten und Fehleranzahl) hinaus, zusätzliche Informationen zur Bestimmung der Güte von Kodealphabeten liefern. Andererseits wurde der Forschungsaspekt untersucht, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung die zur Dekodierung notwendigen perzeptiven und kognitiven Aspekte mentaler Beanspruchung differenzieren können. Emotionale Beanspruchung war nicht Gegenstand der Analysen, weshalb in der Operationalisierung versucht wurde, sie weitgehend zu vermeiden. Psychomotorische Beanspruchung als dritter Aspekt mentaler Beanspruchung (neben perzeptiver und kognitiver Beanspruchung) wurde für beide Experimentalgruppen weitgehend konstant gehalten. In Lernexperimenten hatten zwei anhand eines Lern- und Gedächtnistests homogenisierte Stichproben jeweils die Bedeutung von 54 Kodes eines Kodealphabets zu erwerben. Dabei wurde jeder der zwei unahbhängigen Stichproben ein anderes Kodealphabet vorgelegt, wobei sich die Kodealphabete hinsichtlich Buchstabenanzahl (Kodelänge) und anzuwendender Zuordnungsregeln unterschieden. Damit differierten die Kodealphabete im perzeptiven und kognitiven Aspekt mentaler Beanspruchung. Die Kombination der Abkürzungen entsprach den in einer Feuerwehrleitzentrale verwendeten (Kurzbeschreibungen von Notfallsituationen). In der Lernphase wurden den Probanden zunächst die Kodealphabete geblockt mit ihren Bedeutungen präsentiert. Anschließend wurden die Kodes (ohne deren Bedeutung) in sechs aufeinanderfolgenden Prüfphasen randomisiert einzeln dargeboten, wobei die Probanden instruiert waren, die Bedeutung der jeweiligen Kodes in ein Mikrofon zu sprechen. Während des gesamten Experiments wurden, neben Leistungsdaten (Dekodierungszeiten und Fehleranzahl) und subjektiven Daten über die mentale Beanspruchung im Verlauf der Experimente, folgende zentralnervöse und peripherphysiologische Biosignale abgeleitet: Blutdruck, Herzrate, phasische und tonische elektrodermale Aktivität und Elektroenzephalogramm. Aus ihnen wurden zunächst 13 peripherphysiologische und 7 zentralnervöse Parameter berechnet, von denen 7 peripherphysiologische und 3 zentralnervöse Parameter die statistischen Voraussetzungen (Einschlusskriterien) soweit erfüllten, dass sie in die inferenzstatistische Datenanalyse einbezogen wurden. Leistungsdaten und subjektive Beanspruchungseinschätzungen der Versuchsdurchgänge wurden zu den psychophysiologischen Parametern in Beziehung gesetzt. Die Befunde zeigen, dass mittels der psychophysiologischen Daten zusätzliche Erkenntnisse über den kognitiven Aufwand gewonnen werden können. Als weitere Analyse wurden die Kodes post hoc in zwei neue Kodealphabete eingeteilt. Ziel dieser Analyse war es, die Unterschiede zwischen beiden Kodealphabeten zu erhöhen, um deutlichere reizbezogene psychophysiologische Unterschiede in den EEG-Daten zwischen den Kodealphabeten zu erhalten. Dazu wurde diejenigen, hinsichtlich ihrer Bedeutung, parallelen Kodes in beiden Kodealphabeten ausgewählt, die sich in der Dekodierungszeit maximal voneinander unterschieden. Eine erneute Analyse der EEG-Daten erbrachte jedoch keine Verbesserung der Ergebnisse. Drei Hauptergebnisse bezüglich der psychophysiologischen Parameter konnten festgestellt werden: Das erste Ergebnis ist für die psychophysiologische Methodik bedeutsam. Viele psychophysiologische Parameter unterschieden zwischen den Prüfphasen und zeigen damit eine hinreichende Sensitivität zur Untersuchung mentaler Beanspruchung bei Dekodierungsprozessen an. Dazu gehören die Anzahl der spontanen Hautleitwertsreaktionen, die Amplitude der Hautleitwertsreaktionen, das Hautleitwertsniveau, die Herzrate, die Herzratendifferenz und das Beta-2-Band des EEG. Diese Parameter zeigen einen ähnlichen Verlauf wie die Leistungsdaten. Dies zeigt, dass es möglich ist, die hier operationaliserte Art mentaler Beanspruchung in Form von Dekodierungsprozessen psychophysiologisch zu analysieren. Ein zweites Ergebnis betrifft die Möglichkeit, Unterschiede mentaler Beanspruchung zwischen beiden Gruppen psychophysiologisch abzubilden: Das Hautleitwertsniveau und das Theta-Frequenzband des Spontan-EEG zeigten Unterschiede zwischen beiden Stichproben von der ersten Prüfphase an. Diese Parameter indizieren unterschiedlichen kognitiven Aufwand in beiden Stichproben über alle Prüfphasen. Das wichtigste Ergebnis betrifft die Frage nach einem Informationsgewinn bei Einsatz psychophysiologischer Methoden zur Bewertung der Güte von Kodealphabeten: Einen tatsächlichen Informationsgewinn gegenüber den Leistungsdaten zeigte die Amplitude der elektrodermalen Aktivität und die Herzraten-Differenz an. Denn in den späteren Prüfphasen, wenn sich die Leistungsdaten beider Kodealphabete nicht mehr unterschieden, konnten unterschiedliche Ausprägungen dieser psychophysiologischen Parameter zwischen beiden Kodealphabeten verzeichnet werden. Damit konnten unterschiedliche Aspekte mentaler Beanspruchung in beiden Kodealphabeten in den späteren Prüfphasen erfasst werden, in denen sich die Leistungsdaten nicht mehr unterschieden. Alle drei Ergebnisse zeigen, dass es, trotz erheblichen technischen und methodischen Aufwands, sinnvoll erscheint, bei der Charakterisierung mentaler Belastungen und für die Gestaltung von Kodealphabeten auch psychophysiologische Daten heranzuziehen, da zusätzliche Informationen über den perzeptiven und kognitiven Dekodierungsaufwand gewonnen werden können.
Concerns have been raised that anthropogenic climate change could lead to large-scale singular climate events, i.e., abrupt nonlinear climate changes with repercussions on regional to global scales. One central goal of this thesis is the development of models of two representative components of the climate system that could exhibit singular behavior: the Atlantic thermohaline circulation (THC) and the Indian monsoon. These models are conceived so as to fulfill the main requirements of integrated assessment modeling, i.e., reliability, computational efficiency, transparency and flexibility. The model of the THC is an interhemispheric four-box model calibrated against data generated with a coupled climate model of intermediate complexity. It is designed to be driven by global mean temperature change which is translated into regional fluxes of heat and freshwater through a linear down-scaling procedure. Results of a large number of transient climate change simulations indicate that the reduced-form THC model is able to emulate key features of the behavior of comprehensive climate models such as the sensitivity of the THC to the amount, regional distribution and rate of change in the heat and freshwater fluxes. The Indian monsoon is described by a novel one-dimensional box model of the tropical atmosphere. It includes representations of the radiative and surface fluxes, the hydrological cycle and surface hydrology. Despite its high degree of idealization, the model satisfactorily captures relevant aspects of the observed monsoon dynamics, such as the annual course of precipitation and the onset and withdrawal of the summer monsoon. Also, the model exhibits the sensitivity to changes in greenhouse gas and sulfate aerosol concentrations that are known from comprehensive models. A simplified version of the monsoon model is employed for the identification of changes in the qualitative system behavior against changes in boundary conditions. The most notable result is that under summer conditions a saddle-node bifurcation occurs at critical values of the planetary albedo or insolation. Furthermore, the system exhibits two stable equilibria: besides the wet summer monsoon, a stable state exists which is characterized by a weak hydrological cycle. These results are remarkable insofar, as they indicate that anthropogenic perturbations of the planetary albedo such as sulfur emissions and/or land-use changes could destabilize the Indian summer monsoon. The reduced-form THC model is employed in an exemplary integrated assessment application. Drawing on the conceptual and methodological framework of the tolerable windows approach, emissions corridors (i.e., admissible ranges of CO2- emissions) are derived that limit the risk of a THC collapse while considering expectations about the socio-economically acceptable pace of emissions reductions. Results indicate, for example, a large dependency of the width of the emissions corridor on climate and hydrological sensitivity: for low values of climate and/or hydrological sensitivity, the corridor boundaries are far from being transgressed by any plausible emissions scenario for the 21st century. In contrast, for high values of both quantities low non-intervention scenarios leave the corridor already in the early decades of the 21st century. This implies that if the risk of a THC collapse is to be kept low, business-as-usual paths would need to be abandoned within the next two decades. All in all, this thesis highlights the value of reduced-form modeling by presenting a number of applications of this class of models, ranging from sensitivity and bifurcation analysis to integrated assessment. The results achieved and conclusions drawn provide a useful contribution to the scientific and policy debate about the consequences of anthropogenic climate change and the long-term goals of climate protection. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2003/2004.
Die vorliegende Arbeit 'Abflußentwicklung in Teileinzugsgebieten des Rheins - Simulationen für den Ist-Zustand und für Klimaszenarien' untersucht Auswirkungen möglicher zukünftiger Klimaänderungen auf das Abflußgeschehen in ausgewählten, durch Mittelgebirge geprägten Teileinzugsgebieten des Rheins: Mosel (bis Pegel Cochem); Sieg (bis Pegel Menden 1) und Main (bis Pegel Kemmern).In einem ersten Schritt werden unter Verwendung des hydrologischen Modells HBV-D wichtige Modellprozesse entsprechend der Einzugsgebietscharakteristik parametrisiert und ein Abbild der Gebietshydrologie erzeugt, das mit Zeitreihen gemessener Tageswerte (Temperatur, Niederschlag) eine Zeitreihe der Pegeldurchflüsse simulieren kann. Die Güte der Simulation des Ist-Zustandes (Standard-Meßzeitraum 1.1.1961-31.12.1999) ist für die Kalibrierungs- und Validierungszeiträume in allen Untersuchungsgebieten gut bis sehr gut.Zur Erleichterung der umfangreichen, zeitaufwendigen einzugsgebietsbezogenen Datenaufbereitung für das hydrologische Modell HBV-D wurde eine Arbeitsumgebung auf Basis von Programmerweiterungen des Geoinformationssystems ArcView und zusätzlichen Hilfsprogrammen entwickelt. Die Arbeitsumgebung HBV-Params enthält eine graphische Benutzeroberfläche und räumt sowohl erfahrenen Hydrologen als auch hydrologisch geschulten Anwendern, z.B. Studenten der Vertiefungsrichtung Hydrologie, Flexibilität und vollständige Kontrolle bei der Ableitung von Parameterwerten und der Editierung von Parameter- und Steuerdateien ein. Somit ist HBV-D im Gegensatz zu Vorläuferversionen mit rudimentären Arbeitsumgebungen auch außerhalb der Forschung für Lehr- und Übungszwecke einsetzbar.In einem zweiten Schritt werden Gebietsniederschlagssummen, Gebietstemperaturen und simulierte Mittelwerte des Durchflusses (MQ) des Ist-Zustandes mit den Zuständen zweier Klimaszenarien für den Szenarienzeitraum 100 Jahre später (2061-2099) verglichen. Die Klimaszenarien beruhen auf simulierten Zirkulationsmustern je eines Modellaufes zweier Globaler Zirkulationsmodelle (GCM), die mit einem statistischen Regionalisierungsverfahren in Tageswertszenarien (Temperatur, Niederschlag) an Meßstationen in den Untersuchungsgebieten überführt wurden und als Eingangsdaten des hydrologischen Modells verwendet werden.Für die zweite Hälfte des 21. Jahrhunderts weisen beide regionalisierten Klimaszenarien eine Zunahme der Jahresmittel der Gebietstemperatur sowie eine Zunahme der Jahressummen der Gebietsniederschläge auf, die mit einer hohen Variabilität einhergeht. Eine Betrachtung der saisonalen (monatlichen) Änderungsbeträge von Temperatur, Niederschlag und mittlerem Durchfluß zwischen Szenarienzeitraum (2061-2099) und Ist-Zustand ergibt in allen Untersuchungsgebieten eine Temperaturzunahme (höher im Sommer als im Winter) und eine generelle Zunahme der Niederschlagssummen (mit starken Schwankungen zwischen den Einzelmonaten), die bei der hydrologischen Simulation zu deutlich höheren mittleren Durchflüssen von November bis März und leicht erhöhten mittleren Durchflüssen in den restlichen Monaten führen. Die Stärke der Durchflußerhöhung ist nach den individuellen Klimaszenarien unterschiedlich und im Sommer- bzw. Winterhalbjahr gegenläufig ausgeprägt. Hauptursache für die simulierte starke Zunahme der mittleren Durchflüsse im Winterhalbjahr ist die trotz Temperaturerhöhung der Klimaszenarien winterlich niedrige Evapotranspiration, so daß erhöhte Niederschläge direkt in erhöhten Durchfluß transformiert werden können.Der Vergleich der Untersuchungsgebiete zeigt in Einzelmonaten von West nach Ost abnehmende Änderungsbeträge der Niederschlagssummen, die als Hinweis auf die Bedeutung der Kontinentalitätseinflüsse auch unter geänderten klimatischen Bedingungen in Südwestdeutschland aufgefaßt werden könnten.Aus den regionalisierten Klimaszenarien werden Änderungsbeträge für die Modulation gemessener Zeitreihen mittels synthetischer Szenarien abgeleitet, die mit einem geringen Rechenaufwand in hydrologische Modellantworten überführt werden können. Die direkte Ableitung synthetischer Szenarien aus GCM-Ergebniswerten (bodennahe Temperatur und Gesamtniederschlag) an einzelnen GCM-Gitterpunkten erbrachte unbefriedigende Ergebnisse.Ob, in welcher Höhe und zeitlichen Verteilung die in den (synthetischen) Szenarien verwendeten Niederschlags- und Temperaturänderungen eintreten werden, kann nur die Zukunft zeigen. Eine Abschätzung, wie sich die Abflußverhältnisse und insbesondere die mittleren Durchflüsse der Untersuchungsgebiete bei möglichen Änderungen entwickeln würden, kann jedoch heute schon vorgenommen werden. Simulationen auf Szenariogrundlagen sind ein Weg, unbekannte zukünftige Randbedingungen sowie regionale Auswirkungen möglicher Änderungen des Klimasystems ausschnittsweise abzuschätzen und entsprechende Risikominderungsstrategien zu entwickeln. Jegliche Modellierung und Simulation natürlicher Systeme ist jedoch mit beträchtlichen Unsicherheiten verknüpft. Vergleichsweise große Unsicherheiten sind mit der zukünftigen Entwicklung des sozioökonomischen Systems und der Komplexität des Klimasystems verbunden. Weiterhin haben Unsicherheiten der einzelnen Modellbausteine der Modellkette Emissionsszenarien/Gaszyklusmodelle - Globale Zirkulationsmodelle/Regionalisierung - hydrologisches Modell, die eine Kaskade der Unsicherheiten ergeben, neben Datenunsicherheiten bei der Erfassung hydrometeorologischer Meßgrößen einen erheblichen Einfluß auf die Vertrauenswürdigkeit der Simulationsergebnisse, die als ein dargestellter Wert eines Ergebnisbandes zu interpretieren sind.Der Einsatz (1) robuster hydrologischer Modelle, die insbesondere temperaturbeeinflußte Prozesse adäquat beschreiben,(2) die Verwendung langer Zeitreihen (wenigsten 30 Jahre) von Meßwerten und(3) die gleichzeitige vergleichende Betrachtung von Klimaszenarien, die auf unterschiedlichen GCMs beruhen (und wenn möglich, verschiedene Emissionsszenarien berücksichtigen),sollte aus Gründen der wissenschaftlichen Sorgfalt, aber auch der besseren Vergleichbarkeit der Ergebnisse von Regionalstudien im noch jungen Forschungsfeld der Klimafolgenforschung beachtet werden.