Refine
Has Fulltext
- yes (13308) (remove)
Year of publication
Document Type
- Article (3990)
- Postprint (3294)
- Doctoral Thesis (2523)
- Monograph/Edited Volume (969)
- Review (558)
- Part of Periodical (489)
- Preprint (446)
- Master's Thesis (264)
- Conference Proceeding (245)
- Working Paper (245)
Language
- German (7034)
- English (5974)
- Spanish (80)
- French (75)
- Multiple languages (62)
- Russian (62)
- Hebrew (9)
- Italian (6)
- Portuguese (2)
- Hungarian (1)
Keywords
- Germany (118)
- Deutschland (106)
- climate change (79)
- Sprachtherapie (77)
- Patholinguistik (73)
- patholinguistics (73)
- Logopädie (72)
- Zeitschrift (71)
- Nachhaltigkeit (61)
- European Union (59)
Institute
- Extern (1371)
- MenschenRechtsZentrum (943)
- Institut für Physik und Astronomie (713)
- Institut für Biochemie und Biologie (708)
- Wirtschaftswissenschaften (583)
- Institut für Chemie (554)
- Institut für Mathematik (519)
- Institut für Romanistik (509)
- Institut für Geowissenschaften (508)
- Mathematisch-Naturwissenschaftliche Fakultät (489)
In this work, an approach of paleoclimate reconstruction for tropical East Africa is presented. After giving a short summary of modern climate conditions in the tropics and the East African climate peculiarity, the potential of reconstructing climate from paleolake sediments is discussed. As demonstrated, the hydrologic sensitivity of high-elevated closed-basin lakes in the Central Kenya Rift yields valuable guaranties for the establishment of long-term climate records. Temporal fluctuations of the limnological characteristics saved in the lake sediments are used to define variations in the Quaternary climate history. Based on diatom analyses in radiocarbon- and 40Ar/39Ar-dated sediments, a chronology of paleoecologic fluctuations is developed for the Central Kenya Rift -lakes Nakuru, Elmenteita and Naivasha. At least during the penultimate interglacial (around 140 to 60 kyr BP) and during the last interglacial (around 12 to 4 kyr BP), these lakes experienced several transgression-regression cycles on time intervals of about 11,000 years. Additionally, a long-term trend of lake evolution is found suggesting the general succession from deep freshwater lakes towards more saline waters during the last million years. Using ecologic transfer functions and a simple lake-balance model, the observed paleohydrologic fluctuations are linked to potential precipitation-evaporation changes in the lake basins. Though also tectonic influences on the drainage pattern and the effect of varied seepage are investigated, it can be shown that already a small increase in precipitation of about 30±10 % may have affected the hydrologic budget of the intra-rift lakes within the reconstructed range. The findings of this study help to assess the natural climate variability of East Africa. They furthermore reflect the sensitivity of the Central Kenya Rift -lakes to fluctuations of large-scale climate parameters, such as solar radiation and sea-surface temperatures of the Indian Ocean.
Red cell development in adult humans results in the mean daily production of 2x1011 erythrocytes. Mature hemoglobinized and enucleated erythrocytes develop from multipotent hematopoietic stem/progenitor cells through more committed progenitor cell types such as BFU-E and CFU-E. The studies on the molecular mechanisms of erythropoiesis in the human system require a sufficient number of purified erythroid progenitors of the different stages of erythropoiesis. Primary human erythroid progenitors are difficult to obtain as a homogenous population in sufficiently high cell numbers. Various culture conditions for the in vitro cell culture of primary human erythroid progenitors have been previously described. Mainly, the culture resulted in the generation of rather mature stages of Epo-dependent erythroid progenitors. In this study our efforts were directed towards the isolation and characterization of more early red cell progenitors that are Epo-independent. To identify such progenitors, CD34+ cells were purified from cord blood and cultured under serum free conditions in the presence of the growth factors SCF, IL-3 and hyper-IL-6, referred to as SI2 culture conditions. By immunomagnetic bead selection of E-cadherin (E-cad) positive cells, E-cad+ progenitors were isolated. These Epo-independent E-cad+ progenitors have been amplified under SI2 conditions to large cell numbers. The E-cad+ progenitors were characterized for surface antigen expression by flow cytometry, response to growth factors in proliferation assay and for their differentiation potential into mature red cells. Additionally, the properties of E-cad+ progenitors were compared to those of two other erythroid progenitors: Epo-dependent progenitors described by Panzenböck et al. (referred to as SCF/Epo progenitor), and CD36+ progenitors described by Freyssinier et al. (Panzenböck et al., 1998; Freyssinier et al., 1999). Finally, the gene expression profile of E-cad+ progenitors was compared to the profiles of SCF/Epo progenitors and CD36+ progenitors using the DNA microarray technique. Based on our studies we propose that Epo-independent E-cad+ progenitors are early stage, BFU-E like progenitors. They respond to Epo, despite the fact that they were generated in the absence of Epo, and can completely undergo erythroid differentiation. Furthermore, we demonstrate that the growth properties, the growth factor response and the surface marker expression of E-cad+ progenitors are similar to those of the SCF/Epo progenitors and the CD36+ progenitors. By the comparison of gene profiles, we were also able to demonstrate that the Epo-dependent and Epo-independent red cell progenitors are very similar. Analyzing the molecular differences between E-cad+ and SCF/Epo progenitors revealed several candidate genes such as galectin-3, cyclin D1, AMHR, PDF and IGFBP4, which are potential regulators involved in red cell development. We also demonstrate that the CD36+ progenitors, isolated by immunomagentic bead selection, are a heterogeneous progenitor population containing an E-cad+ and an E-cad- subpopulation. Based on their gene expression profile, CD36+ progenitors seem to exhibit both erythroid and megakaryocytic features. These studies led to a more updated model of erythroid cell development that should pave the way for further studies on molecular mechanisms of erythropoiesis.
Nach einem Rekurs über den Utopiebegriff wurden sowohl im diarischen Werk als auch in der veröffentlichten Prosa Brigitte Reimanns utopische Konzeptionen aufgespürt. Gesucht wurde das Utopische sowohl in den Beschreibungen einer konkreten Gesellschaftsutopie, als auch in den literarischen „Verfeinerungen“ einer kruden Ideologie, wie im kritischen Hinterfragen des „Noch-Nicht-Bewussten“ (Ernst Bloch). Als ästhetische Utopien wurden auch Wunschbilder des Alltags, Träume, Märchen und Mythen gedeutet. Ausführliche Untersuchungen beschäftigten sich mit der Gestaltung der weiblichen Figuren und ihrer Entwicklung von der ideologisch (auch männlich) indoktrinierten Protagonistin zur „freien“ Ich–Gestalterin. Nachgewiesen wurde sowohl im diarischen Werk, als auch in der veröffentlichten Prosa eine Wandlung des Utopieverständnisses von der Gesellschaftsutopie zur subjektiven „Augenblicksutopie“, die im Deutungshorizont der Literatur der Romantik auch als DDR-spezifische Innerlichkeit verstanden werden könnte, welche mit ihrem Rückzug ins Individuelle die ritualisierte DDR-Öffentlichkeit desavouierte.
In den letzten Jahren wurden relativ komplexe Erosionsmodelle entwickelt, deren Teilprozesse immer mehr auf physikalisch begründeten Ansätzen beruhen. Damit verbunden ist eine höhere Anzahl aktueller Eingangsparameter, deren Bestimmung im Feld arbeits- und kostenaufwendig ist. Zudem werden die Parameter punktuell, also an bestimmten Stellen und nicht flächenhaft wie bei der Fernerkundung, erfasst. Im Rahmen dieser Arbeit wird gezeigt, wie Satellitendaten als relativ kostengünstige Ergänzung oder Alternative zur konventionellen Parametererhebung genutzt werden können. Dazu werden beispielhaft der Blattflächenindex (LAI) und der Bedeckungsgrad für das physikalisch begründete Erosionsmodell EROSION 3D abgeleitet. Im Mittelpunkt des Interesses steht dabei das Aufzeigen von existierenden Methoden, die die Basis für eine operationelle Bereitstellung solcher Größen nicht nur für Erosions- sondern allgemein für Prozessmodelle darstellen. Als Untersuchungsgebiet dient das primär landwirtschaftlich genutzte Einzugsgebiet des Mehltheuer Baches, das sich im Sächsischen Lößgefilde befindet und für das Simulationsrechnungen mit konventionell erhobenen Eingangsparametern für 29 Niederschlagsereignisse im Jahr 1999 vorliegen [MICHAEL et al. 2000]. Die Fernerkundungsdatengrundlage bilden Landsat-5-TM-Daten vom 13.03.1999, 30.04.1999 und 19.07.1999. Da die Vegetationsparameter für alle Niederschlagsereignisse vorliegen sollen, werden sie basierend auf der Entwicklung des LAI zeitlich interpoliert. Dazu erfolgt zunächst die Ableitung des LAI für alle vorhandenen Fruchtarten nach den semi-empirischen Modellen von CLEVERS [1986] und BARET & GUYOT [1991] mit aus der Literatur entnommenen Koeffizienten. Des Weiteren wird eine Methode untersucht, nach der die Koeffizienten für das Clevers-Modell aus den TM-Daten und einem vereinfachten Wachstumsmodell bestimmt werden. Der Bedeckungsgrad wird nach ROSS [1981] aus dem LAI ermittelt. Die zeitliche Interpolation des LAI wird durch die schlagbezogene Anpassung eines vereinfachten Wachstumsmodells umgesetzt, das dem hydrologischen Modell SWIM [KRYSANOVA et al. 1999] entstammt und in das durchschnittliche Tagestemperaturen eingehen. Mit den genannten Methoden bleiben abgestorbene Pflanzenteile unberücksichtigt. Im Vergleich zur konventionellen terrestrischen Parametererhebung ermöglichen sie eine differenziertere Abbildung räumlicher Variabilitäten und des zeitlichen Verlaufes der Vegetationsparameter. Die Simulationsrechnungen werden sowohl mit den direkten Bedeckungsgraden aus den TM-Daten (pixelbezogen) als auch mit den zeitlich interpolierten Bedeckungsgraden für alle Ereignisse (schlagbezogen) durchgeführt. Bei beiden Vorgehensweisen wird im Vergleich zur bisherigen Abschätzung eine Verbesserung der räumlichen Verteilung der Parameter und somit eine räumliche Umverteilung von Erosions- und Depositionsflächen erreicht. Für die im Untersuchungsgebiet vorliegende räumliche Heterogenität (z. B. Schlaggröße) bieten Landsat-TM-Daten eine ausreichend genaue räumliche Auflösung. Damit wird nachgewiesen, dass die satellitengestützte Fernerkundung im Rahmen dieser Untersuchungen sinnvoll einsetzbar ist. Für eine operationelle Bereitstellung der Parameter mit einem vertretbaren Aufwand ist es erforderlich, die Methoden weiter zu validieren und möglichst weitestgehend zu automatisieren.
The Dead Sea Transform (DST) is a prominent shear zone in the Middle East. It separates the Arabian plate from the Sinai microplate and stretches from the Red Sea rift in the south via the Dead Sea to the Taurus-Zagros collision zone in the north. Formed in the Miocene about 17 Ma ago and related to the breakup of the Afro-Arabian continent, the DST accommodates the left-lateral movement between the two plates. The study area is located in the Arava Valley between the Dead Sea and the Red Sea, centered across the Arava Fault (AF), which constitutes the major branch of the transform in this region. A set of seismic experiments comprising controlled sources, linear profiles across the fault, and specifically designed receiver arrays reveals the subsurface structure in the vicinity of the AF and of the fault zone itself down to about 3-4 km depth. A tomographically determined seismic P velocity model shows a pronounced velocity contrast near the fault with lower velocities on the western side than east of it. Additionally, S waves from local earthquakes provide an average P-to-S velocity ratio in the study area, and there are indications for a variations across the fault. High-resolution tomographic velocity sections and seismic reflection profiles confirm the surface trace of the AF, and observed features correlate well with fault-related geological observations. Coincident electrical resistivity sections from magnetotelluric measurements across the AF show a conductive layer west of the fault, resistive regions east of it, and a marked contrast near the trace of the AF, which seems to act as an impermeable barrier for fluid flow. The correlation of seismic velocities and electrical resistivities lead to a characterisation of subsurface lithologies from their physical properties. Whereas the western side of the fault is characterised by a layered structure, the eastern side is rather uniform. The vertical boundary between the western and the eastern units seems to be offset to the east of the AF surface trace. A modelling of fault-zone reflected waves indicates that the boundary between low and high velocities is possibly rather sharp but exhibits a rough surface on the length scale a few hundreds of metres. This gives rise to scattering of seismic waves at this boundary. The imaging (migration) method used is based on array beamforming and coherency analysis of P-to-P scattered seismic phases. Careful assessment of the resolution ensures reliable imaging results. The western low velocities correspond to the young sedimentary fill in the Arava Valley, and the high velocities in the east reflect mainly Precambrian igneous rocks. A 7 km long subvertical scattering zone reflector is offset about 1 km east of the AF surface trace and can be imaged from 1 km to about 4 km depth. The reflector marks the boundary between two lithological blocks juxtaposed most probably by displacement along the DST. This interpretation as a lithological boundary is supported by the combined seismic and magnetotelluric analysis. The boundary may be a strand of the AF, which is offset from the current, recently active surface trace. The total slip of the DST may be distributed spatially and in time over these two strands and possibly other faults in the area.
The correlations between the chemical structures of the 2,5-diphenyl-1,3,4-oxadiazole compounds and their corresponding vapour deposited film structures on Si/SiO2 were systematically investigated with AFM, XSR and IR for the first time. The result shows that the film structure depends strongly on the substrate temperature (Ts). For the compounds with ether bridge group, the film periodicity depends linearly on the length of the aliphatic chain. The films based on those oxadiazols have ordered structure in the investigated substrate temperature region, while die amide bridged compounds form ordered film only at high Ts due to the formation of intermolecular H-bond. The tilt angle of most molecules is determined by the pi-pi complexes between the molecules. The intermolecular interaction between head groups leads to the structural transformation during the thermal treatment after deposition. All the ether bridged oxadiazoles form films with bilayer structure, while amide bridged oxadiazole form film bilayer structure only when the molecule has a head group.
Distributed optimality
(2001)
In this thesis I propose a synthesis (Distributed Optimality, DO) between Optimality Theory (OT, Prince & Smolensky, 1993) and a morphological framework in a genuine derivational tradition, namely Distributed Morphology (DM) as developed by Halle & Marantz (1993). By carrying over the apparatus of OT to DM, phenomena which are captured in DM by language-specific rules or features of lexical entries, are given a more principled account in the terms of ranked universal constraints. On the other hand, also the DM part makes two contributions, namely strong locality and impoverishment. The first gives rise to a simple formal interpretation of DO, while the latter is shown to be indispensable in any theoretically satisfying account of agreement morphology. The empirical basis of the work is given by the complex agreement morphology of genetically different languages. Theoretical focus is mainly on two areas: First, so-called direction marking which is shown to be preferably treated in terms of constraints on feature realization. Second, the effects of precedence constraints which are claimed to regulate the status of agreement affixes as prefixes or suffixes and their respective order. A universal typology for the order of agreement categories by means of OT-constraints is proposed.
This thesis deals with the encoding and transmission of information through a quantum channel. A quantum channel is a quantum mechanical system whose state is manipulated by a sender and read out by a receiver. The individual state of the channel represents the message. The two topics of the thesis comprise 1) the possibility of compressing a message stored in a quantum channel without loss of information and 2) the possibility to communicate a message directly from one party to another in a secure manner, that is, a third party is not able to eavesdrop the message without being detected. The main results of the thesis are the following. A general framework for variable-length quantum codes is worked out. These codes are necessary to make lossless compression possible. Due to the quantum nature of the channel, the encoded messages are in general in a superposition of different lengths. It is found to be impossible to compress a quantum message without loss of information if the message is not apriori known to the sender. In the other case it is shown that lossless quantum data compression is possible and a lower bound on the compression rate is derived. Furthermore, an explicit compression scheme is constructed that works for arbitrarily given source message ensembles. A quantum cryptographic protocol - the “ping-pong protocol” - is presented that realizes the secure direct communication of classical messages through a quantum channel. The security of the protocol against arbitrary eavesdropping attacks is proven for the case of an ideal quantum channel. In contrast to other quantum cryptographic protocols, the ping-pong protocol is deterministic and can thus be used to transmit a random key as well as a composed message. The protocol is perfectly secure for the transmission of a key, and it is quasi-secure for the direct transmission of a message. The latter means that the probability of successful eavesdropping exponentially decreases with the length of the message.
We study the effect on the elastic properties of lipid membranes induced by anchoring of long hydrophilic polymers. Theoretically, two limiting regimes for the membrane spontaneous curvature are expected : i) at low surface polymer concentration (mushroom regime) the spontaneous curvature should scale linearly with the surface density of anchored polymers; ii) at high coverage (brush regime) the dependence should be quadratic. We attempt to test the predictions for the brush regime by monitoring the morphological changes induced on giant vesicles. As long polymers we use fluorescently labeled λ-phage DNA molecules which are attached to biotinylated lipid vesicles with a biotin-avidin-biotin linkage. By varying the amount of biotinylated lipid in the membrane we control the surface concentration of the anchors. The amount of anchored DNA to the membrane is quantified with fluorescence measurements. Changes in the elastic properties of the membrane as DNA grafts to it are monitored via analysis of the vesicle fluctuations. The spontaneous curvature of the membrane increases as a function of the surface coverage. At higher grafting concentrations the vesicles bud. The size of the buds can also be used to assess the membrane curvature. The effect on the bending stiffness is a subject of further investigation.
The theory of atomic Boson-Fermion mixtures in the dilute limit beyond mean-field is considered in this thesis. Extending the formalism of quantum field theory we derived expressions for the quasi-particle excitation spectra, the ground state energy, and related quantities for a homogenous system to first order in the dilute gas parameter. In the framework of density functional theory we could carry over the previous results to inhomogeneous systems. We then determined to density distributions for various parameter values and identified three different phase regions: (i) a stable mixed regime, (ii) a phase separated regime, and (iii) a collapsed regime. We found a significant contribution of exchange-correlation effects in the latter case. Next, we determined the shift of the Bose-Einstein condensation temperature caused by Boson-Fermion interactions in a harmonic trap due to redistribution of the density profiles. We then considered Boson-Fermion mixtures in optical lattices. We calculated the criterion for stability against phase separation, identified the Mott-insulating and superfluid regimes both, analytically within a mean-field calculation, and numerically by virtue of a Gutzwiller Ansatz. We also found new frustrated ground states in the limit of very strong lattices. ----Anmerkung: Der Autor ist Träger des durch die Physikalische Gesellschaft zu Berlin vergebenen Carl-Ramsauer-Preises 2004 für die jeweils beste Dissertation der vier Universitäten Freie Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin und Universität Potsdam.
Es ist schon seit längerer Zeit bekannt, dass nach Kontakt des Biomaterials mit der biologischen Umgebung bei Implantation oder extrakorporaler Wechselwirkung zunächst Proteine aus dem umgebenden Milieu adsorbiert werden, wobei die Oberflächeneigenschaften des Materials die Zusammensetzung der Proteinschicht und die Konformation der darin enthaltenden Proteine determinieren. Die nachfolgende Wechselwirkung von Zellen mit dem Material wird deshalb i.d.R. von der Adsorbatschicht vermittelt. Der Einfluss der Oberflächen auf die Zusammensetzung und Konformation der Proteine und die nachfolgende Wechselwirkung mit Zellen ist von besonderem Interesse, da einerseits eine Aussage über die Anwendbarkeit ermöglicht wird, andererseits Erkenntnisse über diese Zusammenhänge für die Entwicklung neuer Materialien mit verbesserter Biokompatibilität genutzt werden können. In der vorliegenden Habilitationsschrift wurde deshalb der Einfluss der Zusammensetzung von Polymeren bzw. von deren Oberflächeneigenschaften auf die Adsorption von Proteinen, den Aktivitätszustand der plasmatischen Gerinnung und die Adhäsion von Zellen untersucht. Dabei wurden auch Möglichkeiten zur Beeinflussung dieser Vorgänge über eine Veränderung der Volumenzusammensetzung oder durch Oberflächenmodifikationen von Biomaterialien vorgestellt. Erkenntnisse aus diesen Arbeiten konnten für die Entwicklung von Membranen für Biohybrid-Organe genutzt werden.
In der wissenschaftlichen Literatur, in der betrieblichen Praxis und in der gesellschaftlichen Diskussion wird wieder zunehmend mehr die Bedeutung der Beschäftigten für den Unternehmenserfolg hervorgehoben und diskutiert. Unternehmen, die zielgerichtet geeignete Managementstrategien mit Blick auf den Umgang mit ihren Beschäftigten einsetzen, werden in bezug auf ihre ökonomische Wertschöpfung als erfolgreicher charakterisiert. Besonders im Bereich Human Resources Management lassen sich erste Belege finden, die es ermöglichen, den ökonomischen Erfolg von Unternehmen kausal auf einzelne Personalmanagementstrategien zurückzuführen. Ziel eigener Untersuchungen in der IT- und Softwarebranche war es, Unternehmenserfolg auf der Grundlage ökonomischer Erfolgsmaße und des subjektiven Erlebens der Beschäftigten in kleinen und mittleren Softwareunternehmen unter besonderer Fokussierung des Human Resources Management und der Unternehmenskultur zu untersuchen.
Der Buchfinkengesang wurde in Potsdam in zwei Hauptpopulationen über drei Jahre aufgenommen. Jedes Individuum wurde eindeutig am individuellen Strophentypenrepertoire identifiziert. Ein weiterer Punkt der die individuelle Wiedererkennung bestätigt ist die hohe Standorttreue der adulten Männchen. Die beschriebene Methode eignet sich für die Untersuchung von gesamten Populationen, um den Wandel des Gesangs von Populationen in Raum und Zeit zu beschreiben. Die Haupterkenntnisse der Arbeit sind: - Die Gesamtanzahl der Grundstrophentypen innerhalb einer Population bleibt über Jahre konstant. - Die relative Häufigkeit jedes einzelnen Strophentyps variiert von Jahr zu Jahr und von Population zu Population. - Gesangslernen erfolgt exakt mit einem Korrektheitsgrad von mindestens 96%. - Das Song-Sharing ist innerhalb der Population hoch. Die diskutierten Mechanismen für das Song-Sharing sind: Die Lebenserwartung, das Zugverhalten, das Lernverhalten, die Etabliertheit von Strophentypen, Weibchenpräferenzen und die Reaktionen der territorialen Männchen. - Weiterhin wurde ein Modell zur kulturellen Evolution des Buchfinkengesangs programmiert, um die Rolle der Einflussfaktoren, wie Fehlerquote, Abwanderungsrate und Laufzeit zu ermitteln. Der Wandel des Dialektes erfolgt graduell in Raum und Zeit. Daher sind keine scharfen Dialektgrenzen anzutreffen. Trotz dieser Tatsache markieren die etablierten Strophentypen die Population. 50 % der Juvenilen siedeln am Geburtsort, auf diese Weise bleibt der Dialekt erhalten und Inzest wird vermieden. -Analysiert man das Repertoire benachbarten Männchen bei isolierten Alleen, so entspricht die Gesangsangleichung in etwa dem Zufall. -Intraindividuelle Vergleiche der quantitativen Parameter des jeweiligen Strophentyps wurden saisonal und annuell durchgeführt. Saisonal konnten für einen Strophentyp ein Trend ermittelt werden. Bei jährlichen Vergleichen konnten intraindividuell ausschließlich nicht signifikante Ergebnisse ermittelt werden, wohingegen die interindividuelle Variation in zwei Fällen signifikant war. In einem Fall bestand ein Trend und in einem weiteren Fall war die Variationsunterschiede nicht signifikant. - Der Verlauf der Brutsaison lässt sich an der jährlichen Gesangsaktivität nachvollziehen.
Value education of youth
(2002)
The value priorities of students and teachers were measured at eight different schools at the beginning and the end of the school year 2000/2001. This study once again confirmed the theoretical model of a universal structure of human values (Schwartz, 1992). At both measurement times, similar gender differences, as well as positive correlations between religiosity and school commitment were found. The students from the non-religious schools determined Hedonism as their highest, and Tradition as their lowest value priority. In the religious schools, Benevolence and Self-Direction were the highest values, whereas Power was found to be the lowest value priority. The change of the values Conformity, Hedonism, and Universalism was predicted both through the students′ religiosity and their type of school. The change of the values Power, Tradition, Benevolence, and Achievement, however, was mainly predicted through their religiosity. In three out of four schools the student-teacher similarity correlated positively with the school commitment of the students. Across all schools student-teacher similarity correlated positively with academic achievement.
Aromatische Amine und Amide (aAA) sind aufgrund ihrer starken Verbreitung in der menschlichen Umwelt und ihres kanzerogenen Potenzials von großer toxikologischer Bedeutung. Die Kanzerogenität der aAA wird durch die Mutagenität hochreaktiver Stoffwechselprodukte vermittelt, die in zwei sequenziellen katalytischen Reaktionen entstehen. Die erste ist meistens eine N-Hydroxylierung, die oft durch Cytochrom P450 1A2 (CYP1A2) katalysiert wird. Daran schließt sich eine O-Konjugation durch Sulfotransferasen (SULT) oder N-Acetyltransferasen (NAT) an. Die Bioaktivierung ist ein kritischer Parameter für die Übertragbarkeit von Ergebnissen aus Tiermodellen auf den Menschen. Rekombinante in vitro Systeme, die fremdstoffmetabolisierende Enzyme verschiedener Spezies exprimieren, ermöglichen die vergleichende Untersuchung der Bioaktivierung im Menschen und in Versuchstieren. Ziel des Projektes war die Aufklärung der Bioaktivierung der aAA durch humane Enzyme. Im Vordergrund stand die Untersuchung der Rolle humaner SULT in diesem Prozess. Es wurden rekombinante in vitro Systeme, konstruiert, die CYP1A2 und SULT des Menschen koexprimieren. SULT-cDNAs wurden in den Säugerzell Expressionsvektor pMPSV kloniert und in Standardindikatorzellen für Mutagenitätsuntersuchungen (V79 Zellen aus dem Chinesischen Hamster) transfiziert. Das Expressionsniveau von CYP1A2 und SULT wurde mittels Immunblotanalyse und radiometrischen Aktivitätsmessungen charakterisiert. In den rekombinanten Zellen wurden vier aAA als Modellsubstanzen (2-Acetylaminofluoren, 2-Aminoanthracen, 3′-Methyl-4-dimethylaminoazobenzol, 2,4-Diaminotoluol) auf ihre Mutagenität am hprt-Locus hin untersucht.Die aAA waren in Zellen, die keine rekombinanten Enzyme oder lediglich CYP1A2 exprimierten, nicht mutagen. In Zellen, die CYP1A2 und SULT der Subfamilie 1A koexprimierten, erzeugten sie bereits in geringen Konzentrationen klare mutagene Effekte (0,3 µM für 2-Acetylaminofluoren und 3′-Methyl-4-dimethylaminoazobenzol; 0,1 µM für 2-Aminoanthracen; 10 µM für 2,4-Diaminotoluol). Die stärkste Aktivierung von 2-Acetylaminofluoren und 3′-Methyl-4-dimethylaminoazobenzol erfolgte in der Zelllinie, die CYP1A2 und SULT1A2 koexprimierte; die stärkste Aktivierung von 2,4-Diaminotoluol und 2-Aminoanthracen erfolgte in der Zelllinie, die CYP1A2 und SULT1A1 koexprimierte. Sowohl SULT1A1 als auch SULT1A2 sind im Menschen genetisch polymorph. Ein unterschiedlich starkes Aktivierungspotenzial der Alloenzyme könnte eine individuell unterschiedliche Suszeptibilität für die durch aAA ausgelöste Kanzerogenese bedingen. In HPRT-Mutationsuntersuchungen mit rekombinanten Zellen zeigten die allelischen Varianten der SULT1A2 starke Unterschiede in ihrem Aktivierungpotenzial. Nur in der Zelllinie, die das Alloenzym SULT1A2*1 mit CYP1A2 koexprimierte, wurde 2-Acetylaminofluoren zum Mutagen aktiviert. Zur Aktivierung von 3′-Methyl-4-dimethylaminoazobenzol waren jedoch sowohl das Alloenzym SULT1A2*1 als auch das Alloenzym SULT1A2*2 in der Lage. Die Alloenzyme der SULT1A1 zeigten ein ähnlich gutes Aktivierungspotenzial für aAA. In früheren Studien wurde gezeigt, dass die SULT1C1 der Ratte eine wichtige Rolle bei der Aktivierung der aAA in dieser Spezies spielt. Dahingegen war die humane SULT1C1 nicht in der Lage die untersuchten aAA zu aktivieren. Die Kenntnis solcher Spezieunterschiede könnte wichtig sein um unterschiedliche Organotropismen aAA in Menschen und Tiermodellen zu erklären, da SULT mit starker Gewebespezifität exprimiert werden und das Expressionsmuster für die einzelnen SULT-Formen in Menschen und Ratten sich stark unterscheidet.
Late Miocene to Quaternary volcanic rocks from the frontal arc to the back-arc region of the Central Volcanic Zone in the Andes show a wide range of delta 11B values (+4 to -7 ‰) and boron concentrations (6 to 60 ppm). Positive delta 11B values of samples from the volcanic front indicate involvement of a 11B-enriched slab component, most likely derived from altered oceanic crust, despite the thick Andean continental lithosphere, and rule out a pure crust-mantle origin for these lavas. The delta 11B values and B concentrations in the lavas decrease systematically with increasing depth of the Wadati-Benioff Zone. This across-arc variation in delta 11B values and decreasing B/Nb ratios from the arc to the back-arc samples are attributed to the combined effects of B-isotope fractionation during progressive dehydration in the slab and a steady decrease in slab-fluid flux towards the back arc, coupled with a relatively constant degree of crustal contamination as indicated by similar Sr, Nd and Pb isotope ratios in all samples. Modelling of fluid-mineral B-isotope fractionation as a function of temperature fits the across-arc variation in delta 11B and we conclude that the B-isotope composition of arc volcanics is dominated by changing delta 11B composition of B-rich slab-fluids during progressive dehydration. Crustal contamination becomes more important towards the back-arc due to the decrease in slab-derived fluid flux. Because of this isotope fractionation effect, high delta 11B signatures in volcanic arcs need not necessarily reflect differences in the initial composition of the subducting slab. Three-component mixing calculations for slab-derived fluid, the mantle wedge and the continental crust based on B, Sr and Nd isotope data indicate that the slab-fluid component dominates the B composition of the fertile mantle and that the primary arc magmas were contaminated by an average addition of 15 to 30 % crustal material.
In der vorliegenden Arbeit habe ich wichtige Teilmechanismen der Erregungs-Sekretionskopplung in der Speicheldrüse der Schabe Periplaneta americana (L.) untersucht. Die Speicheldrüse ist von dopaminergen und serotonergen Fasern innerviert (Baumann et al., 2002). Beide Transmitter stimulieren eine unterschiedliche Reaktion der Drüse: Dopamin (DA) stimuliert die P-Zellen der Acini und die Ausführgangzellen, während Serotonin (5-HT) die P- und C-Zellen der Acini stimuliert, nicht jedoch die Ausführgangzellen. Der Endspeichel ist nach einer DA-Stimulierung proteinfrei. Dagegen enthält er nach einer 5-HT-Stimulierung Proteine, die von den C-Zellen sezerniert werden (Just & Walz, 1996). Im ersten Teil meiner Arbeit habe ich mittels Kapillarelektrophoretischer Analyse (CE-Analyse) die Elektrolytkonzentrationen im Endspeichel untersucht sowie die Raten der Flüssigkeitssekretion gemessen. Damit wollte ich klären, welche Transporter an der Sekretion des Primärspeichels und an dessen Modifikation beteiligt sind. Ausserdem wollte ich die Rolle der transportaktiven Epithelzellen der Ausführgänge für die Modifikation des Primärspeichels untersuchen. Dafür habe ich einen Vergleich der Elektrolytkonzentrationen im DA- und 5-HT-stimulierten Endspeichel durchgeführt. Der Elektrolytgehalt des DA- und 5-HT-stimulierten Endspeichels unterscheidet sich nicht signifikant voneinander. Er ist nach beiden Stimulierungen hypoosmotisch zum verwendeten Ringer. Die Ausführgangzellen werden durch DA stimuliert und modifizieren den Primärspeichel durch eine netto-Ionenreabsorption. Meine Versuche zeigen jedoch, dass auch die während einer 5-HT-Stimulierung der Drüse unstimulierten Ausführgangzellen den Primärspeichel modifizieren. In einer nachfolgenden Versuchsreihe habe ich den Einfluss von Ouabain, einem Hemmstoff der Na+-K+-ATPase, und Bumetanid, einem Hemmstoff des NKCC, auf die Raten der Flüssigkeitssekretion sowie den Elektrolytgehalt des Endspeichels untersucht. Ich habe gefunden, dass die Aktivität der Na+-K+-ATPase wichtig für die Modifikation des DA-stimulierten Primärspeichels ist. Im Gegensatz dazu ist sie für die Modifikation des 5-HT-stimulierten Primärspeichels nicht von Bedeutung. Bezüglich der Flüssigkeitssekretion habe ich keinen Einfluss der Na+-K+-ATPase-Aktivität auf die DA-stimulierten Sekretionsraten gefunden, dagegen ist die 5-HT-stimulierte Sekretionsrate in Anwesenheit von Ouabain gesteigert. Die Aktivität des NKCC ist für beide sekretorische Prozesse, die Ionen- und die Flüssigkeitssekretion, wichtig. Eine Hemmung des NKCC bewirkt eine signifikante Verringerung der Raten der Flüssigkeitssekretion nach DA- und 5-HT-Stimulierung sowie in beiden Fällen einen signifikanten Abfall der Ionenkonzentrationen im Endspeichel. Im zweiten Teil meiner Arbeit habe ich versucht, Änderungen der intrazellulären Ionenkonzentrationen in den Acinuszellen während einer DA- oder 5-HT-Stimulierung zu messen. Diese Experimente sollten mit der Methode des "ratiometric imaging" durchgeführt werden. Messungen mit dem Ca2+-sensitiven Fluoreszenzfarbstoff Fura-2 zeigten keinen globalen Anstieg in der intrazellulären Ca2+-Konzentration der P-Zellen. Aufgrund von Problemen mit einer schlechten Beladung der Zellen, einer starken und sich während der Stimulierung ändernden Autofluoreszenz der Zellen sowie Änderungen im Zellvolumen wurden keine Messungen mit Na+- und K+-sensitiven Fluoreszenzfarbstoffen durchgeführt. Im dritten Teil dieser Arbeit habe ich die intrazellulären Signalwege untersucht, die zwischen einer 5-HT-Stimulierung der Drüse und der Proteinsekretion vermitteln. Dazu wurde der Proteingehalt im Endspeichel biochemisch mittels eines modifizierten Bradford Assay gemessen. Eine erstellte Dosis-Wirkungskurve zeigt, dass die Rate der Proteinsekretion von der zur Stimulierung verwendeten 5-HT-Konzentration abhängt. In einer Serie von Experimenten habe ich die intrazellulären Konzentrationen von Ca2+, cAMP und / oder cGMP erhöht und anschließend den Proteingehalt im Endspeichel gemessen. Ein Anstieg der intrazellulären Ca2+-Konzentration aktiviert nur eine geringe Rate der Proteinsekretion. Dagegen kann die Steigerung der intrazellulären cAMP-Konzentration eine stärkere Proteinsekretion aktivieren, die sich nicht signifikant von der nach 5-HT-Stimulierung unterscheidet. Die cAMP-stimulierte Proteinsekretion kann durch gleichzeitige Erhöhung der intrazellulären Ca2+-Konzentration weiter gesteigert werden. Dagegen aktivierte eine Erhöhung der intrazellulären cGMP-Konzentration die Proteinsekretion nicht. Aufgrund dieser Ergebnisse postuliere ich die Existenz eines die Adenylatcyclase aktivierenden 5-HT-Rezeptors in der Basolateralmembran der C-Zellen.
Transport processes in and of cells are of major importance for the survival of the organism. Muscles have to be able to contract, chromosomes have to be moved to opposing ends of the cell during mitosis, and organelles, which are compartments enclosed by membranes, have to be transported along molecular tracks. Molecular motors are proteins whose main task is moving other molecules.For that purpose they transform the chemical energy released in the hydrolysis of ATP into mechanical work. The motors of the cytoskeleton belong to the three super families myosin, kinesin and dynein. Their tracks are filaments of the cytoskeleton, namely actin and the microtubuli. Here, we examine stochastic models which are used for describing the movements of these linear molecular motors. The scale of the movements comprises the regime of single steps of a motor protein up to the directed walk along a filament. A single step bridges around 10 nm, depending on the protein, and takes about 10 ms, if there is enough ATP available. Our models comprise M states or conformations the motor can attain during its movement along a one-dimensional track. At K locations along the track transitions between the states are possible. The velocity of the protein depending on the transition rates between the single states can be determined analytically. We calculate this velocity for systems of up to four states and locations and are able to derive a number of rules which are helpful in estimating the behaviour of an arbitrary given system. Beyond that we have a look at decoupled subsystems, i.e., one or a couple of states which have no connection to the remaining system. With a certain probability a motor undergoes a cycle of conformational changes, with another probability an independent other cycle. Active elements in real transport processes by molecular motors will not be limited to the transitions between the states. In distorted networks or starting from the discrete Master equation of the system, it is possible to specify horizontal rates, too, which furthermore no longer have to fulfill the conditions of detailed balance. Doing so, we obtain unique, complete paths through the respective network and rules for the dependence of the total current on all the rates of the system. Besides, we view the time evolutions for given initial distributions. In enzymatic reactions there is the idea of a main pathway these reactions follow preferably. We determine optimal paths and the maximal flow for given networks. In order to specify the dependence of the motor's velocity on its fuel ATP, we have a look at possible reaction kinetics determining the connection between unbalanced transitions rates and ATP-concentration. Depending on the type of reaction kinetics and the number of unbalanced rates, we obtain qualitatively different curves connecting the velocity to the ATP-concentration. The molecular interaction potentials the motor experiences on its way along its track are unknown. We compare different simple potentials and the effects the localization of the vertical rates in the network model has on the transport coefficients in comparison to other models.
The P- and S-wave velocity structure of the D” layer beneath the southwestern Pacific was investigated by using short-period data from 12 deep events in the Tonga-Fiji region recorded by the J-Array and the Hi-net in Japan. A migration method and reflected wave beamforming (RWB) were used in order to extract weak signals originating from small-scale heterogeneities in the lowermost mantle. In order to acquire high resolution, a double array method (DAM) which integrates source array beamforming with receiver array beamforming was applied to the data. A phase-weighted stacking technique, which reduces incoherent noise by employing complex trace analysis, was also applied to the data, amplifying the weak coherent signals from the lowermost mantle. This combination greatly enhances small phases common to the source and receiver beams. The results of the RWB method indicate that seismic energy is reflected at discontinuities near 2520 km and 2650 km, which have a negative P-wave velocity contrast of 1 % at the most. In addition, there is a positive seismic discontinuity at a depth of 2800 km. In the case of the S-wave, reflected energy is produced almost at the same depth (2550 km depth). The different depth (50 km) between the P-wave velocity discontinuity at the depth of 2800 and a further S-wave velocity discontinuity at the depth of 2850 km may indicate that the S-wave velocity reduction in the lowermost mantle is about 2-3 times stronger that that of P wave. A look at a 2D cross section, constructed with the RWB method, suggests that the observed discontinuities can be characterized as intermittent lateral heterogeneities whose lateral extent is a few hundred km, and that the CMB might have undulations on a scale of less than 10 km in amplitude. The migration shows only weak evidence for the existence of scattering objects. Heterogeneous regions in the migration belong to the detected seismic discontinuities. These anomalous structures may represent a part of hot plume generated beneath the southwestern Pacific in the lowermost mantle.
In der vorliegenden Untersuchung wurde ein arbeitspsychologisches Problem thematisiert, dass in Mensch-Maschine-Systemen auftritt. In Mensch-Maschine-Systemen werden Informationen in kodierter Form ausgetauscht. Diese inhaltlich verkürzte Informationsübertragung hat den Vorteil, keine lange Zustandsbeschreibung zu benötigen, so dass der Mensch auf die veränderten Zustände schnell und effizient reagieren kann. Dies wird aber nur dann ermöglicht, wenn der Mensch die kodierten Informationen (Kodes) vorher erlernten Bedeutungen zuordnen kann. Je nach Art der kodierten Informationen (visuelle, akustische oder alphanumerische Signale) wurden Gestaltungsempfehlungen für Kodealphabete entwickelt. Für Operateure resultiert die mentale Belastung durch Dekodierungsprozesse vor allem aus dem Umfang des Kodealphabetes (Anzahl von Kodezeichen), der wahrnehmungsmäßigen Gestaltung der Kodes und den Regeln über die Zuordnung von Bedeutungen zu Kodezeichen. Die Entscheidung über die Güte von Kodealphabeten geschieht in der Arbeitspsychologie in der Regel über Leistungsindikatoren. Dies sind üblicherweise die zur Dekodierung der Kodes benötigte Zeit und dabei auftretende Zuordnungsfehler. Psychophysiologische Daten werden oft nicht herangezogen. Fraglich ist allerdings, ob Zeiten und Fehler allein verlässliche Indikatoren für den kognitiven Aufwand bei Dekodierungsprozessen sind, da im hochgeübten Zustand bei gleichen Alphabetlängen, aber unterschiedlicher Kodezeichengestaltung sich häufig die mittleren Dekodierungszeiten zwischen Kodealphabeten nicht signifikant unterscheiden und Fehler überhaupt nicht auftreten. Die in der vorliegenden Arbeit postulierte Notwendigkeit der Ableitung von Biosignalen gründet sich auf die Annahme, dass mit ihrer Hilfe zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen gewonnen werden können, die mit der Erhebung von Leistungsdaten nicht erfasst werden. Denn gerade dann, wenn sich die Leistungsdaten zweier Kodealphabete nicht unterscheiden, können psychophysiologische Daten unterschiedliche Aspekte mentaler Beanspruchung erfassen, die mit Hilfe von Leistungsdaten nicht bestimmt werden können. Daher wird in Erweiterung des etablierten Untersuchungsansatzes vorgeschlagen, Biosignale als dritten Datenbereich, neben Leistungsdaten und subjektiven Daten mentaler Beanspruchung, abzuleiten, um zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen zu erhalten. Diese Annahme sollte mit Hilfe der Ableitung von Biosignalen überprüft werden. Der Begriff mentaler Beanspruchung wird in der bisherigen Literatur nur unzureichend definiert und differenziert. Daher wird zur Untersuchung dieses Konzepts, die wissenschaftliche Literatur berücksichtigend, ein erweitertes Modell mentaler Beanspruchung vorgestellt. Dabei wird die mentale Beanspruchung abgegrenzt von der emotionalen Beanspruchung. Mentale Beanspruchung wird weiterhin unterschieden in psychomotorische, perzeptive und kognitive Beanspruchung. Diese Aspekte mentaler Beanspruchung werden jeweils vom psychomotorischen, perzeptiven oder kognitiven Aufwand der zu bearbeitenden Aufgabe ausgelöst. In der vorliegenden Untersuchung wurden zwei zentrale Fragestellungen untersucht: Einerseits wurde die Analyse der anwendungsbezogenen Frage fokussiert, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung über die Leistungsdaten (Dekodierungszeiten und Fehleranzahl) hinaus, zusätzliche Informationen zur Bestimmung der Güte von Kodealphabeten liefern. Andererseits wurde der Forschungsaspekt untersucht, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung die zur Dekodierung notwendigen perzeptiven und kognitiven Aspekte mentaler Beanspruchung differenzieren können. Emotionale Beanspruchung war nicht Gegenstand der Analysen, weshalb in der Operationalisierung versucht wurde, sie weitgehend zu vermeiden. Psychomotorische Beanspruchung als dritter Aspekt mentaler Beanspruchung (neben perzeptiver und kognitiver Beanspruchung) wurde für beide Experimentalgruppen weitgehend konstant gehalten. In Lernexperimenten hatten zwei anhand eines Lern- und Gedächtnistests homogenisierte Stichproben jeweils die Bedeutung von 54 Kodes eines Kodealphabets zu erwerben. Dabei wurde jeder der zwei unahbhängigen Stichproben ein anderes Kodealphabet vorgelegt, wobei sich die Kodealphabete hinsichtlich Buchstabenanzahl (Kodelänge) und anzuwendender Zuordnungsregeln unterschieden. Damit differierten die Kodealphabete im perzeptiven und kognitiven Aspekt mentaler Beanspruchung. Die Kombination der Abkürzungen entsprach den in einer Feuerwehrleitzentrale verwendeten (Kurzbeschreibungen von Notfallsituationen). In der Lernphase wurden den Probanden zunächst die Kodealphabete geblockt mit ihren Bedeutungen präsentiert. Anschließend wurden die Kodes (ohne deren Bedeutung) in sechs aufeinanderfolgenden Prüfphasen randomisiert einzeln dargeboten, wobei die Probanden instruiert waren, die Bedeutung der jeweiligen Kodes in ein Mikrofon zu sprechen. Während des gesamten Experiments wurden, neben Leistungsdaten (Dekodierungszeiten und Fehleranzahl) und subjektiven Daten über die mentale Beanspruchung im Verlauf der Experimente, folgende zentralnervöse und peripherphysiologische Biosignale abgeleitet: Blutdruck, Herzrate, phasische und tonische elektrodermale Aktivität und Elektroenzephalogramm. Aus ihnen wurden zunächst 13 peripherphysiologische und 7 zentralnervöse Parameter berechnet, von denen 7 peripherphysiologische und 3 zentralnervöse Parameter die statistischen Voraussetzungen (Einschlusskriterien) soweit erfüllten, dass sie in die inferenzstatistische Datenanalyse einbezogen wurden. Leistungsdaten und subjektive Beanspruchungseinschätzungen der Versuchsdurchgänge wurden zu den psychophysiologischen Parametern in Beziehung gesetzt. Die Befunde zeigen, dass mittels der psychophysiologischen Daten zusätzliche Erkenntnisse über den kognitiven Aufwand gewonnen werden können. Als weitere Analyse wurden die Kodes post hoc in zwei neue Kodealphabete eingeteilt. Ziel dieser Analyse war es, die Unterschiede zwischen beiden Kodealphabeten zu erhöhen, um deutlichere reizbezogene psychophysiologische Unterschiede in den EEG-Daten zwischen den Kodealphabeten zu erhalten. Dazu wurde diejenigen, hinsichtlich ihrer Bedeutung, parallelen Kodes in beiden Kodealphabeten ausgewählt, die sich in der Dekodierungszeit maximal voneinander unterschieden. Eine erneute Analyse der EEG-Daten erbrachte jedoch keine Verbesserung der Ergebnisse. Drei Hauptergebnisse bezüglich der psychophysiologischen Parameter konnten festgestellt werden: Das erste Ergebnis ist für die psychophysiologische Methodik bedeutsam. Viele psychophysiologische Parameter unterschieden zwischen den Prüfphasen und zeigen damit eine hinreichende Sensitivität zur Untersuchung mentaler Beanspruchung bei Dekodierungsprozessen an. Dazu gehören die Anzahl der spontanen Hautleitwertsreaktionen, die Amplitude der Hautleitwertsreaktionen, das Hautleitwertsniveau, die Herzrate, die Herzratendifferenz und das Beta-2-Band des EEG. Diese Parameter zeigen einen ähnlichen Verlauf wie die Leistungsdaten. Dies zeigt, dass es möglich ist, die hier operationaliserte Art mentaler Beanspruchung in Form von Dekodierungsprozessen psychophysiologisch zu analysieren. Ein zweites Ergebnis betrifft die Möglichkeit, Unterschiede mentaler Beanspruchung zwischen beiden Gruppen psychophysiologisch abzubilden: Das Hautleitwertsniveau und das Theta-Frequenzband des Spontan-EEG zeigten Unterschiede zwischen beiden Stichproben von der ersten Prüfphase an. Diese Parameter indizieren unterschiedlichen kognitiven Aufwand in beiden Stichproben über alle Prüfphasen. Das wichtigste Ergebnis betrifft die Frage nach einem Informationsgewinn bei Einsatz psychophysiologischer Methoden zur Bewertung der Güte von Kodealphabeten: Einen tatsächlichen Informationsgewinn gegenüber den Leistungsdaten zeigte die Amplitude der elektrodermalen Aktivität und die Herzraten-Differenz an. Denn in den späteren Prüfphasen, wenn sich die Leistungsdaten beider Kodealphabete nicht mehr unterschieden, konnten unterschiedliche Ausprägungen dieser psychophysiologischen Parameter zwischen beiden Kodealphabeten verzeichnet werden. Damit konnten unterschiedliche Aspekte mentaler Beanspruchung in beiden Kodealphabeten in den späteren Prüfphasen erfasst werden, in denen sich die Leistungsdaten nicht mehr unterschieden. Alle drei Ergebnisse zeigen, dass es, trotz erheblichen technischen und methodischen Aufwands, sinnvoll erscheint, bei der Charakterisierung mentaler Belastungen und für die Gestaltung von Kodealphabeten auch psychophysiologische Daten heranzuziehen, da zusätzliche Informationen über den perzeptiven und kognitiven Dekodierungsaufwand gewonnen werden können.
This study investigated the slope carbonates of two Miocene carbonate systems: the Maltese Islands (in the Central Mediterranean) and the Marion Plateau (Northeastern Australia, drilled during ODP Leg 194). The aim of the study was to trace the impact of the Miocene cooling steps (events Mi1-Mi6) in these carbonate systems, especially the Mi3 event, which took place around 13.6 Ma and deeply impacted the marine oxygen isotope record. This event also profoundly impacted oceanographic and climatic patterns, eventually leading to the establishment of the modern ice-house world. In particular, East Antarctica became ice covered at that period. The rational behind the present study was to investigate the impact that this event had on shallow water systems in order to complement the deep-sea record and hence acquire a more global perspective on Miocene climate change. The Maltese Islands were investigated for trends in bulk-rock carbon and oxygen isotopes, as well as bulk-rock mineralogy, clay minerals analysis and organic geochemisty. Results showed that the mid Miocene cooling event deeply impacted sedimentation at that location by changing sedimentation from carbonate to clay-rich sediments. Moreover, it was discovered that each phase of Antarctic glaciation, not just the major mid Miocene event, resulted in higher terrigenous input on Malta. Mass accumulation rates revealed that this was linked to increased runoff during periods when Antarctica was glaciated, and thus that the carbonate sediments were “diluted” by clay-rich sediments. The model subsequently developed to explain this implies feedback from Antarctic glaciations creating cold, dense air masses that push the ITCZ Northward, thus increasing precipitation on the North African subcontinent. Increased precipitation (or stronger African monsoon) accelerated continental weathering and runoff, thus bringing more terrigenous sediment to the paleo-location of the slope sediments of Malta. Spectral analysis of carbonate content and organic matter geochemical analysis furthermore suggest that the clay-rich intervals are similar to sapropelic deposits. On the Marion Plateau, trends in oxygen and carbon isotopes were obtained by measuring Cibicidoides spp foraminifers. Moreover, carbonate content was reconstructed using a chemical method (coulometer). Results show that the mid Miocene cooling step profoundly affected this system: a major drop in accumulation rates of carbonates occurs precisely at 13.8 Ma, around the time of the East Antarctic ice sheet formation. Moreover, sedimentation changes occurred at that time, carbonate fragments coming from neritic environments becoming less abundant, planktonic foraminifer content increasing and quartz and reworked glauconite being deposited. Conversely, a surprising result is that the major N12-N14 sea-level fall occurring around 11.5 Ma did not impact the accumulation of carbonates on the slope. This was unexpected since carbonate platform are very sensitive to sea-level changes. The model developed to explain that mass accumulation rates of carbonates diminished around 13.6 Ma (Mi3 Event) instead of 11.5 Ma (N12-N14 event), suggests that oceanic currents were controlling slope carbonate deposition on the Marion Plateau prior to the mid-Miocene, and that the mid Miocene event considerably increase their strength, hence reducing the amount of carbonate being deposited on slope sites. Moreover, by combining results from deep-sea oxygen isotopes with sea-level estimates based on coastal onlaps made during Leg 194, we constrain the amplitude of the N12-N14 sea-level fall to 90 meters. When integrating isotopic results from this study, this amplitude is lowered to 70 meters. A general conclusion of this work is that the mid Miocene climatic shift did impact carbonate systems, at least at the two locations studied. However, the nature of this response was highly dependant on the regional settings, in particular the presence of land mass (Malta) and the absence of a barrier to shelter from the effects of open ocean (Marion Plateau).
Im Bereich der medizinischen Diagnostik spielen DNA-Chips eine immer wichtigere Rolle. Dabei werden Glas- oder Silikon-Oberflächen mit Tausenden von einzelsträngigen DNA-Fragmenten, sog. Sonden, bestückt, die mit den passenden DNA-Fragmenten in der zugefügten Patientenprobe verschmelzen. Die Auswertung solcher Messungen liefert die Diagnose für Krankheiten wie z.B. Krebs, Alzheimer oder für den Nachweis pathogener Erreger. Durch fortschreitende Miniaturisierung dieser Meßsysteme können bis zu 40.000 Genfragmente des Menschen in einer einzigen Messung analysiert werden. Neben den DNA-Fragmenten können Bio-Chips auch für andere biologische Komponenten wie Antikörper und Proteine eingesetzt werden, wobei bei letzteren neben der Bindung auch die Aktivität ein wichtiger Diagnoseparamter ist. Am Fraunhofer-Institut für medizinische Technik und am Lehrstuhl für Analytische Biochemie der Universität Potsdam wurden im Rahmen einer Doktorarbeit Methoden entwickelt, die es ermöglichen auf nukleinsäuremodifizierten Sensoroberflächen die Aktivität von Proteinen zu messen. Es wurden Nukleinsäuren auf Oberflächen optischer Sensoren verankert. Diese fungierten als Rezeptor für die Proteine sowie auch als Substrat für Restriktionsenzyme, die Nukleinsäuren schneiden und Polymerasen, die Nukleinsäuren synthetisieren und verlängern können. Seine Anwendung fand diese Messmethode in der Messung der Aktivität des Proteins Telomerase, das in 90% aller Tumore erhöhte Aktivität gegenüber gesunden Zellen aufweist. Die Vorteile dieses neuen Assays gegenüber älteren Methoden liegt im Verzicht auf radioaktiv-markierten Komponenten und einer deutlich verkürzten Analysezeit. Die Arbeit schliesst mit einem funktionsfähigen Nachweis der Telomeraseaktivität im Zellextrakt von gesunden und kranken Zellen. Der direkte Einfluß von Hemmstoffen auf die Aktivität konnte sichtbar gemacht werden, und steht daher bei der Entwicklung neuer Tumor-Diagnostika und Therapeutika zur Verfügung.
The present work is dealing with the first synthesis and characterisation of amphiphilic diblock copolymers bearing b-dicarbonyl (acetoacetoxy) chelating residues. Polymers were obtained by Group Transfer Polymerisation (GTP)/acetoacetylation and controlled radical polymerisation techniques (RAFT).Different micellar morphologies of poly(n-butyl methacrylate)-block-poly[2-(acetoacetoxy)ethyl methacrylate] (pBuMA-b-pAEMA) were observed in cyclohexane as a selective solvent. Depending on the block length ratio, either spherical, elliptical, or cylindrical micelles were formed. The density of the polymer chains at the core/corona interface is considerably higher as compared to any other strongly segregating system reported in the literature. It is demonstrated that there are H-bond interactions existing between acetoacetoxy groups, which increase the incompatibility between block segments. In addition, such interactions lead to the formation of secondary structures (such as b-sheets or globular structures) and larger superstructures in the micrometer length scale.Block copolymers were also used to solubilise metal ion salts of different geometries and oxidation states in organic media, in which are otherwise insoluble. Sterically stabilised colloidal hybrid materials are formed, i.e. monodisperse micelles having the metal ion salt incorporated in their core upon complexation with the ligating pAEMA block, whereas pBuMA forms the solvating corona responsible for stabilisation in solution. Systematic studies show that the aggregation behaviour is dependent on different factors, such as the tautomeric form of the beta-dicarbonyl ligand (keto/enol) as well as the nature and amount of added metal ion salt.
Movements of processive cytoskeletal motors are characterized by an interplay between directed motion along filament and diffusion in the surrounding solution. In the present work, these peculiar movements are studied by modeling them as random walks on a lattice. An additional subject of our studies is the effect of motor-motor interactions on these movements. In detail, four transport phenomena are studied: (i) Random walks of single motors in compartments of various geometries, (ii) stationary concentration profiles which build up as a result of these movements in closed compartments, (iii) boundary-induced phase transitions in open tube-like compartments coupled to reservoirs of motors, and (iv) the influence of cooperative effects in motor-filament binding on the movements. All these phenomena are experimentally accessible and possible experimental realizations are discussed.
The present work investigates the structure formation and wetting in two dimensional (2D) Langmuir monolayer phases in local thermodynamic equilibrium. A Langmuir monolayer is an isolated 2D system of surfactants at the air/water interface. It exhibits crystalline, liquid crystalline, liquid and gaseous phases differing in positional and/or orientational order. Permanent electric dipole moments of the surfactants lead to a long range repulsive interaction and to the formation of mesoscopic patterns. An interaction model is used describing the structure formation as a competition between short range attraction (bare line tension) and long range repulsion (surface potentials) on a scale Delta. Delta has the meaning of a dividing length between the short and long range interaction. In the present work the thermodynamic equilibrium conditions for the shape of two phase boundary lines (Young-Laplace equation) and three phase intersection points (Young′s condition) are derived and applied to describe experimental data: The line tension is measured by pendant droplet tensiometry. The bubble shape and size of 2D foams is calculated numerically and compared to experimental foams. Contact angles are measured by fitting numerical solutions of the Young-Laplace equation on micron scale. The scaling behaviour of the contact angle allows to measure a lower limit for Delta. Further it is discussed, whether in biological membranes wetting transitions are a way in order to control reaction kinetics. Studies performed in our group are discussed with respect to this question in the framework of the above mentioned theory. Finally the apparent violation of Gibbs′ phase rule in Langmuir monolayers (non-horizontal plateau of the surface pressure/area-isotherm, extended three phase coexistence region in one component systems) is investigated quantitatively. It has been found that the most probable explanation are impurities within the system whereas finite size effects or the influence of the long range electrostatics can not explain the order of magnitude of the effect.
In recent years, there has been a dramatic increase in available compute capacities. However, these “Grid resources” are rarely accessible in a continuous stream, but rather appear scattered across various machine types, platforms and operating systems, which are coupled by networks of fluctuating bandwidth. It becomes increasingly difficult for scientists to exploit available resources for their applications. We believe that intelligent, self-governing applications should be able to select resources in a dynamic and heterogeneous environment: Migrating applications determine a resource when old capacities are used up. Spawning simulations launch algorithms on external machines to speed up the main execution. Applications are restarted as soon as a failure is detected. All these actions can be taken without human interaction. A distributed compute environment possesses an intrinsic unreliability. Any application that interacts with such an environment must be able to cope with its failing components: deteriorating networks, crashing machines, failing software. We construct a reliable service infrastructure by endowing a service environment with a peer-to-peer topology. This “Grid Peer Services” infrastructure accommodates high-level services like migration and spawning, as well as fundamental services for application launching, file transfer and resource selection. It utilizes existing Grid technology wherever possible to accomplish its tasks. An Application Information Server acts as a generic information registry to all participants in a service environment. The service environment that we developed, allows applications e.g. to send a relocation requests to a migration server. The server selects a new computer based on the transmitted resource requirements. It transfers the application's checkpoint and binary to the new host and resumes the simulation. Although the Grid's underlying resource substrate is not continuous, we achieve persistent computations on Grids by relocating the application. We show with our real-world examples that a traditional genome analysis program can be easily modified to perform self-determined migrations in this service environment.
Our every-day experience is connected with different acoustical noise or music. Usually noise plays the role of nuisance in any communication and destroys any order in a system. Similar optical effects are known: strong snowing or raining decreases quality of a vision. In contrast to these situations noisy stimuli can also play a positive constructive role, e.g. a driver can be more concentrated in a presence of quiet music. Transmission processes in neural systems are of especial interest from this point of view: excitation or information will be transmitted only in the case if a signal overcomes a threshold. Dr. Alexei Zaikin from the Potsdam University studies noise-induced phenomena in nonlinear systems from a theoretical point of view. Especially he is interested in the processes, in which noise influences the behaviour of a system twice: if the intensity of noise is over a threshold, it induces some regular structure that will be synchronized with the behaviour of neighbour elements. To obtain such a system with a threshold one needs one more noise source. Dr. Zaikin has analyzed further examples of such doubly stochastic effects and developed a concept of these new phenomena. These theoretical findings are important, because such processes can play a crucial role in neurophysics, technical communication devices and living sciences.
In order to face the rapidly increasing need for computational resources of various scientific and engineering applications one has to think of new ways to make more efficient use of the worlds current computational resources. In this respect, the growing speed of wide area networks made a new kind of distributed computing possible: Metacomputing or (distributed) Grid computing. This is a rather new and uncharted field in computational science. The rapidly increasing speed of networks even outperforms the average increase of processor speed: Processor speeds double on average each 18 month whereas network bandwidths double every 9 months. Due to this development of local and wide area networks Grid computing will certainly play a key role in the future of parallel computing. This type of distributed computing, however, distinguishes from the traditional parallel computing in many ways since it has to deal with many problems not occurring in classical parallel computing. Those problems are for example heterogeneity, authentication and slow networks to mention only a few. Some of those problems, e.g. the allocation of distributed resources along with the providing of information about these resources to the application have been already attacked by the Globus software. Unfortunately, as far as we know, hardly any application or middle-ware software takes advantage of this information, since most parallelizing algorithms for finite differencing codes are implicitly designed for single supercomputer or cluster execution. We show that although it is possible to apply classical parallelizing algorithms in a Grid environment, in most cases the observed efficiency of the executed code is very poor. In this work we are closing this gap. In our thesis, we will - show that an execution of classical parallel codes in Grid environments is possible but very slow - analyze this situation of bad performance, nail down bottlenecks in communication, remove unnecessary overhead and other reasons for low performance - develop new and advanced algorithms for parallelisation that are aware of a Grid environment in order to generelize the traditional parallelization schemes - implement and test these new methods, replace and compare with the classical ones - introduce dynamic strategies that automatically adapt the running code to the nature of the underlying Grid environment. The higher the performance one can achieve for a single application by manual tuning for a Grid environment, the lower the chance that those changes are widely applicable to other programs. In our analysis as well as in our implementation we tried to keep the balance between high performance and generality. None of our changes directly affect code on the application level which makes our algorithms applicable to a whole class of real world applications. The implementation of our work is done within the Cactus framework using the Globus toolkit, since we think that these are the most reliable and advanced programming frameworks for supporting computations in Grid environments. On the other hand, however, we tried to be as general as possible, i.e. all methods and algorithms discussed in this thesis are independent of Cactus or Globus.
Die wachsenden Kosten für die Behandlung chronischer lumbaler Rückenschmerzen stehen zunehmend in Diskrepanz mit den begrenzten Mitteln für das Gesundheitswesen. Untersuchungen zeigen, dass aktive Trainingsprogramme, je früher sie eingesetzt werden, einen positiven Einfluss auf die Senkung von Kosten für die Gesellschaft haben. Ein rechtzeitiger Einsatz der medizinischen Kräftigungstherapie bei Rückenschmerzpatienten ist somit unter rehabilitativen Gesichtspunkten notwendig. Insbesondere das Training im Wasser gestattet gelenkschonende Übungen in frühen Phasen der Rehabilitation und lassen eine raschere Wiederherstellung erwarten. Über die körperlichen Auswirkungen therapeutischer Trainingsmaßnahmen im Wasser sind bis dato wenige Studien verfügbar, welche die Wirkung des Mediums Wasser auf konditionelle Parameter objektiv quantifizieren und bewerten. Jedoch sind bislang die Möglichkeiten für ein gezieltes Krafttraining im Wasser begrenzt. Eine gerätetechnische Entwicklung, die ein rumpfstabilisierendes Krafttraining im Warmwasser ermöglicht, lässt im Vergleich zu herkömmlichen Trainingsmöglichkeiten eine noch effizientere rehabilitative Behandlung erwarten. Es wird die Fragestellung verfolgt, inwieweit aktive Trainingsformen im Wasser die Maximalkraft und die neuromuskuläre Funktion der Rumpfmuskulatur, sowie den Schmerz von Rückenpatienten beeinflussen. Ferner soll im Rahmen der Untersuchungen die Effektivität eines neu entwickelten Wassertrainingsgerätes geprüft werden. Die Untersuchungen der Ergebnisse von 80 weiblichen Probanden (in fünf Gruppen aufgeteilt: Kontrollgruppe, Aquajogging, Aquarücken, Aquagerät und Rückengymnastik an Land) zeigen, dass durch aktive Interventionsmaßnahmen eine Verbesserung der Kraftfähigkeit und eine Reduzierung von Schmerzen erzielt werden kann. Hingegen kommt es in der Kontrollgruppe, ohne Trainingsanwendungen, zur Stagnation des chronischen Schmerzzustandes, sogar zur Verschlechterung der Kraftentwicklung der Rückenstreckmuskulatur. In allen Trainingsgruppen konnten kurzfristig und mittelfristig weniger Muskelfunktionsstörungen nachgewiesen werden. Bei Betrachtung der Kraftentwicklung der unteren Rumpfmuskulatur fällt auf, dass die höchsten Zuwächse der Bauchmuskelkraft in den Gruppen Aquarücken und Aquagerät festzustellen sind. Die Kraft der Rückenstreckermuskulatur entwickelte sich in der Gruppe Aquagerät mit einer Steigerung von 55% nach der Intervention am stärksten. Es kann die Hypothese aufgestellt werden, dass das Training im warmen Wasser unter stabilisierten Voraussetzungen eine effizientere Methode zur Stärkung der unteren Rumpfmuskulatur zu sein scheint. Bei der Entwicklung der Kraft der oberen Rücken- und Schultergürtelmuskulatur kommt es in den Gruppen Aquajogging und Aquarücken zu den größten Steigerungen. Dies könnte mit der höheren Aktivität der Arme im Übungsprogramm zusammenhängen. Positiv ist die hohe Reduzierung der Schmerzen in allen Trainingsgruppen zu bewerten. Jedoch ist bei Betrachtung der Ergebnisse festzustellen, dass für eine weitere Manifestierung der Trainingserfolge ein weiterführendes Training bedeutsam ist. Die Ergebnisse dieser Studie belegen, dass durch ein gezieltes Training im Wasser und an Land über 6 Wochen, je zweimal pro Woche, deutliche Verbesserungen in der Entwicklung von Kraft, Schmerzintensität, Funktionseinschränkung und Muskelfunktion möglich sind. Ferner werden in dieser Arbeit positive Zusammenhänge zwischen den Entwicklungen Schmerzintensität und Rückenstreckerkraft, sowie Schmerzintensität und Bauchmuskelkraft beobachtet. Zwischen den Versuchsgruppen im Wasser und der Versuchsgruppe an Land konnten nur geringe Unterschiede in den Ergebnissen nachgewiesen werden. Jedoch geben die Resultate Hinweis darauf, dass bei höheren Schmerzintensitäten die Intervention im Wasser die Therapie der Wahl zu sein scheint. Die Resultate dieser Untersuchungen machen deutlich, dass der Einsatz eines Wassertrainingsgerätes in der Therapie chronischer Rückenschmerzpatienten eine effiziente Methode zur Senkung von Schmerzen und zur Steigerung der Kraft der Rücken- und Bauchmuskulatur ist. Vorteile des Wassertraingsgerätes sind die gute Stabilisation des Beckens, trotz auftriebswirksamer Mechanismen im Wasser, die bedienerfreundliche Handhabung, der separat einstellbare Widerstand, die schnellen Therapieerfolge und die hohe Motivation der Kursteilnehmer. Diese Beobachtungen lassen eine effizientere Therapie und damit Kostenersparnisse vermuten. Nachteile sind das hohe Gewicht des Wassertraingsgerätes und die relativ hohen Anschaffungskosten. Die hohe Reduzierung der Schmerzintensität bei den Probanden, die am Wassertrainingsgerät Interventionen durchführten, lassen vermuten, dass diese Geräteanwendungen für Patienten mit sehr schmerzhaften oder subakuten Verlaufsformen besonders geeignet ist. Der schonende Charakter der Aquatherapie und der Einsatz eines neuen Wassertrainingsgerätes unterstützt in effektiver Weise die modernen Konzepte der Rehabilitation chronischer Rückenschmerzpatienten.
The colloidal systems are present everywhere in many varieties such as emulsions (liquid droplets dispersed in liquid), aerosols (liquid dispersed in gas), foam (gas in liquid), etc. Among several new methods for the preparation of colloids, the so-called miniemulsion technique has been shown to be one of the most promising. Miniemulsions are defined as stable emulsions consisting of droplets with a size of 50-500 nm by shearing a system containing oil, water, a surfactant, and a highly water insoluble compound, the so-called hydrophobe 1. In the first part of this work, dynamic crystallization and melting experiments are described which were performed in small, stable and narrowly distributed nanodroplets (confined systems) of miniemulsions. Both regular and inverse systems were examined, characterizing, first, the crystallization of hexadecane, secondly, the crystallization of ice. It was shown for both cases that the temperature of crystallization in such droplets is significantly decreased (or the required undercooling is increased) as compared to the bulk material. This was attributed to a very effective suppression of heterogeneous nucleation. It was also found that the required undercooling depends on the nanodroplet size: with decreasing droplet size the undercooling increases. 2. It is shown that the temperature of crystallization of other n-alkanes in nanodroplets is also significantly decreased as compared to the bulk material due to a very effective suppression of heterogeneous nucleation. A very different behavior was detected between odd and even alkanes. In even alkanes, the confinement in small droplets changes the crystal structure from a triclinic (as seen in bulk) to an orthorhombic structure, which is attributed to finite size effects inside the droplets. An intermediate metastable rotator phase is of less relevance for the miniemulsion droplets than in the bulk. For odd alkanes, only a strong temperature shift compared to the bulk system is observed, but no structure change. A triclinic structure is formed both in bulk and in miniemulsion droplets. 3. In the next part of the thesis it is shown how miniemulsions could be successfully applied in the development of materials with potential application in pharmaceutical and medical fields. The production of cross-linked gelatin nanoparticles is feasible. Starting from an inverse miniemulsion, the softness of the particles can be controlled by varying the initial concentration, amount of cross-link agent, time of cross-linking, among other parameters. Such particles show a thermo-reversible effect, e.g. the particles swell in water above 37 °C and shrink below this temperature. Above 37 °C the chains loose the physical cross-linking, however the particles do not loose their integrity, because of the chemical cross-linking. Those particles have potential use as drug carriers, since gelatin is a natural polymer derived from collagen. 4. The cross-linked gelatin nanoparticles have been used for the biomineralization of hydroxyapatite (HAP), a biomineral, which is the major constituent of our bones. The biomineralization of HAP crystals within the gelatin nanoparticles results in a hybrid material, which has potential use as a bone repair material. 5. In the last part of this work we have shown that layers of conjugated semiconducting polymers can be deposited from aqueous dispersion prepared by the miniemulsion process. Dispersions of particles of different conjugated semiconducting polymers such as a ladder-type poly(para-phenylene) and several soluble derivatives of polyfluorene could be prepared with well-controlled particle sizes ranging between 70 - 250 nm. Layers of polymer blends were prepared with controlled lateral dimensions of phase separation on sub-micrometer scales, utilizing either a mixture of single component nanoparticles or nanoparticles containing two polymers. From the results of energy transfer it is demonstrated that blending two polymers in the same particle leads to a higher efficiency due to the better contact between the polymers. Such an effect is of great interest for the fabrication of opto-electronic devices such as light emitting diodes with nanometer size emitting points and solar cells comprising of blends of electron donating and electron accepting polymers.
Studies of the role of disturbance in vegetation or ecosystems showed that disturbances are an essential and intrinsic element of ecosystems that contribute substantially to ecosystem health, to structural diversity of ecosystems and to nutrient cycling at the local as well as global level. Fire as a grassland, bush or forest fire is a special disturbance agent, since it is caused by biotic as well abiotic environmental factors. Fire affects biogeochemical cycles and plays an important role in atmospheric chemistry by releasing climate-sensitive trace gases and aerosols, and thus in the global carbon cycle by releasing approximately 3.9 Gt C p.a. through biomass burning. A combined model to describe effects and feedbacks between fire and vegetation became relevant as changes in fire regimes due to land use and land management were observed and the global dimension of biomass burnt as an important carbon flux to the atmosphere, its influence on atmospheric chemistry and climate as well as vegetation dynamics were emphasized. The existing modelling approaches would not allow these investigations. As a consequence, an optimal set of variables that best describes fire occurrence, fire spread and its effects in ecosystems had to be defined, which can simulate observed fire regimes and help to analyse interactions between fire and vegetation dynamics as well as to allude to the reasons behind changing fire regimes. Especially, dynamic links between vegetation, climate and fire processes are required to analyse dynamic feedbacks and effects of changes of single environmental factors. This led us to the point, where new fire models had to be developed that would allow the investigations, mentioned above, and could help to improve our understanding of the role of fire in global ecology. In conclusion of the thesis, one can state that moisture conditions, its persistence over time and fuel load are the important components that describe global fire pattern. If time series of a particular region are to be reproduced, specific ignition sources, fire-critical climate conditions and vegetation composition become additional determinants. Vegetation composition changes the level of fire occurrence and spread, but has limited impact on the inter-annual variability of fire. The importance to consider the full range of major fire processes and links to vegetation dynamics become apparent under climate change conditions. Increases in climate-dependent length of fire season does not automatically imply increases in biomass burnt, it can be buffered or accelerated by changes in vegetation productivity. Changes in vegetation composition as well as enhanced vegetation productivity can intensify changes in fire and lead to even more fire-related emissions. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2002/2003.
Die Eifel ist eines der jüngsten vulkanischen Gebiete Mitteleuropas. Die letzte Eruption ereignete sich vor ungefähr 11000 Jahren. Bisher ist relativ wenig bekannt über die tieferen Mechanismen, die für den Vulkanismus in der Eifel verantwortlich sind. Erdbebenaktivität deutet ebenso darauf hin, dass die Eifel eines der geodynamisch aktivsten Gebiete Mitteleuropas ist. In dieser Arbeit wird die Receiver Function Methode verwendet, um die Strukturen des oberen Mantels zu untersuchen. 96 teleseismische Beben (mb > 5.2) wurden ausgewertet, welche von permanenten und mobilen breitbandigen und kurzperiodischen Stationen aufgezeichnet wurden. Das temporäre Netzwerk registrierte von November 1997 bis Juni 1998 und überdeckte eine Fläche von ungefähr 400x250 km². Das Zentrum des Netzwerkes befand sich in der Vulkaneifel. Die Auswertung der Receiver Function Analyse ergab klare Konversionen von der Moho und den beiden Manteldiskontinuitäten in 410 km und 660 km Tiefe, sowie Hinweise auf einen Mantel-Plume in der Region der Eifel. Die Moho wurde bei ungefähr 30 km Tiefe beobachtet und zeigt nur geringe Variationen im Bereich des Netzwerkes. Die beobachteten Variationen der konvertierten Phasen der Moho können mit lateralen Schwankungen in der Kruste zu tun haben, die mit den Receiver Functions nicht aufgelöst werden können. Die Ergebnisse der Receiver Function Methode deuten auf eine Niedriggeschwindigkeitszone zwischen 60 km bis 90 km in der westlichen Eifel hin. In etwa 200 km Tiefe werden im Bereich der Eifel amplitudenstarke positive Phasen von Konversionen beobachtet. Als Ursache hierfür wird eine Hochgeschwindigkeitszone vorgeschlagen, welche durch mögliches aufsteigendes, dehydrierendes Mantel-Material verursacht wird. Die P zu S Konversionen an der 410 km Diskontinuität zeigen einen späteren Einsatz als nach dem IASP91-Modell erwartet wird. Die migrierten Daten weisen eine Absenkung der 410 km Diskontinuität um bis zu 20 km Tiefe auf, was einer Erhöhung der Temperatur von bis zu etwa 140° Celsius entspricht. Die 660 km Diskontinuität weist keine Aufwölbung auf. Dies deutet darauf hin, dass kein Mantelmaterial direkt von unterhalb der 660 km Diskontinuität in der Eifel-Region aufsteigt oder, dass der Ursprung des Eifel-Plumes innerhalb der Übergangszone liegt.
In this thesis, I investigated the factors influencing the growth and vertical distribution of planktonic algae in extremely acidic mining lakes (pH 2-3). In the focal study site, Lake 111 (pH 2.7; Lusatia, Germany), the chrysophyte, Ochromonas sp., dominates in the upper water strata and the chlorophyte, Chlamydomonas sp., in the deeper strata, forming a pronounced deep chlorophyll maximum (DCM). Inorganic carbon (IC) limitation influenced the phototrophic growth of Chlamydomonas sp. in the upper water strata. Conversely, in deeper strata, light limited its phototrophic growth. When compared with published data for algae from neutral lakes, Chlamydomonas sp. from Lake 111 exhibited a lower maximum growth rate, an enhanced compensation point and higher dark respiration rates, suggesting higher metabolic costs due to the extreme physico-chemical conditions. The photosynthetic performance of Chlamydomonas sp. decreased in high-light-adapted cells when IC limited. In addition, the minimal phosphorus (P) cell quota was suggestive of a higher P requirement under IC limitation. Subsequently, it was shown that Chlamydomonas sp. was a mixotroph, able to enhance its growth rate by taking up dissolved organic carbon (DOC) via osmotrophy. Therefore, it could survive in deeper water strata where DOC concentrations were higher and light limited. However, neither IC limitation, P availability nor in situ DOC concentrations (bottom-up control) could fully explain the vertical distribution of Chlamydomonas sp. in Lake 111. Conversely, when a novel approach was adopted, the grazing influence of the phagotrophic phototroph, Ochromonas sp., was found to exert top-down control on its prey (Chlamydomonas sp.) reducing prey abundance in the upper water strata. This, coupled with the fact that Chlamydomonas sp. uses DOC for growth, leads to a pronounced accumulation of Chlamydomonas sp. cells at depth; an apparent DCM. Therefore, grazing appears to be the main factor influencing the vertical distribution of algae observed in Lake 111. The knowledge gained from this thesis provides information essential for predicting the effect of strategies to neutralize the acidic mining lakes on the food-web.
One of the rules-of-thumb of colloid and surface physics is that most surfaces are charged when in contact with a solvent, usually water. This is the case, for instance, in charge-stabilized colloidal suspensions, where the surface of the colloidal particles are charged (usually with a charge of hundreds to thousands of e, the elementary charge), monolayers of ionic surfactants sitting at an air-water interface (where the water-loving head groups become charged by releasing counterions), or bilayers containing charged phospholipids (as cell membranes). In this work, we look at some model-systems that, although being a simplified version of reality, are expected to capture some of the physical properties of real charged systems (colloids and electrolytes). We initially study the simple double layer, composed by a charged wall in the presence of its counterions. The charges at the wall are smeared out and the dielectric constant is the same everywhere. The Poisson-Boltzmann (PB) approach gives asymptotically exact counterion density profiles around charged objects in the weak-coupling limit of systems with low-valent counterions, surfaces with low charge density and high temperature (or small Bjerrum length). Using Monte Carlo simulations, we obtain the profiles around the charged wall and compare it with both Poisson-Boltzmann (in the low coupling limit) and the novel strong coupling (SC) theory in the opposite limit of high couplings. In the latter limit, the simulations show that the SC leads in fact to asymptotically correct density profiles. We also compare the Monte Carlo data with previously calculated corrections to the Poisson-Boltzmann theory. We also discuss in detail the methods used to perform the computer simulations. After studying the simple double layer in detail, we introduce a dielectric jump at the charged wall and investigate its effect on the counterion density distribution. As we will show, the Poisson-Boltzmann description of the double layer remains a good approximation at low coupling values, while the strong coupling theory is shown to lead to the correct density profiles close to the wall (and at all couplings). For very large couplings, only systems where the difference between the dielectric constants of the wall and of the solvent is small are shown to be well described by SC. Another experimentally relevant modification to the simple double layer is to make the charges at the plane discrete. The counterions are still assumed to be point-like, but we constraint the distance of approach between ions in the plane and counterions to a minimum distance D. The ratio between D and the distance between neighboring ions in the plane is, as we will see, one of the important quantities in determining the influence of the discrete nature of the charges at the wall over the density profiles. Another parameter that plays an important role, as in the previous case, is the coupling as we will demonstrate, systems with higher coupling are more subject to discretization effects than systems with low coupling parameter. After studying the isolated double layer, we look at the interaction between two double layers. The system is composed by two equally charged walls at distance d, with the counterions confined between them. The charge at the walls is smeared out and the dielectric constant is the same everywhere. Using Monte-Carlo simulations we obtain the inter-plate pressure in the global parameter space, and the pressure is shown to be negative (attraction) at certain conditions. The simulations also show that the equilibrium plate separation (where the pressure changes from attractive to repulsive) exhibits a novel unbinding transition. We compare the Monte Carlo results with the strong-coupling theory, which is shown to describe well the bound states of systems with moderate and high couplings. The regime where the two walls are very close to each other is also shown to be well described by the SC theory. Finally, Using a field-theoretic approach, we derive the exact low-density ("virial") expansion of a binary mixture of positively and negatively charged hard spheres (two-component hard-core plasma, TCPHC). The free energy obtained is valid for systems where the diameters d_+ and d_- and the charge valences q_+ and q_- of positive and negative ions are unconstrained, i.e., the same expression can be used to treat dilute salt solutions (where typically d_+ ~ d_- and q_+ ~ q_-) as well as colloidal suspensions (where the difference in size and valence between macroions and counterions can be very large). We also discuss some applications of our results.
Die intensive Auswertung unterschiedlicher schriftlicher und mündlicher Quellen sowie die Erschließung von damals "geheimer" Literatur für die Forschung heute ermöglicht eine differenzierte Rekonstruktion historischer Abläufe. Die vorliegende Arbeit nutzt diesen Zugang zur Darstellung von kleineren und größeren DDR-internen sportpolitischen Strukturwandlungen der 1960er und 1970er Jahre, die ihren Höhepunkt in einer dramatischen Umsteuerung des DDR-Hochleistungssports fanden. Es wird gezeigt, wie die Akteure unter Führung von Manfred EWALD, gewähltem Mitglied des SED-Zentralkomitees, einer Zentralfigur des DDR-Sports (vergleichbar mit der Bedeutung eines Willi DAUME im Westen) zwischen Systemzwängen und individueller Handlungsfreiheit innerhalb des Rahmens einer Diktatur in der Phase des Wechsels von Walter ULBRICHT zu Erich HONECKER eine Effektivierung des zentralistischen Modells durchsetzten (eine Parallele zum Ansatz von Monika KAISER). Im Gegensatz zu vielen kontroversen Erklärungsmodellen belegt der Verf., dass die Medaillenerfolge durch die zentrale Steuerung aller Abläufe gewährleistet wurden. Ohne SED-Auftrag wurde 1967 die "Leistungssportkommission der DDR" (LSK der DDR) gebildet. Im Unterschied zu den zahlreichen vom Verf. erstmals dargestellten Vorgängermodellen war diese SED-LSK "oberhalb des DTSB" angesiedelt und erteilte ihm Parteiaufträge - die Unterordnung des organisierten Sports unter die Autorität des Zentralkomitee machte angesichts der "Nationalen Fronten" von Armeesportvereinigung "Vorwärts" und Sportvereinigung "Dynamo" (SPITZER) jegliche zentrale Sportpolitik erst durchsetzbar. Zur "LSK der DDR" waren SED-Mitglieder abgeordnet, welche ihr Sachgebiet vertraten und nach gemeinsamer Beschlussfassung die Ergebnisse der LSK-Arbeit wiederum in ihrem jeweiligen Tätigkeitsfeld durchzusetzen hatten, was in der Diss. ausgeführt wird. Sportvertreter ebenso wie hochrangige Abgesandte der Ministerien, die mit der Produktion von Gütern für den Hochleistungssport befasst waren, gehörten den LSK-Gremien an, die auch die DDR-Sportwissenschaft steuerten; es lässt sich sogar nachweisen, dass die Herrschaft über diesen wichtigen Apparat sowie die Dopingforschung ein Hauptmotiv der LSK-Bildung gewesen ist. Durch seine Quellenorientierung und die Fülle an Belegen gibt die vorliegende Arbeit neue Anreize zur Auseinandersetzung mit dem Phänomen der Steuerung des Hochleistungssports in der DDR - auch über den Untersuchungszeitraum hinaus. Die Untersuchung wurde von der Humanwissenschaftlichen Fakultät der Universität Potsdam als Dissertation angenommen. Sie geht auf ein Stipendium dieser Universität zurück; das Verfahren konnte mit einem Prädikat abgeschlossen werden. Gutachter waren Prof. Dr. Dr. Gertrud PFISTER, Kopenhagen, Prof. Dr. Christoph KLEßMANN, Potsdam, und der Betreuer, Steady Visiting Prof. Univ. Odense, Priv.-Doz. Dr. habil. Giselher SPITZER, Berlin / Potsdam / Odense (Dänemark).
In der vorliegenden Dissertation wird die Bedeutung von Brachen für Artenvielfalt und Stabilität von Blüte-Bestäuber-Nahrungsnetzen in agrarisch genutzten Landschaften anhand ausgewählter blütenbesuchender Insektengruppen (Syrphidae, Lepidoptera) untersucht. Die Freilandarbeiten fanden von 1998-2000 im Raum der Feldberger Seenlandschaft, Mecklenburg-Vorpommern, statt. Es werden die beiden Hauptnahrungsquellen Nektar und Pollen betrachtet, dabei fanden Untersuchungen zur Intensität der Blüte-Bestäuber-Interaktion auf Stilllegungsflächen, zum flächenbezogenen quantitativen Nektarangebot im Jahresverlauf, zur individuellen Pollennutzung bei Syrphiden und zur Breite und Überlappung der Nahrungsnischen bei den dominanten Arten Episyrphus balteatus, Metasyrphus corollae, Syritta pipiens und Sphaerophoria scripta statt. Im Ergebnis zeigt sich eine hohe Bedeutung der Brachflächen für die Stabilität des Blüte-Bestäuber-Netzes, während die Diversität von anderen, eher landschaftsbezogenen Faktoren abhängig ist.
In der nichtlinearen Datenreihenanalyse hat sich seit etwa 10 Jahren eine Monte-Carlo-Testmethode etabliert, die Theiler-surrogatmethode, mit Hilfe derer entschieden werden kann, ob eine Datenreihe nichtlinearen Ursprungs sei. Diese Methode wird kritisiert, modifiziert und verallgemeinert. Das, was Theiler untersuchen will braucht andere Surrogatmethoden, die hier konstruiert werden. Und das, was Theiler untersucht braucht gar keine Monte-Carlo-Methoden. Mit Hilfe des in der Arbeit eingeführten Begriffs des Phasensignals werden Testmöglichkeiten dargelegt und Beziehungen zwischen den nichtlinearen Eigenschaften der Zeitreihe und deren Phasenspektrum erforscht. Das Phasensignal wird aus dem Phasenspektrum der Zeitreihe hergeleitet und registriert außerordentliche Geschehnisse im Zeitbereich sowie Phasenkopplungen im Frequenzbereich. Die gewonnenen Erkenntnisse werden auf das Problem der Polbewegung angewendet. Die Hypothese einer nichtlinearen Beziehung zwischen der atmosphärischen Erregung und der Polbewegung wird untersucht. Eine nichtlineare Behandlung wird nicht für nötig gehalten.
Today, analytical chemistry does not longer consist of only the big measuring devices and methods which are time consuming and expensive, which can furthermore only be handled by the qualified staff and in addition the results can also only be evaluated by this qualified staff. Usually, this technique, which shall be described in the following as 'classic analytic measuring technique', requires also rooms equipped especially and often a relative big quantity of the test compounds which should be prepared especially. Beside this classic analytic measuring technique, limited on definite substance groups and requests, a new measuring technique has gained acceptance particularly within the last years, which one can often be used by a layman, too. Often the new measuring technique has very little pieces of equipment. The needed sample volumes are also small and a special sample preparation isn't required. In addition, the new measuring instruments are simple to handle. They are cheap both in their production and in the use and they permit even a continuous measurement recording usually. Numerous of this new measuring instruments base on the research in the field of Biosensorik during the last 40 years. Since Clark and Lyon in the year 1962 were able to measure glucose with a simple oxygen electrode, completed by an enzyme the development of the new measuring technique did not have to be held back any longer. Biosensors, special pickups which consists of a combination from a biological component (permits a specific recognition of the analyte also without purification of the sample previously) and a physical pickup (convert the primary physicochemical effect into an electronically measurable signal), conquered the market. In the context of this thesis different tyrosinasesensors were developed which fulfilling the various requests, depending on origin and features of the used tyrosinase. One of the tyrosinasesensors for example was used for quantification of phenolic compounds in river and sea water and the results could correlated very well with the corresponding DIN-test for the determination of phenolic compounds. An other developed tyrosinasesensor showed a very high sensitiveness for catecholamines, substances which are of special importance in the medical diagnostics. In addition, the investigations of two different tyrosinases, which were carried out also in the context of this thesis, have shown, that a special tyrosinase (tyrosinase from Streptomyces antibioticus) will be the better choice as tyrosinase from Agaricus bisporus, which is used in the area of biosensor research till now, if one wants to develop in future even more sensitive tyrosinasesensors. Furthermore, first successes became reached on a molecular biological field, the production of tyrosinasemutants with special, before well-considered features. These successes can be used to develop a new generation of tyrosinasesensors, tyrosinasesensors in which tyrosinase can be bound directionally both to the corresponding physical pickup or also to another enzyme. From this one expects to achieve ways minimized which the substance to be determined (or whose product) otherwise must cover. Finally, this should result in an clearly visible increase of sensitivity of the Biosensor.
Combined structural and magnetotelluric investigation across the West Fault Zone in northern Chile
(2002)
The characterisation of the internal architecture of large-scale fault zones is usually restricted to the outcrop-based investigation of fault-related structural damage on the Earth's surface. A method to obtain information on the downward continuation of a fault is to image the subsurface electrical conductivity structure. This work deals with such a combined investigation of a segment of the West Fault, which itself is a part of the more than 2000 km long trench-linked Precordilleran Fault System in the northern Chilean Andes. Activity on the fault system lasted from Eocene to Quaternary times. In the working area (22°04'S, 68°53'W), the West Fault exhibits a clearly defined surface trace with a constant strike over many tens of kilometers. Outcrop condition and morphology of the study area allow ideally for a combination of structural geology investigation and magnetotelluric (MT) / geomagnetic depth sounding (GDS) experiments. The aim was to achieve an understanding of the correlation of the two methods and to obtain a comprehensive view of the West Fault's internal architecture. Fault-related brittle damage elements (minor faults and slip-surfaces with or without striation) record prevalent strike-slip deformation on subvertically oriented shear planes. Dextral and sinistral slip events occurred within the fault zone and indicate reactivation of the fault system. Youngest deformation increments mapped in the working area are extensional and the findings suggest a different orientation of the extension axes on either side of the fault. Damage element density increases with approach to the fault trace and marks an approximately 1000 m wide damage zone around the fault. A region of profound alteration and comminution of rocks, about 400 m wide, is centered in the damage zone. Damage elements in this central part are predominantly dipping steeply towards the east (70-80°). Within the same study area, the electrical conductivity image of the subsurface was measured along a 4 km long MT/GDS profile. This main profile trends perpendicular to the West Fault trace. The MT stations of the central 2 km were 100 m apart from each other. A second profile with 300 m site spacing and 9 recording sites crosses the fault a few kilometers away from the main study area. Data were recorded in the frequency range from 1000 Hz to 0.001 Hz with four real time instruments S.P.A.M. MkIII. The GDS data reveal the fault zone for both profiles at frequencies above 1 Hz. Induction arrows indicate a zone of enhanced conductivity several hundred meters wide, that aligns along the WF strike and lies mainly on the eastern side of the surface trace. A dimensionality analysis of the MT data justifies a two dimensional model approximation of the data for the frequency range from 1000 Hz to 0.1 Hz. For this frequency range a regional geoelectric strike parallel to the West Fault trace could be recovered. The data subset allows for a resolution of the conductivity structure of the uppermost crust down to at least 5 km. Modelling of the MT data is based on an inversion algorithm developed by Mackie et al. (1997). The features of the resulting resistivity models are tested for their robustness using empirical sensitivity studies. This involves variation of the properties (geometry, conductivity) of the anomalies, the subsequent calculation of forward or constrained inversion models and check for consistency of the obtained model results with the data. A fault zone conductor is resolved on both MT profiles. The zones of enhanced conductivity are located to the east of the West Fault surface trace. On the dense MT profile, the conductive zone is confined to a width of about 300 m and the anomaly exhibits a steep dip towards the east (about 70°). Modelling implies that the conductivity increase reaches to a depth of at least 1100 m and indicates a depth extent of less than 2000 m. Further conductive features are imaged but their geometry is less well constrained. The fault zone conductors of both MT profiles coincide in position with the alteration zone. For the dense profile, the dip of the conductive anomaly and the dip of the damage elements of the central part of the fault zone correlate. This suggests that the electrical conductivity enhancement is causally related to a mesh of minor faults and fractures, which is a likely pathway for fluids. The interconnected rock-porosity that is necessary to explain the observed conductivity enhancement by means of fluids is estimated on the basis of the salinity of several ground water samples (Archie's Law). The deeper the source of the water sample, the more saline it is due to longer exposure to fluid-rock interaction and the lower is the fluid's resistivity. A rock porosity in the range of 0.8% - 4% would be required at a depth of 200 m. That indicates that fluids penetrating the damaged fault zone from close to the surface are sufficient to explain the conductivity anomalies. This is as well supported by the preserved geochemical signature of rock samples in the alteration zone. Late stage alteration processes were active in a low temperature regime (<95°C) and the involvement of ascending brines from greater depth is not indicated. The limited depth extent of the fault zone conductors is a likely result of sealing and cementation of the fault fracture mesh due to dissolution and precipitation of minerals at greater depth and increased temperature. Comparison of the results of the apparently inactive West Fault with published studies on the electrical conductivity structure of the currently active San Andreas Fault, suggests that the depth extent and conductivity of the fault zone conductor may be correlated to fault activity. Ongoing deformation will keep the fault/fracture mesh permeable for fluids and impede cementation and sealing of fluid pathways.
Semi-arid areas are, due to their climatic setting, characterized by small water resources. An increasing water demand as a consequence of population growth and economic development as well as a decreasing water availability in the course of possible climate change may aggravate water scarcity in future, which often exists already for present-day conditions in these areas. Understanding the mechanisms and feedbacks of complex natural and human systems, together with the quantitative assessment of future changes in volume, timing and quality of water resources are a prerequisite for the development of sustainable measures of water management to enhance the adaptive capacity of these regions. For this task, dynamic integrated models, containing a hydrological model as one component, are indispensable tools. The main objective of this study is to develop a hydrological model for the quantification of water availability in view of environmental change over a large geographic domain of semi-arid environments. The study area is the Federal State of Ceará (150 000 km2) in the semi-arid north-east of Brazil. Mean annual precipitation in this area is 850 mm, falling in a rainy season with duration of about five months. Being mainly characterized by crystalline bedrock and shallow soils, surface water provides the largest part of the water supply. The area has recurrently been affected by droughts which caused serious economic losses and social impacts like migration from the rural regions. The hydrological model Wasa (Model of Water Availability in Semi-Arid Environments) developed in this study is a deterministic, spatially distributed model being composed of conceptual, process-based approaches. Water availability (river discharge, storage volumes in reservoirs, soil moisture) is determined with daily resolution. Sub-basins, grid cells or administrative units (municipalities) can be chosen as spatial target units. The administrative units enable the coupling of Wasa in the framework of an integrated model which contains modules that do not work on the basis of natural spatial units. The target units mentioned above are disaggregated in Wasa into smaller modelling units within a new multi-scale, hierarchical approach. The landscape units defined in this scheme capture in particular the effect of structured variability of terrain, soil and vegetation characteristics along toposequences on soil moisture and runoff generation. Lateral hydrological processes at the hillslope scale, as reinfiltration of surface runoff, being of particular importance in semi-arid environments, can thus be represented also within the large-scale model in a simplified form. Depending on the resolution of available data, small-scale variability is not represented explicitly with geographic reference in Wasa, but by the distribution of sub-scale units and by statistical transition frequencies for lateral fluxes between these units. Further model components of Wasa which respect specific features of semi-arid hydrology are: (1) A two-layer model for evapotranspiration comprises energy transfer at the soil surface (including soil evaporation), which is of importance in view of the mainly sparse vegetation cover. Additionally, vegetation parameters are differentiated in space and time in dependence on the occurrence of the rainy season. (2) The infiltration module represents in particular infiltration-excess surface runoff as the dominant runoff component. (3) For the aggregate description of the water balance of reservoirs that cannot be represented explicitly in the model, a storage approach respecting different reservoirs size classes and their interaction via the river network is applied. (4) A model for the quantification of water withdrawal by water use in different sectors is coupled to Wasa. (5) A cascade model for the temporal disaggregation of precipitation time series, adapted to the specific characteristics of tropical convective rainfall, is applied for the generating rainfall time series of higher temporal resolution. All model parameters of Wasa can be derived from physiographic information of the study area. Thus, model calibration is primarily not required. Model applications of Wasa for historical time series generally results in a good model performance when comparing the simulation results of river discharge and reservoir storage volumes with observed data for river basins of various sizes. The mean water balance as well as the high interannual and intra-annual variability is reasonably represented by the model. Limitations of the modelling concept are most markedly seen for sub-basins with a runoff component from deep groundwater bodies of which the dynamics cannot be satisfactorily represented without calibration. Further results of model applications are: (1) Lateral processes of redistribution of runoff and soil moisture at the hillslope scale, in particular reinfiltration of surface runoff, lead to markedly smaller discharge volumes at the basin scale than the simple sum of runoff of the individual sub-areas. Thus, these processes are to be captured also in large-scale models. The different relevance of these processes for different conditions is demonstrated by a larger percentage decrease of discharge volumes in dry as compared to wet years. (2) Precipitation characteristics have a major impact on the hydrological response of semi-arid environments. In particular, underestimated rainfall intensities in the rainfall input due to the rough temporal resolution of the model and due to interpolation effects and, consequently, underestimated runoff volumes have to be compensated in the model. A scaling factor in the infiltration module or the use of disaggregated hourly rainfall data show good results in this respect. The simulation results of Wasa are characterized by large uncertainties. These are, on the one hand, due to uncertainties of the model structure to adequately represent the relevant hydrological processes. On the other hand, they are due to uncertainties of input data and parameters particularly in view of the low data availability. Of major importance is: (1) The uncertainty of rainfall data with regard to their spatial and temporal pattern has, due to the strong non-linear hydrological response, a large impact on the simulation results. (2) The uncertainty of soil parameters is in general of larger importance on model uncertainty than uncertainty of vegetation or topographic parameters. (3) The effect of uncertainty of individual model components or parameters is usually different for years with rainfall volumes being above or below the average, because individual hydrological processes are of different relevance in both cases. Thus, the uncertainty of individual model components or parameters is of different importance for the uncertainty of scenario simulations with increasing or decreasing precipitation trends. (4) The most important factor of uncertainty for scenarios of water availability in the study area is the uncertainty in the results of global climate models on which the regional climate scenarios are based. Both a marked increase or a decrease in precipitation can be assumed for the given data. Results of model simulations for climate scenarios until the year 2050 show that a possible future change in precipitation volumes causes a larger percentage change in runoff volumes by a factor of two to three. In the case of a decreasing precipitation trend, the efficiency of new reservoirs for securing water availability tends to decrease in the study area because of the interaction of the large number of reservoirs in retaining the overall decreasing runoff volumes.
Die Landschaften Mitteleuropas sind das Resultat einer langwierigen Geschichte menschlicher Landnutzung mit ihren unterschiedlichen, z.T. konkurrierenden Nutzungsansprüchen. Durch eine überwiegend intensive Beanspruchung haben die direkten und indirekten Auswirkungen der Landnutzung in vielen Fällen zu Umweltproblemen geführt. Die Disziplin der Landschaftsökologie hat es sich zur Aufgabe gemacht, Konzepte für eine nachhaltige Nutzung der Landschaft zu entwickeln. Eine wichtige Fragestellung stellt dabei die Abschätzung der möglichen Folgen von Landnutzungsänderungen dar. Für die Analyse der relevanten Prozesse in der Landschaft werden häufig mathematische Modelle eingesetzt, welche es erlauben die Landschaft unter aktuellen Verhältnissen oder hinsichtlich veränderter Rahmenbedingungen zu untersuchen. Die hypothetische Änderung der Landnutzung, die als Landnutzungsszenario bezeichnet wird, verkörpert eine wesentliche Modifikation der Rahmenbedingungen, weil Landnutzung maßgeblich Einfluss auf die natürlichen Prozesse der Landschaft nimmt. Während die Antriebskräfte einer solchen Änderung überwiegend von sozio-ökonomischen und politischen Entscheidungen gesteuert werden, orientiert sich die exakte Verortung der Landnutzungsänderungen an den naturräumlichen Bedingungen und folgt z.T. erkennbaren Regeln. Anhand dieser Vorgaben ist es möglich, räumlich explizite Landnutzungsszenarien zu entwickeln, die als Eingangsdaten für die Modellierung verschiedener landschaftsökologischer Fragestellungen wie z.B. für die Untersuchung des Einflusses der Landnutzung auf den Wasserhaushalt, die Erosionsgefahr oder die Habitatqualität dienen können. Im Rahmen dieser Dissertation wurde das rasterbasierte deterministische Allokationsmodell luck (Land Use Change Scenario Kit) für die explizite Verortung der Landnutzungsänderungen entwickelt. Es basiert auf den in der Landschaftsökologie üblichen räumlichen Daten wie Landnutzung, Boden sowie Topographie und richtet sich bei der Szenarienableitung nach den Leitbildern der Landschaftsplanung. Das Modell fußt auf der Hypothese, dass das Landnutzungsmuster als Funktion seiner landschaftsökologischen Faktoren beschrieben werden kann. Das Veränderungspotenzial einer Landnutzungseinheit resultiert im Modell aus einer Kombination der Bewertung der relativen Eignung des Standortes für die jeweilige Landnutzung und der Berücksichtigung von Standorteigenschaften der umliegenden Nachbarn. Die Durchführung der Landnutzungsänderung im Modell ist iterativ angelegt, um den graduellen Prozess des Landschaftswandels nachvollziehen zu können. Als Fallbeispiel für die Anwendung solcher räumlich expliziten Landnutzungsszenarien dient die Fragestellung, inwieweit Landnutzungsänderungen die Hochwasserentstehung beeinflussen. Um den Einfluss auf die Hochwasserentstehung für jede der Landnutzungskategorien – bebaute, landwirtschaftlich genutzte und naturnahe Flächen – abschätzen zu können, wird im Landnutzungsmodell luck exemplarisch für jede Kategorie ein Teilmodell für die Veränderung von Landnutzung angeboten: 1) Ausdehnung der Siedlungsfläche: Dieses Teilmodell fußt auf der Annahme, dass sich Siedlungen nur in direkter Nachbarschaft bereits bestehender Bebauung und bevorzugt entlang von Entwicklungsachsen ausbreiten. Steile Hangneigungen stellen für potenzielle Standorte ein Hemmnis bei der Ausbreitung dar. 2) Stilllegung von Grenzertragsackerflächen: Gemäß der Hypothese, dass sich die Stilllegung von Ackerflächen an der potenziellen Ertragsleistung der Standorte orientiert, werden in diesem Teilmodell alle Ackerstandorte dahingehend bewertet und die Flächen mit der geringsten Leistungsfähigkeit stillgelegt. Bei homogenen Gebietseigenschaften werden die Stilllegungsflächen zufällig auf die Ackerfläche verteilt. 3) Etablierung von Schutzgebieten in Ufer- und Auenbereichen: Ausgehend von der These, dass sich entlang von Flüssen sensible Flächen befinden, deren Schutz positive Folgen für das Leistungsvermögen der Landschaft haben kann, werden in diesem Teilmodell schützenswerte Ufer- und Auenbereiche auf derzeit landwirtschaftlich genutzten Flächen ausgewiesen. Die Größe der Schutzgebietsfläche orientiert sich an der Morphologie der umgebenden Landschaft. Die drei Teilmodelle wurden hinsichtlich der implizierten Hypothesen mit vielen unterschiedlichen Ansätzen validiert. Das Resultat dieser intensiven Analyse zeigt für jedes Teilmodell eine zufriedenstellende Tauglichkeit. Die Modellierung der Landnutzungsänderungen wurden in drei mesoskaligen Flusseinzugsgebieten mit einer Fläche zwischen 100 und 500 km² durchgeführt, die sich markant in ihrer Landnutzung unterscheiden. Besonderer Wert wurde bei der Gebietsauswahl darauf gelegt, dass eines der Gebiete intensiv landwirtschaftlich genutzt wird, eines dicht besiedelt und eines vorwiegend bewaldet ist. Im Hinblick auf ihre Relevanz für die vorliegende Fragestellung wurden aus bestehenden Landnutzungstrends die Szenarien für (1) die prognostizierte Siedlungsfläche für das Jahr 2010, (2) die möglichen Konsequenzen des EU-weiten Beschlusses der Agenda 2000 und (3) die Novelle des Bundesnaturschutzgesetzes aus dem Jahr 2001 abgeleitet. Jedes Szenario wurde mit Hilfe des Modells auf die drei Untersuchungsgebiete angewendet. Dabei wurden für die Siedlungsausdehnung in allen drei Gebieten realistische Landnutzungsmuster generiert. Einschränkungen ergeben sich bei der Suche nach Grenzertragsstilllegungsflächen. Hier hat unter homogenen Gebietseigenschaften die zufällige Verteilung von Flächen für die Stilllegung zu einem unrealistischen Ergebnis geführt. Die Güte der Schutzgebietsausweisung ist maßgeblich an die aktuelle Landnutzung der Aue und die Morphologie des Geländes gebunden. Die besten Ergebnisse werden erzielt, wenn die Flächen in den Ufer- und Auenbereichen mehrheitlich unter derzeitiger Ackernutzung stehen und der Flusslauf sich in das Relief eingetieft hat. Exemplarisch werden für jeden Landnutzungstrend die hydrologischen Auswirkungen anhand eines historischen Hochwassers beschrieben, aus denen jedoch keine pauschale Aussage zum Einfluss der Landnutzung abgeleitet werden kann. Die Studie demonstriert die Bedeutung des Landnutzungsmusters für die natürlichen Prozesse in der Landschaft und unterstreicht die Notwendigkeit einer räumlich expliziten Modellierung für landschaftsökologische Fragestellungen in der Mesoskala.
Das Ziel dieser Arbeit ist es, die Strukturen im äußeren Erdkern zu untersuchen und Rückschlüsse auf die sich daraus ergebenden Konsequenzen für geodynamische Modellvorstellungen zu ziehen. Die Untersuchung der Kernphasenkaustik B mit Hilfe einer kumulierten Amplituden-Entfernungskurve ist Gegenstand des ersten Teils. Dazu werden die absoluten Amplituden der PKP-Phasen im Entfernungsbereich von 142 ° bis 147 ° bestimmt und mit den Amplituden synthetischer Seismogramme verglichen. Als Datenmaterial dienen die Breitbandregistrierungen des Deutschen Seismologischen Re-gionalnetzes (GRSN 1 ) und des Arrays Gräfenberg (GRF). Die verwendeten Wellen-formen werden im WWSSN-SP-Frequenzbereich gefiltert. Als Datenbasis dienen vier Tiefherdbeben der Subduktionszone der Neuen Hebriden (Vanuatu Island) und vier Nuklearexplosionen, die auf dem Mururoa und Fangataufa Atoll im Südpazifik stattgefunden haben. Beide Regionen befinden sich vom Regionalnetz aus gesehen in einer Epizentraldistanz von ungefähr 145 °. Die Verwendung eines homogen instrumentierten Netzes von Detektoren und die Anwendung von Stations- und Magnitudenkorrekturen verringern den Hauptteil der Streuung bei den Amplitudenwerten. Dies gilt auch im Vergleich zu Untersuchungen von langperiodischen Amplituden im Bereich der Kernphasenkaustik (Häge, 1981). Ein weiterer Grund für die geringe Streuung ist die ausschließliche Verwendung von Ereignissen mit kurzer impulsiver Herdzeitfunktion. Erst die geringe Streuung der Amplitudenwerte ermöglicht eine Interpretation der Daten. Die theoretischen Amplitudenkurven der untersuchten Erdmodelle zeigen im Bereich der Kaustik B einen gleichartigen Kurvenverlauf. Bei allen Berechnungen wird ein einheitliches Modell für die Güte der P- und S-Wellen verwendet, das sich aus den Q-Werten der Modelle CIT112 und PREM 2 zusammensetzt. Die mit diesem Q-Modell berechneten Amplituden liegen in geringem Maße oberhalb der gemessenen Amplituden. Dies braucht nicht berücksichtigt zu werden, da die kumulierte Amplituden-Entfernungskurve anhand der Lage des Maximums auf der Entfernungsachse ausgewertet wird. Folglich wird darauf verzichtet, ein alternatives Q-Modell zu entwickeln. Hinsichtlich der Lage des Kaustikmaximums lassen sich die untersuchten Erdmodelle in zwei Kategorien einteilen. Eine Gruppe besteht aus den Modellen IASP91 und 1066B, deren Maxima bei 144.6 ° und 144.7 ° liegen. Zur zweiten Gruppe von Modellen zählen AK135, PREM und SP6 mit den Maxima bei 145.1 ° und 145.2 ° (SP6). Die gemessene Amplitudenkurve hat ihr Maximum bei 145 °. Alle Entfernungsangaben beziehen sich auf eine Herdtiefe von 200 km. Die Kaustikentfernung für einen Oberflächenherd ist jeweils um 0.454 ° größer als die angegeben Werte. Damit liegen die Maxima der Modelle AK135 und PREM nur 0.1 ° neben dem der gemessenen kumulierten Amplitudenkurve. Daher wird auf die Erstellung eines eigenen Modells verzichtet, da dieses eine unwesentlich verbesserte Amplitudenkurve aufweisen würde. Das Ergebnis der Untersuchung ist die Erstellung einer gemessenen kumulierten Amplituden-Entfernungskurve für die Kaustik B. Die Kurve legt die Position der Kaustik B für kurzperiodische Daten auf ± 0.15 ° fest und bestimmt damit, welche Erdmodelle für die Beschreibung der Amplituden im Entfernungsbereich der Kaustik B besonders geeignet sind. Die Erdmodelle AK135 und PREM, ergänzt durch ein einheitliches Q-Modell, geben den Verlauf der Amplituden am besten wieder. Da die Amplitudenkurven beider Modelle nahe beieinander liegen, sind sie als gleichwertig zu bezeichnen. Im zweiten Teil der Arbeit wird die Struktur der Übergangszone in den inneren Erdkern anhand des spektralen Abklingens der Phase PKP(BC)diff am Punkt C der Laufzeitkurve untersucht. Der physikalische Prozeß der Beugung ist für die starke Abnahme der Amplituden dieser Phase verantwortlich. Die Diffraktion beeinflußt das Abklingverhalten verschiedener Frequenzanteile des seismischen Signals auf unterschiedliche Weise. Eine Deutung des Verhaltens erfordert die Berechnung von Abklingspektren. Dabei wird die Abschwächung des PKP(BC)diff Signals für acht Frequenzen zwischen 6.4 s und 1.25 Hz ermittelt und als Spektrum dargestellt. Die Form des Abklingspektrums ist charakteristisch für die Beschaffenheit der Geschwindigkeitsstruktur direkt oberhalb der Grenze zum inneren Erdkern (GIK). Die Beben, deren Kernphasen im Regionalnetz als diffraktierte Kernphasen BCdiff registriert werden, liegen in einem Entfernungsbereich jenseits von 150 °. In dieser Distanz befinden sich die Erdbebenherde der Tonga-Fidschi-Subduktionszone, deren Breitbandaufzeichnungen verwendet werden. Die Auswertung unkorrigierter Wellenformen ergibt Abklingspektren, die mit plausiblen Erdmodellen nicht in Einklang zu bringen sind. Aus diesem Grund werden die Daten einer spektralen Stationskorrektur unterzogen, die eigens zu diesem Zweck ermittelt wird. Am Beginn der Auswertung steht eine Prüfung bekannter Erdmodelle mit unterschiedlichen Geschwindigkeitsstrukturen oberhalb der GIK. Zu den untersuchten Modellen zählen PREM, IASP91, AK135Q, PREM2, SP6, OICM2 und eine Variante des PREM. Die Untersuchung ergibt, daß Modelle, die einen verringerten Gradienten oberhalb der GIK aufweisen, eine bessere Übereinstimmung mit den gemessenen Daten zeigen als Modelle ohne diese Übergangszone. Zur Verifikation dieser These wird ein Erdmodell, das keinen verringerten Gradienten oberhalb der GIK besitzt (PREM), durch eine Reihe unterschiedlicher Geschwindigkeitsverläufe in diesem Bereich ergänzt und deren synthetische Seismogramme berechnet. Das Resultat der Untersuchung sind zwei Varianten des PREM, deren Frequenzanalyse eine gute Übereinstimmung mit den Daten zeigt. Das Abklingspektrum des Erdmodells PD47, das in einer 380 km mächtigen Schicht einen negativen Gradienten besitzt, zeigt eine große Ähnlichkeit mit den gemessenen Spektren. Dennoch kann es nicht als realistisches Modell angesehen werden, da der Punkt C in einer zu großen Entfernung liegt. Darüber hinaus müßte die zu kurze Differenzlaufzeit zwischen PKP(AB) und PKP(DF) beziehungsweise PKIKP durch eine größere Änderung der Geschwindigkeitsstruktur im inneren Kern kompensiert werden. Es wird deshalb das Modell PD27a favorisiert, das diese Nachteile nicht aufweist. PD27a besitzt eine Schicht konstanter Geschwindigkeit oberhalb der GIK mit einer Mächtigkeit von 150 km. Die Art des Geschwindigkeitsverlaufs steht im Einklang mit der geodynamischen Modellvorstellung, nach der eine Anreicherung leichter Elemente oberhalb der GIK vorliegt, die als Ursache für die Konvektion im äußeren Erdkern anzusehen ist.
Deep convection is an essential part of the circulation in the North Atlantic Ocean. It influences the northward heat transport achieved by the thermohaline circulation. Understanding its stability and variability is therefore necessary for assessing climatic changes in the area of the North Atlantic. This thesis aims at improving the conceptual understanding of the stability and variability of deep convection. Observational data from the Labrador Sea show phases with and without deep convection. A simple two-box model is fitted to these data. The results suggest that the Labrador Sea has two coexisting stable states, one with regular deep convection and one without deep convection. This bistability arises from a positive salinity feedback that is due to the net freshwater input into the surface layer. The convecting state can easily become unstable if the mean forcing shifts to warmer or less saline conditions. The weather-induced variability of the external forcing is included into the box model by adding a stochastic forcing term. It turns out that deep convection is then switched "on" and "off" frequently. The mean residence time in either state is a measure of its stochastic stability. The stochastic stability depends smoothly on the forcing parameters, in contrast to the deterministic (non-stochastic) stability which may change abruptly. The mean and the variance of the stochastic forcing both have an impact on the frequency of deep convection. For instance, a decline in convection frequency due to a surface freshening may be compensated for by an increased heat flux variability. With a further simplified box model some stochastic stability features are studied analytically. A new effect is described, called wandering monostability: even if deep convection is not a stable state due to changed forcing parameters, the stochastic forcing can still trigger convection events frequently. The analytical expressions explicitly show how wandering monostability and other effects depend on the model parameters. This dependence is always exponential for the mean residence times, but for the probability of long nonconvecting phases it is exponential only if this probability is small. It is to be expected that wandering monostability is relevant in other parts of the climate system as well. All in all, the results demonstrate that the stability of deep convection in the Labrador Sea reacts very sensitively to the forcing. The presence of variability is crucial for understanding this sensitivity. Small changes in the forcing can already significantly lower the frequency of deep convection events, which presumably strongly affects the regional climate. ----Anmerkung: Der Autor ist Träger des durch die Physikalische Gesellschaft zu Berlin vergebenen Carl-Ramsauer-Preises 2003 für die jeweils beste Dissertation der vier Universitäten Freie Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin und Universität Potsdam.
Das Lektin aus Pisum sativum, der Gartenerbse, ist Teil der Familie der Leguminosenlektine. Diese Proteine haben untereinander eine hohe Sequenzhomologie, und die Struktur ihrer Monomere, ein all-ß-Motiv, ist hoch konserviert. Dagegen gibt es innerhalb der Familie eine große Vielfalt an unterschiedlichen Quartärstrukturen, die Gegenstand kristallographischer und theoretischer Arbeiten waren. Das Erbsenlektin ist ein dimeres Leguminosenlektin mit einer Besonderheit in seiner Struktur: Nach der Faltung in der Zelle wird aus einem Loop eine kurze Aminosäuresequenz herausgeschnitten, so dass sich in jeder Untereinheit zwei unabhängige Polypeptidketten befinden. Beide Ketten sind aber stark miteinander verschränkt und bilden eine gemeinsame strukturelle Domäne. Wie alle Lektine bindet Erbsenlektin komplexe Oligosaccharide, doch sind seine physiologische Rolle und der natürliche Ligand unbekannt. In dieser Arbeit wurden Versuche zur Entwicklung eines Funktionstests für Erbsenlektin durchgeführt und seine Faltung, Stabilität und Monomer-Dimer-Gleichgewicht charakterisiert. Um die spezifische Rolle der Prozessierung für Stabilität und Faltung zu untersuchen, wurde ein unprozessiertes Konstrukt in E. coli exprimiert und mit der prozessierten Form verglichen. Beide Proteine zeigen die gleiche kinetische Stabilität gegenüber chemischer Denaturierung. Sie denaturieren extrem langsam, weil nur die isolierten Untereinheiten entfalten können und das Monomer-Dimer-Gleichgewicht bei mittleren Konzentrationen an Denaturierungsmittel auf der Seite der Dimere liegt. Durch die extrem langsame Entfaltung zeigen beide Proteine eine apparente Hysterese im Gleichgewichtsübergang, und es ist nicht möglich, die thermodynamische Stabilität zu bestimmen. Die Stabilität und die Geschwindigkeit der Assoziation und Dissoziation in die prozessierten bzw. nichtprozessierten Untereinheiten sind für beide Proteine gleich. Darüber hinaus konnte gezeigt werden, dass auch unter nicht-denaturierenden Bedingungen die Untereinheiten zwischen den Dimeren ausgetauscht werden. Die Renaturierung der unprozessierten Variante ist unter stark nativen Bedingungen zu 100 % möglich. Das prozessierte Protein dagegen renaturiert nur zu etwa 50 %, und durch die Prozessierung ist die Faltung stark verlangsamt, der Faltungsprozess ist erst nach mehreren Tagen abgeschlossen. Im Laufe der Renaturierung wird ein Intermediat populiert, in dem die längere der beiden Polypeptidketten ein Homodimer mit nativähnlicher Untereinheitenkontaktfläche bildet. Der geschwindigkeitsbestimmende Schritt der Renaturierung ist die Assoziation der entfalteten kürzeren Kette mit diesem Dimer.
Motivated by recent proposals on the experimental detectability of quantum gravity effects, the present thesis investigates assumptions and methods which might be used for the prediction of such effects within the framework of loop quantum gravity. To this end, a scalar field coupled to gravity is considered as a model system. Starting from certain assumptions about the dynamics of the coupled gravity-matter system, a quantum theory for the scalar field is proposed. Then, assuming that the gravitational field is in a semiclassical state, a "QFT on curved space-time limit" of this theory is defined. In contrast to ordinary quantum field theory on curved space-time however, in this limit the theory describes a quantum scalar field propagating on a (classical) random lattice. Then, methods to obtain the low energy limit of such a lattice theory, especially regarding the resulting modified dispersion relations, are discussed and applied to simple model systems. Finally, under certain simplifying assumptions, using the methods developed before as well as a specific class of semiclassical states, corrections to the dispersion relations for the scalar and the electromagnetic field are computed within the framework of loop quantum gravity. These calculations are of preliminary character, as many assumptions enter whose validity remains to be studied more thoroughly. However they exemplify the problems and possibilities of making predictions based on loop quantum gravity that are in principle testable by experiment.
Vergleich von rekombinanten Vaccinia- und DNA-Vektoren zur Tumorimmuntherapie im C57BL/6-Mausmodell
(2002)
In der vorliegenden Arbeit wurden Tumorimpfstoffe auf der Basis des Plasmid-Vektors pCI, modified vaccinia virus Ankara (MVA) und MVA-infizierten dendritischen Zellen entwickelt und durch Sequenzierung, Western blotting und durchflußzytometrische Analyse überprüft. Die in vivo Wirksamkeit der Vakzinen wurde in verschiedenen Tumormodellen in C57BL/6 Mäusen verglichen. Die auf dem eukaryotischen Expressionsvektor pCI basierende DNA-Vakzinierung induzierte einen sehr wirksamen, antigenspezifischen und langfristigen Schutz vor Muzin, CEA oder beta-Galactosidase exprimierenden Tumoren. Eine MVA-Vakzinierung bietet in den in dieser Arbeit durchgeführten Tumormodellen keinen signifikanten Schutz vor Muzin oder beta-Galactosidase exprimierenden Tumoren. Sowohl humane, als auch murine in vitro generierte dendritische Zellen lassen sich mit MVA – im Vergleich zu anderen viralen Vektoren – sehr gut infizieren. Die Expressionsrate der eingefügten Gene ist aber gering im Vergleich zur Expression in permissiven Wirtszellen des Virus (embryonale Hühnerfibroblasten). Es konnte gezeigt werden, daß eine MVA-Infektion dendritischer Zellen ähnliche Auswirkungen auf den Reifezustand humaner und muriner dendritischer Zellen hat, wie eine Infektion mit replikationskompetenten Vakzinia-Stämmen, und außerdem die Hochregulation von CD40 während der terminalen Reifung von murinen dendritischen Zellen inhibiert wird. Die während der langfristigen in vitro Kultur auf CEF-Zellen entstandenen Deletionen im MVA Genom führten zu einer starken Attenuierung und dem Verlust einiger Gene, die immunmodulatorische Proteine kodieren, jedoch nicht zu einer Verminderung des zytopathischen Effekts in dendritischen Zellen. Die geringe Expressionsrate und die beobachtete Inhibition der Expression kostimulatorischer Moleküle auf dendritischen Zellen kann für eine wenig effektive Induktion einer Immunantwort in MVA vakzinierten Tieren durch cross priming oder die direkte Infektion antigenpräsentierender Zellen verantwortlich sein. Durch die Modifikation einer Methode zur intrazellulären IFN-gamma Färbung konnten in vakzinierten Mäusen tumorantigenspezifische CTL sensitiv und quantitativ detektiert werden. Die so bestimmte CTL-Frequenz, nicht jedoch die humorale Antwort, korrelierte mit der in vivo Wirksamkeit der verschiedenen Vakzinen: DNA vakzinierte Tiere entwickeln starke tumorantigenspezifische CTL-Antworten, wohingegen in MVA-vakzinierten Tieren überwiegend gegen virale Epitope gerichtete CD4 und CD8-T-Zellen detektiert wurden. Die Wirksamkeit der pCI-DNA-Vakzine spricht für die Weiterentwicklung in weiteren präklinischen Mausmodellen, beispielsweise unter Verwendung von MUC1 oder HLA-A2 transgenen Mäusen. Die Methoden zur Detektion Tumorantigen-spezifischer CTL in 96-Loch-Mikrotiterplatten können dabei zur systematischen Suche nach im Menschen immundominanten T-Zell-Epitopen im Muzin-Molekül genutzt werden. Der durchgeführte Vergleich der auf den Vektoren pCI und MVA basierenden Vakzinen und die Analyse neuerer Publikationen führen zu dem Ergebnis, daß vor allem DNA-Vakzinen in Zukunft eine wichtige Rolle bei der Entwicklung von aktiven Tumorimpfstoffen spielen werden. Rekombinante MVA-Viren, eventuell in Kombination mit DNA- oder anderen Vektoren, haben sich dagegen in zahlreichen Studien als wirksame Impfstoffe zur Kontrolle von durch Pathogene hervorgerufenen Infektionserkrankungen erwiesen.
Structural and spectroscopical study of crystals of 1,3,4-oxadiazole derivatives at high pressure
(2002)
In recent years the search for new materials of technological interest has given new impulses to the study of organic compounds. Organic substances possess a great number of advantages such as the possibility to adjust their properties for a given purpose by different chemical and physical techniques in the preparation process. Oxadiazole derivatives are interesting due to their use as material for light emitting diodes (LED) as well as scintillators. The physical properties of a solid depend on its structure. Different structures induce different intra- and intermolecular interactions. An advantageous method to modify the intra- as well as the intermolecular interactions of a given substance is the application of high pressure. Furthermore, using this method the chemical features of the compound are not influenced. We have investigated the influence of high pressure and high temperature on the super-molecular structure of several oxadiazole derivatives in crystalline state. From the results of this investigation an equation of state for these crystals was determined. Furthermore, the spectroscopical features of these materials under high pressure were characterized.
Das Phänomen der Subduktion eines aktiven Spreizungszentrums an der Südspitze Südamerikas ist seit langem bekannt. Eine Vielzahl von geologischen Beobachtungen wurden mit diesem Phänomen in Verbindung gebracht, trotzdem ist der genaue Mechanismus der Beeinflussung des aktiven Kontinentalrandes weitgehend unbekannt. Die Zusammenhänge zwischen den Subduktionsprozessen und der Entwicklung der patagonischen Anden zwischen 47°S und 48°S stehen im Mittelpunkt der Untersuchungen. Um eine detaillierte zeitliche Auflösung der zugrunde liegenden Prozesse untersuchen zu können, wurde die Entwicklung der Vorlandsedimentation, die thermische Entwicklung und die Heraushebung der Oberkruste des andinen Orogens untersucht und diese in Bezug zur Subduktion des Chile-Rückens gesetzt. Im Bereich von 47°30′S wurden die synorogenen Vorlandsedimente der Santa Cruz Formation sedimentologisch untersucht. Diese fluviatilen Sedimente wurden in einem reliefarmen Vorlandgebiet durch häufige Rinnenverlagerung und dem Aufbau von Rinnenumlagerungsgürteln in Kombination mit assoziierten großräumigen Überflutungsablagerungen akkumuliert. Sie stehen in einem engen Zusammenhang mit der orogenen Entwicklung im andinen Liefergebiet. Dies spiegelt sich in dem nach oben gröber werdenden Zyklus der Santa Cruz Formation wider. Die magnetostratigraphischen Untersuchungen einer 270 m mächtigen Sequenz aus der Basis der Santa Cruz Formation, die mit 329 Einzelproben aus 96 Probenpunkten beprobt wurde, ergab 7 Umkehrungen der geomagnetischen Feldrichtung. Mit Hilfe der geomagnetischen Polaritätszeitskala (CANDE AND KENT, 1995) konnte der untersuchte Abschnitt der Santa Cruz Formation zwischen 16.2 und 18.5 Ma datiert werden. Als Träger der Sedimentations-Remanenz konnten überwiegend Pseudoeinbereichs-Magentitpartikel und untergeordnet Hämatitpartikel identifiziert werden. An drei Profilen der Santa Cruz Formation wurden aus Sandsteinlagen unterschiedlicher stratigraphischer Position detritische Apatite mit Hilfe der thermochronologischen Spaltspurmethode untersucht. Die thermisch nicht rückgesetzten, detritischen Apatite spiegeln das Auftreten unterschiedlicher Altersdomänen im Liefergebiet der Sedimente wider. In der Kombination mit den geochemischen Gesamtgesteinsuntersuchungen der Sedimente und den petrographischen Untersuchungen der Sandsteine, die ein überwiegend andesitisch-vulkanisch geprägtes Liefergebiet widerspiegeln, kann nachgewiesen werden, dass die Erosion im Liefergebiet um 16.5 Ma in tiefere, deformierte Krustensegmente einschneidet. Dies bedeutet, dass aufgrund der Denudation im andinen Orogen erste Sockelgesteinseinheiten in den Bereich der Abtragung gelangen und dass dieser Eintrag um 12 bis 10 Ma ein Volumen einnimmt, das zu signifikanten Änderungen der Gesamtgesteinsgeochemie der Vorlandsedimente führt. Die thermochronologische Untersuchung von Apatiten aus rezenten topographischen Höhenprofilen aus der Kernzone der patagonischen Anden im Bereich von 47°30′S zeigen den Beginn einer beschleunigten Heraushebung des Orogens um 7.5 Ma. Aus diesen Untersuchungen kann eine Denudationsrate im Zeitraum der letzen 7 bis 8 Ma von 600 bis 650 m/Ma abgeschätzt werden. Die Modellierung der Apatit-Spaltspurergebnisse zeigt eine signifikante Temperaturerhöhung im Zeitraum zwischen 12 und 8 Ma um 20 bis 30°C für diesen Krustenbereich, die mit der Subduktion des aktiven Chile-Rückens in diesem Bereich der Anden in Verbindung gebracht wird. Aus den gewonnen Daten kann ein Modell für die Entwicklung der patagonischen Anden seit dem frühen Miozän abgeleitet werden. In diesem Modell wird die orogene Entwicklung in den patagonischen Anden auf eine erhöhte Konvergenzrate zwischen der Nazca Platte und der Südamerikanischen Platte zurückgeführt, die für die Heraushebung und Denudation der Anden sowie für die damit verbundene Entwicklung im Vorlandbereich verantwortlich ist. Diese orogene Entwicklung wird in einer späten Phase durch die nordwärts wandernde Subduktion des aktiven Spreizungszentrums des Chile Rückens überprägt und beeinflusst. Das auf der Integration von geologischen, chronologischen sowie thermochronologischen Daten beruhende Modell kann zahlreiche geologische und geophysikalische Beobachtungen in diesem Bereich der südlichen Anden konsistent erklären.
Comparative study of gene expression during the differentiation of white and brown preadipocytes
(2002)
Introduction Mammals have two types of adipose tissue: the lipid storing white adipose tissue and the brown adipose tissue characterised by its capacity for non-shivering thermogenesis. White and brown adipocytes have the same origin in mesodermal stem cells. Yet nothing is known so far about the commitment of precursor cells to the white and brown adipose lineage. Several experimental approaches indicate that they originate from the differentiation of two distinct types of precursor cells, white and brown preadipocytes. Based on this hypothesis, the aim of this study was to analyse the gene expression of white and brown preadipocytes in a systematic approach. Experimental approach The white and brown preadipocytes to compare were obtained from primary cell cultures of preadipocytes from the Djungarian dwarf hamster. Representational difference analysis was used to isolate genes potentially differentially expressed between the two cell types. The thus obtained cDNA libraries were spotted on microarrays for a large scale gene expression analysis in cultured preadipocytes and adipocytes and in tissue samples. Results 4 genes with higher expression in white preadipocytes (3 members of the complement system and a fatty acid desaturase) and 8 with higher expression in brown preadipocytes were identified. From the latter 3 coded for structural proteins (fibronectin, metargidin and a actinin 4), 3 for proteins involved in transcriptional regulation (necdin, vigilin and the small nuclear ribonucleoprotein polypeptide A) and 2 are of unknown function. Cluster analysis was applied to the gene expression data in order to characterise them and led to the identification of four major typical expression profiles: genes up-regulated during differentiation, genes down-regulated during differentiation, genes higher expressed in white preadipocytes and genes higher expressed in brown preadipocytes. Conclusion This study shows that white and brown preadipocytes can be distinguished by different expression levels of several genes. These results draw attention to interesting candidate genes for the determination of white and brown preadipocytes (necdin, vigilin and others) and furthermore indicate that potential importance of several functional groups in the differentiation of white and brown preadipocytes, mainly the complement system and extracellular matrix.
The length of the vegetation period (VP) plays a central role for the interannual variation of carbon fixation of terrestrial ecosystems. Observational data analysis has indicated that the length of the VP has increased in the last decades in the northern latitudes mainly due to an advancement of bud burst (BB). This phenomenon has been widely discussed in the context of Global Warming because phenology is correlated to temperatures. Analyzing the patterns of spring phenology over the last century in Southern Germany provided two main findings: - The strong advancement of spring phases especially in the decade before 1999 is not a singular event in the course of the 20th century. Similar trends were also observed in earlier decades. Distinct periods of varying trend behavior for important spring phases could be distinguished. - Marked differences in trend behavior between the early and late spring phases were detected. Early spring phases changed as regards the magnitude of their negative trends from strong negative trends between 1931 and 1948 to moderate negative trends between 1948 and 1984 and back to strong negative trends between 1984 and 1999. Late spring phases showed a different behavior. Negative trends between 1931 and 1948 are followed by marked positive trends between 1948 and 1984 and then strong negative trends between 1984 and 1999. This marked difference in trend development between early and late spring phases was also found all over Germany for the two periods 1951 to 1984 and 1984 to 1999. The dominating influence of temperature on spring phenology and its modifying effect on autumn phenology was confirmed in this thesis. However, - temperature functions determining spring phenology were not significantly correlated with a global annual CO2 signal which was taken as a proxy for a Global Warming pattern. - an index for large scale regional circulation patterns (NAO index) could only to a small part explain the observed phenological variability in spring. The observed different trend behavior of early and late spring phases is explained by the differing behavior of mean March and April temperatures. Mean March temperatures have increased on average over the 20th century accompanied by an increasing variation in the last 50 years. April temperatures, however, decreased between the end of the 1940s and the mid-1980s, followed by a marked warming after the mid-1980s. It can be concluded that the advancement of spring phenology in recent decades are part of multi-decadal fluctuations over the 20th century that vary with the species and the relevant seasonal temperatures. Because of these fluctuations a correlation with an observed Global Warming signal could not be found. On average all investigated spring phases advanced between 5 and 20 days between 1951 and 1999 for all Natural Regions in Germany. A marked difference be! tween late and early spring phases is due to the above mentioned differing behavior before and after the mid-1980s. Leaf coloring (LC) was delayed between 1951 and 1984 for all tree species. However, after 1984 LC was advanced. Length of the VP increased between 1951 and 1999 for all considered tree species by an average of ten days throughout Germany. It is predominately the change in spring phases which contributes to a change in the potentially absorbed radiation. Additionally, it is the late spring species that are relatively more favored by an advanced BB because they can additionally exploit longer days and higher temperatures per day advancement. To assess the relative change in potentially absorbed radiation among species, changes in both spring and autumn phenology have to be considered as well as where these changes are located in the year. For the detection of the marked difference between early and late spring phenology a new time series construction method was developed. This method allowed the derivation of reliable time series that spanned over 100 years and the construction of locally combined time series increasing the available data for model development. Apart from analyzed protocolling errors, microclimatic site influences, genetic variation and the observers were identified as sources of uncertainty of phenological observational data. It was concluded that 99% of all phenological observations at a certain site will vary within approximately 24 days around the parametric mean. This supports to the proposed 30-day rule to detect outliers. New phenology models that predict local BB from daily temperature time series were developed. These models were based on simple interactions between inhibitory and promotory agents that are assumed to control the developmental status of a plant. Apart from the fact that, in general, the new models fitted and predicted the observations better than classical models, the main modeling results were: - The bias of the classical models, i.e. overestimation of early observations and underestimation of late observations, could be reduced but not completely removed. - The different favored model structures for each species indicated that for the late spring phases photoperiod played a more dominant role than for early spring phases. - Chilling only plays a subordinate role for spring BB compared to temperatures directly preceding BB.
The primary focus on the present study was to identify early risk factors for infant aggression in a sample of high risk, low-income teenager mothers and their infants. Despite the amount of research on externalizing behavior, relatively little is known about its development in early childhood. Because chronically aggressive school-age children tend to be those who first display symptoms during preschool years, an examination of the early manifestations of aggressive behavior and the development of measurements for infants is needed. The present study explored a model of infant aggression development that emphasized infant aggression developing largely through the interaction of infant′s dispositional characteristics with their caregiving environment. The study addressed the following relations: (1) Maternal psychosocial functioning with reported and observed infant aggression and negative emotionality, (2) reported measurements of infant aggression and negative emotionality with observed infant measurements of infant aggression and negative emotionality, (3) infant negative emotionality and infant aggression, (4) infant emotion regulation with infant aggression and negative emotionality, (5) the interaction between emotion regulation and negative emotionality in relation to infant aggression, and (6) attachment classification with infant aggression and negative emotionality. Finally, the question of whether these six relations would differ by gender was also addressed. Maternal psychosocial functioning was assessed with self-reported measurements. Infant aggression, negative emotionality and emotion regulation were measured during two standardized assessments, the Strange Situation and the Bayley Scales of Infant Development Assessment and maternal reported with the Infant-Toddler Social and Emotional Assessment. Several interesting findings emerged. One of the main findings concerned maternal attribution and its possible role as a risk factor for later externalizing behaviors. That is, mothers, especially depressed and stressed mothers, tended to report higher levels of infant aggression and negative emotionality than was noted by more objective observers. This tendency was particularly evident in mothers with girl infants. Another important finding concerned emotion regulation. Even at this early age, clear differences in emotion regulation could be seen. Interestingly, infants with high negative emotionality and low emotion regulation were observed to be the most aggressive. Also significant relations emerged for infant negative emotionality and aggression and vise versa. Thus, for purposes of treatment and scientific study, the three constructs (emotion regulation, negative emotionality, and aggression) should be considered in combination. Investigating each alone may not prove fruitful in future examinations. Additionally, different emotion regulation behaviors were observed for girl and boy infants. Aggressive girls looked more at the environment, their toys and their mother, whereas aggressive boys looked less at the environment and their mother and explored their toys more, although looked at the toys less. Although difficult to interpret at this point, it is nonetheless interesting that gender differences exist at this young age in emotion regulatory behaviors. In conclusion, although preliminary, findings from the present study provide intriguing directions for future research. More studies need to conducted focusing on infant aggression, as well as longitudinal studies following the infants over time.
Hämoglobin-A1c (HbA1c) ist ein Hämoglobin (Hb)-Subtypus, der durch nicht-enzymatische Glykierung des N-terminalen Valinrestes der Hämoglobin-beta-Kette entsteht. Das gemessene Verhältnis von HbA1c zum Gesamt-Hämoglobin (5-20 % bei Diabetikern) repräsentiert den Mittelwert der Blutglucosekonzentration über einen zweimonatigen Zeitraum und stellt zur Beurteilung der diabetischen Stoffwechsellage eine Ergänzung zur Akutkontrolle der Glukosekonzentration dar. Ziel der vorliegenden Arbeit war es, einen amperometrischen Biosensor für die Bestimmung des medizinisch relevanten Parameters HbA1c zu entwickeln. Durch Selektion geeigneter Bioerkennungselemente und deren Immobilisierung unter Erhalt der Bindungsfunktion für die Zielmoleküle Hämoglobin bzw. HbA1c wurden spezifische, hochaffine und regenerationsstabile Sensoroberflächen geschaffen. Für die Entwicklung des HbA1c-Biosensors wurden zwei Konzepte - Enzymsensor und Immunosensor - miteinander verglichen. Die enzymatische Umsetzung von HbA1c erfolgte mit der Fructosylamin Oxidase (FAO) aus Pichia pastoris N 1-1 unter Freisetzung von H2O2, welches sowohl optisch über eine Indikatorreaktion als auch elektrochemisch nach Einschluss der FAO in PVA-SbQ und Fixierung des Immobilisats vor einer H2O2-Elektrode nachgewiesen wurde. Die Kalibration des Enzymsensors mit der HbA1c-Modellsubstanz Fructosyl-Valin ergab Nachweisgrenzen, die ausserhalb des physiologisch relevanten HbA1c-Konzentrationsbereich lagen. Aus der Umsetzung von glykierten Peptiden mit einer nicht HbA1c analogen Aminosäurensequenz, z.B. Fructosyl-Valin-Glycin wurde zudem eine geringe HbA1c-Spezifität abgeleitet. Für den Immunosensor wurden zwei heterogene Immunoassay-Formate unter Verwendung von hochaffinen und spezifischen Antikörpern in Kombination mit Glucose Oxidase (GOD) als Markerenzym zum Nachweis von HbA1c untersucht. Beim indirekt-kompetitiven Immunoassay wurde anstelle des kompletten HbA1c-Moleküls das glykierte Pentapeptid Fructosyl-Valin-Histidin-Leucin-Threonin-Prolin (glkPP) als Kompetitor und Affinitätsligand immobilisiert und so eine regenerierfähige Oberfläche geschaffen. Beim Sandwich-Immunoassay wurde im ersten Schritt Gesamt-Hämoglobin an die mit Haptoglobin (Hp) modifizierte Festphase angereichert und im zweiten Schritt der gebundene HbA1c-Anteil nachgewiesen. Für die Konstruktion des HbA1c-Immunosensors wurden Affinitätsmatrizen durch Modifizierung von Cellulose-Dialysemembranen mit glkPP bzw. Hp hergestellt. Grundlegend studiert wurde die Aktivierung der Cellulose-Membranen mit 1,1'-Carbonyldiimidazol (CDI) und 1-Cyano-4-dimethylaminopyridintetrafluoroborat (CDAP) als Aktivierungsagenzien. Eine gerichtete Immobilisierung der Liganden wurde realisiert, indem glkPP über dessen C-Terminus (einzige Carboxylatgruppe) und Hp über dessen periodat-oxidiertem Kohlenhydratrest an die amino- oder hydrazidfunktionalisierte Membranen kovalent gekoppelt wurden. Mit dem Einsatz der glkPP- und Hp-modifizierten Membranen in der elektrochemischen Messzelle war erstmalig der biosensorische Nachweis von HbA1c möglich. Als Transduktor diente eine Pt-Elektrode, an der das von der GOD generierte H2O2 umgesetzt und ein mit der HbA1c-Konzentration korrelierendes Stromsignal erzeugt wurde. Die Immunosensoren zeigten Ansprechzeiten von 3 s. Mit dem Immunosensor auf Basis des indirekt-kompetitiven Testprinzips wurde eine Kalibrationskurve für HbA1c im Bereich von 0,25-30 µg/ml (3,9-465 nM, CV 3-9 %) mit Assayzeiten von 60 min und mit dem Immunosensor im Sandwich-Format eine Kalibrationskurve im Bereich von 0,5-5 µg/ml (7,8-78 nM; 5-50 % HbA1c vom Gesamt-Hb, CV 6-10 %, 3 h) aufgenommen.
New polymers and low molecular compounds, suitable for organic light emitting devices and organic electronic applications, have been synthesised in this years in order to obtain electron transport characteristics compatible with requirements for applications in real plastic devices. However, despite of the technological importance and of the relevant progress in devices manufacture, fundamental physical properties of such class of materials are still not enough studied. In particular extensive presence of distributions of localised states inside the band gap has a deep impact on their electronic properties. Such presence of shallow traps as well as the influence of the sample preparation conditions on deep and shallow localised states have not been, until now, systematically explored. The thermal techniques are powerful tools in order to study localised levels in inorganic and organic materials. Thermally stimulated luminescence (TSL), thermally stimulated currents (TSC) and thermally stimulated depolarisation currents (TSDC) allow to deeply look to shallow and deep trap levels as well as they permit to study, in synergy with dielectric spectroscopy (DES), polarisation and depolarisation effects. We studied, by means of numerical simulations, the first and the second order kinetic equations characterised by negligible and strong re-trapping respectively. We included in the equations Gaussian, exponential and quasi-continuous distributions of localised states. The shapes of the theoretical peaks have been investigated by means of systematic variation of the two main parameters of the equations, i. e. the energy trap depth E and the frequency factor a and of the parameters regulating the distributions, in particular for a Gaussian distribution the distribution width s and the integration limits. The theoretical findings have been applied to experimental glow curves. Thin films of polymers and low molecular compounds. Polyphenylquinoxalines, trisphenylquinoxalines and oxadiazoles, studied because of their technological relevance, show complex thermograms, having several levels of localised states and depolarisation peaks. In particular well ordered films of an amphiphilic substituted 2-(p-nitrophenyl)-5-(p-undecylamidophenyl)-1,3,4-oxadiazole (NADPO) are characterised by rich TSL thermograms. A wide region of shallow traps, localised at Em = 4 meV, has been successfully fit by means of a first order kinetic equation having a Gaussian distribution of localised states. Two further peaks, having a different origin, have been characterised. The peaks at Tm = 221.5 K and Tm = 254.2 have activation energy of Em= 0.63 eV and Em = 0.66 eV, frequency factor s = 2.4x1012 s-1 and s = 1.85x1011 s-1, distribution width s = 0.045 eV and s = 0.088 eV respectively. Increasing the number of thermal cycle, a peak, probably connected with structural defects, appears at Tm = 197.7 K. The numerical analysis of this peak was performed by means of a first order equation containing a Gaussian distribution of traps. The activation energy of the trap level is centred at Em = 0.55 eV. The distribution is perfectly symmetric with a quite small width s = 0.028 eV. The frequency factor is s = 1.15 x 1012 s-1, resulting of the same order of magnitude of its neighbour peak at Tm = 221.5 K, having both, probably, the same origin. Furthermore the work demonstrates that the shape of the glow curves is strongly influenced by the excitation temperature and by the thermal cycles. For that reason Gaussian distributions of localised states can be confused with exponential distributions if the previous thermal history of the samples is not adequately considered.
Im Rahmen dieser Arbeit gelang es, katalytische Antikörper zur Hydrolyse von Benzylphenylcarbamaten sowie zahlreiche monoklonale Antikörper gegen Haptene herzustellen. Es wurden verschiedene Hapten-Protein-Konjugate unter Verwendung unterschiedlicher Kopplungsmethoden hergestellt und charakterisiert. Zur Generierung der hydrolytisch aktiven Antikörper wurden Inzuchtmäuse mit KLH-Konjugaten von 4 Übergangszustandsanaloga (ÜZA) immunisiert. Mit Hilfe der Hybridomtechnik wurden verschiedene monoklonale Antikörper gegen diese ÜZA gewonnen. Dabei wurden sowohl verschiedene Immunisierungsschemata als auch verschiedene Inzuchtmausstämme und Fusionstechniken verwendet. Insgesamt wurden 32 monoklonale Antikörper gegen die verwendeten ÜZA selektiert. Diese Antikörper wurden in großen Mengen hergestellt und gereinigt. Zum Nachweis der Antikörper-vermittelten Katalyse wurden verschiedene Methoden entwickelt und eingesetzt, darunter immunologische Nachweismethoden mit Anti-Substrat- und Anti-Produkt-Antikörpern und eine photometrische Methode mit Dimethylaminozimtaldehyd. Der Nachweis der hydrolytischen Aktivität gelang mit Hilfe eines Enzymsensors, basierend auf immobilisierter Tyrosinase. Die Antikörper N1-BC1-D11, N1-FA7-C4, N1-FA7-D12 und R3-LG2-F9 hydrolysierten die Benzylphenylcarbamate POCc18, POCc19 und Substanz 27. Der Nachweis der hydrolytischen Aktivität dieser Antikörper gelang auch mit Hilfe der HPLC. Der katalytische Antikörper N1-BC1-D11 wurde kinetisch und thermodynamisch untersucht. Es wurde eine Michaelis-Menten-Kinetik mit Km von 210 µM, vmax von 3 mM/min und kcat von 222 min-1 beobachtet. Diese Werte korrelieren mit den Werten der wenigen bekannten Diphenylcarbamat-spaltenden Abzyme. Die Beschleunigungsrate des Antikörpers N1-BC1-D11 betrug 10. Das ÜZA Hei3 hemmte die hydrolytische Aktivität. Dies beweist, dass die Hydrolyse in der Antigenbindungsstelle stattfindet. Weiter wurde zwischen der Antikörperkonzentration und der Umsatzgeschwindigkeit eine lineare Abhängigkeit festgestellt. Die thermodynamische Gleichtgewichtsdissoziationskonstante KD des Abzyms von 2,6 nM zeugt von einer sehr guten Affinität zum ÜZA. Hydrolytisch aktiv waren nur Antikörper, die gegen das Übergangszustandsanalogon Hei3 hergestellt worden waren. Es wird vermutet, dass die Hydrolyse der Benzylphenylcarbamate über einen Additions-Eliminierungsmechanismus unter Ausbildung eines tetraedrischen Übergangszustandes verläuft, dessen analoge Verbindung Hei3 ist. Im Rahmen der Generierung von Nachweisantikörpern zur Detektion der Substratabnahme bei der Hydrolyse wurden Anti-Diuron-Antikörper hergestellt. Einer der Antikörper (B91-CG5) ist spezifisch für das Herbizid Diuron und hat einen IC50-Wert von 0,19 µg/l und eine untere Nachweisgrenze von 0,04 µg/l. Ein anderer Antikörper (B91-KF5) reagiert kreuz mit einer Palette ähnlicher Herbizide. Mit diesen Antikörpern wurde ein empfindlicher Labortest, der ein Monitoring von Diuron auf Grundlage des durch die Trinkwasserverordnung festgeschriebenen Wertes für Pflanzenschutzmittel von 0,1 µg/l erlaubt, aufgebaut. Der Effekt der Anti-Diuron-Antikörper auf die Diuron-inhibierte Photosynthese wurde in vitro und in vivo untersucht. Es wurde nachgewiesen, dass sowohl in isolierten Thylakoiden, als auch in intakten Algen eine Vorinkubation der Anti-Diuron-Antikörper mit Diuron zur Inaktivierung seiner Photosynthese-hemmenden Wirkung führt. Wurde der Elektronentransport in den isolierten Thylakoiden oder in Algen durch Diuron unterbrochen, so führte die Zugabe der Anti-Diuron-Antikörper zur Reaktivierung der Elektronenübertragung.
Jets are highly collimated flows of matter. They are present in a large variety of astrophysical sources: young stars, stellar mass black holes (microquasars), galaxies with an active nucleus (AGN) and presumably also intense flashes of gamma-rays. In particular, the jets of microquasars, powered by accretion disks, are probably small-scale versions of the outflows from AGN. Beside observations of astrophysical jet sources, also theoretical considerations have shown that magnetic fields play an important role in jet formation, acceleration and collimation. Collimated jets seem to be systematically associated with the presence of an accretion disk around a star or a collapsed object. If the central object is a black hole, the surrounding accretion disk is the only possible location for a magnetic field generation. We are interested in the formation process of highly relativistic jets as observed from microquasars and AGN. We theoretically investigate the jet collimation region, whose physical dimensions are extremely tiny even compared to radio telescopes spatial resolution. Thus, for most of the jet sources, global theoretical models are, at the moment, the only possibility to gain information about the physical processes in the innermost jet region. For the first time, we determine the global two-dimensional field structure of stationary, axisymmetric, relativistic, strongly magnetized (force-free) jets collimating into an asymptotically cylindrical jet (taken as boundary condition) and anchored into a differentially rotating accretion disk. This approach allows for a direct connection between the accretion disk and the asymptotic collimated jet. Therefore, assuming that the foot points of the field lines are rotating with Keplerian speed, we are able to achieve a direct scaling of the jet magnetosphere in terms of the size of the central object. We find a close compatibility between the results of our model and radio observations of the M87 galaxy innermost jet. We also calculate the X-ray emission in the energy range 0.2--10.1\,keV from a microquasar relativistic jet close to its source of 5 solar masses. In order to do it, we apply the jet flow parameters (densities, velocities, temperatures of each volume element along the collimating jet) derived in the literature from the relativistic magnetohydrodynamic equations. We obtain theoretical thermal X-ray spectra of the innermost jet as composition of the spectral contributions of the single volume elements along the jet. Since relativistic effects as Doppler shift and Doppler boosting due to the motion of jets toward us might be important, we investigate how the spectra are affected by them considering different inclinations of the line of sight to the jet axis. Emission lines of highly ionized iron are clearly visible in our spectra, probably also observed in the Galactic microquasars GRS 1915+105 and XTE J1748-288. The Doppler shift of the emission lines is always evident. Due to the chosen geometry of the magnetohydrodynamic jet, the inner X-ray emitting part is not yet collimated. Ergo, depending on the viewing angle, the Doppler boosting does not play a major role in the total spectra. This is the first time that X-ray spectra have been calculated from the numerical solution of a magnetohydrodynamic jet.
Am Beispiel der Wiederkäuer wurde unter Zuhilfenahme von biochemischen und molekularbiologischen Methoden die Adaptation von Pflanzenfressern (Herbivoren) an pflanzliche Sekundärmetabolite wie z.B. Tannine untersucht. Tannine können in nicht an ihren Verzehr adaptierten Spezies durch ihr Proteinbindungsvermögen die Nahrungsverwertung und damit Wachstum und Gesundheit des Pflanzenfressers beeinträchtigen (antinutritive Wirkung). Einige Wiederkäuerarten wie z.B. das Reh (Capreolus capreolus) haben in ihrem Nahrungsspektrum viele stark tanninhaltige Pflanzen, leiden aber nicht unter den erwähnten postdigestiven Konsequenzen. Eine Möglichkeit, die antinutritive Wirkung von Tanninen zu neutralisieren, besteht in der Produktion tanninbindender Speichelproteine. Der Speichel verschiedener Wiederkäuerarten wurde auf das Vorhandensein tanninbindender Proteine untersucht. Diese Arten wurden so ausgewählt, dass alle drei Ernährungstypen (Konzentratselektierer, Intermediärtyp, Gras- und Rauhfutterfresser) in den Vergleich eingeschlossen werden konnten. Als Referenzspezies wurde der Konzentratselektierer Reh herangezogen. Die Speichelproteine des Rehs und die der Intermediärtypen (Rentier, Rangifer tarandus; Damhirsch, Cervus dama; Moschusochse, Ovibos moschatus) banden ungefähr doppelt so effektiv an hydrolysierbare Tannine (Tanninsäure), wie die der untersuchten Gras- und Rauhfutterfresser (Rind, Bos taurus; und Mufflon, Ovis orientalis musimon). Diese Abstufung zeigte sich auch bei der Untersuchung der Bindung an kondensierte Tannine (Quebracho). Eine Ausnahme stellte Mufflonspeichel dar, dieser band ebenso gut an Quebracho wie die Speichelproteine der anderen Ernährungstypen. Über eine Aminosäuretotalanalyse konnte festgestellt werden, dass der Speichel einiger untersuchter Wiederkäuerarten prolinreiche Proteine (PRPs) enthielt. Unter Ausnutzung ihrer Trichloressigsäure (TCA)-Löslichkeit wurden diese angereichert und genauer untersucht. Die Analyse der TCA-löslichen Speichelproteine der Konzentratselektierer (Reh, Elch) ergab einen relativen Prolingehalt von über 35 %, während beim Moschusochsen noch 29 % gemessen wurden. In Damhirsch- und Rinderspeichel wurden keine prolinreichen Proteine gefunden. Für die TCA-löslichen Speichelproteine des Rehs konnte eine hohe Tanninbindungskapazität nachgewiesen werden. Diese banden 24 - 30 x effektiver an Tannine als die TCA-löslichen Speichelproteine des Rindes. Die Tanninbindungskapazitäten der TCA-löslichen Speichelproteine von Moschusochse und Damhirsch waren ebenfalls höher als die des Rindes, aber niedriger als die des Rehs. Die Kohlenhydrat-Analyse der TCA-löslichen Speichelproteine des Rehs erbrachte, dass es sich bei ihnen um Glykoproteine handelt. Mittels Gelfiltration und zweidimensionaler Polyacrylamidgelektrophorese konnten fünf Proteingruppen mit Molekulargewichten zwischen 15 und 50 kd sowie isoelektrischen Punkten zwischen 4,0 und 8,2 detektiert werden. Von 15 dieser Proteine konnten die N-terminalen Aminosäuresequenzen ermittelt werden. Ausgehend von diesen Informationen wurden Reh-PRP spezifische mRNAs isoliert und partiell sequenziert. Die meisten dieser Fragmente hatten eine gemeinsame 18 Aminosäuren lange C-terminale Sequenz PPPEEQPEE/QSPDEE/DSPSE. Die Suche nach Übereinstimmungen der analysierten Sequenzen mit anderen Säugetier-PRPs in der Genbank ergab keine sinnvollen Ähnlichkeiten. Die Ergebnisse können zu Informationen über tanninbindende Proteine anderer Wiederkäuer führen. Die Sequenzinformationen stellen einen Ausgangspunkt bei der Analyse der evolutiven Zusammenhänge der Cerviden dar.
Nonlinear multistable systems under the influence of noise exhibit a plethora of interesting dynamical properties. A medium noise level causes hopping between the metastable states. This attractorhopping process is characterized through laminar motion in the vicinity of the attractors and erratic motion taking place on chaotic saddles, which are embedded in the fractal basin boundary. This leads to noise-induced chaos. The investigation of the dissipative standard map showed the phenomenon of preference of attractors through the noise. It means, that some attractors get a larger probability of occurrence than in the noisefree system. For a certain noise level this prefernce achieves a maximum. Other attractors are occur less often. For sufficiently high noise they are completely extinguished. The complexity of the hopping process is examined for a model of two coupled logistic maps employing symbolic dynamics. With the variation of a parameter the topological entropy, which is used together with the Shannon entropy as a measure of complexity, rises sharply at a certain value. This increase is explained by a novel saddle merging bifurcation, which is mediated by a snapback repellor. Scaling laws of the average time spend on one of the formerly disconnected parts and of the fractal dimension of the connected saddle describe this bifurcation in more detail. If a chaotic saddle is embedded in the open neighborhood of the basin of attraction of a metastable state, the required escape energy is lowered. This enhancement of noise-induced escape is demonstrated for the Ikeda map, which models a laser system with time-delayed feedback. The result is gained using the theory of quasipotentials. This effect, as well as the two scaling laws for the saddle merging bifurcation, are of experimental relevance.
Im ersten Teil der Arbeit wurden Strategien zur Analyse von Transkripten erarbeitet. Die ersten Versuche zielten darauf ab, in mit Glaskapillaren genommenen Einzelzellproben verschiedener Gewebeschichten RT-PCR durchzuführen, um spezifische Transkripte nachweisen zu können. Dies gelang für eine Reihe von Genen aus verschiedenen Pflanzenspezies. Dabei konnten sowohl Transkripte stark wie auch schwach exprimierter Gene nachgewiesen werden. Für die Erstellung von Gewebe-spezifischen Expressionsprofilen war es notwendig, die in vereinigten Zellproben enthaltene mRNA zunächst zu amplifizieren, um eine ausreichende Menge für Arrayhybridisierungen zu erhalten. Vor der Vermehrung wurde die mRNA revers transkribiert. Es wurden daran anschließend verschiedene Amplifikationsstrategien getestet: Die neben Tailing, Adapterligation und anderen PCR-basierenden Protokollen getestete Arbitrary-PCR hat sich in dieser Arbeit als einfache und einzige Methode herausgestellt, die mit so geringen cDNA-Mengen reproduzierbar arbeitet. Durch Gewebe-spezifische Array-hybridisierungen mit der so amplifizierten RNA konnten schon bekannte Expressionsmuster verschiedener Gene, vornehmlich solcher, die an der Photosynthese beteiligt sind, beobachtet werden. Es wurden aber auch eine ganze Reihe neuer offensichtlich Gewebe-spezifisch exprimierter Gene gefunden. Exemplarisch für die differentiell exprimierten Gene konnte das durch Arrayhybridisierungen gefundene Expressionsmuster der kleinen Untereinheit von Rubisco verifiziert werden. Hierzu wurden Methoden zum Gewebe-spezifischen Northernblot sowie semiquantitativer und Echtzeit-Einzelzell-RT-PCR entwickelt. Im zweiten Teil der Arbeit wurden Methoden zur Analyse von Metaboliten einschließlich anorganischer Ionen verwendet. Es stellte sich heraus, daß die multiparallele Methode der Gaschromatographie-Massenspektrometrie keine geeignete Methode für die Analyse selbst vieler vereinigter Zellinhalte ist. Daher wurde auf Kapillarelektrophorese zurückgegriffen. Eine Methode, die mit sehr kleinen Probenvolumina auskommt, eine hohe Trennung erzielt und zudem extrem geringe Detektionslimits besitzt. Die Analyse von Kohlenhydraten und Anionen erfordert eine weitere Optimierung. Über UV-Detektion konnte die K+-Konzentration in verschiedenen Geweben von A. thaliana bestimmt werden. Sie lag in Epidermis und Mesophyll mit ca. 25 mM unterhalb der für andere Pflanzenspezies (Solanum tuberosum und Hordeum vulgare) publizierten Konzentration. Weiter konnte gezeigt werden, daß zwölf freie Aminosäuren mittels einer auf Kapillarelektrophorese basierenden Methode in vereinigten Zellproben von Cucurbita maxima identifiziert werden konnten. Die Übertragung der Methode auf A. thaliana-Proben muß jedoch weiter optimiert werden, da die Sensitivität selbst bei Laser induzierter Fluoreszenz-Detektion nicht ausreichte. Im dritten und letzten Teil der Arbeit wurde eine Methode entwickelt, die die Analyse bekannter wie unbekannter Proteine in Gewebe-spezifischen Proben ermöglicht. Hierzu wurde zur Probennahme mittels mechanischer Mikrodissektion eine alternative Methode zur Laser Capture Microdissection verwendet, um aus eingebetteten Gewebeschnitten distinkte Bereiche herauszuschneiden und somit homogenes Gewebe anzureichern. Aus diesem konnten die Proteine extrahiert und über Polyacrylamidgelelektrophorese separariert werden. Banden konnten ausgeschnitten, tryptisch verdaut und massenspektrometrisch die Primärsequenz der Peptidfragmente bestimmt werden. So konnten als Hauptproteine im Mesophyll die große Untereinheit von Rubisco sowie ein Chlorophyll bindendes Protein gefunden werden. Die in dieser Arbeit entwickelten und auf die Modellpflanze Arabidopsis thaliana angewandten Einzelzellanalysetechniken erlauben es in Zukunft, physiologische Prozesse besser sowohl räumlich als auch zeitlich aufzulösen. Dies wird zu einem detaillierteren Verständnis mannigfaltiger Vorgänge wie Zell-Zell-Kommunikation, Signalweiterleitung oder Pflanzen-Pathogen-Interaktionen führen.
In this work we consider statistical learning problems. A learning machine aims to extract information from a set of training examples such that it is able to predict the associated label on unseen examples. We consider the case where the resulting classification or regression rule is a combination of simple rules - also called base hypotheses. The so-called boosting algorithms iteratively find a weighted linear combination of base hypotheses that predict well on unseen data. We address the following issues: o The statistical learning theory framework for analyzing boosting methods. We study learning theoretic guarantees on the prediction performance on unseen examples. Recently, large margin classification techniques emerged as a practical result of the theory of generalization, in particular Boosting and Support Vector Machines. A large margin implies a good generalization performance. Hence, we analyze how large the margins in boosting are and find an improved algorithm that is able to generate the maximum margin solution. o How can boosting methods be related to mathematical optimization techniques? To analyze the properties of the resulting classification or regression rule, it is of high importance to understand whether and under which conditions boosting converges. We show that boosting can be used to solve large scale constrained optimization problems, whose solutions are well characterizable. To show this, we relate boosting methods to methods known from mathematical optimization, and derive convergence guarantees for a quite general family of boosting algorithms. o How to make Boosting noise robust? One of the problems of current boosting techniques is that they are sensitive to noise in the training sample. In order to make boosting robust, we transfer the soft margin idea from support vector learning to boosting. We develop theoretically motivated regularized algorithms that exhibit a high noise robustness. o How to adapt boosting to regression problems? Boosting methods are originally designed for classification problems. To extend the boosting idea to regression problems, we use the previous convergence results and relations to semi-infinite programming to design boosting-like algorithms for regression problems. We show that these leveraging algorithms have desirable theoretical and practical properties. o Can boosting techniques be useful in practice? The presented theoretical results are guided by simulation results either to illustrate properties of the proposed algorithms or to show that they work well in practice. We report on successful applications in a non-intrusive power monitoring system, chaotic time series analysis and a drug discovery process. --- Anmerkung: Der Autor ist Träger des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2001/2002.
Populärwissenschaftlicher Abstract: Bislang gibt es in der beobachtenden optischen Astronomie zwei verschiedene Herangehensweisen: Einerseits werden Objekte durch Kameras abbildend erfaßt, andererseits werden durch die wellenlängenabhängige Zerlegung ihres Lichtes Spektren gewonnen. Das Integral - Field - Verfahren ist eine relativ neue Technik, welche die genannten Beobachtungsmethoden vereint. Das Objektbild im Teleskopfokus wird in räumlich zerlegt und jedes Ortselement einem gemeinsamen Spektrografen zugeführt. Hierdurch wird das Objekt nicht nur zweidimensional räumlich erfaßt, sondern zusätzlich die spektrale Kompenente als dritte Dimension erhalten, weswegen das Verfahren auch als 3D-Methode bezeichnet wird. Anschaulich kann man sich das Datenresultat als eine Abbildung vorstellen, in der jeder einzelne Bildpunkt nicht mehr nur einen Intensitätswert enthält, sondern gleich ein ganzes Spektrum. Diese Technik ermöglicht es, ausgedehnte Objekte im Unterschied zu gängigen Spaltspektrografen komplett zu erfassen. Die besondere Stärke der Methode ist die Möglichkeit, die Hintergrundkontamination der unmittelbaren Umgebung des Objektes zu erfassen und in der Auswertung zu berücksichtigen. Durch diese Fähigkeit erscheint die 3D-Methode prädestiniert für den durch moderne Großteleskope erschlossenen Bereich der extragalaktischen Stellarastronomie. Die detaillierte Untersuchung aufgelöster stellare Populationen in nahegelegenen Galaxien ist erst seit kurzer Zeit dank der Fortschritte mit modernen Grossteleskopen und fortschrittlicher Instrumentierung möglich geworden. Wegen der Bedeutung für die Entstehung und Evolution von Galaxien werden diese Arbeiten zukünftig weiter an Bedeutung gewinnen. In der vorliegenden Arbeit wurde die Integral-Field-Spektroskopie an zwei planetarischen Nebeln in der nächstgelegenen großen Spiralgalaxie M31 (NGC 224) getestet, deren Helligkeiten und Koordinaten aus einer Durchmusterung vorlagen. Hierzu wurden Beobachtungen mit dem MPFS-Instrument am russischen 6m - Teleskop in Selentschuk/Kaukasus sowie mit INTEGRAL/WYFFOS am englischen William-Herschel-Teleskop auf La Palma gewonnen. Ein überraschendes Ergebnis war, daß eins der beiden Objekte falsch klassifiziert wurde. Sowohl die meßbare räumliche Ausdehnung des Objektes als auch das spektrale Erscheinungsbild schlossen die Identität mit einem planetarischen Nebel aus. Mit hoher Wahrscheinlichkeit handelt es sich um einen Supernovaüberrest, zumal im Rahmen der Fehler an gleicher Stelle eine vom Röntgensatelliten ROSAT detektierte Röntgenquelle liegt. Die in diesem Projekt verwendeten Integral-Field-Instrumente wiesen zwei verschiedene Bauweisen auf, die sich miteinander vergleichen ließen. Ein Hauptkritikpunkt der verwendeten Instrumente war ihre geringe Lichtausbeute. Die gesammelten Erfahrung fanden Eingang in das Konzept des derzeit in Potsdam in der Fertigung befindlichen 3D-Instruments PMAS (Potsdamer Multi - Apertur - Spektrophotometer), welcher zunächst für das 3.5m-Teleskop des Calar - Alto - Observatoriums in Südspanien vorgesehen ist. Um die Effizienz dieses Instrumentes zu verbessern, wurde in dieser Arbeit die Kopplung der zum Bildrasterung verwendeten Optik zu den Lichtleitfasern im Labor untersucht. Die Untersuchungen zur Maximierung von Lichtausbeute und Stabilität zeigen, daß sich die Effizienz durch Auswahl einer geeigneten Koppelmethode um etwa 20 Prozent steigern lässt.
Subject of this work is the investigation of generic synchronization phenomena in interacting complex systems. These phenomena are observed, among all, in coupled deterministic chaotic systems. At very weak interactions between individual systems a transition to a weakly coherent behavior of the systems can take place. In coupled continuous time chaotic systems this transition manifests itself with the effect of phase synchronization, in coupled chaotic discrete time systems with the effect of non-vanishing macroscopic mean field. Transition to coherence in a chain of locally coupled oscillators described with phase equations is investigated with respect to the symmetries in the system. It is shown that the reversibility of the system caused by these symmetries results to non-trivial topological properties of trajectories so that the system constructed to be dissipative reveals in a whole parameter range quasi-Hamiltonian features, i.e. the phase volume is conserved on average and Lyapunov exponents come in symmetric pairs. Transition to coherence in an ensemble of globally coupled chaotic maps is described with the loss of stability of the disordered state. The method is to break the self-consistensy of the macroscopic field and to characterize the ensemble in analogy to an amplifier circuit with feedback with a complex linear transfer function. This theory is then generalized for several cases of theoretic interest.
Mercaptursäure und Nukleosidaddukt im Harn als Biomarker in 1-Hydroxymethylpyren-exponierten Ratten
(2002)
1-Methylpyren (MP) ist hepatokanzerogen in neugeborenen männlichen Mäusen. Durch Hydroxylierung an der benzylischen Stelle und anschließende Sulfonierung wird MP zu DNA-reaktivem 1-Sulfooxymethylpyren (SMP) aktiviert. In der Ratte führt die Exposition des benzylischen Alkohols, 1-Hydroxymethylpyren (HMP), zur DNA-Adduktbildung in verschiedenen Geweben. Eventuelle Konsequenz der Toxifizierung ist die Ausscheidung entsprechender Mercaptursäure und Nukleosidaddukt im Harn, welche aufgrund ihrer Herkunft als Biomarker eignen könnten. In dieser Arbeit wird die Ausscheidung der Mercaptursäure und des N2-Desoxyguanosinadduktes in HMP-exponierten Ratten untersucht. Nach der Applikation von HMP bzw. MP wurden weniger als 1 % der Dosis als MPMA über Urin und Faeces ausgeschieden (0 - 48 h). Die Ausscheidung erfolgt hauptsächlich in den ersten 24 h nach der Applikation. MPdG konnte weder in Urin noch in Faeces der HMP-behandelten Tieren identifiziert werden. Nach direkter SMP-Applikation wurde MPdG nur in sehr geringe Menge (weniger als 0,9 ppm in 12 h) im Urin gefunden. Aufgrund der geringen Menge eignet sich MPdG nicht als Biomarker. MPMA dagegen, lässt sich analytisch gut erfassen. Es sollte daher untersucht werden, ob MPMA die Toxifizierung des HMP wiederspiegelt. Die Voraussetzung dafür ist die Kenntnisse über das Metabolismusmuster von HMP. Es wurde daher umfassende Untersuchungen zum Metabolismus des HMP durchgeführt. Die Ergebnisse zeigten, dass mehr als 80 % der Metaboiten in ihrer oxidierten Form (PCS, deren Glucuronsäure-Konjugate sowie phenolische Sulfatester der PCS) ausgeschieden wurden. Demnach spielt die Oxidation des HMP zu PCS eine sehr wichtige Rolle bei der Detoxifizierung und Ausscheidung von HMP. Ferne konnte nachgewiesen werden, dass die Enzyme Alkohol- und Aldehyd-Dehydrogenase an der Oxidation von HMP beteiligt waren. Die Inhibitoren Disulfiram und Ethanol der o. g. Enzyme wurde daher zur Modulation der Detoxifizierung in vivo eingesetzt. Die Veränderungen in der Toxifizierung von HMP zu SMP wurden durch die SMP-Konzentration im Plasma, die DNA-Addukthäufigkeit und die MPMA-Ausscheidung erfasst. Die Vorbehandlung von Disulfiram und Ethanol führte zu tendentielle Erhöhung der SMP-Konzentration im Plasma, DNA-Addukthäufigkeit in der Leber und die MPMA-Ausscheidung. Bemerkenswert ist jedoch, dass bereits eine Dosis von 0,2 g Ethanol/kg Körpermasse bereits zu statistisch signifikanten Erhöhungen der MPMA-Ausscheidung bei weiblichen Ratten.
In der randomisierten, multizentrischen DASH-Studie (Dietary Approaches to Stop Hy-pertension), die unter kontrollierten Bedingungen stattfand, führte eine fettreduzierte Mischkost, reich an Obst, Gemüse und Milchprodukten, bei Borderline-Hypertonikern zu einer signifikanten Blutdrucksenkung. Während der Studienphase wurden Körpermasse, Natrium-Aufnahme sowie Alkoholzufuhr aufgrund der bekannten Einflussnahme auf den Blutdruck konstant gehalten. In der eigenen Pilot-Studie sollte untersucht werden, ob das Ergebnis der DASH-Studie (i) mit deutschen Hypertonikern und (ii) unter habituellen Ernährungs- und Lebensbedingungen mit regelmäßig durchgeführter Ernährungsberatung und ad libitum Verzehr anstelle des streng kontrollierten Studienansatzes bestätigt werden kann. Eine Konstanz der Körpermasse, der Natrium-Urinausscheidung (unter diesem Studienansatz valider als die Aufnahme) und des Alkoholkonsums wurde vorausgesetzt. Die Studienpopulation setzte sich aus 53 übergewichtigen Probanden mit einer nicht medikamentös therapierten Borderline-Hypertonie und ohne Stoffwechselerkrankungen zusammen. Die Studienteilnehmer wurden randomisiert entweder der Idealgruppe mit einer fettarmen Kost reich an Milchprodukten, Obst und Gemüse (ähnlich der DASH-Idealgruppe) oder der Kontrollgruppe mit habitueller Ernährungsweise zugeteilt. Über einen Zeitraum von fünf Wochen wurde den Probanden etwa 50% ihres täglichen Lebensmittelbedarfes entsprechend ihrer Gruppenzugehörigkeit kostenfrei zur Verfügung gestellt. Gelegenheitsblutdruckmessungen und 24h-Blutdruckmessungen, Ernährungs- und Aktivitätsprotokolle, Blut- und Urinproben sowie anthropometrische Messungen wurden vor, während und fünf Wochen nach der Interventionsphase durchgeführt. Die Ergebnisse zeigen, dass in der Idealgruppe keine signifikante Blutdrucksenkung beobachtet werden konnte. Dies lässt sich durch die Tatsache erklären, dass die Lebens-mittel- und Nährstoffaufnahme der deutschen Kontrollgruppe eher der amerikanischen Idealgruppe entsprach. In der Pilot-Studie waren die Unterschiede in der Nährstoffzufuhr zwischen den beiden Gruppen viel geringer als in der DASH-Studie; für eine blutdrucksenkende Ernährungsumstellung bestand somit nur ein geringer Spielraum. Eine weitere Erklärung besteht in der unterschiedlichen Zusammensetzung der Studienpopulation. Bei DASH wurden vorwiegend farbige Probanden (40% höhere Hypertonieprävalenz) untersucht. Die Studienergebnisse lassen also den Schluss zu, dass Ernährungs- und Lebensstilgewohnheiten sowie der genetische Hintergrund der entsprechenden Bevölkerungsgruppe bei der Formulierung von nährstoff- oder lebensmittelbezogenen Empfehlungen zur Senkung des Bluthochdruckes Berücksichtigung finden müssen.
Einfache Decarbonylierungen und stereoselektive Oxidationen von Cyclohexadienen und Cyclohexenen
(2001)
Zusammenfassend konnte im Rahmen dieser Arbeit das Synthesepotential von Cyclohexadienen und Cyclohexenen deutlich erweitert werden. Die Darstellung der 1-Alkylcyclohexa-2,5-dien-1-carbonsäuren erfolgte mittels Birch-Reduktion in flüssigem Ammoniak und anschließender Umsetzung der intermediär entstehenden Dianionen mit Alkylhalogeniden. So konnte ausgehend von verschiedenen Benzoesäurederivaten eine Reihe interessanter Cyclohexadiene in sehr guten Ausbeuten synthetisiert werden. Erstmals gelangen säurekatalysierte Decarbonylierungen von Cyclohexadiencarbonsäuren, was die einfache Synthese substituierter Aromaten in ausgezeichneten Ausbeuten ermöglichte. In dieser Arbeit wird der Reaktionsmechanismus vorgestellt, welcher durch den Nachweis von Kohlenmonoxid in der Gasphase der Reaktionslösung durch IR-Spektroskopie untermauert wird. Bei der säurekatalysierten Umsetzung von 3-alkylsubstituierten Cyclohexadien-carbonsäuren entstanden neben den erwarteten Aromaten Lactone in ca. 50% Ausbeute. Schließlich zeigen die untersuchten Singulettsauerstoff-En-Reaktionen, der im ersten Teil dargestellten Cyclohexadiene und Lactone, durchweg hohe Regioselektivitäten und lieferten durch elektrostatische Wechselwirkungen und konformative Effekte zum Teil sehr gute Diastereoselektivitäten. Die auxiliarkontrollierte Photooxygenierungen von Cyclohexenon welches mit verschiedenen Weinsäureestern ketalisiert wurde, zeigten jedoch keine bevorzugte p-Facialität des Singulettsauerstoffs.
Subject of this work is the investigation of universal scaling laws which are observed in coupled chaotic systems. Progress is made by replacing the chaotic fluctuations in the perturbation dynamics by stochastic processes. First, a continuous-time stochastic model for weakly coupled chaotic systems is introduced to study the scaling of the Lyapunov exponents with the coupling strength (coupling sensitivity of chaos). By means of the the Fokker-Planck equation scaling relations are derived, which are confirmed by results of numerical simulations. Next, the new effect of avoided crossing of Lyapunov exponents of weakly coupled disordered chaotic systems is described, which is qualitatively similar to the energy level repulsion in quantum systems. Using the scaling relations obtained for the coupling sensitivity of chaos, an asymptotic expression for the distribution function of small spacings between Lyapunov exponents is derived and compared with results of numerical simulations. Finally, the synchronization transition in strongly coupled spatially extended chaotic systems is shown to resemble a continuous phase transition, with the coupling strength and the synchronization error as control and order parameter, respectively. Using results of numerical simulations and theoretical considerations in terms of a multiplicative noise partial differential equation, the universality classes of the observed two types of transition are determined (Kardar-Parisi-Zhang equation with saturating term, directed percolation).
Merapi volcano is one of the most active and dangerous volcanoes of the earth. Located in central part of Java island (Indonesia), even a moderate eruption of Merapi poses a high risk to the highly populated area. Due to the close relationship between the volcanic unrest and the occurrence of seismic events at Mt. Merapi, the monitoring of Merapi's seismicity plays an important role for recognizing major changes in the volcanic activity. An automatic seismic event detection and classification system, which is capable to characterize the actual seismic activity in near real-time, is an important tool which allows the scientists in charge to take immediate decisions during a volcanic crisis. In order to accomplish the task of detecting and classifying volcano-seismic signals automatically in the continuous data streams, a pattern recognition approach has been used. It is based on the method of hidden Markov models (HMM), a technique, which has proven to provide high recognition rates at high confidence levels in classification tasks of similar complexity (e.g. speech recognition). Any pattern recognition system relies on the appropriate representation of the input data in order to allow a reasonable class-decision by means of a mathematical test function. Based on the experiences from seismological observatory practice, a parametrization scheme of the seismic waveform data is derived using robust seismological analysis techniques. The wavefield parameters are summarized into a real-valued feature vector per time step. The time series of this feature vector build the basis for the HMM-based classification system. In order to make use of discrete hidden Markov (DHMM) techniques, the feature vectors are further processed by applying a de-correlating and prewhitening transformation and additional vector quantization. The seismic wavefield is finally represented as a discrete symbol sequence with a finite alphabet. This sequence is subject to a maximum likelihood test against the discrete hidden Markov models, learned from a representative set of training sequences for each seismic event type of interest. A time period from July, 1st to July, 5th, 1998 of rapidly increasing seismic activity prior to the eruptive cycle between July, 10th and July, 19th, 1998 at Merapi volcano is selected for evaluating the performance of this classification approach. Three distinct types of seismic events according to the established classification scheme of the Volcanological Survey of Indonesia (VSI) have been observed during this time period. Shallow volcano-tectonic events VTB (h < 2.5 km), very shallow dome-growth related seismic events MP (h < 1 km) and seismic signals connected to rockfall activity originating from the active lava dome, termed Guguran. The special configuration of the digital seismic station network at Merapi volcano, a combination of small-aperture array deployments surrounding Merapi's summit region, allows the use of array methods to parametrize the continuously recorded seismic wavefield. The individual signal parameters are analyzed to determine their relevance for the discrimination of seismic event classes. For each of the three observed event types a set of DHMMs has been trained using a selected set of seismic events with varying signal to noise ratios and signal durations. Additionally, two sets of discrete hidden Markov models have been derived for the seismic noise, incorporating the fact, that the wavefield properties of the ambient vibrations differ considerably during working hours and night time. A total recognition accuracy of 67% is obtained. The mean false alarm (FA) rate can be given by 41 FA/class/day. However, variations in the recognition capabilities for the individual seismic event classes are significant. Shallow volcano-tectonic signals (VTB) show very distinct wavefield properties and (at least in the selected time period) a stable time pattern of wavefield attributes. The DHMM-based classification performs therefore best for VTB-type events, with almost 89% recognition accuracy and 2 FA/day. Seismic signals of the MP- and Guguran-classes are more difficult to detect and classify. Around 64% of MP-events and 74% of Guguran signals are recognized correctly. The average false alarm rate for MP-events is 87 FA/day, whereas for Guguran signals 33 FA/day are obtained. However, the majority of missed events and false alarms for both MP and Guguran events are due to confusion errors between these two event classes in the recognition process. The confusion of MP and Guguran events is interpreted as being a consequence of the selected parametrization approach for the continuous seismic data streams. The observed patterns of the analyzed wavefield attributes for MP and Guguran events show a significant amount of similarity, thus providing not sufficient discriminative information for the numerical classification. The similarity of wavefield parameters obtained for seismic events of MP and Guguran type reflect the commonly observed dominance of path effects on the seismic wave propagation in volcanic environments. The recognition rates obtained for the five-day period of increasing seismicity show, that the presented DHMM-based automatic classification system is a promising approach for the difficult task of classifying volcano-seismic signals. Compared to standard signal detection algorithms, the most significant advantage of the discussed technique is, that the entire seismogram is detected and classified in a single step.
Mit der vorliegenden Arbeit werden exemplarisch Chancen und Grenzen der Integration von Umwelt- und Naturschutz in Verfahren der ackerbaulichen Landnutzung aufgezeigt. Die Umsetzung von Zielen des Umwelt- und Naturschutzes in Verfahren der Landnutzung ist mit verschiedenen Schwierigkeiten verbunden. Diese liegen zum einen in der Konkretisierung der Ziele, um diese umsetzen zu können, zum anderen in vielfach unzulänglichem Wissen über den Zusammenhang zwischen unterschiedlichen Formen der Landnutzung und insbesondere den biotischen Naturschutzzielen. Zunächst wird die Problematik der Zielfestlegung und Konkretisierung erörtert. Das Umweltqualitätszielkonzept von Fürst et al. (1992) stellt einen Versuch dar, Ziele des Umwelt- und Naturschutzes zu konkretisieren. Dieses Konzept haben Heidt et al. (1997) auf einen Landschaftsausschnitt von ca. 6000 ha im Biosphärenreservat Schorfheide-Chorin im Nordosten Brandenburgs angewendet. Eine Auswahl der von Heidt et al. (1997) formulierten Umweltqualitätsziele bildet die Basis dieser Arbeit. Für die ausgewählten Umweltqualitätsziele wurden wesentliche Einflussfaktoren der Landnutzung identifiziert und ein Bewertungssystem entwickelt, mit dem die Auswirkungen von landwirtschaftlichen Anbauverfahren auf diese Umweltqualitätsziele abgebildet werden können. Die praktizierte Landnutzung von 20 Betrieben im Biosphärenreservat Schorfheide-Chorin wurde von 1994 bis 1997 hinsichtlich ihrer Auswirkungen auf die Umweltqualitätsziele analysiert. Die Analyse ergab ein sehr differenziertes Bild, das zum Teil Unterschiede in der Auswirkung auf die Umweltqualitätsziele für den Anbau einzelner Kulturen oder für bestimmte Betriebstypen zeigte. Es zeigte sich aber auch, dass es bei der Gestaltung des Anbaus einzelner Kulturarten große Unterschiede gab, die für Umweltqualitätsziele Bedeutung haben. Neben der Analyse der Landnutzung im Biosphärenreservat Schorfheide-Chorin wurde ein System entwickelt, mit dem die modellhafte Abbildung von Verfahren der Landnutzung möglich ist. Die Modellverfahren wurden in eine umfangreiche Datenbank eingebunden. Sie wurden mit Hilfe eines Fuzzy- Regelsystems hinsichtlich ihrer Auswirkungen auf die Umweltqualitätsziele bewertet. Die systematisch bewerteten Verfahren wurden in ein Betriebsmodell integriert, womit eine weitergehende Analyse der Zielbeziehungen und die Berechnung von Szenarien mit unterschiedlichen Rahmenbedingungen ermöglicht wurde. Die Analyse der Beziehung verschiedener Ziele zueinander (Zieldivergenz, Zielkonvergenz) zeigte, dass sich mit der Verfolgung vieler Umweltqualitätsziele auch positive Effekte für andere Umweltqualitätsziele ergaben. Teilweise konnte allerdings auch eine Zieldivergenz festgestellt werden, die auf mögliche Zielkonflikte hinweist. Bei der Analyse der Szenarienergebnisse zeigte sich, dass die vorgeschlagenen Veränderungen von Rahmenbedingungen vielfach eine Verschlechterung für verschiedene Umweltqualitätsziele mit sich bringen. Eine Ursache dafür liegt darin, dass bei der Definition der Szenarien die Bedeutung der Stilllegungen unterschätzt wurde.
Research on monolayers of amphiphilic lipids on aqueous solution is of basic importance in surface science. Due to the applicability of a variety of surface sensitive techniques, floating insoluble monolayers are very suitable model systems for the study of order, structure formation and material transport in two dimensions or the interactions of molecules at the interface with ions or molecules in the bulk (headword 'molecular recognition'). From the behavior of monolayers conclusions can be drawn on the properties of lipid layers on solid substrates or in biological membranes. This work deals with specific and fundamental interactions in monolayers both on the molecular and on the microscopic scale and with their relation to the lattice structure, morphology and thermodynamic behavior of monolayers at the air-water interface. As model system especially monolayers of long chain fatty acids are used, since there the molecular interactions can be gradually adjusted by varying the degree of dissociation by means of the suphase pH value. For manipulating the molecular interactions besides the subphase composition also temperature and monolayer composition are systematically varied. The change in the monolayer properties as a function of an external parameter is analyzed by means of isotherm and surface potential measurements, Brewster-angle microscopy, X-ray diffraction at grazing incidence and polarization modulated infrared reflection absorption spectroscopy. For this a quantitative measure for the molecular interactions and for the chain conformational order is derived from the X-ray data. The most interesting results of this work are the elucidation of the origin of regular polygonal and dendritic domain shapes, the various effects of cholesterol on molecular packing and lattice order of long chain amphiphiles, as well as the detection of an abrupt change in the head group bonding interactions, the chain conformational order and the phase transition pressure between tilted phases in fatty acid monolayers near pH 9. For the interpretation of the latter point a model of the head group bonding structure in fatty acid monolayers as a function of the pH value is developed.
Das Menderes Massiv im Westen der Türkei stellt eine große Kulmination metamorpher Gesteine dar. Das Untersuchungsgebiet ist im Zentralen Menderes Massiv (Ödemis Submassiv) gelegen, das von den beiden aktiven Gräben, dem Gediz Graben im Norden und dem Büyük Menderes Graben im Süden begrenzt wird. Die Untersuchungen der Eklogit Relikte im zentralen Menderes Massiv haben ergeben, dass sich im Menderes Massiv Hochdruckrelikte in unterschiedlichen tektonischen Positionen befinden. Zum einen existieren Eklogit-Blöcke in der obersten Einheit (Selcuk Einheit) des zentralen Menderes Massivs und zum anderen Hochdruck-Relikte in der strukturell mittleren Birgi - Tire Decke. Die Granate der quarzfreien Eklogit-Blöcke weisen große Ähnlichkeiten mit denen der HP/LT Gesteine von Sifnos und Syros auf. Die Entwicklung der Eklogit-Blöcke in der Olistostrom-Einheit lässt sich jedoch nicht mit den Eklogit Relikten in der strukturell mittleren Birgi Tire Decke vergleichen. Für die Eklogit-Relikte in der Birgi Tire Decke wurde eine polymetamorphe Entwicklung mithilfe petrologischer Untersuchungen und chemischen und Pb-Pb Datierungen herausgearbeitet. Die Eklogit Relikte gehören zu einem metamorphen Teilpfad, der durch eine Amphibolitfazies 1 - Hochdruck - Amphibolitfazies 2/Granulitfazies charakterisiert ist. Der Endpunkt dieses Teilpfades ist mit Temperaturen zwischen 700 und 750 °C und Drücken von 1.2 - 1.4 GPa belegt. Für diese Bedingungen konnte ein minimales Alter von 520 Ma durch chemische Datierungen an Monaziten einer Augengneisprobe und Pb-Pb Datierungen an Zirkonen einer Augengneis- und Metagabbroprobe bestimmt werden. Dieser amphibolit/granulitfazieller Endpunkt wird mit den Granitintrusionen des zentralen und südlichen Menderes Massiv korreliert, die in einem Zeitraum zwischen 520 Ma bis 550 Ma stattfanden. Sowohl die Amphibolitfazies 1 als auch das Hochdruckereignis werden der Panafrikanischen Orogenese zugeordnet. Für die Hochdruckbedingungen wurden maximale Temperaturen zwischen 680°C und 720°C und bei einem Druck von 2.2 GPa bestimmt. In den untersuchten Metasedimenten konnte eine prograde metamorphe Entwicklung abgeleitet werden, die amphibolitfazielle Bedingungen von 660°C bei 0.6 GPa erreichte. Das Metamorphosealter dieser Metasedimente konnte mit < 100 Ma mittels chemischer Mikrosondendatierung bestimmt werden. Die in den Metasedimenten herausgearbeiteten Druck- und Temperaturbedingungen wurden ebenfalls in den metabasischen Gesteinen bestimmt. Diese Ergebnisse werden als Krustenstapelung der metabasischen Gesteine, Augengneise und Metasedimente interpretiert, die mit der alpinen Orogenese im Zusammenhang stehen. Durch die Ergebnisse dieser Arbeit lässt sich die Birgi-Tire Decke im zentralen Menderes Massiv genauer charakterisieren. Sie besteht aus Metasedimenten, pelitischen Gneisen, Augengneisen und metabasichen Gesteinen. Die Gneise (pelitische und Augengneise) und die metabasischen Gesteine stellen panafrikanische Relikte dar, die einen amphibolit- eklogit- amphibolit/granulitfaziellen Metamorphosepfad gespeichert haben. Die amphibolit- bis granulitfazielle Metamorphose hängt mit den Granitintrusionen zusammen und fand in einem Zeitraum zwischen 520 - 550 Ma statt. Große Teile der Metasedimente der Birgi Tire Decke haben jedoch nur eine alpine metamorphe Entwicklung durchlaufen, wo sie unter amphibolitfazielle Bedingungen Krustentiefen erreichten, bei denen sie mit den panafrikanischen Relikten zusammen gestapelt wurden und eine gemeinsame Exhumierung erfahren haben.
In der vorliegenden Arbeit werden anhand der Edelgaszusammensetzung von Kimberliten und Lamproiten sowie ihrer gesteinsbildenden Minerale die Wechselwirkungen dieser Gesteine mit Fluiden diskutiert. Die untersuchten Proben stammen vom östlichen Baltischen Schild, vom Kola-Kraton (Poria Guba und Kandalaksha) und vom karelischen Kraton (Kostamuksha). Edelgasanalysen nach thermischer oder mechanischer Gasextraktion von 23 Gesamtgesteinsproben und 15 Mineralseparaten ergeben folgendes Bild: Helium- und Neon-Isotopendaten der Fluideinschlüsse von Lamproiten aus Kostamuksha lassen auf den Einfluss einer fluiden Phase krustaler Herkunft schliessen. Diese Wechselwirkungen fanden wahrscheinlich schon während des Magmenaufstiegs statt, denn spätere Einflüsse krustaler Fluide auf die Lamproite und ihr Nebengestein (Quarzit) sind gering, wie anhand der C/<sup>36Ar-Zusammensetzung gezeigt wird. Auch sind die mit verschiedenen Datierungsmethoden (Rb-Sr, Sm-Nd, K-Ar) an Mineralseparaten und teilweise an Gesamtgestein ermittelten Alter konsistent und machen eine metamorphe Überprägung unwahrscheinlich. Aufgrund der Verteilung der primordialen Edelgasisotope zwischen Fluideinschlüssen und Gesteinsmatrix ist ein langsamer Magmenaufstieg anzunehmen, was die Möglichkeit der Kontamination mit einem krustalen Fluid während des Magmenaufstiegs erhöht. Die Gasextraktion aus Mineralseparaten erfolgte thermisch, wodurch eine Freisetzung der Gase ausschließlich aus Fluideinschlüssen nicht möglich ist. Hierbei zeigen Amphibol und Klinopyroxen, separiert aus Kostamuksha-Lamproiten, in ihrer Neon-Isotopenzusammensetzung im Vergleich zur krustalen Zusammensetzung (Kennedy et al., 1990) ein leicht erhöhtes Verhältnis von <sup>20Ne/<sup>22Ne, was ein Hinweis auf Mantel-Neon sein könnte. Kalifeldspäte, Quarz und Karbonate enthalten dagegen nur Neon krustaler Zusammensetzung. Phlogopite haben sehr kleine Verhältnisse von <sup>20Ne/<sup>22Ne und <sup>21Ne/<sup>22Ne, zurückzuführen auf in-situ-Produktion von <sup>22Ne in Folge von U- und Th-Zerfallsprozessen. Wie unterschiedliche thermische Entgasungsmuster für <sup>40Ar und <sup>36Ar zeigen, ist <sup>36Ar in Fluideinschlüssen konzentriert. Das <sup>40Ar/<sup>36Ar-Isotopenverhältnis der Fluideinschlüsse von Lamproiten aus Kostamuksha ist antikorreliert mit der durch thermische Extraktion bestimmten Gesamtmenge an <sup>36Ar. Argon aus Fluideinschlüssen setzt sich daher aus zwei Komponenten zusammen: Einer Komponente mit atmosphärischer Argon-Isotopenzusammensetzung und einer krustalen Komponente mit einem Isotopenverhältnis <sup>40Ar/<sup>36Ar > 6000. Diffusion von radiogenem <sup>40Ar aus der Kristallmatrix in die Fluideinschlüsse spielt keine wesentliche Rolle. Kimberlite aus Poria Guba und Kandalaksha zeigen anhand der Helium- und z. T. auch der Neon-Isotopenzusammensetzung eine Mantelkomponente in den Fluideinschlüssen an. Bei einem angenommenen <sup>20Ne/<sup>22Ne-Isotopenverhältnis von 12,5 in der Mantelquelle ergibt sich ein <sup>21Ne/<sup>22Ne-Isotopenverhältnis von 0,073 ± 0,011 sowie ein <sup>3He/<sup>4He-Isotopenverhältnis, welches im Vergleich zum subkontinentalem Mantel (Dunai und Baur, 1995) stärker radiogen geprägt ist. Solche Isotopensignaturen sind mit höheren Konzentrationen an Uran und Thorium in der Mantelquelle der Kimberlite zu erklären. Rb-Sr- und Sm-Nd-Altersbestimmungen erfolgten von russischer Seite (Belyatskii et al., 1997; Nikitina et al., 1999) und ergeben ein Alter von 1,23 Ga für den Lamproitvulkanismus in Kostamuksha. Eigene K-Ar-Datierungen an Phlogopiten und Kalifeldspäten stimmen mit einem Alter von 1193 ± 20 Ma fast mit den Rb-Sr- und Sm-Nd-Altern überein. Die K-Ar-Datierung an einem Phlogopit aus Poria Guba, separiert aus dem Kimberlit PGK 12a, ergibt ein Alter von 396 Ma, ebenfalls in guter Übereinstimmung mit Rb-Sr-und Sm-Nd-Altern (ca. 400 Ma, Lokhov, pers. Mitteilung). K-Ar-Altersbestimmungen an Gesamtgestein aus Poria Guba erbrachten kein schlüssiges Alter. Die Rb-Sr- und Sm-Nd-Alter des Lamproitmagmatismus in Poria Guba betragen 1,72 Ga (Nikitina et al., 1999). Vergleiche von gemessenen mit berechneten Edelgaskonzentrationen aus in-situ-Produktion zeigen weiterhin, dass in Abhängigkeit vom Alter der Probe Diffusionsprozesse stattgefunden haben, die zu unterschiedlichen und z. T. erheblichen Verlusten an Helium und Neon führten. Diffusionsverluste an Argon sind dagegen kaum signifikant. Unterschiedliche Diffusionsverluste in Abhängigkeit von Alter und betrachtetem Edelgas zeigen auch die primordialen Edelgase.
Seit 1990 waren mehrere der großen Flussgebiete Mitteleuropas wiederholt von extremen Hochwassern betroffen. Da sowohl die Landoberfläche als auch die Flusssysteme weiter Teile Mitteleuropas in der Vergangenheit weitreichenden Eingriffen ausgesetzt gewesen sind, wird bei der Suche nach den Ursachen für diese Häufung von Extremereignissen auch die Frage nach der Verantwortung des Menschen hierfür diskutiert. Gewässerausbau, Flächenversiegelung, intensive landwirtschaftliche Bodenbearbeitung, Flurbereinigung und Waldschäden sind nur einige Beispiele und Folgen der anthropogenen Eingriffe in die Landschaft. Aufgrund der Vielfalt der beteiligten Prozesse und deren Wechselwirkungen gibt es allerdings bislang nur Schätzungen darüber, wie sehr sich die Hochwassersituation hierdurch verändert hat. Vorrangiges Ziel dieser Arbeit ist es, mit Hilfe eines hydrologischen Modells systematisch darzustellen, in welcher Weise, in welcher Größenordnung und unter welchen Umständen die Art der Landnutzung auf die Hochwasserentstehung Einfluss nimmt. Dies wird anhand exemplarischer Modellanwendungen in der hydrologischen Mesoskala untersucht. Zu diesem Zweck wurde das deterministische und flächendifferenzierte hydrologische Modell wasim-eth ausgewählt, das sich durch eine ausgewogene Mischung aus physikalisch begründeten und konzeptionellen Ansätzen auszeichnet. Das Modell wurde im Rahmen dieser Arbeit um verschiedene Aspekte erweitert, die für die Charakterisierung des Einflusses der Landnutzung auf die Hochwasserentstehung wichtig sind: (1) Bevorzugtes Fließen in Makroporen wird durch eine Zweiteilung des Bodens in Makroporen und Bodenmatrix dargestellt, die schnelle Infiltration und Perkolation jenseits der hydraulischen Leitfähigkeit der Bodenmatrix ermöglicht. (2) Verschlämmung äußert sich im Modell abhängig von Niederschlagsintensität und Vegetationsbedeckungsgrad als Verschlechterung der Infiltrationsbedingungen an der Bodenoberfläche. (3) Das heterogene Erscheinungsbild bebauter Flächen mit einer Mischung aus versiegelten Bereichen und Freiflächen wird berücksichtigt, indem jede Teilfläche je nach Versiegelungsgrad in einen unversiegelten Bereich und einen versiegelten Bereich mit Anschluss an die Kanalisation aufgeteilt wird. (4) Dezentraler Rückhalt von Niederschlagswasser kann sowohl für natürliche Mulden als auch für gezielt angelegte Versickerungsmulden mit definierten Infiltrationsbedingungen simuliert werden. Das erweiterte Modell wird exemplarisch auf drei mesoskalige Teileinzugsgebiete des Rheins angewandt. Diese drei Gebiete mit einer Fläche von zwischen 100 und 500 km² wurden im Hinblick darauf ausgewählt, dass jeweils eine der drei Hauptlandnutzungskategorien Bebauung, landwirtschaftliche Nutzung oder Wald dominiert. Für die drei Untersuchungsgebiete sind räumlich explizite Landnutzungs- und Landbedeckungsszenarien entworfen worden, deren Einfluss auf die Hochwasserentstehung mit Hilfe des erweiterten hydrologischen Modells simuliert wird. Im Einzelnen werden die Auswirkungen von Verstädterung, Maßnahmen zur Niederschlagsversickerung in Siedlungsgebieten, Stilllegung agrarisch genutzter Flächen, veränderter landwirtschaftlicher Bodenbearbeitung, Aufforstung sowie von Sturmschäden in Wäldern untersucht. Diese Eingriffe beeinflussen die Interzeption von Niederschlag, dessen Infiltration, die oberflächennahen unterirdischen Fließprozesse sowie, zum Beispiel im Fall der Kanalisation, auch die Abflusskonzentration. Die hydrologischen Simulationen demonstrieren, dass die Versiegelung einer Fläche den massivsten Eingriff in die natürlichen Verhältnisse darstellt und deshalb die stärksten (negativen) Veränderungen der Hochwassersituation hervorbringt. Außerdem wird deutlich, dass eine bloße Änderung des Interzeptionsvermögens zu keinen wesentlichen Veränderungen führt, da die Speicherkapazität der Pflanzenoberflächen im Verhältnis zum Volumen hochwasserauslösender Niederschläge eher klein ist. Stärkere Veränderungen ergeben sich hingegen aus einer Änderung der Infiltrationsbedingungen. Die Grenzen der entwickelten Methodik zeigen sich am deutlichsten bei der Simulation veränderter landwirtschaftlicher Bewirtschaftungsmethoden, deren mathematische Beschreibung und zahlenmäßige Charakterisierung aufgrund der Komplexität der beteiligten Prozesse mit großen Unsicherheiten behaftet ist. Die Modellierungsergebnisse belegen darüber hinaus, dass pauschale Aussagen zum Einfluss der Landnutzung auf die Hochwasserentstehung aufgrund der entscheidenden Bedeutung der klimatischen und physiographischen Randbedingungen unzulässig sind. Zu den klimatischen Randbedingungen zählen sowohl Niederschlagsintensität und -dauer als auch die Feuchtebedingungen vor einem hochwasserauslösenden Niederschlag. Die physiographischen Randbedingungen sind von der geomorphologischen und geologischen Ausstattung des Gebiets vorgegeben. Weiterhin muss der räumliche und zeitliche Maßstab, über den Aussagen getroffen werden, klar definiert sein, da sich mit steigender Einzugsgebietsgröße die relative Bedeutung sowohl der verschiedenen Niederschlagstypen als auch der physiographischen Eigenschaften verschiebt. Dies wird in der vorliegenden Arbeit im Gegensatz zu vielen anderen Untersuchungen konsequent berücksichtigt. In Abhängigkeit von Randbedingungen und räumlichen Maßstab sind aufgrund der gewonnen Erkenntnisse folgende Aussagen zum Einfluss von Landnutzungsänderungen auf die Hochwasserentstehung möglich: (1) Für intensive konvektive Niederschlagsereignisse mit tendenziell geringer Vorfeuchte ist der Einfluss der Landnutzung größer als für langanhaltende advektive Niederschläge geringer Intensität, da im ersten Fall veränderte Infiltrationsbedingungen stärker zum Tragen kommen als bei kleinen Niederschlagsintensitäten. (2) In kleinen Einzugsgebieten, wo kleinräumige Konvektivzellen zu Hochwassern führen können, ist der Einfluss der Landnutzung dementsprechend größer als in großen Flussgebieten wie dem Rheingebiet, wo vor allem langanhaltende advektive Ereignisse (unter Umständen verbunden mit Schneeschmelze) relevant sind. (3) In Gebieten mit guten Speichereigenschaften wie mächtigen, gut durchlässigen Böden und gut durchlässigem Gesteinsuntergrund ist der Einfluss der Landnutzung größer als in Gebieten mit geringmächtigen Böden und geringdurchlässigem Festgestein. Dies ist darin begründet, dass in Gebieten mit guten Speichereigenschaften bei einer Verschlechterung der Infiltrationsbedingungen mehr Speicherraum für Niederschlag verloren geht als in anderen Gebieten.
Die vorliegende Arbeit beschäftigt sich mit der Synthese und den Eigenschaften von linearen und verzweigten amphiphilen Polypeptid-Blockcopolymeren. Die Frage nach dem Einfluss der Topologie und Konformation der Blockcopolymere auf die supramolekularen und kolloidalen Eigenschaften bildete einen wichtigen Aspekt bei den Untersuchungen. Die Blockcopolymere wurden nach einem mehrstufigen Reaktionsschema durch Kombination von anionischer und ringöffnender Polymerisation von Aminosäuren-N-Carboxyanhydriden (NCA) synthetisiert. Die Untersuchung der Polypeptid-Blockcopolymere hinsichtlich ihres Aggregationsverhaltens in fester Phase sowie in verdünnter wässriger Lösung erfolgte mittels Streumethoden (SAXS, WAXS, DLS) sowie abbildender Methoden (TEM). Durch Einsatz der Blockcopolymere als polymere Stabilisatoren in der Emulsionspolymerisation wurden Oberflächen funktionalisierte Latizes erhalten. Als Beispiel für eine pharmazeutische Anwendung wurden bioverträgliche Polypeptid-Blockcopolymere als Wirkstoff-Trägersysteme in der Krebstherapie eingesetzt.
Eine Reihe 9,9-dialkylsubstituierter Polyfluorene mit linearen und verzweigtkettigen Alkylsubstituenten und einem Molekulargewicht von bis zu 200000 g/mol wurde synthetisiert und charakterisiert. Darüber hinaus wurden einige dieser Polymere mit einer geeigneten 'Lochtransport'-Funktionalität (Triphenylamin-Derivate) ausgestattet, um die Ladungstransporteigenschaften und das Molekulargewicht dieser Substanzen zu kontrollieren. Die thermische Orientierung dieser neuen Polymere auf geriebenen Polyimid-Schichten führte zu hoch anisotropen Filmen mit großen dichroischen Verhältnissen (Absorption parallel und senkrecht zur Reibungsrichtung gemessen). Ferner wurde eine Gruppe chiraler Polyfluorene synthetisiert und hinsichtlich ihrer chiroptischen Eigenschaften untersucht. Der mit diesen chiralen, konjugierten Polymeren erreichte Grad der Anisotropie in Absorption (CD), circular polarisierter Photolumineszenz (CPPL) und Elektrolumineszenz (CPEL) überstieg die bis dahin bekannten Werte um einen Faktor von 200.
Chemisch dotiertes Polypyrrol gilt als Modellsubstanz für leitfähige Polymere mit nichtdegeneriertem Grundzustand. Das elektrische Transportverhalten in dotiertem Polypyrrol wird durch lokalisierte Ladungsträger, Bipolaronen und Polaronen, bestimmt. Es besteht dabei eine enge gegenseitige Wechselwirkung zwischen der Struktur der Polymerkette und den Eigenschaften der Ladungsträger. Die in dieser Arbeit vorgestellte Kombination von Hochdruckmethodik und optischer Spektroskopie vertieft das Verständnis der Beziehung zwischen der molekularen und supramolekularen Struktur und den elektronischen und optischen Eigenschaften. Durch spezifische Synthesemethoden lassen sich unterschiedliche Strukturen in der polymeren Probe induzieren, die sich durch den Anteil an hochgeordneten Polymerketten unterscheiden. Die gezielte Veränderung dieser Strukturen durch Druckexperimente ermöglicht das Studium des Einflusses der Synthesemethoden auf die Ladungsträgereigenschaften. Für diese Studien wurden herkömmlich synthetisierte Polypyrrol-Filme und Filme, die sich aus Polypyrrol-Nanoröhren zusammensetzen (Synthese in Kernspur-membranen, "Template-Synthese") bei ansonsten gleichen Syntheseparametern untersucht. Raman- und Infrarotspektroskopie sowie UV-Vis-NIR-Absorptionsspektroskopie, die jeweils für die Hochdruckmethodik adaptiert wurden, dienten der Charakterisierung der Proben. Zusätzlich wurden temperatur- und druckabhängige Messungen des elektrischen Widerstands an den Template-Proben durchgeführt. Die Morphologie template-synthetisierter Polypyrrol-Nanoröhren und die filmbildenden Eigenschaften sowie der mögliche Aufbau von Schichtarchitekturen wurden mit transmissions- und rasterelektronenmikroskopischen Techniken untersucht. Die aus den Hochdruckexperimenten gewonnenen Daten werden in der Arbeit im Hinblick auf die Stabilität der Ladungsträger interpretiert. Im Ergebnis bewirkt die Druckerhöhung eine Dissoziation der Bipolaronen in den untersuchten Proben. Das Ladungsträger-gleichgewicht verschiebt sich dadurch mit steigendem Druck zu Zuständen mit höherem Anteil an polaronischen Ladungsträgern. Die Template-Synthese bewirkt gegenüber herkömmlich synthetisierten Proben einen höheren Anteil an Polaronen bereits bei Normaldruck, und eine Lage des Systems näher bei einem Isolator-Metall-Übergang. Die Dissoziationsrate der Bipolaronen ist für Template- und herkömmlich synthetisierte Proben vergleichbar groß und unabhängig vom Initialzustand nach der Synthese. Dieses Verhalten der Ladungsträger wird weitergehend im Rahmen eines Modells untersucht, bei dem der Einfluß benachbarter Polymerketten und der Dotandionen berücksichtigt wird. Dementsprechend können sich die Wellenfunktionen der Ladungsträger unter bestimmten Bedingungen auch auf benachbarte Ketten erstrecken (transversale Polaronen bzw. Bipolaronen). Eine solche Ausdehnung der Wellenfunktionen unter Mitwirkung der Dotandionen wurde in den untersuchten Proben nicht festgestellt. Die Wellenfunktionen der Ladungsträger besitzen demnach hauptsächlich Komponenten entlang der Polymerkette (longitudinale Polaronen bzw. Bipolaronen). Aus der Änderungsrate druckabhängiger spektraler Charakteristiken lassen sich Aussagen über den Ordnungszustand der Probe ableiten. Diese auf experimentellem Wege gefundenen Ergebnisse liefern somit Hinweise für die bisher kontrovers diskutierte Koexistenz der beiden Ladungsträgerarten Polaronen und Bipolaronen und die Größe ihrer jeweiligen Bindungsenergien. Druckerhöhung und Template-Synthese bewirken analoge Änderungen der Polymerstruktur. Sowohl höherer Druck wie auch die Template-Synthese lassen sich mit einem höheren Ordnungsgrad in den Template-Proben korrelieren. Der Ladungstransport in den Proben kann durch ein Mott Variable Range Hopping-Modell mit druckabhängiger charakteristischer Dimension beschrieben werden. Die Erhöhung des Drucks bewirkt einen Anstieg der Dimension, eine bessere Überlappung der Wellenfunktionen der Ladungsträger und eine Vergrößerung der Lokalisierungslänge der Ladungsträger. Die druckinduzierte Dissoziation der Bipolaronen beeinflußt den Ladungstransport zusätzlich durch Erhöhung der Anzahl unabhängiger Ladungsträger und verbessert diesen aufgrund stärkerer Überlappung der Wellenfunktionen. Template-Proben niedriger Synthesetemperatur zeigen bei Normaldruck eine höhere Dimension des Mott Variable Range Hoppings und eine größere Lokalisierungslänge gegenüber bei Raumtemperatur synthetisierten Proben. Kürzere Synthesezeiten bewirken einen Anstieg der Dimension bei Normaldruck und eine Verschiebung des Dimensionscrossovers zu niedrigeren Temperaturen. Template-Proben kurzer Synthesezeit zeigen geringere druckinduzierte Änderungen als solche mit langer Synthesezeit. Es wurde ein kontinuierliches Ordnungsmodell der Polypyrrol-Nanoröhren entwickelt, das dieses Verhalten beschreibt. Die Morphologie und die mechanischen Eigenschaften der Nanoröhren werden durch spezifische Syntheseparameter, wie Temperatur und Dauer, beeinflußt und können mit Transmissions- und Rasterelektronenmikroskopie beobachtet werden. Die filmbildenden Eigenschaften der Röhren hängen stark von diesen mechanischen Eigenschaften ab. Die Struktur der Filme kann dabei von einer unregelmäßigen Anordnung der Röhren bis zu nahezu parallel ausgerichteten Röhren variieren. Es wurden Möglichkeiten untersucht, die Röhren in den Filmen zu orientieren und aus diesen Filmen durch Schichtung makroskopische Architekturen mit einem hohen Grad an orientierten Röhren aufzubauen. Solche Architekturen können für verschiedene Anwendungen, z.B. in elektronischen Bauteilen oder mikroskopischen Bioreaktoren, von Interesse sein.
Was misst TIMSS?
(2001)
Bei der Erstellung und Interpretation mathematischer Leistungstests steht die Frage, was eine Aufgabe mißt. Der Artikel stellt mit der strukturalen oder objektiven Hermeneutik eine Methode vor, mit der die verschiedenen Dimensionen der von einer Aufgabe erfassten Fähigkeiten herausgearbeitet werden können. Dabei werden fachliche Anforderungen, Irritationsmomente und das durch die Aufgabe transportierte Bild vom jeweiligen Fach ebenso erfasst wie Momente, die man eher als Testfähigkeit bezeichnen würde.Am Beispiel einer TIMSS-Aufgabe wird diskutiert, dass das von den Testerstellern benutzte theoretische Konstrukt kaum geeignet ist, nachhaltig zu beschreiben, was eine Aufgabe misst.
Die Ausstattung der gastrointestinalen Mukosa des Menschen und der Ratte mit Sulfotransferasen wurde mit Hilfe von Immunodetektion und Enzymaktivitätsmessungen untersucht. In Proben aus Colon und Rektum von 39 Personen wurden die Formen h1A1, h1A3 und h1B1 identifiziert, wobei in einer weiteren Probe, die als einzige von einem an Colitis Ulcerosa erkrankten Patienten stammte, keine Sulfotransferasen nachgewiesen werden konnten. Bei der Immunblot-Analyse war das Expressionsmuster der einzelnen Formen in allen Proben ähnlich. In wenigen Proben waren die relativen Signalintensitäten der h1A1 und der h1B1 um die Hälfte erniedrigt. Der Gehalt von SULT an zytosolischem Protein zeigte einen bis zu 8 - 10fachen Unterschied, er betrug jedoch bei zwei Dritteln der Proben zwischen 0,15 und 0,3 (h1A1 und h1A3) bzw. 0,6 und 0,8 Promille (h1B1). Die Variation konnte nicht auf Alter, Geschlecht oder Krankheitsbild der Patienten zurückgeführt werden. Auch der für die allelischen Varianten der h1A1 beschriebene Effekt auf die Enzymaktiviät bzw. Stabilität konnte in der Menge an immunreaktivem Protein nicht in diesem Ausmaß detektiert werden. Die Allelhäufigkeit von h1A1*R und h1A1*H war gegenüber der gesunden Bevölkerung nicht verändert. In den sieben Proben aus dem Dünndarm (Coecum, viermal Ileum, Jejunum) konnten zusätzlich die Formen h1E1 und h2A1 identifiziert werden. Ein möglicherweise der Form h1C1 entsprechendes Protein wurde im Magen detektiert. Im Vergleich zum Menschen war die Expression in der Ratte stärker auf die Leber konzentriert. Während beim Menschen in allen untersuchten Abschnitten Sulfotransferasen in Mengen detektiert wurden, die in zwei Fällen (h1B1 und h1A3) sogar den Gehalt in der Leber überstiegen, beschränkte sich die Expression in der Ratte auf im Vergleich zur Leber geringe Mengen im Magen und Dickdarm. Nachgewiesen wurden die r1B1, r1A1 sowie eine nicht identifizierte Form von 35kD, bei der es sich vermutlich um die r1C2 handelt. Im Vergleich zur Leber enthielt der Dickdarm der Ratte 20 - 30 % an r1B1 und 3 % an r1A1, während im Dickdarm des Menschen die 3 - 5fache Menge an h1B1 und 25 - 50 % an h1A1 gefunden wurden. Die nicht identifizierte Form verhielt sich wie die r1B1. Die für die Leber der Ratte bekannte geschlechtsabhängige Expression wurde im Gastrointestinaltrakt nicht beobachtet. Die Verteilung der Sulfotransferasen im Colon und Ileum des Menschen wurde immunhistochemisch untersucht; für die Gewebe der Ratte war die Spezifität der zur Verfügung stehenden Antiseren nicht ausreichend. Im Colon traten h1B1-spezifische Färbungen in den differenzierten Enterozyten am oberen Ende der Krypten auf, im Dünndarm wurden die Epithelzellen der Zotten gefärbt. Die Färbung konzentrierte sich auf das Zytoplasma. Eine ähnliche Verteilung zeigte sich für h1A1 und h1A3, außer daß zusätzlich eine intensive Färbung der Endothelzellen der Kapillaren in der Submukosa des Ileums auftrat. Im Dickdarm war dies nur bei den Kapillaren in den Lymphfollikeln zu erkennen. Die h2A1 war lediglich im Zytoplasma der Epithelzellen der Zotten des Ileums nachzuweisen, während im Colon keine Farbreaktion auftrat. Durch die Verwendung der rekombinanten Indikatorstämme TA1538-h1A1, -h1A3 und -h1B1 und des Ausgangsstammes Salmonella typhimurium TA1538 im Ames-Test wurde gezeigt, daß verschiedene benzylische und allylische Alkohole durch im humanen Colon exprimierte Sulfotransferasen zu Mutagenen aktiviert werden. In den meisten Fällen erwies sich eine der drei Sulfotransferasen als besonders effizient in der Bioaktivierung, während durch die anderen Formen kein oder nur ein schwacher Effekt verursacht wurde. Die Bioaktivierung von Promutagenen durch Sulfotransferasen im Colon muß im Zusammenhang mit der Lokalisation diskutiert werden. Die Zellen im Darm, in denen immunhistochemisch Sulfotransferasen detektiert wurden, haben mit Ausnahme des Endothels je nach Abschnitt eine Lebensdauer von maximal fünf Tagen und machen keine weiteren Zellteilungen mehr durch. Daher sind DNA-Schäden in diesen Zellen ein sehr geringes Risiko für den Organismus. Soweit die reaktiven Metabolite in diesen Zellen gefangen bleiben, kann die Bioaktivierung in diesen Zellen und die Bildung von Addukten als protektiv betrachten werden, da letztere nach wenigen Tagen mit den toten Zellen in das Darmlumen abgegeben werden. Für den Vergleich der Bioaktiverung von Promutagenen durch die Form 1B1 des Menschen und der Ratte wurden aus V79 Lungenfibroblasten des Chinesischen Hamsters abgeleitete Zellinien hergestellt, die je eine der beiden Formen stabil exprimieren. Damit standen 1B1-profiziente Indikatorzellen für den HPRT-Genmutationstest zur Verfügung, und die 1B1-abhängige Bioaktivierung konnte in einem System untersucht werden, die dem eukaryontischen Organismus näher steht als die für die Ames-Tests verwendeten Bakterien. So war z.B. die Sulfotransferase wie im Gewebe im Zytoplasma lokalisiert. Als Modellsubstanzen wurden hierbei die bereits in TA1538-h1B1 mutagen wirkenden benzylischen Alkohole 6-Hydroxymethylbenzo[a]pyren und 4-Hydroxycyclopenta-[def]chrysen getestet. Da die Sensitivität einer Sulfotransferase-exprimierenden V79-Zellinie sowohl durch die Menge an Sulfotransferase als auch durch die Verfügbarkeit des Sulfodonors limitiert sein könnte, wurden die Mutagenitätsexperimente mit V79-r1B1-Zellinien durchgeführt, die sich in ihrer Enzymaktivität um das Zwanzigfache unterschieden: V79-r1B1/A und -/B. Eine starke Erhöhung der Mutantenfrequenz wurde nur in der hoch exprimierenden Zellinie V79-r1B1/A (1019 ± 224 pmol/mg/min) beobachtet, so daß eine gravierende Beeinträchtigung der Sensitivität durch einen Mangel an Kosubstrat ausgeschlossen wurde. In der niedriger exprimierenden Zellinie V79-r1B1/B (57 ± 9 pmol/mg/min) war nur mit 6-Hydroxymethylbenzo[a]pyren ein schwacher Anstieg der Mutantenfrequenz zu erkennen, der mit 0,3 µM bei einer in etwa 100fach höheren Konzentration begann als bei V79-r1B1/A. Die zytosolische Fraktion aus V79-r1B1/B-Zellen enthielt in etwa die dreifache Menge an r1B1-Protein wie die aus Colonmucosa der Ratte. Da zumindest für die humane Mukosa gezeigt wurde, daß die 1B1 nur im einschichtigen Epithel, nicht aber in allen Zellen der Mukosa exprimiert wird, repräsentiert die zytosolische Fraktion aus der Mukosa nur bedingt die Expression in den Epithelzellen und der Vergleich mit den V79-1B1-Zellen ist grob. Im Gegensatz zu V79-r1B1/B war die Zellinie V79-h1B1, die ebenfalls nur mit Darm und Leber vergleichbare Mengen an h1B1 exprimierte, in der Lage, beide benzylischen Alkohole zu aktivieren. Der Erhöhung der Mutantenfrequenz im Vergleich zur KontrollZellinie war ähnlich wie bei der stark exprimierenden Zellinie V79-r1B1/A, erforderte aber 10fach höhere Konzentrationen. Somit unterscheiden sich Mensch und Ratte nicht nur insgesamt in ihrer Ausstattung des Gastrointestinaltrakts mit Sulfotransferasen, auch bei Betrachtung einer einzelnen Form zeigten sich deutliche Unterschiede in der Aktivierung von zwei Promutagenen. Die Ratte ist daher ein ungeeignetes Modell, um die Rolle von Sulfotransferasen bei tumorinitiierenden Prozessen im Darm zu untersuchen. Dies unterstreicht die Bedeutung von rekombinanten in-vitro-Systemen für die Erfassung des humanen Metabolismus von Fremdstoffen. Insgesamt kennt man nur eine geringe Anzahl von Substanzen, die im Tierexperiment Colontumore erzeugen, und mit Ausnahme der heterozyklischen aromatischen Amine sind diese lediglich von experimenteller Bedeutung. Dies spricht für effiziente Schutzmechanismen der Darmmukosa gegenüber Mutagenen und läßt die Frage nach der hohen Inzidenz des Kolorektalkarzinoms offen.
Gasausströmungen, oft in der Form hoch kollimierter Jets, sind ein allgegenwärtiges Phänomen bei der Geburt neuer Sterne. Emission von stossangeregtem molekularem Wasserstoff bei Wellenlängen im nahen Infrarotbereich ist ein Merkmal ihrer Existenz und auch in eingebetteten, im Optischen obskurierten Ausströmungen generell gut zu beobachten. In dieser Arbeit werden die Resultate einer von Auswahleffekten freien, empfindlichen, grossflächigen Suche nach solchen Ausströmungen von Protosternen in der v=1-0 S(1) Linie molekularen Wasserstoffs bei einer Wellenlänge von 2.12 µm vorgestellt. Die Durchmusterung umfasst eine Fläche von etwa einem Quadratgrad in der Orion A Riesenmolekülwolke. Weitere Daten aus einem grossen Wellenlängenbereich werden benutzt, um die Quellen der Ausströmungen zu identifizieren. Das Ziel dieser Arbeit ist es, eine Stichprobe von Ausströmungen zu bekommen, die so weit wie möglich frei von Auswahleffekten ist, um die typischen Eigenschaften protostellarer Ausströmungen und deren Entwicklung festzustellen, sowie um die Rückwirkung der Ausströmungen auf die umgebende Wolke zu untersuchen. Das erste Ergebnis ist, dass Ausströmungen in Sternentstehungsgebieten tatsächlich sehr häufig sind: mehr als 70 Jet-Kandidaten werden identifiziert. Die meisten zeigen eine sehr irreguläre Morphologie anstelle regulärer oder symmetrischer Strukturen. Dies ist auf das turbulente, klumpige Medium zurückzuführen, in das sich die Jets hineinbewegen. Die Ausrichtung der Jets ist zufällig verteilt. Insbesondere gibt es keine bevorzugte Ausrichtung der Jets parallel zum grossräumigen Magnetfeld in der Wolke. Das legt nahe, dass die Rotations- und Symmetrieachse in einem protostellaren System durch zufällige, turbulente Bewegung in der Wolke bestimmt wird. Mögliche Ausströmungsquellen werden für 49 Jets identifiziert; für diese wird der Entwicklungsstand und die bolometrische Leuchtkraft abgeschätzt. Die Jetlänge und die H2 Leuchtkraft entwickeln sich gemeinsam mit der Ausströmungsquelle. Von null startend, dehnen sich die Jets schnell bis auf eine Länge von einigen Parsec aus und werden dann langsam wieder kürzer. Sie sind zuerst sehr leuchtkräftig, die H2 Helligkeit nimmt aber im Lauf der protostellaren Entwicklung ab. Die Längen- und H2 Leuchtkraftentwicklung lässt sich im Wesentlichen durch eine zuerst sehr hohe, dann niedriger werdende Massenausflussrate erklären, die auf eine zuerst sehr hohe, dann niedriger werdende Gasakkretionsrate auf den Protostern schliessen lässt (Akkretion und Ejektion sind eng verknüpft!). Die Längenabnahme der Jets erfordert eine ständig wirkende Abbremsung der Jets. Ein einfaches Modell einer simultanen Entwicklung eines Protosterns, seiner zirkumstellaren Umgebung und seiner Ausströmung (Smith 2000) kann die gemessenen H2- und bolometrischen Leuchtkräfte der Jets und ihrer Quellen reproduzieren, unter der Annahme, dass die starke Akkretionsaktivität zu Beginn der protostellaren Entwicklung mit einer überproportional hohen Massenausflussrate verbunden ist. Im Durchmusterungsgebiet sind 125 dichte Molekülwolkenkerne bekannt (Tatematsu et al. 1993). Jets (bzw. Sterne) entstehen in ruhigen Wolkenkernen, d.h. solchen mit einem niedrigen Verhältnis von interner kinetischer Energie zu gravitativer potentieller Energie; dies sind die Wolkenkerne höherer Masse. Die Wolkenkerne mit Jets haben im Mittel grössere Linienbreiten als die ohne Jets. Dies ist darauf zurückzuführen, dass sie bevorzugt in den massereicheren Wolkenkernen zu finden sind, welche generell eine grössere Linienbreite haben. Es gibt keinen Hinweis auf stärkere interne Bewegungen in Wolkenkernen mit Jets, die durch eine Wechselwirkung der Jets mit den Wolkenkernen erzeugt sein könnte. Es gibt, wie von der Theorie vorausgesagt, eine Beziehung zwischen der Linienbreite der Wolkenkerne und der H2 Leuchtkraft der Jets, wenn Jets von Klasse 0 und Klasse I Protosternen separat betrachtet werden; dabei sind Klasse 0 Jets leuchtkräftiger als Klasse I Jets, was ebenfalls auf eine zeitabhängige Akkretionsrate mit einer frühzeitigen Spitze und einem darauffolgenden Abklingen hinweist. Schliesslich wird die Rückwirkung der Jetpopulation auf eine Molekülwolke unter der Annahme strikter Vorwärtsimpulserhaltung betrachtet. Die Jets können auf der Skala einer ganzen Riesenmolekülwolke und auf den Skalen von Molekülwolkenkernen nicht genügend Impuls liefern, um die abklingende Turbulenz wieder anzuregen. Auf der mittleren Skala von molekularen Klumpen, mit einer Grösse von einigen parsec und Massen von einigen hundert Sonnenmassen liefern die Jets jedoch genügend Impuls in hinreichend kurzer Zeit, um die Turbulenz “am Leben zu erhalten” und können damit helfen, einen Klumpen gegen seinen Kollaps zu stabilisieren.
1. Die Deacetylierung von crabshell – Chitosan führte gleichzeitig zu einem drastischen Abfall der mittleren viscosimetrischen Molmasse ( Mv), insbesondere wenn die Temperatur und die Konzentration an NaOH erhöht werden. Diese Parameter beeinflussten jedoch nicht den Grad der Deacetylierung (DD). Wichtig ist jedoch die Quelle des Ausgangsmaterials: Chitin aus Pandalus borealis ist ein guter Rohstoff für die Herstellung von Chitosan mit niedrigem DD und gleichzeitig hoher mittlerer Mv, während Krill-Chitin (Euphausia superba) ein gutes Ausgangsmaterial zur Herstellung von Chitosan mit hohem DD und niedrigem Mv ist. Chitosan, das aus Insekten (Calliphora erythrocephala), unter milden Bedingungen (Temperatur: 100°C, NaOH-Konzentration: 40 %, Zeit: 1-2h ) hergestellt wurde, hatte die gleichen Eigenschaften hinsichtlich DD und Mv wie das aus Krill hergestellte Chitosan. Der Bedarf an Zeit, Energie und NaOH ist für die Herstellung von Insekten-Chitosan geringer als für crabshell-Chitosan vergleichbare Resultaten für DD und Mv. 2. Chitosan wurde durch den Schimmelpilz Aspergillus fumigatus zu Chitooligomeren fermentiert. Die Ausbeute beträgt 25%. Die Chitooligomere wurden mit Hilfe von HPLC und MALDI-TOF-Massenspektrmetrie identifiziert. Die Fermentationsmischung fördert die Immunität von Pflanzen gegen Bakterien und Virusinfektion. Die Zunahme der Immunität schwankt jedoch je nach System Pflanze-Pathogen. Die Fermentation von Chitosan durch Aspergillus fumigatus könnte eine schnelle und billige Methode zur Herstellung von Chitooligomeren mit guter Reinheit und Ausbeute sein. Eine partiell aufgereinigte Fermentationsmischung dieser Art könnte in der Landwirtschaft als Pathogeninhibitor genutzt werden. Durch kontrollierte Fermentation, die Chitooligomere in definierter Zusammensetzung (d.h. definierter Verteilung des Depolymerisationsgrades) liefert, könnte man zu Mischungen kommen, die für die jeweilige Anwendung eine optimale Bioaktivität besitzen. 3. Die aus Chitosan-Dispersionen hergestellten MCChB-Filme weisen bessere mechanische Eigenschaften (Bruchfestigkeit, Dehnung) und eine höhere Wasseraufnahmefähigkeit auf als Filme, die nach herkömmlichen Methoden aus sauerer Lösung hergestellt werden. Die Einführung von Proteinen ändert die mechanischen Eigenschaften der MCChB-Filme abhängig von der Art, der Proteine sowie des DD und der Mv des eingesetzte Chitosan. Die Zugabe von Protein beschleunigt den biologischen Abbau der MCChB-Filme. Aus den untersuchten MCChB-Filmen mit Proteinzusatz können leichte, reißfeste und dennoch elastische Materialen hergestellt werden. 4. Mit Hilfe von MCChB-Dispersion kann Papier modifiziert werden. Dadurch werden die mechanischen Eigenschaften verbessert und die Wasseraufnahme wird verringert. Die Zugabe von Proteinen verringert das Wasseraufnahmevermögen noch weiter. Ein geringes Wasseraufnahmevermögen ist der bedeutendste Faktor bei der Papierherstellung. Auch Papier, das mit einem MCChB-Protein-Komplexe modifiziert wurde, zeigt gute mechanische Eigenschaften. 5. Wird Chitosan durch unmittelbare Einführung von MCChB auf Cellulose-Fasern aufgebracht, so erhält man eine netzartige Struktur, während durch Ausfällung aufgebrachtes Chitosan eine dünne Schicht auf den Cellulose-Fasern bildet. Die netzartige Struktur erleichtert die Bioabbaubarkeit, während die Schichtstruktur diese erschwert. 6. Die guten mechanischen Eigenschaften, die geringe Wasseraufnahmefähigkeit und die mit Cellulose vergleichbare Bioabbaubarkeit von Papier, das mit MCChB modifiziert wurde, lassen MCChB für die Veredlung von Papier nützlich erscheinen.
In dieser Arbeit wird die Beschichtung von kolloidalen Templaten mit Hilfe der Layer-by-layer Technik beschrieben. Mit ihr ist es möglich, die Oberfläche der Template mit sehr dünnen und gut definierten Filmen zu versehen. Durch Auflösung der Template werden Kapseln hergestellt, die je nach Zusammensetzung der Beschichtung unterschiedliche Eigenschaften aufweisen.
In dieser Arbeit wurden zwei Themenbereiche bearbeitet: 1. Ellipsometrie an Adsorpionsschichten niedermolekularer Tenside an der Wasser/Luft-Grenzfläche (Ellipsometrie ist geeignet, adsorbierte Mengen von nicht- und zwitterionischen Tensiden zu messen, bei ionischen werden zusätzlich die Gegenionen mit erfaßt; Ellipsometrie mißt sich ändernde Gegenionenverteilung). 2. Ellipsometrische Untersuchung von endadsorbierten Polymerbürsten an der Wasser/Öl-Grenzfläche (Ellipsometrie ist nicht in der Lage, verschiedene Segmentkonzentrationsprofile innerhalb der Bürste aufzulösen, ist aber sehr wohl geeignet, Skalengesetze für Dicken und Drücke in Abhängigkeit von Ankerdichte und Kettenlänge der Polymere zu überprüfen; für in Heptan gequollene Poly-isobuten-Bürsten konnte gezeigt werden, daß sie sich entsprechend den theoretischen Vorhersagen für Bürsten in einem theta-Lösungsmittel verhalten)
The objective of this thesis is to provide new space compaction techniques for testing or concurrent checking of digital circuits. In particular, the work focuses on the design of space compactors that achieve high compaction ratio and minimal loss of testability of the circuits. In the first part, the compactors are designed for combinational circuits based on the knowledge of the circuit structure. Several algorithms for analyzing circuit structures are introduced and discussed for the first time. The complexity of each design procedure is linear with respect to the number of gates of the circuit. Thus, the procedures are applicable to large circuits. In the second part, the first structural approach for output compaction for sequential circuits is introduced. Essentially, it enhances the first part. For the approach introduced in the third part it is assumed that the structure of the circuit and the underlying fault model are unknown. The space compaction approach requires only the knowledge of the fault-free test responses for a precomputed test set. The proposed compactor design guarantees zero-aliasing with respect to the precomputed test set.
Als Grundlage vieler statistischer Verfahren wird der Prozess der Entstehung von Daten modelliert, um dann weitere Schätz- und Testverfahren anzuwenden. Diese Arbeit befasst sich mit der Frage, wie diese Spezifikation für parametrische Modelle selbst getestet werden kann. In Erweiterung bestehender Verfahren werden Tests mit festem Kern eingeführt und ihre asymptotischen Eigenschaften werden analysiert. Es wird gezeigt, dass die Bestimmung der kritischen Werte mit mehreren Stichprobenwiederholungsverfahren möglich ist. Von diesen ist eine neue Monte-Carlo-Approximation besonders wichtig, da sie die Komplexität der Berechnung deutlich verringern kann. Ein bedingter Kleinste-Quadrate-Schätzer für nichtlineare parametrische Modelle wird definiert und seine wesentlichen asymptotischen Eigenschaften werden hergeleitet. Sämtliche Versionen der Tests und alle neuen Konzepte wurden in Simulationsstudien untersucht, deren wichtigste Resultate präsentiert werden. Die praktische Anwendbarkeit der Testverfahren wird an einem Datensatz zur Produktwahl dargelegt, der mit multinomialen Logit-Modellen analysiert werden soll.
Die Entstehung zeitlich veränderlicher kolloidaler Strukturen in wäßrigen Calciumphosphat-Dispersionen wurde abgebildet und einer Strukturanalyse unterzogen. Diese wurde durchgeführt unter Einsatz verschiedener bildgebenderund Streumethoden, deren Ergebnisse verglichen wurden. Ziel der Arbeit war es, aus biomineralisierenden Systemen bekannte Prozesse zu vereinfachen und im Experiment nachzustellen. Die gefundenen komplexen hierarchischen Strukturendes Calciumphosphates sind stark von Eigenschaften des Polymerzusatzes abhängig.
Polymers at membranes
(2000)
The surface of biological cells consists of a lipid membrane and a large amount of various proteins and polymers, which are embedded in the membrane or attached to it. We investigate how membranes are influenced by polymers, which are anchored to the membrane by one end. The entropic pressure exerted by the polymer induces a curvature, which bends the membrane away from the polymer. The resulting membrane shape profile is a cone in the vicinity of the anchor segment and a catenoid far away from it. The perturbative calculations are confirmed by Monte-Carlo simulations. An additional attractive interaction between polymer and membrane reduces the entropically induced curvature. In the limit of strong adsorption, the polymer is localized directly on the membrane surface and does not induce any pressure, i.e. the membrane curvature vanishes. If the polymer is not anchored directly on the membrane surface, but in a non-vanishing anchoring distance, the membrane bends towards the polymer for strong adsorption. In the last part of the thesis, we study membranes under the influence of non-anchored polymers in solution. In the limit of pure steric interactions between the membrane and free polymers, the membrane curves towards the polymers (in contrast to the case of anchored polymers). In the limit of strong adsorption the membrane bends away from the polymers.
In einer Längsschnittstudie mit 215 Schülern der achten Klasse wurde der Zusammenhang zwischen selbstgesteuertem Lernen, motivationalen (Zielorientierungen, Selbstwirksamkeit, schulischer Affekt) und kognitiven Variablen (Intelligenz) sowie Leistungsindikatoren (Schulleistung, Noten) erhoben. Selbstgesteuertes Lernen wurde mit Hilfe eines strukturierten Interviews (Zimmerman, 1986) und eines Lernstrategie-Fragebogens erfasst. Zum einen zeigte sich, dass die Lernstrategie-Angaben im Interview und im Fragebogen in keiner bedeutsamen Beziehung zueinander standen. Zum anderen ergaben sich deutliche Unterschiede in der Vorhersage der Leistungsindikatoren. Die per Interview erfassten Lernstrategien besaßen sowohl Vorhersagekraft bezüglich Schulnoten und Schulleistung und zeigten signifikante Zusammenhänge zu den individuellen Zielorientierungen, dem schulischen Affekt und der Selbstwirksamkeit. Darüber hinaus konnten Leistungsveränderungen von der achten zur neunten Klasse vorhergesagt werden. Der parallel eingesetzte Lernstrategie-Fragebogen leistete im Vergleich dazu keine Erklärung der Leistungsvarianz. Implikationen für die Diagnostik selbstgesteuerten Lernens werden diskutiert.
In her lifetime, Dymphna Cusack continually launched social critiques on the basis of her feminism, humanism, pacificism and anti-fascist/pro-Soviet stance. Recalling her experi-ences teaching urban and country schoolchildren in A Window in the Dark, she was particularly scathing of the Australian education system. Cusack agitated for educational reforms in the belief that Australian schools had failed to cultivate the desired liberal humanist subject: 'Neither their minds, their souls, nor their bodies were developed to make the Whole Man or the Whole Woman - especially the latter. For girls were encouraged to regard their place as German girls once did: Kinder, Küche, Kirche - Children, Kitchen and Church.' I suggest that postwar liberal humanism, with its goals of equality among the sexes and self-realisation or 'becoming Whole', created a popular demand for the romantic realism found in Cusack′s texts. This twentieth century form of humanism, evident in new ideas of the subject found in psychoanalysis, Western economic theory and Modernism, informed each of the global lobbies for peace and freedom that followed the destruction of World War II. Liberal ideas of the individual in society became synonymous with the humanist representations of gender in much of postwar, realistic literature in English-speaking countries. The individual, a free agent whose aim was to 'improve the life of human beings', was usually given the masculine gender. He was shown to achieve self-realisation through a commitment to the development of “mankind”, either materially or spiritually. Significantly, the majority of Cusack′s texts diverge from this norm by portraying women as social agents of change and indeed, as the central protagonists. Although the humanist goal of self-realisation seems to be best adapted to social realism, the generic conventions of popular romance also have humanist precepts, as Catherine Belsey has argued. The Happy End is contrived through the heroine′s mental submission to her physical desire for the previously rejected or criticised lover. As Belsey has noted, desire might be considered a deconstructive force which momentarily prevents the harmonious, permanent unification of mind and body because the body, at the moment of seduction, does not act in accord with the mind. In popular romance, however, desire usually leads to a relationship or proper union of the protagonists. In Cusack′s words, the heroine and hero become “whole men and women” through the “realistic” love story. Thus romance, like realism, seeks to stabilise gender relations, even though female desire is temporarily disruptive in the narrative. In the end, women and men become fully realised characters according to the generic conventions of the love story or the consummation of potentially subversive desire. It stayed anxieties associated with women seeking independence and self-realisation rather than traditional romance which signalled a threat to existing gender relations. I proposed that an analysis of gender in Cusack′s fiction is warranted, since these apparently unified, humanist representations of romantic realism belie the conflicting aims and actions of the gendered subjects in this historical period. For instance, when we examine women′s lives immediately after the war, we can identify in both East and West efforts initiated by women and men to reconstruct private/public roles. In order to understand how women were caught between “realism and romance”, I plan to deconstruct gender within the paradigm of this hybrid genre. By adopting a femininist methodology, new insights may be gained into the conflictual subjectivity of both genders in the periods of the interwar years, the Pacific and World Wars, the Cold War, the Australian Aboriginal Movement at the time of the Vietnam War, as well as the moment of second wave Western feminism in the seventies. My definition of romantic realism and the discourses that inform it are examined in chapters two and three. A deconstruction of femininity and the female subject is pursued in chapter four, when I argue that Cusack′s romantic narratives interact in different ways with social realism: romance variously fails, succeeds, is parodic or idealised. Applying Judith Butler′s philosophical ideas to literary criticism, I argue that this hybridisation of genre prevents the fictional subject from performing his or her gender. Like the “real” subject - actual women in society - the fictional protagonist acts in an unintelligible fashion due to the multifarious demands and constraints on her gender. Consequently, the gendering of the sexed subject produces a multiplicity of genders: Cusack′s women and men are constituted by differing and conflicting demands of the dichotomously opposed genres. Thus gender and sex become indefinite through their complex, inconsistent expression in the romantic realistic text. In other words, the popular combination of romance and realism leads to an explosion of the gender binary presupposed by both genres. Furthermore, a consideration of sexuality and race in chapter five leads to a more differentiated analysis of the humanist representations of gender in postwar fiction. The need to deconstruct these representations in popular and canonical literature is recapitulated in the final chapter of this Dissertation.
Untersuchungsgebiet ist das heutige Bundesland Brandenburg. In diesem Raum werden von alters her germanische und slawische, seit dem Mittelalter a uch niederdeutsche (= plattdeutsche) und hochdeutsche Mundarten gesprochen. Mit der Industrialisierung im 19. Jahrhundert breitete sich die Stadtsprache Berlins als Umgangssprache auch in Brandenburg aus und trat vielerorts an die Stelle der alten Mundarten (= Dialekte). Dieser Vorgang dauert bis heute an. Das Forschungsprojekt soll seinen Stand Mitte der 90er Jahre erfassen und so Material für Vergleiche mit älteren und mit zukünftigen Erhebungen liefern. Untersuchungsmethode: Erhebung sprachlicher Daten und Ermittlung von Einstellungen zur Sprache mittels eines Fragebogens, der in einer Auflage von 8.000 Stück über Schulen, Pfarrämter, Heimatpfleger, freiwillige Helfer und Studierende der Universität Potsdam im ganzen Land Brandenburg verteilt wurde. Im Februar 1996 wurden zudem in ausgewählten Regionen insgesamt 20 Tonbandaufnahmen von Sprechern unterschiedlicher Mundarten und auch des Berlinischen als aktueller Umgangssprache aufgezeichnet. Erhebungszeitraum: Pilotstudie 1994, Erhebung 1995, Nacherhebung und Sprachaufnahmen 1996
Das nationale Recht wird mehr und mehr durch EG-Recht beeinflussst. In diesem Zusammenhang ergeben sich bei denjenigen EG-Rechtsakten, die anders als EG-Verordnungen nicht unmittelbar in den Mitgliedstaaten gelten, sondern von diesen in nationales Recht umgesetzt werden müssen, vielfältige Probleme. Diese Probleme behandelt der Verfasser aus der Sicht des Anwalts in einer Weise, dass diejenigen, die sich in der Praxis mit derartigen Umsetzungsfragen zu beschäftigen haben, wertvolle Hinweise für eine konkret zu lösende Umsetzungsproblematik erhalten. Ergänzt und damit noch transparenter werden seine Lösungsvorschläge dadurch, dass der Verfasser sie im zweiten Teil der Untersuchung auf die konkrete Fragestellung anwendet, inwieweit es zu einer Umsetzung bzw. ordnungsgemäßen Umsetzung der in den Jahren 1988 bis 2001 erlassenen Fleischhygienegebührenrechtsakte der EG gekommen ist. Diese Arbeit wurde betreut von Professor Dr. D.C. Umbach an der Universität Potsdam. Aus dem Inhalt: Abgrenzung der Umsetzungszuständigkeit zwischen Bund und Ländern. Anforderungen an das Vorliegen eines Umsetzungsaktes sowie an eine ordnungsgemäße Umsetzung. Rechtsfolgen bei Umsetzungsverstößen. Prozessuale Fragen.
Mit dem Übergang zum digitalen Medium haben sich die Bezugsstrukturen und das Angebot an elektronischer Fachinformation in den Bibliotheken nachhaltig verändert. In den vorliegenden Untersuchungen wird das Angebot elektronischer Zeitschriften und Datenbanken und die Nutzung elektronischer Zeitschriften in fünf ausgewählten Fachgebieten und in unterschiedlichen Bibliothekstypen dargelegt. Darüber hinaus werden die derzeitigen Bezugsstrukturen beschrieben sowie die Ergebnisse einer Befragung der Konsortien zu Zielsetzungen, Vertragsformen und Geschäftsmodellen dargestellt. Chancen und Risiken der konsortialen Bezugsform werden erörtert.
Die vorliegende Arbeit beschäftigt sich mit der Synthese und den Eigenschaften von doppelthydrophilen Blockcopolymeren und ihrer Anwendung in einem biomimetischen Mineralisationsprozeß von Calciumcarbonat und Bariumsulfat. Doppelthydrophile Blockcopolymere bestehen aus einem hydrophilen Block, der nicht mit Mineralien wechselwirkt und einem zweiten Polyelektrolyt-Block, der stark mit Mineraloberflächen wechselwirkt. Diese Blockcopolymere wurden durch ringöffnende Polymerisation von N-carboxyanhydriden (NCA′s) und a-methoxy-ω-amino[poly(ethylene glycol)] PEG-NH2 als Initiator hergestellt. Die hergestellten Blockcopolymere wurden als effektive Wachstumsmodifikatoren für die Kristallisation von Calciumcarbonat und Bariumsulfat Mineralien eingesetzt. Die so erhaltenen Mineralpartikel (Kugeln, Hantel, eiförmige Partikel) wurden durch Lichtmikroskopie in Lösung, SEM und TEM charakterisiert. Röntgenweitwinkelstreuung (WAXS) wurde verwendet, um die Modifikation von Calciumcarbonat zu ermitteln und die Größe der Calciumcarbonat- und Bariumsulfat-Nanopartikel zu ermitteln.
A multidisciplinary study has been carried out to contribute to the understanding of the geologic evolution of the largest known occurrence of ultra-high-pressure (UHP) rocks on Earth, the Dabie Shan of eastern China. Geophysical data, collected along a ca. 20 km E-W trending seismic line in the eastern Dabie Shan, indicate that the crust comprises three layers. The upper crust has a homogeneously low reflectivity and exhibits roughly subhorizontal reflectors down to ca. 15 km. It is therefore interpreted to portray a crustal UHP slab thrust over non-UHP crust. An aprubt change in intensity and geometry of observed reflectors marks the boundary of a mid- to lower crustal zone which is present down to ca. 33 km. This crustal zone likely represents cratonal Yangtze crust that was unaffected by the Triassic UHP event and which has acted as the footwall during exhumation of the crustal wedge. Strong and continuous reflectors occurring at ca. 33-40 km depth most likely trace the Moho at the base of the crust. Any trace of a crustal root, that may have formed in response to collision tectonics, is therefore not preserved. A shollow tomographic velocity modell based on inversion of the first arrivals is constructed additionally. This model clearly images the distinct lithologies on both sides of the Tan Lu fault. Sediments to the east exhibit velocities of about 3.4 - 5.0 km* s^-1, whereas the gneisses have 5.2 - 6.0 km*s^-1. Geometry of velocity isolines may trace the structures present in the rocks. Thus the sediments dip shallowly towards the fault, whereas isoclinal folds are imaged to occur in the gneisses. Field data from the UHP unit of the Dabie Shan enables definition of basement-cover sequences that represent sections of the former passive margin of the Yangtze craton. One of the cover sequences, the Changpu unit, still displays a stratigraphic contact with basement gneisses, while the other, the Ganghe unit, includes no relative basement exposure. The latter unit is in tectonic contact with the basement of the former unit via a greenschist-facies blastomylonite. The Changpu unit is chiefly constituted by calc-arenitic metasediments intercalated with meta-basalts, whereas the Ganghe unit contains arenitic-volcanoclastic metasediments that are likewise associated with meta-basalts. The basement comprises a variety of felsic gneisses, ranging from preserved eclogitic- to greenschist-facies paragenesis, and locally contains mafic-ultramafic meta-plutons in addition to minor basaltic rocks. Metabasites of all lithologies are eclogite-facies or are retrogressed equivalents, which, with the exception of those from the Ganghe unit, bear coesite and thus testify to an UHP metamorphic overprint. Mineral chemistry of the analysed samples reveal large compositional variations among the main minerals, i.e. garnet and omphacite, indicating either distinct protoliths or different degrees of interaction with their host-rocks. Contents of ferric iron in low Fetot omphacites are determined by wet chemical titration and found to be rather high, i.e. 30-40 %. However, a even more conservative estimate of 50% is applied in the corresponding calculations, in order to be comparable with previous studies. Textural constraints and compositional zonation pattern are compatible with equilibrium conditions during peak metamorphism followed by a retrogressive overprint. P-T data are calculated with special focus on the application of the garnet-omphacite-phengite barometer, combined with Fe-Mg exchange thermometers. Maximum pressures range from 42-48 kbar (for the Changpu unit) to ~37 kbar (for the Ganghe unit and basement rocks). Temperatures during the eclogite metamorphism reached ca. 750 °C. Although the sample suite reveals variable peak-pressures, temperatures are in reasonable agreement. Pressure differences are interpreted to be due to strongly Ca-dominated garnet (up to 50 mol % grossular in the Changpu unit) and modification of peak-compositions during retrogressive metamorphism. The integrated geological data presented in this thesis allow it to be concluded that, i) basement and cover rocks are present in the Dabie Shan and both experienced UHP conditions ii) the Dabie Shan is the metamorphic equivalent of the former passive margin of the Yangtze craton iii) felsic gneisses undergoing UHP metamorphism are affected by volume changes due to phase transitions (qtz <-> coe), which directly influence the tectono-metamorphic processes iv) initial differences in temperature may account for the general lack of lower crustal rocks in UHP-facies
Gegenstand der Arbeit sind die protestantischen Landprediger der Kurmark Brandenburg in der zweiten Hälfte des 18. Jahrhunderts. Die Landprediger standen zu dieser Zeit in schlechtem Ruf, indem sie von der gebildeten Öffentlichkeit für "verbauert" gehalten wurden. Sie versuchten ihre Zugehörigkeit zum aufgeklärten Bürgertum unter Beweis zu stellen, nicht zuletzt indem sie "Volksaufklärung" betrieben. Auf der Grundlage breiten archivalischen Materials werden die kulturellen, sozialen und ökonomischen Umstände beleuchtet, unter denen die Landprediger als Träger der Volksaufklärung agierten. In Rede stehen die Einkünfte, die Ausbildung in der Schule und an der Universität zu Halle/Saale, Herkunft und Karrierewege, das Kirchenpatronat, das Verhältnis zum preußischen Staat, der Pfarrer in der Sicht der Dorfgemeinde, der Pfarrer als Volksaufklärer.
In this thesis we use the gravitational lensing effect as a tool to tackle two rather different cosmological topics: the nature of the dark matter in galaxy halos, and the rotation of the universe. Firstly, we study the microlensing effect in the gravitational lens systems Q0957+561 and Q2237+0305. In these systems the light from the quasar shines directly through the lensing galaxy. Due to the relative motion of the quasar, the lensing galaxy, and the observer compact objects in the galaxy or galaxy halo cause brightness fluctuations of the light from the background quasar. We compare light curve data from a monitoring program of the double quasar Q0957+561 at the 3.5m telescope at Apache Point Observatory from 1995 to 1998 (Colley, Kundic & Turner 2000) with numerical simulations to test whether the halo of the lensing galaxy consists of massive compact objects (MACHOs). This test was first proposed by Gott (1981). We can exclude MACHO masses from 10^-6 M_sun up to 10^-2 M_sun for quasar sizes of less than 3x10^14 h_60^-0.5 cm if the MACHOs make up at least 50% of the dark halo. Secondly, we present new light curve data for the gravitationally lensed quadruple quasar Q2237+0305 taken at the 3.5m telescope at Apache Point Observatory from June 1995 to January 1998. Although the images were taken under variable, often poor seeing conditions and with coarse pixel sampling, photometry is possible for the two brighter quasar images A and B with the help from HST observations. We find independent evidence for a brightness peak in image A of 0.4 to 0.5 mag with a duration of at least 100 days, which indicates that microlensing has taken place in the lensing galaxy. Finally, we use the weak gravitational lensing effect to put limits on a class of Goedel-type rotating cosmologies described by Korotky & Obukhov (1996). In weak lensing studies the shapes of thousands of background galaxies are measured and averaged to reveal coherent gravitational distortions of the galaxy shapes by foreground matter distributions, or by the large-scale structure of space-time itself. We calculate the predicted shear as a function of redshift in Goedel-type rotating cosmologies and compare this to the upper limit on cosmic shear gamma_limit of approximately 0.04 from weak lensing studies. We find that Goedel-type models cannot have larger rotations omega than H_0=6.1x10^-11 h_60/year if this shear limit is valid for the whole sky.
Im Mittelpunkt des Beitrags steht die Frage, wie sich der Allgemeine Europäische Referenzrahmen mit sechs Stufen und die vier Kompetenzniveaus des UNIcert-Systems aufeinander beziehen lassen. Der Beitrag möchte als ein Angebot an die zuständigen Institutionen des Europarats aufgefaßt werden, den Allgemeinen Europäischen Referenzrahmen unter Einbeziehung des hochschulspezifischen Fremdsprachenunterrichts weiterzuentwickeln. Es müssen Überlegungen zu Beschreibungsparametern, die eine angemessene Progression unter Vermeidung großer Sprünge gewährleisten, angestellt werden. Durch die Einbeziehung von UNIcert könnte die internationale Vergleichbarkeit von Fremdsprachenausbildung und -zertifizierung auch auf dem Hochschulsektor vorangetrieben werden. Für UNIcert würde dies einen wichtigen Schritt von der Transparenz und Kohärenz im nationalen Rahmen zu einer größeren Konvergenz des universitären Sprachenlernens auf europäischer Ebene bedeuten.
Das Forschungsprojekt 'Sach-, Methoden- und Sozialkompetenz von Schülerinnen und Schülern der Jahrgangsstufen 5 und 6 an Grundschulen in Brandenburg' stellt eine kooperative fachdidaktische Untersuchung der Fächer Arbeitslehre, Biologie, Deutsch, Mathematik und Kunst dar. Problem- und Fragestellungen richten sich auf eine IST-STANDS-FESTSTELLUNG von ausgewählten Teilleistungen der Schüler, die auf Kompetenz hinweisen. Die Ergebnisse weisen einerseits allgemeine Merkmale von Kompetenz in den Jahrgangsstufen 5 und 6 und differenzierte fachspezifische Hinweise auf Kompetenz zum Zeitpunkt der Erhebung aus.
Die Arbeit stellt neu entwickelte Röntgenbeugungsmethoden vor, mit deren Hilfe der Verzerrungszustand des Kristallgitters von Halbleiter-Wafern und -Bauteilen im Detail charakterisiert werden kann. Hierzu werden die aussergewöhnlichen Eigenschaften der an modernen Synchrotrons wie der ESRF (Grenoble) verfügbaren Röntgenstrahlung genutzt. Im ersten Teil der Arbeit werden Röntgen-Diffraktometrie und -Topographie zu einer Untersuchungsmethode kombiniert, mit der die makroskopische Krümmung von Halbleiter-Wafern ebenso wie ihre mikroskopische Defektstruktur abgebildet werden kann. Der zweite Teil ist der Untersuchung von epitaktisch gewachsenen und geätzten Oberflächengittern mit Abmessungen im Submikrometer-Bereich gewidmet. Die unterschiedlichen Gitterkonstanten der beteiligten Halbleitermaterialien führen zu einem inhomogenen Verzerrungsfeld in der Probe, das sich im Röntgenbild durch eine charakteristische Verformung des Beugungsmusters in der Umgebung der Bragg-Reflexe äussert. Die Analyse der experimentell gemessenen Beugungsmuster geschieht mit Hilfe eines neu entwickelten Simulationsverfahrens, das Elastizitätstheorie und eine semi-kinematische Röntgenbeugungstheorie miteinander verbindet. Durch quantitativen Vergleich der Simulationsergebnisse mit den Messdaten kann auf den genauen Verlauf des Verzerrungsfeldes in den Proben zurückgeschlossen werden. Dieses Verfahren wird erfolgreich auf verschiedene Halbleiter-Probensysteme angewendet, und schliesslich auch auf die Untersuchung von akustischen Oberflächenwellen in Halbleiterkristallen übertragen.
Die Produktion von Polyrhythmen ist ein wichtiger experimenteller Zugang für die Untersuchung der menschlichen Motorik. Durch Variation des Tempos (externer Kontrollparameter) bei rhythmischen Bewegungsabläufen können qualitative Übergänge in der Koordinationsdynamik induziert werden. Diese Übergänge lassen sich mit der Methode der symbolischen Dynamik in experimentellen Zeitreihen nachweisen und sind ein wichtiger Hinweis darauf, dass die untersuchten Bewegungsabläufe nichtlinearen Kontrollprozessen unterliegen. Die theoretische Beschreibung bimanueller Rhythmusproduktion mit gekoppelten Differenzengleichungen führt auf ein Modell mit nichtlinearer Fehlerkontrolle. Es ist eine wichtige Eigenschaft der Kontrollprozesse, dass sie mit zeitverzögerter Rückkopplung arbeiten. Neben deterministischen Steuerungsmechanismen ist die Motorik des Menschen ausserdem von Fluktuationen auf zwei Ebenen gekennzeichnet, der kognitiven Kontrollebene und der Ebene der motorischen Systeme. Daher ist die Koordination von Bewegungen das Ergebnis von Wechselwirkungen zwischen nichtlinearen, zeitverzögerten Kontrollprozessen und stochastischen Fluktuationen.
Encounters with neighbours
(2003)
In this work, different aspects and applications of the recurrence plot analysis are presented. First, a comprehensive overview of recurrence plots and their quantification possibilities is given. New measures of complexity are defined by using geometrical structures of recurrence plots. These measures are capable to find chaos-chaos transitions in processes. Furthermore, a bivariate extension to cross recurrence plots is studied. Cross recurrence plots exhibit characteristic structures which can be used for the study of differences between two processes or for the alignment and search for matching sequences of two data series. The selected applications of the introduced techniques to various kind of data demonstrate their ability. Analysis of recurrence plots can be adopted to the specific problem and thus opens a wide field of potential applications. Regarding the quantification of recurrence plots, chaos-chaos transitions can be found in heart rate variability data before the onset of life threatening cardiac arrhythmias. This may be of importance for the therapy of such cardiac arrhythmias. The quantification of recurrence plots allows to study transitions in brain during cognitive experiments on the base of single trials. Traditionally, for the finding of these transitions the averaging of a collection of single trials is needed. Using cross recurrence plots, the existence of an El Niño/Southern Oscillation-like oscillation is traced in northwestern Argentina 34,000 yrs. ago. In further applications to geological data, cross recurrence plots are used for time scale alignment of different borehole data and for dating a geological profile with a reference data set. Additional examples from molecular biology and speech recognition emphasize the suitability of cross recurrence plots.