Refine
Has Fulltext
- yes (94) (remove)
Year of publication
- 2002 (94) (remove)
Document Type
- Doctoral Thesis (33)
- Monograph/Edited Volume (20)
- Part of Periodical (15)
- Article (13)
- Master's Thesis (3)
- Postprint (3)
- Working Paper (3)
- Habilitation Thesis (2)
- Review (2)
Is part of the Bibliography
- yes (94) (remove)
Keywords
- 1799-1804 (3)
- Anden (2)
- Andes (2)
- BBAW (2)
- Bibliographie (2)
- Kosmopolit (2)
- Reh (2)
- Weltbürger (2)
- roe deer (2)
- 'Peer To Peer' (1)
Institute
- MenschenRechtsZentrum (19)
- Institut für Biochemie und Biologie (10)
- Institut für Physik und Astronomie (8)
- Wirtschaftswissenschaften (8)
- Referat für Presse- und Öffentlichkeitsarbeit (7)
- Institut für Umweltwissenschaften und Geographie (6)
- Sozialwissenschaften (5)
- Institut für Ernährungswissenschaft (4)
- Institut für Geowissenschaften (4)
- Institut für Romanistik (3)
This MA thesis examines novels by Native American authors of the 20th century in regard to their representation of conflicts between the indigenous population of North America and the dominant Christian religion of the mainstream society. Several major points can be followed throughout the century, which have been presented repeatedly and discussed in various perspectives. Historical conflicts of colonization and Christianization, as well as the perpetual question of Native American Christians -- 'How can you go to a church that killed so many Indians?' [Alexie, Reservation Blues] -- are debated in these novels and analyzed in this paper. Furthermore, I have tried to position and classify the works according to their representation of these problems within literary history. Following Charles Larson's chronologic and thematic examination of American Indian Fiction, the categories rejection, (syncretic) adaptation, and postmodern-ironic revision are introduced to describe the various forms of representation. On the basis of five main examples, we can observe an evolution of contemporary Native American literature, which has liberated itself from the narrow definition of the 1960s and 1970s, in favor of a broader and more varied approach. In so doing, and by means of intercultural and intertextual referencing, postmodern irony, and a new Indian self-confidence, it has also taken a new position towards the religion of the former colonizer.
Das Ziel dieser Arbeit ist es, die Strukturen im äußeren Erdkern zu untersuchen und Rückschlüsse auf die sich daraus ergebenden Konsequenzen für geodynamische Modellvorstellungen zu ziehen. Die Untersuchung der Kernphasenkaustik B mit Hilfe einer kumulierten Amplituden-Entfernungskurve ist Gegenstand des ersten Teils. Dazu werden die absoluten Amplituden der PKP-Phasen im Entfernungsbereich von 142 ° bis 147 ° bestimmt und mit den Amplituden synthetischer Seismogramme verglichen. Als Datenmaterial dienen die Breitbandregistrierungen des Deutschen Seismologischen Re-gionalnetzes (GRSN 1 ) und des Arrays Gräfenberg (GRF). Die verwendeten Wellen-formen werden im WWSSN-SP-Frequenzbereich gefiltert. Als Datenbasis dienen vier Tiefherdbeben der Subduktionszone der Neuen Hebriden (Vanuatu Island) und vier Nuklearexplosionen, die auf dem Mururoa und Fangataufa Atoll im Südpazifik stattgefunden haben. Beide Regionen befinden sich vom Regionalnetz aus gesehen in einer Epizentraldistanz von ungefähr 145 °. Die Verwendung eines homogen instrumentierten Netzes von Detektoren und die Anwendung von Stations- und Magnitudenkorrekturen verringern den Hauptteil der Streuung bei den Amplitudenwerten. Dies gilt auch im Vergleich zu Untersuchungen von langperiodischen Amplituden im Bereich der Kernphasenkaustik (Häge, 1981). Ein weiterer Grund für die geringe Streuung ist die ausschließliche Verwendung von Ereignissen mit kurzer impulsiver Herdzeitfunktion. Erst die geringe Streuung der Amplitudenwerte ermöglicht eine Interpretation der Daten. Die theoretischen Amplitudenkurven der untersuchten Erdmodelle zeigen im Bereich der Kaustik B einen gleichartigen Kurvenverlauf. Bei allen Berechnungen wird ein einheitliches Modell für die Güte der P- und S-Wellen verwendet, das sich aus den Q-Werten der Modelle CIT112 und PREM 2 zusammensetzt. Die mit diesem Q-Modell berechneten Amplituden liegen in geringem Maße oberhalb der gemessenen Amplituden. Dies braucht nicht berücksichtigt zu werden, da die kumulierte Amplituden-Entfernungskurve anhand der Lage des Maximums auf der Entfernungsachse ausgewertet wird. Folglich wird darauf verzichtet, ein alternatives Q-Modell zu entwickeln. Hinsichtlich der Lage des Kaustikmaximums lassen sich die untersuchten Erdmodelle in zwei Kategorien einteilen. Eine Gruppe besteht aus den Modellen IASP91 und 1066B, deren Maxima bei 144.6 ° und 144.7 ° liegen. Zur zweiten Gruppe von Modellen zählen AK135, PREM und SP6 mit den Maxima bei 145.1 ° und 145.2 ° (SP6). Die gemessene Amplitudenkurve hat ihr Maximum bei 145 °. Alle Entfernungsangaben beziehen sich auf eine Herdtiefe von 200 km. Die Kaustikentfernung für einen Oberflächenherd ist jeweils um 0.454 ° größer als die angegeben Werte. Damit liegen die Maxima der Modelle AK135 und PREM nur 0.1 ° neben dem der gemessenen kumulierten Amplitudenkurve. Daher wird auf die Erstellung eines eigenen Modells verzichtet, da dieses eine unwesentlich verbesserte Amplitudenkurve aufweisen würde. Das Ergebnis der Untersuchung ist die Erstellung einer gemessenen kumulierten Amplituden-Entfernungskurve für die Kaustik B. Die Kurve legt die Position der Kaustik B für kurzperiodische Daten auf ± 0.15 ° fest und bestimmt damit, welche Erdmodelle für die Beschreibung der Amplituden im Entfernungsbereich der Kaustik B besonders geeignet sind. Die Erdmodelle AK135 und PREM, ergänzt durch ein einheitliches Q-Modell, geben den Verlauf der Amplituden am besten wieder. Da die Amplitudenkurven beider Modelle nahe beieinander liegen, sind sie als gleichwertig zu bezeichnen. Im zweiten Teil der Arbeit wird die Struktur der Übergangszone in den inneren Erdkern anhand des spektralen Abklingens der Phase PKP(BC)diff am Punkt C der Laufzeitkurve untersucht. Der physikalische Prozeß der Beugung ist für die starke Abnahme der Amplituden dieser Phase verantwortlich. Die Diffraktion beeinflußt das Abklingverhalten verschiedener Frequenzanteile des seismischen Signals auf unterschiedliche Weise. Eine Deutung des Verhaltens erfordert die Berechnung von Abklingspektren. Dabei wird die Abschwächung des PKP(BC)diff Signals für acht Frequenzen zwischen 6.4 s und 1.25 Hz ermittelt und als Spektrum dargestellt. Die Form des Abklingspektrums ist charakteristisch für die Beschaffenheit der Geschwindigkeitsstruktur direkt oberhalb der Grenze zum inneren Erdkern (GIK). Die Beben, deren Kernphasen im Regionalnetz als diffraktierte Kernphasen BCdiff registriert werden, liegen in einem Entfernungsbereich jenseits von 150 °. In dieser Distanz befinden sich die Erdbebenherde der Tonga-Fidschi-Subduktionszone, deren Breitbandaufzeichnungen verwendet werden. Die Auswertung unkorrigierter Wellenformen ergibt Abklingspektren, die mit plausiblen Erdmodellen nicht in Einklang zu bringen sind. Aus diesem Grund werden die Daten einer spektralen Stationskorrektur unterzogen, die eigens zu diesem Zweck ermittelt wird. Am Beginn der Auswertung steht eine Prüfung bekannter Erdmodelle mit unterschiedlichen Geschwindigkeitsstrukturen oberhalb der GIK. Zu den untersuchten Modellen zählen PREM, IASP91, AK135Q, PREM2, SP6, OICM2 und eine Variante des PREM. Die Untersuchung ergibt, daß Modelle, die einen verringerten Gradienten oberhalb der GIK aufweisen, eine bessere Übereinstimmung mit den gemessenen Daten zeigen als Modelle ohne diese Übergangszone. Zur Verifikation dieser These wird ein Erdmodell, das keinen verringerten Gradienten oberhalb der GIK besitzt (PREM), durch eine Reihe unterschiedlicher Geschwindigkeitsverläufe in diesem Bereich ergänzt und deren synthetische Seismogramme berechnet. Das Resultat der Untersuchung sind zwei Varianten des PREM, deren Frequenzanalyse eine gute Übereinstimmung mit den Daten zeigt. Das Abklingspektrum des Erdmodells PD47, das in einer 380 km mächtigen Schicht einen negativen Gradienten besitzt, zeigt eine große Ähnlichkeit mit den gemessenen Spektren. Dennoch kann es nicht als realistisches Modell angesehen werden, da der Punkt C in einer zu großen Entfernung liegt. Darüber hinaus müßte die zu kurze Differenzlaufzeit zwischen PKP(AB) und PKP(DF) beziehungsweise PKIKP durch eine größere Änderung der Geschwindigkeitsstruktur im inneren Kern kompensiert werden. Es wird deshalb das Modell PD27a favorisiert, das diese Nachteile nicht aufweist. PD27a besitzt eine Schicht konstanter Geschwindigkeit oberhalb der GIK mit einer Mächtigkeit von 150 km. Die Art des Geschwindigkeitsverlaufs steht im Einklang mit der geodynamischen Modellvorstellung, nach der eine Anreicherung leichter Elemente oberhalb der GIK vorliegt, die als Ursache für die Konvektion im äußeren Erdkern anzusehen ist.
August Klughardt
(2002)
Abstract: August Klughardt (1847-1902) Komponist, Dirigent und Pianist Neben Köthen, Dresden, Posen, Lübeck und Weimar sind Dessau und auch Neustrelitz Klughardts wichtigste Lebensstationen. Durch sein kompositorisches Schaffen wie auch durch sein Wirken in den beiden letztgenannten Städten, erlangte er einen über Deutschland hinaus wirkenden Bekanntheitsgrad. Im Wirken Klughardts im Großherzogtum Mecklenburg-Strelitz und im Herzogtum Anhalt vereinen sich der Drang, Neues und qualitativ Hochwertiges zu schaffen und der Anspruch, musikalische Traditionen zu bewahren. Mit der vorliegenden Publikation werden erstmals in größerem Umfange Tagebuchnotizen und persönliche Korrespondenz des Musikers aus den Jahren 1873-1882 veröffentlicht, die einen Einblick nicht nur in das Musik- und Theaterwesen der beiden Residenzstädte Dessau und Neustrelitz geben und gleichzeitig ein Panorama der führenden musikalischen Orte und Köpfe aus der Sicht eines mecklenburgischen Hofkapellmeisters entwerfen. Deutlich heraus tritt dabei seine Beziehung zu den Höfen in Neustrelitz und Dessau. Die Veröffentlichung der im Tagebuch enthaltenen Beschreibung der ersten Bayreuther Festspiele 1876 von Klughardts Hand und eines vorangegangenen Briefwechsels mit Richard Wagner setzt einen zusätzlichen thematischen Schwerpunkt.
In the honey bee, responsiveness to sucrose correlates with many behavioural parameters such as age of first foraging, foraging role and learning. Sucrose responsiveness can be measured using the proboscis extension response (PER) by applying sucrose solutions of increasing concentrations to the antenna of a bee. We tested whether the biogenic amines octopamine, tyramine and dopamine, and the dopamine receptor agonist 2-amino-6,7-dihydroxy-1,2,3,4-tetrahydronaphthalene (6,7-ADTN) can modulate sucrose responsiveness. The compounds were either injected into the thorax or fed in sucrose solution to compare different methods of application. Injection and feeding of tyramine or octopamine significantly increased sucrose responsiveness. Dopamine decreased sucrose responsiveness when injected into the thorax. Feeding of dopamine had no effect. Injection of 6,7-ADTN into the thorax and feeding of 6,7-ADTN reduced sucrose responsiveness significantly. These data demonstrate that sucrose responsiveness in honey bees can be modulated by biogenic amines, which has far reaching consequences for other types of behaviour in this insect. (C) 2002 Elsevier Science B.V. All rights reserved.
Im Rahmen eines Forschungsprojekts zur Belastung und Beanspruchung von Kindern und Jugendlichen führten die Autorinnen Untersuchungen zur Entspannungsfähigkeit von nicht behinderten und behinderten Schülerinnen und Schülern durch. Die Fähigkeit zur Entspannung wird als wichtige Voraussetzung für die Entwicklung von Leiszungsfähigkeit, Wohlbefinden und Gesundheit angesehen. Zugleich wird davon ausgegangen, dass es einen unmittelbaren Zusammenhang zwischen psychosomatischen Auffälligkeiten und dem biologisch verankerten Reaktionsmuster Entspannung gibt. In drei unterschiedlichen Versuchsgruppen werden dazu physiologische Parameter mittels Blutdruck- und Hautwiderstandsmessungen erhoben. Die Untersuchungsergebnisse lassen Schlussfolgerungen für eine veränderte Unterrichts- und Lernprozessgestaltung zu.
Combined structural and magnetotelluric investigation across the West Fault Zone in northern Chile
(2002)
The characterisation of the internal architecture of large-scale fault zones is usually restricted to the outcrop-based investigation of fault-related structural damage on the Earth's surface. A method to obtain information on the downward continuation of a fault is to image the subsurface electrical conductivity structure. This work deals with such a combined investigation of a segment of the West Fault, which itself is a part of the more than 2000 km long trench-linked Precordilleran Fault System in the northern Chilean Andes. Activity on the fault system lasted from Eocene to Quaternary times. In the working area (22°04'S, 68°53'W), the West Fault exhibits a clearly defined surface trace with a constant strike over many tens of kilometers. Outcrop condition and morphology of the study area allow ideally for a combination of structural geology investigation and magnetotelluric (MT) / geomagnetic depth sounding (GDS) experiments. The aim was to achieve an understanding of the correlation of the two methods and to obtain a comprehensive view of the West Fault's internal architecture. Fault-related brittle damage elements (minor faults and slip-surfaces with or without striation) record prevalent strike-slip deformation on subvertically oriented shear planes. Dextral and sinistral slip events occurred within the fault zone and indicate reactivation of the fault system. Youngest deformation increments mapped in the working area are extensional and the findings suggest a different orientation of the extension axes on either side of the fault. Damage element density increases with approach to the fault trace and marks an approximately 1000 m wide damage zone around the fault. A region of profound alteration and comminution of rocks, about 400 m wide, is centered in the damage zone. Damage elements in this central part are predominantly dipping steeply towards the east (70-80°). Within the same study area, the electrical conductivity image of the subsurface was measured along a 4 km long MT/GDS profile. This main profile trends perpendicular to the West Fault trace. The MT stations of the central 2 km were 100 m apart from each other. A second profile with 300 m site spacing and 9 recording sites crosses the fault a few kilometers away from the main study area. Data were recorded in the frequency range from 1000 Hz to 0.001 Hz with four real time instruments S.P.A.M. MkIII. The GDS data reveal the fault zone for both profiles at frequencies above 1 Hz. Induction arrows indicate a zone of enhanced conductivity several hundred meters wide, that aligns along the WF strike and lies mainly on the eastern side of the surface trace. A dimensionality analysis of the MT data justifies a two dimensional model approximation of the data for the frequency range from 1000 Hz to 0.1 Hz. For this frequency range a regional geoelectric strike parallel to the West Fault trace could be recovered. The data subset allows for a resolution of the conductivity structure of the uppermost crust down to at least 5 km. Modelling of the MT data is based on an inversion algorithm developed by Mackie et al. (1997). The features of the resulting resistivity models are tested for their robustness using empirical sensitivity studies. This involves variation of the properties (geometry, conductivity) of the anomalies, the subsequent calculation of forward or constrained inversion models and check for consistency of the obtained model results with the data. A fault zone conductor is resolved on both MT profiles. The zones of enhanced conductivity are located to the east of the West Fault surface trace. On the dense MT profile, the conductive zone is confined to a width of about 300 m and the anomaly exhibits a steep dip towards the east (about 70°). Modelling implies that the conductivity increase reaches to a depth of at least 1100 m and indicates a depth extent of less than 2000 m. Further conductive features are imaged but their geometry is less well constrained. The fault zone conductors of both MT profiles coincide in position with the alteration zone. For the dense profile, the dip of the conductive anomaly and the dip of the damage elements of the central part of the fault zone correlate. This suggests that the electrical conductivity enhancement is causally related to a mesh of minor faults and fractures, which is a likely pathway for fluids. The interconnected rock-porosity that is necessary to explain the observed conductivity enhancement by means of fluids is estimated on the basis of the salinity of several ground water samples (Archie's Law). The deeper the source of the water sample, the more saline it is due to longer exposure to fluid-rock interaction and the lower is the fluid's resistivity. A rock porosity in the range of 0.8% - 4% would be required at a depth of 200 m. That indicates that fluids penetrating the damaged fault zone from close to the surface are sufficient to explain the conductivity anomalies. This is as well supported by the preserved geochemical signature of rock samples in the alteration zone. Late stage alteration processes were active in a low temperature regime (<95°C) and the involvement of ascending brines from greater depth is not indicated. The limited depth extent of the fault zone conductors is a likely result of sealing and cementation of the fault fracture mesh due to dissolution and precipitation of minerals at greater depth and increased temperature. Comparison of the results of the apparently inactive West Fault with published studies on the electrical conductivity structure of the currently active San Andreas Fault, suggests that the depth extent and conductivity of the fault zone conductor may be correlated to fault activity. Ongoing deformation will keep the fault/fracture mesh permeable for fluids and impede cementation and sealing of fluid pathways.
Comparative study of gene expression during the differentiation of white and brown preadipocytes
(2002)
Introduction Mammals have two types of adipose tissue: the lipid storing white adipose tissue and the brown adipose tissue characterised by its capacity for non-shivering thermogenesis. White and brown adipocytes have the same origin in mesodermal stem cells. Yet nothing is known so far about the commitment of precursor cells to the white and brown adipose lineage. Several experimental approaches indicate that they originate from the differentiation of two distinct types of precursor cells, white and brown preadipocytes. Based on this hypothesis, the aim of this study was to analyse the gene expression of white and brown preadipocytes in a systematic approach. Experimental approach The white and brown preadipocytes to compare were obtained from primary cell cultures of preadipocytes from the Djungarian dwarf hamster. Representational difference analysis was used to isolate genes potentially differentially expressed between the two cell types. The thus obtained cDNA libraries were spotted on microarrays for a large scale gene expression analysis in cultured preadipocytes and adipocytes and in tissue samples. Results 4 genes with higher expression in white preadipocytes (3 members of the complement system and a fatty acid desaturase) and 8 with higher expression in brown preadipocytes were identified. From the latter 3 coded for structural proteins (fibronectin, metargidin and a actinin 4), 3 for proteins involved in transcriptional regulation (necdin, vigilin and the small nuclear ribonucleoprotein polypeptide A) and 2 are of unknown function. Cluster analysis was applied to the gene expression data in order to characterise them and led to the identification of four major typical expression profiles: genes up-regulated during differentiation, genes down-regulated during differentiation, genes higher expressed in white preadipocytes and genes higher expressed in brown preadipocytes. Conclusion This study shows that white and brown preadipocytes can be distinguished by different expression levels of several genes. These results draw attention to interesting candidate genes for the determination of white and brown preadipocytes (necdin, vigilin and others) and furthermore indicate that potential importance of several functional groups in the differentiation of white and brown preadipocytes, mainly the complement system and extracellular matrix.
Motivated by recent proposals on the experimental detectability of quantum gravity effects, the present thesis investigates assumptions and methods which might be used for the prediction of such effects within the framework of loop quantum gravity. To this end, a scalar field coupled to gravity is considered as a model system. Starting from certain assumptions about the dynamics of the coupled gravity-matter system, a quantum theory for the scalar field is proposed. Then, assuming that the gravitational field is in a semiclassical state, a "QFT on curved space-time limit" of this theory is defined. In contrast to ordinary quantum field theory on curved space-time however, in this limit the theory describes a quantum scalar field propagating on a (classical) random lattice. Then, methods to obtain the low energy limit of such a lattice theory, especially regarding the resulting modified dispersion relations, are discussed and applied to simple model systems. Finally, under certain simplifying assumptions, using the methods developed before as well as a specific class of semiclassical states, corrections to the dispersion relations for the scalar and the electromagnetic field are computed within the framework of loop quantum gravity. These calculations are of preliminary character, as many assumptions enter whose validity remains to be studied more thoroughly. However they exemplify the problems and possibilities of making predictions based on loop quantum gravity that are in principle testable by experiment.
In der vorliegenden Dissertation wird die Bedeutung von Brachen für Artenvielfalt und Stabilität von Blüte-Bestäuber-Nahrungsnetzen in agrarisch genutzten Landschaften anhand ausgewählter blütenbesuchender Insektengruppen (Syrphidae, Lepidoptera) untersucht. Die Freilandarbeiten fanden von 1998-2000 im Raum der Feldberger Seenlandschaft, Mecklenburg-Vorpommern, statt. Es werden die beiden Hauptnahrungsquellen Nektar und Pollen betrachtet, dabei fanden Untersuchungen zur Intensität der Blüte-Bestäuber-Interaktion auf Stilllegungsflächen, zum flächenbezogenen quantitativen Nektarangebot im Jahresverlauf, zur individuellen Pollennutzung bei Syrphiden und zur Breite und Überlappung der Nahrungsnischen bei den dominanten Arten Episyrphus balteatus, Metasyrphus corollae, Syritta pipiens und Sphaerophoria scripta statt. Im Ergebnis zeigt sich eine hohe Bedeutung der Brachflächen für die Stabilität des Blüte-Bestäuber-Netzes, während die Diversität von anderen, eher landschaftsbezogenen Faktoren abhängig ist.
Inhalt: Veränderungen der Bemessungsgrundlage -Besteuerung der Alterseinkommen -Sozialversicherungsbeiträge, Vorsorgeaufwendungen und Sonderausgaben -Die Behandlung der Einkünfte aus nichtselbständiger Arbeit -Behandlung der Einkünfte aus Vermietung und Verpachtung -Behandlung der Gewinneinkunftsarten und der Einkünfte aus Kapitalvermögen -Kindergeld und Kinderfreibeträge Gesamtwirkungen Der Karlsruher Reformentwurf -Die Elemente des Karlsruher Entwurfs -Karlsruher Entwurf im empirischen Vergleich Tarifanalyse unter Einschluß des Grundfreibetrags
Das Lektin aus Pisum sativum, der Gartenerbse, ist Teil der Familie der Leguminosenlektine. Diese Proteine haben untereinander eine hohe Sequenzhomologie, und die Struktur ihrer Monomere, ein all-ß-Motiv, ist hoch konserviert. Dagegen gibt es innerhalb der Familie eine große Vielfalt an unterschiedlichen Quartärstrukturen, die Gegenstand kristallographischer und theoretischer Arbeiten waren. Das Erbsenlektin ist ein dimeres Leguminosenlektin mit einer Besonderheit in seiner Struktur: Nach der Faltung in der Zelle wird aus einem Loop eine kurze Aminosäuresequenz herausgeschnitten, so dass sich in jeder Untereinheit zwei unabhängige Polypeptidketten befinden. Beide Ketten sind aber stark miteinander verschränkt und bilden eine gemeinsame strukturelle Domäne. Wie alle Lektine bindet Erbsenlektin komplexe Oligosaccharide, doch sind seine physiologische Rolle und der natürliche Ligand unbekannt. In dieser Arbeit wurden Versuche zur Entwicklung eines Funktionstests für Erbsenlektin durchgeführt und seine Faltung, Stabilität und Monomer-Dimer-Gleichgewicht charakterisiert. Um die spezifische Rolle der Prozessierung für Stabilität und Faltung zu untersuchen, wurde ein unprozessiertes Konstrukt in E. coli exprimiert und mit der prozessierten Form verglichen. Beide Proteine zeigen die gleiche kinetische Stabilität gegenüber chemischer Denaturierung. Sie denaturieren extrem langsam, weil nur die isolierten Untereinheiten entfalten können und das Monomer-Dimer-Gleichgewicht bei mittleren Konzentrationen an Denaturierungsmittel auf der Seite der Dimere liegt. Durch die extrem langsame Entfaltung zeigen beide Proteine eine apparente Hysterese im Gleichgewichtsübergang, und es ist nicht möglich, die thermodynamische Stabilität zu bestimmen. Die Stabilität und die Geschwindigkeit der Assoziation und Dissoziation in die prozessierten bzw. nichtprozessierten Untereinheiten sind für beide Proteine gleich. Darüber hinaus konnte gezeigt werden, dass auch unter nicht-denaturierenden Bedingungen die Untereinheiten zwischen den Dimeren ausgetauscht werden. Die Renaturierung der unprozessierten Variante ist unter stark nativen Bedingungen zu 100 % möglich. Das prozessierte Protein dagegen renaturiert nur zu etwa 50 %, und durch die Prozessierung ist die Faltung stark verlangsamt, der Faltungsprozess ist erst nach mehreren Tagen abgeschlossen. Im Laufe der Renaturierung wird ein Intermediat populiert, in dem die längere der beiden Polypeptidketten ein Homodimer mit nativähnlicher Untereinheitenkontaktfläche bildet. Der geschwindigkeitsbestimmende Schritt der Renaturierung ist die Assoziation der entfalteten kürzeren Kette mit diesem Dimer.
Die Eifel ist eines der jüngsten vulkanischen Gebiete Mitteleuropas. Die letzte Eruption ereignete sich vor ungefähr 11000 Jahren. Bisher ist relativ wenig bekannt über die tieferen Mechanismen, die für den Vulkanismus in der Eifel verantwortlich sind. Erdbebenaktivität deutet ebenso darauf hin, dass die Eifel eines der geodynamisch aktivsten Gebiete Mitteleuropas ist. In dieser Arbeit wird die Receiver Function Methode verwendet, um die Strukturen des oberen Mantels zu untersuchen. 96 teleseismische Beben (mb > 5.2) wurden ausgewertet, welche von permanenten und mobilen breitbandigen und kurzperiodischen Stationen aufgezeichnet wurden. Das temporäre Netzwerk registrierte von November 1997 bis Juni 1998 und überdeckte eine Fläche von ungefähr 400x250 km². Das Zentrum des Netzwerkes befand sich in der Vulkaneifel. Die Auswertung der Receiver Function Analyse ergab klare Konversionen von der Moho und den beiden Manteldiskontinuitäten in 410 km und 660 km Tiefe, sowie Hinweise auf einen Mantel-Plume in der Region der Eifel. Die Moho wurde bei ungefähr 30 km Tiefe beobachtet und zeigt nur geringe Variationen im Bereich des Netzwerkes. Die beobachteten Variationen der konvertierten Phasen der Moho können mit lateralen Schwankungen in der Kruste zu tun haben, die mit den Receiver Functions nicht aufgelöst werden können. Die Ergebnisse der Receiver Function Methode deuten auf eine Niedriggeschwindigkeitszone zwischen 60 km bis 90 km in der westlichen Eifel hin. In etwa 200 km Tiefe werden im Bereich der Eifel amplitudenstarke positive Phasen von Konversionen beobachtet. Als Ursache hierfür wird eine Hochgeschwindigkeitszone vorgeschlagen, welche durch mögliches aufsteigendes, dehydrierendes Mantel-Material verursacht wird. Die P zu S Konversionen an der 410 km Diskontinuität zeigen einen späteren Einsatz als nach dem IASP91-Modell erwartet wird. Die migrierten Daten weisen eine Absenkung der 410 km Diskontinuität um bis zu 20 km Tiefe auf, was einer Erhöhung der Temperatur von bis zu etwa 140° Celsius entspricht. Die 660 km Diskontinuität weist keine Aufwölbung auf. Dies deutet darauf hin, dass kein Mantelmaterial direkt von unterhalb der 660 km Diskontinuität in der Eifel-Region aufsteigt oder, dass der Ursprung des Eifel-Plumes innerhalb der Übergangszone liegt.
I. Die Relevanz der Vereinten Nationen für eine Gemeinsame Aussen- und Sicherheitspolitik der Europäischen Union
II. Rechtliche und „pararechtliche" Grundlagen der EU-Zusammenarbeit
III. Praktische Gestaltung der EU-Zusammenarbeit bei den Vereinten Nationen
IV. Die Vereinten Nationen als Thema der Brüsseler Institutionen
V. Zur Vertretung der EU im Sicherheitsrat (einige abschließende Anmerkungen)
Das Phänomen der Subduktion eines aktiven Spreizungszentrums an der Südspitze Südamerikas ist seit langem bekannt. Eine Vielzahl von geologischen Beobachtungen wurden mit diesem Phänomen in Verbindung gebracht, trotzdem ist der genaue Mechanismus der Beeinflussung des aktiven Kontinentalrandes weitgehend unbekannt. Die Zusammenhänge zwischen den Subduktionsprozessen und der Entwicklung der patagonischen Anden zwischen 47°S und 48°S stehen im Mittelpunkt der Untersuchungen. Um eine detaillierte zeitliche Auflösung der zugrunde liegenden Prozesse untersuchen zu können, wurde die Entwicklung der Vorlandsedimentation, die thermische Entwicklung und die Heraushebung der Oberkruste des andinen Orogens untersucht und diese in Bezug zur Subduktion des Chile-Rückens gesetzt. Im Bereich von 47°30′S wurden die synorogenen Vorlandsedimente der Santa Cruz Formation sedimentologisch untersucht. Diese fluviatilen Sedimente wurden in einem reliefarmen Vorlandgebiet durch häufige Rinnenverlagerung und dem Aufbau von Rinnenumlagerungsgürteln in Kombination mit assoziierten großräumigen Überflutungsablagerungen akkumuliert. Sie stehen in einem engen Zusammenhang mit der orogenen Entwicklung im andinen Liefergebiet. Dies spiegelt sich in dem nach oben gröber werdenden Zyklus der Santa Cruz Formation wider. Die magnetostratigraphischen Untersuchungen einer 270 m mächtigen Sequenz aus der Basis der Santa Cruz Formation, die mit 329 Einzelproben aus 96 Probenpunkten beprobt wurde, ergab 7 Umkehrungen der geomagnetischen Feldrichtung. Mit Hilfe der geomagnetischen Polaritätszeitskala (CANDE AND KENT, 1995) konnte der untersuchte Abschnitt der Santa Cruz Formation zwischen 16.2 und 18.5 Ma datiert werden. Als Träger der Sedimentations-Remanenz konnten überwiegend Pseudoeinbereichs-Magentitpartikel und untergeordnet Hämatitpartikel identifiziert werden. An drei Profilen der Santa Cruz Formation wurden aus Sandsteinlagen unterschiedlicher stratigraphischer Position detritische Apatite mit Hilfe der thermochronologischen Spaltspurmethode untersucht. Die thermisch nicht rückgesetzten, detritischen Apatite spiegeln das Auftreten unterschiedlicher Altersdomänen im Liefergebiet der Sedimente wider. In der Kombination mit den geochemischen Gesamtgesteinsuntersuchungen der Sedimente und den petrographischen Untersuchungen der Sandsteine, die ein überwiegend andesitisch-vulkanisch geprägtes Liefergebiet widerspiegeln, kann nachgewiesen werden, dass die Erosion im Liefergebiet um 16.5 Ma in tiefere, deformierte Krustensegmente einschneidet. Dies bedeutet, dass aufgrund der Denudation im andinen Orogen erste Sockelgesteinseinheiten in den Bereich der Abtragung gelangen und dass dieser Eintrag um 12 bis 10 Ma ein Volumen einnimmt, das zu signifikanten Änderungen der Gesamtgesteinsgeochemie der Vorlandsedimente führt. Die thermochronologische Untersuchung von Apatiten aus rezenten topographischen Höhenprofilen aus der Kernzone der patagonischen Anden im Bereich von 47°30′S zeigen den Beginn einer beschleunigten Heraushebung des Orogens um 7.5 Ma. Aus diesen Untersuchungen kann eine Denudationsrate im Zeitraum der letzen 7 bis 8 Ma von 600 bis 650 m/Ma abgeschätzt werden. Die Modellierung der Apatit-Spaltspurergebnisse zeigt eine signifikante Temperaturerhöhung im Zeitraum zwischen 12 und 8 Ma um 20 bis 30°C für diesen Krustenbereich, die mit der Subduktion des aktiven Chile-Rückens in diesem Bereich der Anden in Verbindung gebracht wird. Aus den gewonnen Daten kann ein Modell für die Entwicklung der patagonischen Anden seit dem frühen Miozän abgeleitet werden. In diesem Modell wird die orogene Entwicklung in den patagonischen Anden auf eine erhöhte Konvergenzrate zwischen der Nazca Platte und der Südamerikanischen Platte zurückgeführt, die für die Heraushebung und Denudation der Anden sowie für die damit verbundene Entwicklung im Vorlandbereich verantwortlich ist. Diese orogene Entwicklung wird in einer späten Phase durch die nordwärts wandernde Subduktion des aktiven Spreizungszentrums des Chile Rückens überprägt und beeinflusst. Das auf der Integration von geologischen, chronologischen sowie thermochronologischen Daten beruhende Modell kann zahlreiche geologische und geophysikalische Beobachtungen in diesem Bereich der südlichen Anden konsistent erklären.
Die Pektat-Lyasen gehören zu einer Proteinfamilie, die meistens von pflanzenpathogenen Mikroorganismen sekretiert werden. Die Enzyme katalysieren den Abbau von Polygalakturonsäure, einem Hauptbestandteil in pflanzlichen Mittellamellen und Primärzellwänden. Der Abbau der alpha-1,4-verbrückten Galakturonsäurereste erfogt durch eine beta-Eliminierungsreaktion, dabei entsteht ein Produkt mit einer ungesättigten C4-C5 Bindung am nicht reduzierenden Ende, das durch spektroskopische Messungen beobachtet werden kann. Für die enzymatische Reaktion der Pektat-Lyasen ist Calcium nötig und das pH-Optimum der Reaktion liegt bei pH 8.5. Alle bis jetzt bekannten Strukturen der Pektat- und Pektin-Lyasen haben das gleiche Strukturmotiv - eine rechtsgängige parallele beta-Helix. Die Struktur der Pektat-Lyase aus Bacillus subtilis (BsPel) ist im Komplex mit Calcium gelöst worden. BsPel ist ein monomeres Protein mit einer ungefähren Molekularmasse von 43 kDa, das keine Disulfidbrücken enthält. Dies erlaubte sowohl eine effiziente rekombinante Expression des Wildtypproteins, als auch von destabilisierten Mutanten im Cytoplasma von E. coli. Parallele beta-Helices sind relativ große, jedoch verhältnismäßig einfach aufgebaute Proteine. Um detailliertere Informationen über die kritischen Schritte bei der in vitro-Faltung von parallelen beta-Helices zu erhalten, sollte in der vorliegenden Arbeit versucht werden, den Faltungsmechanismus dieses Proteins näher zu charakterisieren. Dabei sollte vor allem die Frage geklärt werden, welche Wechselwirkungen für die Stabilität dieses Proteins einerseits und für die Stabilität von essentiellen Faltungsintermediaten andererseits besonders wichtig sind.<BR>Rückfaltung von BsPel, ausgehend vom guanidiniumchlorid-denaturierten Zustand, war bei kleinen Proteinkonzentrationen und niedrigen Temperaturen vollständig möglich. GdmCl-induzierte Faltungsübergänge waren aber nicht reversibel und zeigten eine apparente Hysterese. Kinetische Messungen des Fluoreszenz- und CD-Signals im fernen UV ergaben eine extreme Denaturierungsmittelabhängigkeit der Rückfaltungsrate im Bereich des Übergangmittelpunktes. Der extreme Abfall der Rückfaltungsraten mit steigender Denaturierungsmittelkonzentration kann als kooperative Entfaltung eines essentiellen Faltungsintermediats verstanden werden. Dieses Faltungsintermediat ist temperaturlabil und kann durch den Zusatz Glycerin im Renaturierungspuffer stabilisiert werden, wobei sich die Hysterese verringert, jedoch nicht vollständig aufgehoben wird. Durch reverse Doppelsprungexperimente konnten zwei transiente Faltungsintermediate nachgewiesen werden, die auf zwei parallelen Faltungswegen liegen und beide zum nativen Zustand weiterreagieren können. Fluoreszenzemissionsspektren der beiden Intermediate zeigten, daß beide schon nativähnliche Struktur aufweisen. Kinetische Daten von Prolin-Doppelsprungexperimenten zeigten, daß Prolinisomerisierung den geschwindigkeitsbestimmenden Schritt in der Reaktivierung des denaturierten Enzyms darstellt. Desweiteren konnte durch Prolin-Doppelsprungexperimenten an Mutanten mit Substitutionen im Prolinrest 281 gezeigt werden, daß die langsame Renaturierung von BsPel nicht durch die Isomerisierung der einzigen cis-Peptidbindung an Prolin 281 verursacht wird, sondern durch die Isomerisierung mehrerer trans-Proline. Die beiden beobachteten transienten Faltungsintermediate sind somit wahrscheinlich zwei Populationen von Faltungsintermediaten mit nicht-nativen X-Pro-Peptidbindungen, wobei sich die Populationen durch mindestens eine nicht-native X-Pro-Peptidbindung unterscheiden.<BR>Der Austausch des Prolinrestes 281 gegen verschiedene Aminosäuren (Ala, Ile, Leu, Phe, Gly) führte zu einer starken Destabilisierung des nativen Proteins und daneben auch zu einer Reduktion in der Aktivität, da die Mutationsstelle in der Nähe der putativen Substratbindetasche liegt. Die Rückfaltungskinetiken der Prolinmutanten war bei 10°C annähernd gleich zum Wildtyp und die geschwindigkeitsbestimmenden Schritte der Faltung waren durch die Mutation nicht verändert. Die durch die Mutation verursachte drastische Destabilisierung des nativen Zustands führte zu einem reversiblen Entfaltungsgleichgewicht bei pH 7 und 10°C. GdmCl-induzierte Faltungsübergänge der Mutante P281A zeigten bei Messungen der Tryptophanfluoreszenzemission und der Aktivität einen kooperativen Phasenübergang mit einem Übergangsmittelpunkt bei 1.1 M GdmCl. Durch die Übereinstimmung der Faltungsübergänge bei beiden Messparametern konnten die Faltungsübergänge nach dem Zwei-Zustandsmodell ausgewertet werden. Dabei wurde eine freie Sabilisierungsenthalpie der Faltung für die Mutante von <nobr>- 64.2 ± 0.4 kJ/mol</nobr> und eine Kooperativität des Übergangs von <nobr>- 58.2 ± 0.3 kJ/(mol·M)</nobr> bestimmt.<BR> BsPel enthält, wie die meisten monomeren rechtsgängigen parallelen beta-Helix-Proteine, einen internen Stapel wasserstoffverbrückter Asparagin-Seitenketten. Die Mehrheit der erzeugten Mutanten mit Substitutionen im Zentrum der Asn-Leiter (N271X) waren als enzymatisch aktives Protein zugänglich. Die Auswirkung der Mutation auf die Stabilität und Rückfaltung wurde an den Proteinen BsPel-N271T und BsPel-N271A näher analysiert. Dabei führte die Unterbrechung des Asparaginstapels im Inneren der beta-Helix zu keiner drastischen Destabilisierung des nativen Proteins. Allerdings führten diese Mutationen zu einem temperatur-sensitiven Faltungsphänotyp und die Hysterese im Denaturierungsübergang wurde verstärkt. Offenbar wird durch die Unterbrechung des Asparaginstapel ein essentielles, thermolabiles Faltungsintermediat destabilisiert. Der Asparaginstapel wird somit bei der Faltung sehr früh ausgebildet und ist wahrscheinlich schon im Übergangszustand vorhanden.
Seit 1999 gibt es die Potsdamer UNO-Konferenzen des Forschungskreises Vereinte Nationen. Inzwischen ist es eine gute Tradition geworden, daß sich UN-Forscher, Politiker und Diplomaten im Sommer zur Potsdamer UNO-Konferenz treffen.
Die Konferenzen des Forschungskreises Vereinte Nationen stehen im Zeichen des interdisziplinären Dialogs in der UN-Forschung zwischen Völkerrechts- und Politikwissenschaft und dienen zugleich der Standortbestimmung der deutschen UN-Forschung im internationalen Kontext.
Die vierte Konferenz des Forschungskreises, die am 28. und 29. Juni 2002 wiederum in den Räumen der Juristischen Fakultät der Universität Potsdam stattfand, widmete sich der Zusammenarbeit der Vereinten Nationen mit der Europäischen Union und mit der NATO sowie den Problemen, die sich den Vereinten Nationen bei der Bekämpfung des Terrorismus in völkerrechtlicher Hinsicht und beim Schutz der Menschenrechte stellen.
Die in dieser Broschüre veröffentlichten Referate der vierten Konferenz machen zusammen mit den Diskussionen, die zusammenfassend dargestellt werden, deutlich, daß die Vereinten Nationen bei der Erfüllung ihrer durch die Charta gestellten Aufgaben auf die Zusammenarbeit mit regionalen politischen und militärischen Organisationen angewiesen sind. Bei der Auseinandersetzung mit politischen Konflikten, internationalen Krisen und aktuellen Herausforderungen wie dem internationalen Terrorismus sind ihnen dabei durch die machtpolitischen Realitäten deutliche Grenzen gesetzt und können sie oft weniger Akteur als vielmehr Schiedsrichter und Wahrer der Menschenrechte sein.
In order to face the rapidly increasing need for computational resources of various scientific and engineering applications one has to think of new ways to make more efficient use of the worlds current computational resources. In this respect, the growing speed of wide area networks made a new kind of distributed computing possible: Metacomputing or (distributed) Grid computing. This is a rather new and uncharted field in computational science. The rapidly increasing speed of networks even outperforms the average increase of processor speed: Processor speeds double on average each 18 month whereas network bandwidths double every 9 months. Due to this development of local and wide area networks Grid computing will certainly play a key role in the future of parallel computing. This type of distributed computing, however, distinguishes from the traditional parallel computing in many ways since it has to deal with many problems not occurring in classical parallel computing. Those problems are for example heterogeneity, authentication and slow networks to mention only a few. Some of those problems, e.g. the allocation of distributed resources along with the providing of information about these resources to the application have been already attacked by the Globus software. Unfortunately, as far as we know, hardly any application or middle-ware software takes advantage of this information, since most parallelizing algorithms for finite differencing codes are implicitly designed for single supercomputer or cluster execution. We show that although it is possible to apply classical parallelizing algorithms in a Grid environment, in most cases the observed efficiency of the executed code is very poor. In this work we are closing this gap. In our thesis, we will - show that an execution of classical parallel codes in Grid environments is possible but very slow - analyze this situation of bad performance, nail down bottlenecks in communication, remove unnecessary overhead and other reasons for low performance - develop new and advanced algorithms for parallelisation that are aware of a Grid environment in order to generelize the traditional parallelization schemes - implement and test these new methods, replace and compare with the classical ones - introduce dynamic strategies that automatically adapt the running code to the nature of the underlying Grid environment. The higher the performance one can achieve for a single application by manual tuning for a Grid environment, the lower the chance that those changes are widely applicable to other programs. In our analysis as well as in our implementation we tried to keep the balance between high performance and generality. None of our changes directly affect code on the application level which makes our algorithms applicable to a whole class of real world applications. The implementation of our work is done within the Cactus framework using the Globus toolkit, since we think that these are the most reliable and advanced programming frameworks for supporting computations in Grid environments. On the other hand, however, we tried to be as general as possible, i.e. all methods and algorithms discussed in this thesis are independent of Cactus or Globus.
The external dispersal ("epizoochory") of vascular plant diaspores (seeds and fruits) by roe deer and wild boar, i.e. the most common wild large mammals with a large home range in central Europe, was investigated in a 6.5-km² forest area in NE Germany dominated by mesic deciduous forests. The study involved brushing out the diaspores from the coats and hooves of 25 shot roe deer and nine wild boar. The results were compared with the forest vegetation of the study area. Whilst wild boar transported large amounts of various diaspores in the coat, the significance of roe deer for epizoochory was low due to their sleek fur and different behaviour compared to wild boar. Altogether, 55 vascular plant species were transported externally. Since only a limited number of seeds came from woodland habitats, the open landscape was at least as important as a source of attached seeds as the forest vegetation. Thus, most plant species occurring in the studied forest area, especially characteristic woodland herbs, showed no adaptations to epizoochorous dispersal, although being very abundant in the herb layer. We conclude that hoofed game play a particular role concerning the dispersal of ruderal and grassland species in the agricultural landscape of central Europe. However, the actual spread of some herb species in forests of northern Germany, e.g. Agrostis capillaris, Brachypodium sylvaticum, Deschampsia flexuosa, Galium aparine and Urtica dioica, may be mainly facilitated by wild ungulates. Though dispersal by large mammals is an important mechanism for long-distance dispersal of plants in general, our results suggest that most of the characteristic herb species of mesic deciduous forests have only low epizoochorous dispersal potentials. The implications for nature conservation and silviculture are discussed.
Die vorliegende Arbeit beschäftigt sich mit der Synthese und den Eigenschaften von doppelthydrophilen Blockcopolymeren und ihrer Anwendung in einem biomimetischen Mineralisationsprozeß von Calciumcarbonat und Bariumsulfat. Doppelthydrophile Blockcopolymere bestehen aus einem hydrophilen Block, der nicht mit Mineralien wechselwirkt und einem zweiten Polyelektrolyt-Block, der stark mit Mineraloberflächen wechselwirkt. Diese Blockcopolymere wurden durch ringöffnende Polymerisation von N-carboxyanhydriden (NCA′s) und a-methoxy-ω-amino[poly(ethylene glycol)] PEG-NH2 als Initiator hergestellt. Die hergestellten Blockcopolymere wurden als effektive Wachstumsmodifikatoren für die Kristallisation von Calciumcarbonat und Bariumsulfat Mineralien eingesetzt. Die so erhaltenen Mineralpartikel (Kugeln, Hantel, eiförmige Partikel) wurden durch Lichtmikroskopie in Lösung, SEM und TEM charakterisiert. Röntgenweitwinkelstreuung (WAXS) wurde verwendet, um die Modifikation von Calciumcarbonat zu ermitteln und die Größe der Calciumcarbonat- und Bariumsulfat-Nanopartikel zu ermitteln.
Dynamische Zusammenhänge zwischen den internationalen Kapitelmärkten sind seit Anfang 90-er Jahre erforscht worden. Die meisten dieser Untersuchungen betrafen dieUSA und die anderen entwickelnden Märkte. Es gibt nur wenige Untersuchungen zu diesem Thema in den sich entwickelnden Märkten. Mit Hilfe von vektorautoregressiven(VAR) Modellen überprüft diese Arbeit den dynamischen Zusammenhang zwischen den Börsen der Region Pazifisches Becken vor und nach der Asiatischen Krise 1997.Unsere Studie zeigt, dass alle Börsen in der Region Asien-Pazifik mit den anderen Börsen statistisch zusammenhängen, mit Ausnahme von China. Nach der Asiatischen Krise 1997 wurden die Märkte noch stärker integriert. Die Asiatische Krise hatte einen weltweiten Einfluß auf alle Börsen der Region Pazifisches Becken: Die Verbindungen zwischen den Börsen nach der Krise sind stärker als vor der Krise. Die Märkte, die zueinander geographisch und ökonomisch nahe liegen, haben deutlich stärkere Wechselbeziehungen.Das Ergebnis zeigt, dass der USA-Markt nicht der einzige dominierende Markt in der Region ist. Die Studie stellt fest, dass die anderen entwickelten Märkte wie z.B.Neuseeland, Australien, Hongkong und Singapur, weitere vorherrschende Märkte neben USA sind. Ein Schock in einem Markt wird schnell zu den anderen Märkten übertragen. Schocks in den sich entwickelnden Märkten werden zu anderen Märkten schnell übertragen, aber ohne einen solchen großen Einfluß wie die aus den entwickelten Märkten.
The primary focus on the present study was to identify early risk factors for infant aggression in a sample of high risk, low-income teenager mothers and their infants. Despite the amount of research on externalizing behavior, relatively little is known about its development in early childhood. Because chronically aggressive school-age children tend to be those who first display symptoms during preschool years, an examination of the early manifestations of aggressive behavior and the development of measurements for infants is needed. The present study explored a model of infant aggression development that emphasized infant aggression developing largely through the interaction of infant′s dispositional characteristics with their caregiving environment. The study addressed the following relations: (1) Maternal psychosocial functioning with reported and observed infant aggression and negative emotionality, (2) reported measurements of infant aggression and negative emotionality with observed infant measurements of infant aggression and negative emotionality, (3) infant negative emotionality and infant aggression, (4) infant emotion regulation with infant aggression and negative emotionality, (5) the interaction between emotion regulation and negative emotionality in relation to infant aggression, and (6) attachment classification with infant aggression and negative emotionality. Finally, the question of whether these six relations would differ by gender was also addressed. Maternal psychosocial functioning was assessed with self-reported measurements. Infant aggression, negative emotionality and emotion regulation were measured during two standardized assessments, the Strange Situation and the Bayley Scales of Infant Development Assessment and maternal reported with the Infant-Toddler Social and Emotional Assessment. Several interesting findings emerged. One of the main findings concerned maternal attribution and its possible role as a risk factor for later externalizing behaviors. That is, mothers, especially depressed and stressed mothers, tended to report higher levels of infant aggression and negative emotionality than was noted by more objective observers. This tendency was particularly evident in mothers with girl infants. Another important finding concerned emotion regulation. Even at this early age, clear differences in emotion regulation could be seen. Interestingly, infants with high negative emotionality and low emotion regulation were observed to be the most aggressive. Also significant relations emerged for infant negative emotionality and aggression and vise versa. Thus, for purposes of treatment and scientific study, the three constructs (emotion regulation, negative emotionality, and aggression) should be considered in combination. Investigating each alone may not prove fruitful in future examinations. Additionally, different emotion regulation behaviors were observed for girl and boy infants. Aggressive girls looked more at the environment, their toys and their mother, whereas aggressive boys looked less at the environment and their mother and explored their toys more, although looked at the toys less. Although difficult to interpret at this point, it is nonetheless interesting that gender differences exist at this young age in emotion regulatory behaviors. In conclusion, although preliminary, findings from the present study provide intriguing directions for future research. More studies need to conducted focusing on infant aggression, as well as longitudinal studies following the infants over time.
In der randomisierten, multizentrischen DASH-Studie (Dietary Approaches to Stop Hy-pertension), die unter kontrollierten Bedingungen stattfand, führte eine fettreduzierte Mischkost, reich an Obst, Gemüse und Milchprodukten, bei Borderline-Hypertonikern zu einer signifikanten Blutdrucksenkung. Während der Studienphase wurden Körpermasse, Natrium-Aufnahme sowie Alkoholzufuhr aufgrund der bekannten Einflussnahme auf den Blutdruck konstant gehalten. In der eigenen Pilot-Studie sollte untersucht werden, ob das Ergebnis der DASH-Studie (i) mit deutschen Hypertonikern und (ii) unter habituellen Ernährungs- und Lebensbedingungen mit regelmäßig durchgeführter Ernährungsberatung und ad libitum Verzehr anstelle des streng kontrollierten Studienansatzes bestätigt werden kann. Eine Konstanz der Körpermasse, der Natrium-Urinausscheidung (unter diesem Studienansatz valider als die Aufnahme) und des Alkoholkonsums wurde vorausgesetzt. Die Studienpopulation setzte sich aus 53 übergewichtigen Probanden mit einer nicht medikamentös therapierten Borderline-Hypertonie und ohne Stoffwechselerkrankungen zusammen. Die Studienteilnehmer wurden randomisiert entweder der Idealgruppe mit einer fettarmen Kost reich an Milchprodukten, Obst und Gemüse (ähnlich der DASH-Idealgruppe) oder der Kontrollgruppe mit habitueller Ernährungsweise zugeteilt. Über einen Zeitraum von fünf Wochen wurde den Probanden etwa 50% ihres täglichen Lebensmittelbedarfes entsprechend ihrer Gruppenzugehörigkeit kostenfrei zur Verfügung gestellt. Gelegenheitsblutdruckmessungen und 24h-Blutdruckmessungen, Ernährungs- und Aktivitätsprotokolle, Blut- und Urinproben sowie anthropometrische Messungen wurden vor, während und fünf Wochen nach der Interventionsphase durchgeführt. Die Ergebnisse zeigen, dass in der Idealgruppe keine signifikante Blutdrucksenkung beobachtet werden konnte. Dies lässt sich durch die Tatsache erklären, dass die Lebens-mittel- und Nährstoffaufnahme der deutschen Kontrollgruppe eher der amerikanischen Idealgruppe entsprach. In der Pilot-Studie waren die Unterschiede in der Nährstoffzufuhr zwischen den beiden Gruppen viel geringer als in der DASH-Studie; für eine blutdrucksenkende Ernährungsumstellung bestand somit nur ein geringer Spielraum. Eine weitere Erklärung besteht in der unterschiedlichen Zusammensetzung der Studienpopulation. Bei DASH wurden vorwiegend farbige Probanden (40% höhere Hypertonieprävalenz) untersucht. Die Studienergebnisse lassen also den Schluss zu, dass Ernährungs- und Lebensstilgewohnheiten sowie der genetische Hintergrund der entsprechenden Bevölkerungsgruppe bei der Formulierung von nährstoff- oder lebensmittelbezogenen Empfehlungen zur Senkung des Bluthochdruckes Berücksichtigung finden müssen.
Vorwort: Mit dem vorliegenden Tagungsband dokumentiert das Kommunalwissenschaftliche Institut (KWI) der Universität Potsdam die Ergebnisse seiner nunmehr 8. Fachtagung. Die Tagung reiht sich damit in eine Serie von Veranstaltungen ein, die in den vergangenen Jahren aktuelle Themen der Kommunen aufgriffen und eine wissenschaftliche Debatte weit über die Dauer der jeweiligen Tagung hinaus anregten. Die 8. Fachtagung des KWI stand unter dem aktuellen Thema "eGovernment - Schlüssel zur Modernisierung von Kommunen". Die rasante Entwicklung der Informationsgesellschaft und des Mediums Internet erlaubt eine schnelle zeitund ortsunabhängige Kommunikation. eGovernment verändert Staat und Verwaltung. Aus der Verwaltungsmodernisierung mittels eGovernment ergeben sich insbesondere neue Chancen zur Attraktivitätssteigerung des Dienstleisters öffentliche Verwaltung, der seinen Kunden schnell und bürgernah hilft. Im ländlichen und dünn besiedelten Land Brandenburg könnten konsequente Reformen auf der Basis von eGovernment die Attraktivität der ländlichen Räume erhöhen und vermutlich einer weiteren Abwanderung vor allem junger Menschen entgegenwirken. Die hier dokumentierte Fachtagung bot eine Reihe von Fachvorträgen rund um das Thema eGovernment, an die sich vertiefende Diskussionen in themenspezifischen Arbeitskreisen anschlossen. Chancen und Risiken von eDemocracy, Best-Practice-Beispiele und technische Aspekte von eGovernment standen vor allem auf der Agenda. Wissenschaftler, Verwaltungspraktiker und weitere Interessierte aus ganz Deutschland diskutierten die Chancen und Risiken der Verwaltungsmodernisierung durch eGovernment im kommunalen Raum. Dieser Tagungsband fasst die Fachvorträge, die die Tagung einleiteten, zusammen und erlaubt einen grundsätzlichen Einblick in die Diskussion der Arbeitskreise. Die Mitarbeiter des Instituts bedanken sich bei allen Mitstreitern der Fachtagung, die durch ihre Beiträge und ihr reges Interesse eine interessante und erfolgreiche Konferenz ermöglicht haben. Wir hoffen, dass die hier dokumentierten Beiträge auch dem nicht bei der Fachtagung anwesenden Leser zahlreiche Anregungen und weiterführende Impulse vermitteln. Prof. Dr. Christoph Reichard
Einwanderung und Asyl
(2002)
Die Landschaften Mitteleuropas sind das Resultat einer langwierigen Geschichte menschlicher Landnutzung mit ihren unterschiedlichen, z.T. konkurrierenden Nutzungsansprüchen. Durch eine überwiegend intensive Beanspruchung haben die direkten und indirekten Auswirkungen der Landnutzung in vielen Fällen zu Umweltproblemen geführt. Die Disziplin der Landschaftsökologie hat es sich zur Aufgabe gemacht, Konzepte für eine nachhaltige Nutzung der Landschaft zu entwickeln. Eine wichtige Fragestellung stellt dabei die Abschätzung der möglichen Folgen von Landnutzungsänderungen dar. Für die Analyse der relevanten Prozesse in der Landschaft werden häufig mathematische Modelle eingesetzt, welche es erlauben die Landschaft unter aktuellen Verhältnissen oder hinsichtlich veränderter Rahmenbedingungen zu untersuchen. Die hypothetische Änderung der Landnutzung, die als Landnutzungsszenario bezeichnet wird, verkörpert eine wesentliche Modifikation der Rahmenbedingungen, weil Landnutzung maßgeblich Einfluss auf die natürlichen Prozesse der Landschaft nimmt. Während die Antriebskräfte einer solchen Änderung überwiegend von sozio-ökonomischen und politischen Entscheidungen gesteuert werden, orientiert sich die exakte Verortung der Landnutzungsänderungen an den naturräumlichen Bedingungen und folgt z.T. erkennbaren Regeln. Anhand dieser Vorgaben ist es möglich, räumlich explizite Landnutzungsszenarien zu entwickeln, die als Eingangsdaten für die Modellierung verschiedener landschaftsökologischer Fragestellungen wie z.B. für die Untersuchung des Einflusses der Landnutzung auf den Wasserhaushalt, die Erosionsgefahr oder die Habitatqualität dienen können. Im Rahmen dieser Dissertation wurde das rasterbasierte deterministische Allokationsmodell luck (Land Use Change Scenario Kit) für die explizite Verortung der Landnutzungsänderungen entwickelt. Es basiert auf den in der Landschaftsökologie üblichen räumlichen Daten wie Landnutzung, Boden sowie Topographie und richtet sich bei der Szenarienableitung nach den Leitbildern der Landschaftsplanung. Das Modell fußt auf der Hypothese, dass das Landnutzungsmuster als Funktion seiner landschaftsökologischen Faktoren beschrieben werden kann. Das Veränderungspotenzial einer Landnutzungseinheit resultiert im Modell aus einer Kombination der Bewertung der relativen Eignung des Standortes für die jeweilige Landnutzung und der Berücksichtigung von Standorteigenschaften der umliegenden Nachbarn. Die Durchführung der Landnutzungsänderung im Modell ist iterativ angelegt, um den graduellen Prozess des Landschaftswandels nachvollziehen zu können. Als Fallbeispiel für die Anwendung solcher räumlich expliziten Landnutzungsszenarien dient die Fragestellung, inwieweit Landnutzungsänderungen die Hochwasserentstehung beeinflussen. Um den Einfluss auf die Hochwasserentstehung für jede der Landnutzungskategorien – bebaute, landwirtschaftlich genutzte und naturnahe Flächen – abschätzen zu können, wird im Landnutzungsmodell luck exemplarisch für jede Kategorie ein Teilmodell für die Veränderung von Landnutzung angeboten: 1) Ausdehnung der Siedlungsfläche: Dieses Teilmodell fußt auf der Annahme, dass sich Siedlungen nur in direkter Nachbarschaft bereits bestehender Bebauung und bevorzugt entlang von Entwicklungsachsen ausbreiten. Steile Hangneigungen stellen für potenzielle Standorte ein Hemmnis bei der Ausbreitung dar. 2) Stilllegung von Grenzertragsackerflächen: Gemäß der Hypothese, dass sich die Stilllegung von Ackerflächen an der potenziellen Ertragsleistung der Standorte orientiert, werden in diesem Teilmodell alle Ackerstandorte dahingehend bewertet und die Flächen mit der geringsten Leistungsfähigkeit stillgelegt. Bei homogenen Gebietseigenschaften werden die Stilllegungsflächen zufällig auf die Ackerfläche verteilt. 3) Etablierung von Schutzgebieten in Ufer- und Auenbereichen: Ausgehend von der These, dass sich entlang von Flüssen sensible Flächen befinden, deren Schutz positive Folgen für das Leistungsvermögen der Landschaft haben kann, werden in diesem Teilmodell schützenswerte Ufer- und Auenbereiche auf derzeit landwirtschaftlich genutzten Flächen ausgewiesen. Die Größe der Schutzgebietsfläche orientiert sich an der Morphologie der umgebenden Landschaft. Die drei Teilmodelle wurden hinsichtlich der implizierten Hypothesen mit vielen unterschiedlichen Ansätzen validiert. Das Resultat dieser intensiven Analyse zeigt für jedes Teilmodell eine zufriedenstellende Tauglichkeit. Die Modellierung der Landnutzungsänderungen wurden in drei mesoskaligen Flusseinzugsgebieten mit einer Fläche zwischen 100 und 500 km² durchgeführt, die sich markant in ihrer Landnutzung unterscheiden. Besonderer Wert wurde bei der Gebietsauswahl darauf gelegt, dass eines der Gebiete intensiv landwirtschaftlich genutzt wird, eines dicht besiedelt und eines vorwiegend bewaldet ist. Im Hinblick auf ihre Relevanz für die vorliegende Fragestellung wurden aus bestehenden Landnutzungstrends die Szenarien für (1) die prognostizierte Siedlungsfläche für das Jahr 2010, (2) die möglichen Konsequenzen des EU-weiten Beschlusses der Agenda 2000 und (3) die Novelle des Bundesnaturschutzgesetzes aus dem Jahr 2001 abgeleitet. Jedes Szenario wurde mit Hilfe des Modells auf die drei Untersuchungsgebiete angewendet. Dabei wurden für die Siedlungsausdehnung in allen drei Gebieten realistische Landnutzungsmuster generiert. Einschränkungen ergeben sich bei der Suche nach Grenzertragsstilllegungsflächen. Hier hat unter homogenen Gebietseigenschaften die zufällige Verteilung von Flächen für die Stilllegung zu einem unrealistischen Ergebnis geführt. Die Güte der Schutzgebietsausweisung ist maßgeblich an die aktuelle Landnutzung der Aue und die Morphologie des Geländes gebunden. Die besten Ergebnisse werden erzielt, wenn die Flächen in den Ufer- und Auenbereichen mehrheitlich unter derzeitiger Ackernutzung stehen und der Flusslauf sich in das Relief eingetieft hat. Exemplarisch werden für jeden Landnutzungstrend die hydrologischen Auswirkungen anhand eines historischen Hochwassers beschrieben, aus denen jedoch keine pauschale Aussage zum Einfluss der Landnutzung abgeleitet werden kann. Die Studie demonstriert die Bedeutung des Landnutzungsmusters für die natürlichen Prozesse in der Landschaft und unterstreicht die Notwendigkeit einer räumlich expliziten Modellierung für landschaftsökologische Fragestellungen in der Mesoskala.
Die Landschaften Mitteleuropas sind das Resultat einer langwierigen Geschichte menschlicher Landnutzung mit ihren unterschiedlichen, z.T. konkurrierenden Nutzungsansprüchen. Durch eine überwiegend intensive Beanspruchung haben die direkten und indirekten Auswirkungen der Landnutzung in vielen Fällen zu Umweltproblemen geführt. Die Disziplin der Landschaftsökologie hat es sich zur Aufgabe gemacht, Konzepte für eine nachhaltige Nutzung der Landschaft zu entwickeln. Eine wichtige Fragestellung stellt dabei die Abschätzung der möglichen Folgen von Landnutzungsänderungen dar. Für die Analyse der relevanten Prozesse in der Landschaft werden häufig mathematische Modelle eingesetzt, welche es erlauben die Landschaft unter aktuellen Verhältnissen oder hinsichtlich veränderter Rahmenbedingungen zu untersuchen. Die hypothetische Änderung der Landnutzung, die als Landnutzungsszenario bezeichnet wird, verkörpert eine wesentliche Modifikation der Rahmenbedingungen, weil Landnutzung maßgeblich Einfluss auf die natürlichen Prozesse der Landschaft nimmt. Während die Antriebskräfte einer solchen Änderung überwiegend von sozio-ökonomischen und politischen Entscheidungen gesteuert werden, orientiert sich die exakte Verortung der Landnutzungsänderungen an den naturräumlichen Bedingungen und folgt z.T. erkennbaren Regeln. Anhand dieser Vorgaben ist es möglich, räumlich explizite Landnutzungsszenarien zu entwickeln, die als Eingangsdaten für die Modellierung verschiedener landschaftsökologischer Fragestellungen wie z.B. für die Untersuchung des Einflusses der Landnutzung auf den Wasserhaushalt, die Erosionsgefahr oder die Habitatqualität dienen können. Im Rahmen dieser Dissertation wurde das rasterbasierte deterministische Allokationsmodell luck (Land Use Change Scenario Kit) für die explizite Verortung der Landnutzungsänderungen entwickelt. Es basiert auf den in der Landschaftsökologie üblichen räumlichen Daten wie Landnutzung, Boden sowie Topographie und richtet sich bei der Szenarienableitung nach den Leitbildern der Landschaftsplanung. Das Modell fußt auf der Hypothese, dass das Landnutzungsmuster als Funktion seiner landschaftsökologischen Faktoren beschrieben werden kann. Das Veränderungspotenzial einer Landnutzungseinheit resultiert im Modell aus einer Kombination der Bewertung der relativen Eignung des Standortes für die jeweilige Landnutzung und der Berücksichtigung von Standorteigenschaften der umliegenden Nachbarn. Die Durchführung der Landnutzungsänderung im Modell ist iterativ angelegt, um den graduellen Prozess des Landschaftswandels nachvollziehen zu können. Als Fallbeispiel für die Anwendung solcher räumlich expliziten Landnutzungsszenarien dient die Fragestellung, inwieweit Landnutzungsänderungen die Hochwasserentstehung beeinflussen. Um den Einfluss auf die Hochwasserentstehung für jede der Landnutzungskategorien – bebaute, landwirtschaftlich genutzte und naturnahe Flächen – abschätzen zu können, wird im Landnutzungsmodell luck exemplarisch für jede Kategorie ein Teilmodell für die Veränderung von Landnutzung angeboten: 1) Ausdehnung der Siedlungsfläche: Dieses Teilmodell fußt auf der Annahme, dass sich Siedlungen nur in direkter Nachbarschaft bereits bestehender Bebauung und bevorzugt entlang von Entwicklungsachsen ausbreiten. Steile Hangneigungen stellen für potenzielle Standorte ein Hemmnis bei der Ausbreitung dar. 2) Stilllegung von Grenzertragsackerflächen: Gemäß der Hypothese, dass sich die Stilllegung von Ackerflächen an der potenziellen Ertragsleistung der Standorte orientiert, werden in diesem Teilmodell alle Ackerstandorte dahingehend bewertet und die Flächen mit der geringsten Leistungsfähigkeit stillgelegt. Bei homogenen Gebietseigenschaften werden die Stilllegungsflächen zufällig auf die Ackerfläche verteilt. 3) Etablierung von Schutzgebieten in Ufer- und Auenbereichen: Ausgehend von der These, dass sich entlang von Flüssen sensible Flächen befinden, deren Schutz positive Folgen für das Leistungsvermögen der Landschaft haben kann, werden in diesem Teilmodell schützenswerte Ufer- und Auenbereiche auf derzeit landwirtschaftlich genutzten Flächen ausgewiesen. Die Größe der Schutzgebietsfläche orientiert sich an der Morphologie der umgebenden Landschaft. Die drei Teilmodelle wurden hinsichtlich der implizierten Hypothesen mit vielen unterschiedlichen Ansätzen validiert. Das Resultat dieser intensiven Analyse zeigt für jedes Teilmodell eine zufriedenstellende Tauglichkeit. Die Modellierung der Landnutzungsänderungen wurden in drei mesoskaligen Flusseinzugsgebieten mit einer Fläche zwischen 100 und 500 km² durchgeführt, die sich markant in ihrer Landnutzung unterscheiden. Besonderer Wert wurde bei der Gebietsauswahl darauf gelegt, dass eines der Gebiete intensiv landwirtschaftlich genutzt wird, eines dicht besiedelt und eines vorwiegend bewaldet ist. Im Hinblick auf ihre Relevanz für die vorliegende Fragestellung wurden aus bestehenden Landnutzungstrends die Szenarien für (1) die prognostizierte Siedlungsfläche für das Jahr 2010, (2) die möglichen Konsequenzen des EU-weiten Beschlusses der Agenda 2000 und (3) die Novelle des Bundesnaturschutzgesetzes aus dem Jahr 2001 abgeleitet. Jedes Szenario wurde mit Hilfe des Modells auf die drei Untersuchungsgebiete angewendet. Dabei wurden für die Siedlungsausdehnung in allen drei Gebieten realistische Landnutzungsmuster generiert. Einschränkungen ergeben sich bei der Suche nach Grenzertragsstilllegungsflächen. Hier hat unter homogenen Gebietseigenschaften die zufällige Verteilung von Flächen für die Stilllegung zu einem unrealistischen Ergebnis geführt. Die Güte der Schutzgebietsausweisung ist maßgeblich an die aktuelle Landnutzung der Aue und die Morphologie des Geländes gebunden. Die besten Ergebnisse werden erzielt, wenn die Flächen in den Ufer- und Auenbereichen mehrheitlich unter derzeitiger Ackernutzung stehen und der Flusslauf sich in das Relief eingetieft hat. Exemplarisch werden für jeden Landnutzungstrend die hydrologischen Auswirkungen anhand eines historischen Hochwassers beschrieben, aus denen jedoch keine pauschale Aussage zum Einfluss der Landnutzung abgeleitet werden kann. Die Studie demonstriert die Bedeutung des Landnutzungsmusters für die natürlichen Prozesse in der Landschaft und unterstreicht die Notwendigkeit einer räumlich expliziten Modellierung für landschaftsökologische Fragestellungen in der Mesoskala.
Highly collimated, high velocity streams of hot plasma – the jets – are observed as a general phenomenon being found in a variety of astrophysical objects regarding their size and energy output. Known as jet sources are protostellar objects (T Tauri stars, embedded IR sources), galactic high energy sources ("microquasars"), and active galactic nuclei (extragalactic radio sources and quasars). Within the last two decades our knowledge regarding the processes involved in astro-physical jet formation has condensed in a kind of standard model. This is the scenario of a magnetohydrodynamically accelerated and collimated jet stream launched from the innermost part of an accretion disk close to the central object. Traditionally, the problem of jet formation is divided in two categories. One is the question how to collimate and accelerate an uncollimated low velocity disk wind into a jet. The second is the question how to initiate that outflow from a disk, i.e. how to turn accretion of matter into an ejection as a disk wind. My own work is mainly related to the first question, the collimation and acceleration process. Due to the complexity of both, the physical processes believed to be responsible for the jet launching and also the spatial configuration of the physical components of the jet source, the enigma of jet formation is not yet completely understood. On the theoretical side, there has been a substantial advancement during the last decade from purely station-ary models to time-dependent simulations lead by the vast increase of computer power. Observers, on the other hand, do not yet have the instruments at hand in order to spatially resolve observe the very jet origin. It can be expected that also the next years will yield a substantial improvement on both tracks of astrophysical research. Three-dimensional magnetohydrodynamic simu-lations will improve our understanding regarding the jet-disk interrelation and the time-dependent character of jet formation, the generation of the magnetic field in the jet source, and the interaction of the jet with the ambient medium. Another step will be the combina-tion of radiation transfer computations and magnetohydrodynamic simulations providing a direct link to the observations. At the same time, a new generation of telescopes (VLT, NGST) in combination with new instrumental techniques (IR-interferometry) will lead to a "quantum leap" in jet observation, as the resolution will then be sufficient in order to zoom into the innermost region of jet formation.
Der internationale Menschenrechtsschutz setzt heute zunehmend auch auf die Initiative des einzelnen Menschen, der über seine Rechte wacht und Verletzungen vor internationalen Gremien oder Gerichten rügt. Zu den Menschenrechtsverträgen, die noch kein Beschwerdeverfahren anbieten, gehört der Sozialpakt. Das wird vor allem mit der mangelnden Justitiabilität wirtschaftlicher, sozialer und kultureller Rechte begründet. Dieses Argument ist in dieser Absolutheit nicht stichhaltig; auch wirtschaftliche, soziale und kulturelle Rechte enthalten justitiable Elemente. Ein Beschwerdeverfahren könnte dazu beitragen, diese Gehalte zu konkretisieren, und würde so das Gewicht der in Rede stehenden Rechte stärken.
GASP der Europäischen Union in den Vereinten Nationen am Beispiel der Reform des Sicherheitsrats der Vereinten Nationen // Ingo Winkelmann
1. Die Nichtwahrnehmung von Reformchancen durch die EU-Mitgliedstaaten
2. Das Reformraster: der Razali-Vorschlag
3. Hürden für eine einheitliche EU-Vertretung im VN-Sicherheitsrat
Europäische Union und Vereinte Nationen - Diskussionszusammenfassung // Norman Weiß
Today, analytical chemistry does not longer consist of only the big measuring devices and methods which are time consuming and expensive, which can furthermore only be handled by the qualified staff and in addition the results can also only be evaluated by this qualified staff. Usually, this technique, which shall be described in the following as 'classic analytic measuring technique', requires also rooms equipped especially and often a relative big quantity of the test compounds which should be prepared especially. Beside this classic analytic measuring technique, limited on definite substance groups and requests, a new measuring technique has gained acceptance particularly within the last years, which one can often be used by a layman, too. Often the new measuring technique has very little pieces of equipment. The needed sample volumes are also small and a special sample preparation isn't required. In addition, the new measuring instruments are simple to handle. They are cheap both in their production and in the use and they permit even a continuous measurement recording usually. Numerous of this new measuring instruments base on the research in the field of Biosensorik during the last 40 years. Since Clark and Lyon in the year 1962 were able to measure glucose with a simple oxygen electrode, completed by an enzyme the development of the new measuring technique did not have to be held back any longer. Biosensors, special pickups which consists of a combination from a biological component (permits a specific recognition of the analyte also without purification of the sample previously) and a physical pickup (convert the primary physicochemical effect into an electronically measurable signal), conquered the market. In the context of this thesis different tyrosinasesensors were developed which fulfilling the various requests, depending on origin and features of the used tyrosinase. One of the tyrosinasesensors for example was used for quantification of phenolic compounds in river and sea water and the results could correlated very well with the corresponding DIN-test for the determination of phenolic compounds. An other developed tyrosinasesensor showed a very high sensitiveness for catecholamines, substances which are of special importance in the medical diagnostics. In addition, the investigations of two different tyrosinases, which were carried out also in the context of this thesis, have shown, that a special tyrosinase (tyrosinase from Streptomyces antibioticus) will be the better choice as tyrosinase from Agaricus bisporus, which is used in the area of biosensor research till now, if one wants to develop in future even more sensitive tyrosinasesensors. Furthermore, first successes became reached on a molecular biological field, the production of tyrosinasemutants with special, before well-considered features. These successes can be used to develop a new generation of tyrosinasesensors, tyrosinasesensors in which tyrosinase can be bound directionally both to the corresponding physical pickup or also to another enzyme. From this one expects to achieve ways minimized which the substance to be determined (or whose product) otherwise must cover. Finally, this should result in an clearly visible increase of sensitivity of the Biosensor.
Inhalt:
- Michael Zeuske: Humboldt, Historismus, Humboldteanisierung. Der „Geschichtsschreiber von Amerika“, die Massensklaverei und die Globalisierungen der Welt
- Christian Suckow: Abenteuer Alexander-von-Humboldt-Bibliographie
- Sandra Rebok: Alexander von Humboldt im Spiegel der spanischen Presse.
Zur Wahrnehmung seiner Person und seiner Ideen während der ersten Hälfte des 19. Jahrhunderts
- Renate Nöller: Jade aus Amerika und weitere Grünsteinobjekte von Alexander von Humboldt aus dem Berliner Mineralienkabinett
- Frank Holl: Humboldt y el Colonialismo
- Ottmar Ette: „… daß einem leid tut, wie er aufgehört hat, deutsch zu sein“. Alexander von Humboldt, Preußen und Amerika
Inhalt:
- Kristian Köchy: Das Ganze der Natur – Alexander von Humboldt und das romantische Forschungsprogramm
- Gerhard Kortum: „Alexander von Humboldt“ als Name für Forschungsschiffe vor dem Hintergrund seiner meereskundlichen Arbeiten
- Ulrike Leitner: „Anciennes folies neptuniennes!“ Über das wiedergefundene „Journal du Mexique à Veracruz“ aus den mexikanischen Reisetagebüchern A. v. Humboldts
- Oliver Lubrich: „Egipcios por doquier“. Alejandro de Humboldt y su visión ‘orientalista’ de América
- Jose Alberto Navas Sierra: Humboldt y el ‘Área de Libre Comercio de las Américas (ALCA)’ – Un ejercicio de ‘ciencia humboldtiana
- Miguel Ángel Puig-Samper und Sandra Rebok: Un sabio en la meseta. El viaje de Alejandro de Humboldt a España en 1799
- Ingo Schwarz: Nachruf – Zur Erinnerung an Kurt-R. Biermann
Der vorliegende Sammelband gibt Ergebnisse einer internationalen wissenschaftlichen Tagung - bereits die sechste in"Serie" - des Instituts für Pädagogik der Universität Potsdam im September 2001 wieder, die wesentliches Bestandteil einer nun schon mehrjährigen vertraglichen Kooperation zwischen Wissenschaftlern aus lehrerbildenden Hochschulen in Belarus', in Polen (drei beteiligte Universitäten), in Russland sowie der Universität Potsdam ist, an der diesmal auch wieder ein Vertreter der Tschechischen Republik teilnahm. Diese gemeinsame Arbeit zur Begleitung der in den beteiligten Ländern verlaufenden Reformprozesse im Bildungswesen wird durch die finanzielle Förderung durch den Deutschen Akademischen Auslandsdienst (DAAD) möglich. Diesjähriger Schwerpunkt der Analysen und Diskussionen auf der Tagung war die Fragestellung, inwieweit die nationalen Bildungsreformen den zwischen den Ländern Europas vereinbarten Zielrichtungen auf eine Entwicklung des Bildungssystems in europäischer Dimension gerecht werden, welche Hoffnungen, Dilemmata und Probleme in diesem Prozess der europäischen Annäherung und Einigung entstehen. In einem Tagungsresümee werden grundlegende Ergebnisse der Analyse und der inhaltsreichen, teilweise auch kontroversen Diskussion zusammengefasst. Eingangs wird immer auch traditionsgemäß aktuelle Bilanz gezogen, wie die konkrete Bildungsreform im jeweiligen Land im vergangenen Jahr voran kam, welche Probleme sichtbar wurden. In 12 Einzelbeiträgen wird ein facettenreiches Bild der Problemlage und der Lösungsansätze in den beteiligten Ländern gezeichnet, wobei zugleich einerseits grundlegende Ansätze der Bildungsentwicklung in europäischer Dimension (z. B. "Weißbuch" der Tschechischen Republik; Reformansätze in Belarus' - aber auch andere Beiträge) wie auch andererseits vielfältige konkrete praktische Bemühungen um europäische Integration in der Bildung (in allen beteiligten Ländern) beschrieben werden.
In dieser Arbeit werden anhand von empirischen Analysen, Prozesse intergenerationaler Mobilität in Ost- und Westdeutschland beschrieben. Als Datenbasis dient dabei die "Allgemeine Bevölkerungsumfrage der Sozialwissenschaften" von 1991 bis 1998. Der Schwerpunkt der Untersuchung intergenerationaler Mobilität liegt dabei im Wandel der Bildungs- und Beschäftigungsstruktur. Inhalt: Einleitung Analysedesign Datenbasis Operationalisierung - Bildung - Beruf Methoden Intergenerationale Bildungsmobilität - Verteilung der Bildungsabschlüsse - Mobilitätsquoten - Barrieren - Kohortenanalyse Intergenerationale Berufsmobilität - Verteilung der Berufsklassen - Mobilitätsquoten - Mobilitätschancen: Auf- und Abstiegsstrukturen, Barrieren - Kohortenanalyse Zusammenfassung
Jahresbericht 2001
(2002)
Inhalt I. Allgemeiner Überblick II. Leitung und Mitarbeiter III. Tätigkeit IV. Besuche im MenschenRechtsZentrum V. Bibliothek VI. Bisherige Tagungen VII. Schriften des MenschenRechtsZentrums der Universität Potsdam VIII. Mitwirkung in Ausschüssen und Beiräten Teilnahme an Tagungen, Gutachtertätigkeit IX. Vorträge X. Veröffentlichungen von Mitarbeitern des MRZ XI. Lehre XII. Forschungsprojekte XIII. Förderverein
Inhalt: PISA und das Potsdamer Modell - Begrüßung (Gerda Haßler) PISA und die Implikationen für die Schule Seite (Olaf Köller) Verstehen und Urteilen. Zum Erfahrungsbezug im LER-Unterricht Seite (Eva-Maria Kenngott) Verstehen, Erfahren, Urteilen - zum Niveau historischen Denkens bei Elf- bis Zwölfjährigen Seite (Dagmar Klose) Handlungswissen fachspezifisch und fächerübergreifend entwickeln Seite (Marion Höfner) Produktive Aufgaben nach TIMSS (Thomas Jahnke) Kompetenzen beim Lösen von Physikaufgaben in der Sekundarstufe I (Wieland Müller) Ansätze einer innovativen Lernkultur durch Kooperation von Schule und Wirtschaft (Olaf Czech)
Inhalt: Gerda Haßler: Zur Modularisierung der Lehramtsstudiengänge an der Universität Potsdam Roswitha Lohwaßer: Weiterführung und Entwicklung einer integrativen Lehrerbildung Viola Grellmann: Praxisstudien im Lehramt. Zahlen und Fakten Nicole Schulz: Wie war’s in der Schule? – Wie immer! Zum Tag der Fachdidaktiken 2002 Angelika Kleinschmidt, Dieter Höterhoff, Bernd Meier: Professionsorientierung versus "Fachmann" oder "Pädagoge". Ein Modellversuch Janina Pieranska, Wladislaw Pieranski, Ulf Holzendorf: Andere Länder, andere Wege? Zur Lehrerbildung in Polen Andreas Sydow: Meine ersten zwei Semester – Das Lehramtsstudium Informatik und Mathematik Sandra Müller-Borowski: Gute Seiten, schlechte Seiten. Erinnerungen an die Studienzeit Wolfgang Roksch: Pestalozzianer, Schul- und Sozialreformer – Wilhelm von Türk und die Lehrerbildung Nicole Schulz: Damit Talente Sieger werden – Die "Eliteschule des Sports Potsdam"
Inhalt: Vorwort 1. Problemstellung, Ziele und Methodik 1.1. Problemstellung 1.2. Ziele der Voruntersuchung 1.3. Methodik und Analysefokus 2. Ausgangslage/Ist-Situation 2.1. Gewährleistungsstaat zwischen Wohlfahrtsstaat und liberalem „Nachtwächterstaat“ 2.2. Privatisierungsforderung versus Wettbewerbskonzept 2.3. Konsolidierungsdruck der öffentlichen Haushalte 2.4. Deregulierung und Liberalisierung von Märkten zur Stärkung des Wettbewerbs besonders durch die EU-Kommission 2.5. Neues Steuerungsmodell 2.6. Zwischenfazit 3. Anforderungen an Kommunen: Markt- und Wettbewerbsstärkung im Rahmen des Neuen Steuerungsmodells 3.1. Organisatorische Bedingungen 3.2. Schaffung fairer Wettbewerbsbedingungen 3.3. Sonstige betriebswirtschaftliche Bedingungen 4. Ordnungspolitische Optionen: Ausstieg der Kommunen aus kommunalen Dienstleistungen und Übergabe an den (privaten) Markt vs. Beteiligung am Wettbewerb unter fairen Wettbewerbsbedingungen 5. Überblick über die rechtliche Lage im Hinblick auf die Beteiligung kommunaler Einrichtungen am Marktwettbewerb 5.1. Wirtschaftliche Betätigung von Kommunen 5.2. Öffentliches Vergaberecht 5.2.1. Bindung an das Vergaberecht 5.2.2. Anwendung der verschiedenen Verdingungsordnungen 5.2.3. Vergabepflicht nach Ausschreibung 5.3. Zusammenfassung der rechtlichen Situation 6. Handlungsmöglichkeiten der Kommunen 6.1. Beteiligung der kommunalen Einrichtungen an förmlichen Vergabeverfahren (Öffentliche oder beschränkte Ausschreibung nach VOB/A der VOL/A) der eigenen Verwaltung 6.2. Beteiligung kommunaler Regie- und Eigenbetriebe oder kommunaler Eigen- oder Beteiligungsgesellschaften an Ausschreibungen anderer Behörden 6.3. Überführung der kommunalen Einrichtung in eine bestehende oder neue Eigen- oder Beteiligungsgesellschaft 6.4. Gründung einer „Ausschreibungsgesellschaft“ 6.5. Erbringung von Leistungen für private Dritte 7. Vergabepolitik als Wettbewerbspolitik 7.1. Preisabfragen 7.2. Ausschreibung und parallele Kostenermittlung in Eigenregie 7.3. Marktstrukturpolitik: Ausschreibung und Vergabe von Teilleistungen 8. Fazit
Semi-arid areas are, due to their climatic setting, characterized by small water resources. An increasing water demand as a consequence of population growth and economic development as well as a decreasing water availability in the course of possible climate change may aggravate water scarcity in future, which often exists already for present-day conditions in these areas. Understanding the mechanisms and feedbacks of complex natural and human systems, together with the quantitative assessment of future changes in volume, timing and quality of water resources are a prerequisite for the development of sustainable measures of water management to enhance the adaptive capacity of these regions. For this task, dynamic integrated models, containing a hydrological model as one component, are indispensable tools. The main objective of this study is to develop a hydrological model for the quantification of water availability in view of environmental change over a large geographic domain of semi-arid environments. The study area is the Federal State of Ceará (150 000 km2) in the semi-arid north-east of Brazil. Mean annual precipitation in this area is 850 mm, falling in a rainy season with duration of about five months. Being mainly characterized by crystalline bedrock and shallow soils, surface water provides the largest part of the water supply. The area has recurrently been affected by droughts which caused serious economic losses and social impacts like migration from the rural regions. The hydrological model Wasa (Model of Water Availability in Semi-Arid Environments) developed in this study is a deterministic, spatially distributed model being composed of conceptual, process-based approaches. Water availability (river discharge, storage volumes in reservoirs, soil moisture) is determined with daily resolution. Sub-basins, grid cells or administrative units (municipalities) can be chosen as spatial target units. The administrative units enable the coupling of Wasa in the framework of an integrated model which contains modules that do not work on the basis of natural spatial units. The target units mentioned above are disaggregated in Wasa into smaller modelling units within a new multi-scale, hierarchical approach. The landscape units defined in this scheme capture in particular the effect of structured variability of terrain, soil and vegetation characteristics along toposequences on soil moisture and runoff generation. Lateral hydrological processes at the hillslope scale, as reinfiltration of surface runoff, being of particular importance in semi-arid environments, can thus be represented also within the large-scale model in a simplified form. Depending on the resolution of available data, small-scale variability is not represented explicitly with geographic reference in Wasa, but by the distribution of sub-scale units and by statistical transition frequencies for lateral fluxes between these units. Further model components of Wasa which respect specific features of semi-arid hydrology are: (1) A two-layer model for evapotranspiration comprises energy transfer at the soil surface (including soil evaporation), which is of importance in view of the mainly sparse vegetation cover. Additionally, vegetation parameters are differentiated in space and time in dependence on the occurrence of the rainy season. (2) The infiltration module represents in particular infiltration-excess surface runoff as the dominant runoff component. (3) For the aggregate description of the water balance of reservoirs that cannot be represented explicitly in the model, a storage approach respecting different reservoirs size classes and their interaction via the river network is applied. (4) A model for the quantification of water withdrawal by water use in different sectors is coupled to Wasa. (5) A cascade model for the temporal disaggregation of precipitation time series, adapted to the specific characteristics of tropical convective rainfall, is applied for the generating rainfall time series of higher temporal resolution. All model parameters of Wasa can be derived from physiographic information of the study area. Thus, model calibration is primarily not required. Model applications of Wasa for historical time series generally results in a good model performance when comparing the simulation results of river discharge and reservoir storage volumes with observed data for river basins of various sizes. The mean water balance as well as the high interannual and intra-annual variability is reasonably represented by the model. Limitations of the modelling concept are most markedly seen for sub-basins with a runoff component from deep groundwater bodies of which the dynamics cannot be satisfactorily represented without calibration. Further results of model applications are: (1) Lateral processes of redistribution of runoff and soil moisture at the hillslope scale, in particular reinfiltration of surface runoff, lead to markedly smaller discharge volumes at the basin scale than the simple sum of runoff of the individual sub-areas. Thus, these processes are to be captured also in large-scale models. The different relevance of these processes for different conditions is demonstrated by a larger percentage decrease of discharge volumes in dry as compared to wet years. (2) Precipitation characteristics have a major impact on the hydrological response of semi-arid environments. In particular, underestimated rainfall intensities in the rainfall input due to the rough temporal resolution of the model and due to interpolation effects and, consequently, underestimated runoff volumes have to be compensated in the model. A scaling factor in the infiltration module or the use of disaggregated hourly rainfall data show good results in this respect. The simulation results of Wasa are characterized by large uncertainties. These are, on the one hand, due to uncertainties of the model structure to adequately represent the relevant hydrological processes. On the other hand, they are due to uncertainties of input data and parameters particularly in view of the low data availability. Of major importance is: (1) The uncertainty of rainfall data with regard to their spatial and temporal pattern has, due to the strong non-linear hydrological response, a large impact on the simulation results. (2) The uncertainty of soil parameters is in general of larger importance on model uncertainty than uncertainty of vegetation or topographic parameters. (3) The effect of uncertainty of individual model components or parameters is usually different for years with rainfall volumes being above or below the average, because individual hydrological processes are of different relevance in both cases. Thus, the uncertainty of individual model components or parameters is of different importance for the uncertainty of scenario simulations with increasing or decreasing precipitation trends. (4) The most important factor of uncertainty for scenarios of water availability in the study area is the uncertainty in the results of global climate models on which the regional climate scenarios are based. Both a marked increase or a decrease in precipitation can be assumed for the given data. Results of model simulations for climate scenarios until the year 2050 show that a possible future change in precipitation volumes causes a larger percentage change in runoff volumes by a factor of two to three. In the case of a decreasing precipitation trend, the efficiency of new reservoirs for securing water availability tends to decrease in the study area because of the interaction of the large number of reservoirs in retaining the overall decreasing runoff volumes.
New polymers and low molecular compounds, suitable for organic light emitting devices and organic electronic applications, have been synthesised in this years in order to obtain electron transport characteristics compatible with requirements for applications in real plastic devices. However, despite of the technological importance and of the relevant progress in devices manufacture, fundamental physical properties of such class of materials are still not enough studied. In particular extensive presence of distributions of localised states inside the band gap has a deep impact on their electronic properties. Such presence of shallow traps as well as the influence of the sample preparation conditions on deep and shallow localised states have not been, until now, systematically explored. The thermal techniques are powerful tools in order to study localised levels in inorganic and organic materials. Thermally stimulated luminescence (TSL), thermally stimulated currents (TSC) and thermally stimulated depolarisation currents (TSDC) allow to deeply look to shallow and deep trap levels as well as they permit to study, in synergy with dielectric spectroscopy (DES), polarisation and depolarisation effects. We studied, by means of numerical simulations, the first and the second order kinetic equations characterised by negligible and strong re-trapping respectively. We included in the equations Gaussian, exponential and quasi-continuous distributions of localised states. The shapes of the theoretical peaks have been investigated by means of systematic variation of the two main parameters of the equations, i. e. the energy trap depth E and the frequency factor a and of the parameters regulating the distributions, in particular for a Gaussian distribution the distribution width s and the integration limits. The theoretical findings have been applied to experimental glow curves. Thin films of polymers and low molecular compounds. Polyphenylquinoxalines, trisphenylquinoxalines and oxadiazoles, studied because of their technological relevance, show complex thermograms, having several levels of localised states and depolarisation peaks. In particular well ordered films of an amphiphilic substituted 2-(p-nitrophenyl)-5-(p-undecylamidophenyl)-1,3,4-oxadiazole (NADPO) are characterised by rich TSL thermograms. A wide region of shallow traps, localised at Em = 4 meV, has been successfully fit by means of a first order kinetic equation having a Gaussian distribution of localised states. Two further peaks, having a different origin, have been characterised. The peaks at Tm = 221.5 K and Tm = 254.2 have activation energy of Em= 0.63 eV and Em = 0.66 eV, frequency factor s = 2.4x1012 s-1 and s = 1.85x1011 s-1, distribution width s = 0.045 eV and s = 0.088 eV respectively. Increasing the number of thermal cycle, a peak, probably connected with structural defects, appears at Tm = 197.7 K. The numerical analysis of this peak was performed by means of a first order equation containing a Gaussian distribution of traps. The activation energy of the trap level is centred at Em = 0.55 eV. The distribution is perfectly symmetric with a quite small width s = 0.028 eV. The frequency factor is s = 1.15 x 1012 s-1, resulting of the same order of magnitude of its neighbour peak at Tm = 221.5 K, having both, probably, the same origin. Furthermore the work demonstrates that the shape of the glow curves is strongly influenced by the excitation temperature and by the thermal cycles. For that reason Gaussian distributions of localised states can be confused with exponential distributions if the previous thermal history of the samples is not adequately considered.
Jets are highly collimated flows of matter. They are present in a large variety of astrophysical sources: young stars, stellar mass black holes (microquasars), galaxies with an active nucleus (AGN) and presumably also intense flashes of gamma-rays. In particular, the jets of microquasars, powered by accretion disks, are probably small-scale versions of the outflows from AGN. Beside observations of astrophysical jet sources, also theoretical considerations have shown that magnetic fields play an important role in jet formation, acceleration and collimation. Collimated jets seem to be systematically associated with the presence of an accretion disk around a star or a collapsed object. If the central object is a black hole, the surrounding accretion disk is the only possible location for a magnetic field generation. We are interested in the formation process of highly relativistic jets as observed from microquasars and AGN. We theoretically investigate the jet collimation region, whose physical dimensions are extremely tiny even compared to radio telescopes spatial resolution. Thus, for most of the jet sources, global theoretical models are, at the moment, the only possibility to gain information about the physical processes in the innermost jet region. For the first time, we determine the global two-dimensional field structure of stationary, axisymmetric, relativistic, strongly magnetized (force-free) jets collimating into an asymptotically cylindrical jet (taken as boundary condition) and anchored into a differentially rotating accretion disk. This approach allows for a direct connection between the accretion disk and the asymptotic collimated jet. Therefore, assuming that the foot points of the field lines are rotating with Keplerian speed, we are able to achieve a direct scaling of the jet magnetosphere in terms of the size of the central object. We find a close compatibility between the results of our model and radio observations of the M87 galaxy innermost jet. We also calculate the X-ray emission in the energy range 0.2--10.1\,keV from a microquasar relativistic jet close to its source of 5 solar masses. In order to do it, we apply the jet flow parameters (densities, velocities, temperatures of each volume element along the collimating jet) derived in the literature from the relativistic magnetohydrodynamic equations. We obtain theoretical thermal X-ray spectra of the innermost jet as composition of the spectral contributions of the single volume elements along the jet. Since relativistic effects as Doppler shift and Doppler boosting due to the motion of jets toward us might be important, we investigate how the spectra are affected by them considering different inclinations of the line of sight to the jet axis. Emission lines of highly ionized iron are clearly visible in our spectra, probably also observed in the Galactic microquasars GRS 1915+105 and XTE J1748-288. The Doppler shift of the emission lines is always evident. Due to the chosen geometry of the magnetohydrodynamic jet, the inner X-ray emitting part is not yet collimated. Ergo, depending on the viewing angle, the Doppler boosting does not play a major role in the total spectra. This is the first time that X-ray spectra have been calculated from the numerical solution of a magnetohydrodynamic jet.
Mercaptursäure und Nukleosidaddukt im Harn als Biomarker in 1-Hydroxymethylpyren-exponierten Ratten
(2002)
1-Methylpyren (MP) ist hepatokanzerogen in neugeborenen männlichen Mäusen. Durch Hydroxylierung an der benzylischen Stelle und anschließende Sulfonierung wird MP zu DNA-reaktivem 1-Sulfooxymethylpyren (SMP) aktiviert. In der Ratte führt die Exposition des benzylischen Alkohols, 1-Hydroxymethylpyren (HMP), zur DNA-Adduktbildung in verschiedenen Geweben. Eventuelle Konsequenz der Toxifizierung ist die Ausscheidung entsprechender Mercaptursäure und Nukleosidaddukt im Harn, welche aufgrund ihrer Herkunft als Biomarker eignen könnten. In dieser Arbeit wird die Ausscheidung der Mercaptursäure und des N2-Desoxyguanosinadduktes in HMP-exponierten Ratten untersucht. Nach der Applikation von HMP bzw. MP wurden weniger als 1 % der Dosis als MPMA über Urin und Faeces ausgeschieden (0 - 48 h). Die Ausscheidung erfolgt hauptsächlich in den ersten 24 h nach der Applikation. MPdG konnte weder in Urin noch in Faeces der HMP-behandelten Tieren identifiziert werden. Nach direkter SMP-Applikation wurde MPdG nur in sehr geringe Menge (weniger als 0,9 ppm in 12 h) im Urin gefunden. Aufgrund der geringen Menge eignet sich MPdG nicht als Biomarker. MPMA dagegen, lässt sich analytisch gut erfassen. Es sollte daher untersucht werden, ob MPMA die Toxifizierung des HMP wiederspiegelt. Die Voraussetzung dafür ist die Kenntnisse über das Metabolismusmuster von HMP. Es wurde daher umfassende Untersuchungen zum Metabolismus des HMP durchgeführt. Die Ergebnisse zeigten, dass mehr als 80 % der Metaboiten in ihrer oxidierten Form (PCS, deren Glucuronsäure-Konjugate sowie phenolische Sulfatester der PCS) ausgeschieden wurden. Demnach spielt die Oxidation des HMP zu PCS eine sehr wichtige Rolle bei der Detoxifizierung und Ausscheidung von HMP. Ferne konnte nachgewiesen werden, dass die Enzyme Alkohol- und Aldehyd-Dehydrogenase an der Oxidation von HMP beteiligt waren. Die Inhibitoren Disulfiram und Ethanol der o. g. Enzyme wurde daher zur Modulation der Detoxifizierung in vivo eingesetzt. Die Veränderungen in der Toxifizierung von HMP zu SMP wurden durch die SMP-Konzentration im Plasma, die DNA-Addukthäufigkeit und die MPMA-Ausscheidung erfasst. Die Vorbehandlung von Disulfiram und Ethanol führte zu tendentielle Erhöhung der SMP-Konzentration im Plasma, DNA-Addukthäufigkeit in der Leber und die MPMA-Ausscheidung. Bemerkenswert ist jedoch, dass bereits eine Dosis von 0,2 g Ethanol/kg Körpermasse bereits zu statistisch signifikanten Erhöhungen der MPMA-Ausscheidung bei weiblichen Ratten.