Refine
Year of publication
Document Type
- Doctoral Thesis (6429) (remove)
Language
Is part of the Bibliography
- yes (6429) (remove)
Keywords
- climate change (53)
- Klimawandel (52)
- Modellierung (35)
- Nanopartikel (26)
- machine learning (23)
- Fernerkundung (20)
- Deutschland (19)
- Spracherwerb (19)
- Synchronisation (19)
- remote sensing (18)
Institute
- Institut für Biochemie und Biologie (1029)
- Institut für Physik und Astronomie (773)
- Institut für Chemie (670)
- Institut für Geowissenschaften (502)
- Wirtschaftswissenschaften (402)
- Institut für Ernährungswissenschaft (276)
- Öffentliches Recht (255)
- Bürgerliches Recht (220)
- Historisches Institut (213)
- Institut für Informatik und Computational Science (203)
Die intensive Auswertung unterschiedlicher schriftlicher und mündlicher Quellen sowie die Erschließung von damals "geheimer" Literatur für die Forschung heute ermöglicht eine differenzierte Rekonstruktion historischer Abläufe. Die vorliegende Arbeit nutzt diesen Zugang zur Darstellung von kleineren und größeren DDR-internen sportpolitischen Strukturwandlungen der 1960er und 1970er Jahre, die ihren Höhepunkt in einer dramatischen Umsteuerung des DDR-Hochleistungssports fanden. Es wird gezeigt, wie die Akteure unter Führung von Manfred EWALD, gewähltem Mitglied des SED-Zentralkomitees, einer Zentralfigur des DDR-Sports (vergleichbar mit der Bedeutung eines Willi DAUME im Westen) zwischen Systemzwängen und individueller Handlungsfreiheit innerhalb des Rahmens einer Diktatur in der Phase des Wechsels von Walter ULBRICHT zu Erich HONECKER eine Effektivierung des zentralistischen Modells durchsetzten (eine Parallele zum Ansatz von Monika KAISER). Im Gegensatz zu vielen kontroversen Erklärungsmodellen belegt der Verf., dass die Medaillenerfolge durch die zentrale Steuerung aller Abläufe gewährleistet wurden. Ohne SED-Auftrag wurde 1967 die "Leistungssportkommission der DDR" (LSK der DDR) gebildet. Im Unterschied zu den zahlreichen vom Verf. erstmals dargestellten Vorgängermodellen war diese SED-LSK "oberhalb des DTSB" angesiedelt und erteilte ihm Parteiaufträge - die Unterordnung des organisierten Sports unter die Autorität des Zentralkomitee machte angesichts der "Nationalen Fronten" von Armeesportvereinigung "Vorwärts" und Sportvereinigung "Dynamo" (SPITZER) jegliche zentrale Sportpolitik erst durchsetzbar. Zur "LSK der DDR" waren SED-Mitglieder abgeordnet, welche ihr Sachgebiet vertraten und nach gemeinsamer Beschlussfassung die Ergebnisse der LSK-Arbeit wiederum in ihrem jeweiligen Tätigkeitsfeld durchzusetzen hatten, was in der Diss. ausgeführt wird. Sportvertreter ebenso wie hochrangige Abgesandte der Ministerien, die mit der Produktion von Gütern für den Hochleistungssport befasst waren, gehörten den LSK-Gremien an, die auch die DDR-Sportwissenschaft steuerten; es lässt sich sogar nachweisen, dass die Herrschaft über diesen wichtigen Apparat sowie die Dopingforschung ein Hauptmotiv der LSK-Bildung gewesen ist. Durch seine Quellenorientierung und die Fülle an Belegen gibt die vorliegende Arbeit neue Anreize zur Auseinandersetzung mit dem Phänomen der Steuerung des Hochleistungssports in der DDR - auch über den Untersuchungszeitraum hinaus. Die Untersuchung wurde von der Humanwissenschaftlichen Fakultät der Universität Potsdam als Dissertation angenommen. Sie geht auf ein Stipendium dieser Universität zurück; das Verfahren konnte mit einem Prädikat abgeschlossen werden. Gutachter waren Prof. Dr. Dr. Gertrud PFISTER, Kopenhagen, Prof. Dr. Christoph KLEßMANN, Potsdam, und der Betreuer, Steady Visiting Prof. Univ. Odense, Priv.-Doz. Dr. habil. Giselher SPITZER, Berlin / Potsdam / Odense (Dänemark).
In der vorliegenden Dissertation wird die Bedeutung von Brachen für Artenvielfalt und Stabilität von Blüte-Bestäuber-Nahrungsnetzen in agrarisch genutzten Landschaften anhand ausgewählter blütenbesuchender Insektengruppen (Syrphidae, Lepidoptera) untersucht. Die Freilandarbeiten fanden von 1998-2000 im Raum der Feldberger Seenlandschaft, Mecklenburg-Vorpommern, statt. Es werden die beiden Hauptnahrungsquellen Nektar und Pollen betrachtet, dabei fanden Untersuchungen zur Intensität der Blüte-Bestäuber-Interaktion auf Stilllegungsflächen, zum flächenbezogenen quantitativen Nektarangebot im Jahresverlauf, zur individuellen Pollennutzung bei Syrphiden und zur Breite und Überlappung der Nahrungsnischen bei den dominanten Arten Episyrphus balteatus, Metasyrphus corollae, Syritta pipiens und Sphaerophoria scripta statt. Im Ergebnis zeigt sich eine hohe Bedeutung der Brachflächen für die Stabilität des Blüte-Bestäuber-Netzes, während die Diversität von anderen, eher landschaftsbezogenen Faktoren abhängig ist.
In der nichtlinearen Datenreihenanalyse hat sich seit etwa 10 Jahren eine Monte-Carlo-Testmethode etabliert, die Theiler-surrogatmethode, mit Hilfe derer entschieden werden kann, ob eine Datenreihe nichtlinearen Ursprungs sei. Diese Methode wird kritisiert, modifiziert und verallgemeinert. Das, was Theiler untersuchen will braucht andere Surrogatmethoden, die hier konstruiert werden. Und das, was Theiler untersucht braucht gar keine Monte-Carlo-Methoden. Mit Hilfe des in der Arbeit eingeführten Begriffs des Phasensignals werden Testmöglichkeiten dargelegt und Beziehungen zwischen den nichtlinearen Eigenschaften der Zeitreihe und deren Phasenspektrum erforscht. Das Phasensignal wird aus dem Phasenspektrum der Zeitreihe hergeleitet und registriert außerordentliche Geschehnisse im Zeitbereich sowie Phasenkopplungen im Frequenzbereich. Die gewonnenen Erkenntnisse werden auf das Problem der Polbewegung angewendet. Die Hypothese einer nichtlinearen Beziehung zwischen der atmosphärischen Erregung und der Polbewegung wird untersucht. Eine nichtlineare Behandlung wird nicht für nötig gehalten.
Today, analytical chemistry does not longer consist of only the big measuring devices and methods which are time consuming and expensive, which can furthermore only be handled by the qualified staff and in addition the results can also only be evaluated by this qualified staff. Usually, this technique, which shall be described in the following as 'classic analytic measuring technique', requires also rooms equipped especially and often a relative big quantity of the test compounds which should be prepared especially. Beside this classic analytic measuring technique, limited on definite substance groups and requests, a new measuring technique has gained acceptance particularly within the last years, which one can often be used by a layman, too. Often the new measuring technique has very little pieces of equipment. The needed sample volumes are also small and a special sample preparation isn't required. In addition, the new measuring instruments are simple to handle. They are cheap both in their production and in the use and they permit even a continuous measurement recording usually. Numerous of this new measuring instruments base on the research in the field of Biosensorik during the last 40 years. Since Clark and Lyon in the year 1962 were able to measure glucose with a simple oxygen electrode, completed by an enzyme the development of the new measuring technique did not have to be held back any longer. Biosensors, special pickups which consists of a combination from a biological component (permits a specific recognition of the analyte also without purification of the sample previously) and a physical pickup (convert the primary physicochemical effect into an electronically measurable signal), conquered the market. In the context of this thesis different tyrosinasesensors were developed which fulfilling the various requests, depending on origin and features of the used tyrosinase. One of the tyrosinasesensors for example was used for quantification of phenolic compounds in river and sea water and the results could correlated very well with the corresponding DIN-test for the determination of phenolic compounds. An other developed tyrosinasesensor showed a very high sensitiveness for catecholamines, substances which are of special importance in the medical diagnostics. In addition, the investigations of two different tyrosinases, which were carried out also in the context of this thesis, have shown, that a special tyrosinase (tyrosinase from Streptomyces antibioticus) will be the better choice as tyrosinase from Agaricus bisporus, which is used in the area of biosensor research till now, if one wants to develop in future even more sensitive tyrosinasesensors. Furthermore, first successes became reached on a molecular biological field, the production of tyrosinasemutants with special, before well-considered features. These successes can be used to develop a new generation of tyrosinasesensors, tyrosinasesensors in which tyrosinase can be bound directionally both to the corresponding physical pickup or also to another enzyme. From this one expects to achieve ways minimized which the substance to be determined (or whose product) otherwise must cover. Finally, this should result in an clearly visible increase of sensitivity of the Biosensor.
Combined structural and magnetotelluric investigation across the West Fault Zone in northern Chile
(2002)
The characterisation of the internal architecture of large-scale fault zones is usually restricted to the outcrop-based investigation of fault-related structural damage on the Earth's surface. A method to obtain information on the downward continuation of a fault is to image the subsurface electrical conductivity structure. This work deals with such a combined investigation of a segment of the West Fault, which itself is a part of the more than 2000 km long trench-linked Precordilleran Fault System in the northern Chilean Andes. Activity on the fault system lasted from Eocene to Quaternary times. In the working area (22°04'S, 68°53'W), the West Fault exhibits a clearly defined surface trace with a constant strike over many tens of kilometers. Outcrop condition and morphology of the study area allow ideally for a combination of structural geology investigation and magnetotelluric (MT) / geomagnetic depth sounding (GDS) experiments. The aim was to achieve an understanding of the correlation of the two methods and to obtain a comprehensive view of the West Fault's internal architecture. Fault-related brittle damage elements (minor faults and slip-surfaces with or without striation) record prevalent strike-slip deformation on subvertically oriented shear planes. Dextral and sinistral slip events occurred within the fault zone and indicate reactivation of the fault system. Youngest deformation increments mapped in the working area are extensional and the findings suggest a different orientation of the extension axes on either side of the fault. Damage element density increases with approach to the fault trace and marks an approximately 1000 m wide damage zone around the fault. A region of profound alteration and comminution of rocks, about 400 m wide, is centered in the damage zone. Damage elements in this central part are predominantly dipping steeply towards the east (70-80°). Within the same study area, the electrical conductivity image of the subsurface was measured along a 4 km long MT/GDS profile. This main profile trends perpendicular to the West Fault trace. The MT stations of the central 2 km were 100 m apart from each other. A second profile with 300 m site spacing and 9 recording sites crosses the fault a few kilometers away from the main study area. Data were recorded in the frequency range from 1000 Hz to 0.001 Hz with four real time instruments S.P.A.M. MkIII. The GDS data reveal the fault zone for both profiles at frequencies above 1 Hz. Induction arrows indicate a zone of enhanced conductivity several hundred meters wide, that aligns along the WF strike and lies mainly on the eastern side of the surface trace. A dimensionality analysis of the MT data justifies a two dimensional model approximation of the data for the frequency range from 1000 Hz to 0.1 Hz. For this frequency range a regional geoelectric strike parallel to the West Fault trace could be recovered. The data subset allows for a resolution of the conductivity structure of the uppermost crust down to at least 5 km. Modelling of the MT data is based on an inversion algorithm developed by Mackie et al. (1997). The features of the resulting resistivity models are tested for their robustness using empirical sensitivity studies. This involves variation of the properties (geometry, conductivity) of the anomalies, the subsequent calculation of forward or constrained inversion models and check for consistency of the obtained model results with the data. A fault zone conductor is resolved on both MT profiles. The zones of enhanced conductivity are located to the east of the West Fault surface trace. On the dense MT profile, the conductive zone is confined to a width of about 300 m and the anomaly exhibits a steep dip towards the east (about 70°). Modelling implies that the conductivity increase reaches to a depth of at least 1100 m and indicates a depth extent of less than 2000 m. Further conductive features are imaged but their geometry is less well constrained. The fault zone conductors of both MT profiles coincide in position with the alteration zone. For the dense profile, the dip of the conductive anomaly and the dip of the damage elements of the central part of the fault zone correlate. This suggests that the electrical conductivity enhancement is causally related to a mesh of minor faults and fractures, which is a likely pathway for fluids. The interconnected rock-porosity that is necessary to explain the observed conductivity enhancement by means of fluids is estimated on the basis of the salinity of several ground water samples (Archie's Law). The deeper the source of the water sample, the more saline it is due to longer exposure to fluid-rock interaction and the lower is the fluid's resistivity. A rock porosity in the range of 0.8% - 4% would be required at a depth of 200 m. That indicates that fluids penetrating the damaged fault zone from close to the surface are sufficient to explain the conductivity anomalies. This is as well supported by the preserved geochemical signature of rock samples in the alteration zone. Late stage alteration processes were active in a low temperature regime (<95°C) and the involvement of ascending brines from greater depth is not indicated. The limited depth extent of the fault zone conductors is a likely result of sealing and cementation of the fault fracture mesh due to dissolution and precipitation of minerals at greater depth and increased temperature. Comparison of the results of the apparently inactive West Fault with published studies on the electrical conductivity structure of the currently active San Andreas Fault, suggests that the depth extent and conductivity of the fault zone conductor may be correlated to fault activity. Ongoing deformation will keep the fault/fracture mesh permeable for fluids and impede cementation and sealing of fluid pathways.
Semi-arid areas are, due to their climatic setting, characterized by small water resources. An increasing water demand as a consequence of population growth and economic development as well as a decreasing water availability in the course of possible climate change may aggravate water scarcity in future, which often exists already for present-day conditions in these areas. Understanding the mechanisms and feedbacks of complex natural and human systems, together with the quantitative assessment of future changes in volume, timing and quality of water resources are a prerequisite for the development of sustainable measures of water management to enhance the adaptive capacity of these regions. For this task, dynamic integrated models, containing a hydrological model as one component, are indispensable tools. The main objective of this study is to develop a hydrological model for the quantification of water availability in view of environmental change over a large geographic domain of semi-arid environments. The study area is the Federal State of Ceará (150 000 km2) in the semi-arid north-east of Brazil. Mean annual precipitation in this area is 850 mm, falling in a rainy season with duration of about five months. Being mainly characterized by crystalline bedrock and shallow soils, surface water provides the largest part of the water supply. The area has recurrently been affected by droughts which caused serious economic losses and social impacts like migration from the rural regions. The hydrological model Wasa (Model of Water Availability in Semi-Arid Environments) developed in this study is a deterministic, spatially distributed model being composed of conceptual, process-based approaches. Water availability (river discharge, storage volumes in reservoirs, soil moisture) is determined with daily resolution. Sub-basins, grid cells or administrative units (municipalities) can be chosen as spatial target units. The administrative units enable the coupling of Wasa in the framework of an integrated model which contains modules that do not work on the basis of natural spatial units. The target units mentioned above are disaggregated in Wasa into smaller modelling units within a new multi-scale, hierarchical approach. The landscape units defined in this scheme capture in particular the effect of structured variability of terrain, soil and vegetation characteristics along toposequences on soil moisture and runoff generation. Lateral hydrological processes at the hillslope scale, as reinfiltration of surface runoff, being of particular importance in semi-arid environments, can thus be represented also within the large-scale model in a simplified form. Depending on the resolution of available data, small-scale variability is not represented explicitly with geographic reference in Wasa, but by the distribution of sub-scale units and by statistical transition frequencies for lateral fluxes between these units. Further model components of Wasa which respect specific features of semi-arid hydrology are: (1) A two-layer model for evapotranspiration comprises energy transfer at the soil surface (including soil evaporation), which is of importance in view of the mainly sparse vegetation cover. Additionally, vegetation parameters are differentiated in space and time in dependence on the occurrence of the rainy season. (2) The infiltration module represents in particular infiltration-excess surface runoff as the dominant runoff component. (3) For the aggregate description of the water balance of reservoirs that cannot be represented explicitly in the model, a storage approach respecting different reservoirs size classes and their interaction via the river network is applied. (4) A model for the quantification of water withdrawal by water use in different sectors is coupled to Wasa. (5) A cascade model for the temporal disaggregation of precipitation time series, adapted to the specific characteristics of tropical convective rainfall, is applied for the generating rainfall time series of higher temporal resolution. All model parameters of Wasa can be derived from physiographic information of the study area. Thus, model calibration is primarily not required. Model applications of Wasa for historical time series generally results in a good model performance when comparing the simulation results of river discharge and reservoir storage volumes with observed data for river basins of various sizes. The mean water balance as well as the high interannual and intra-annual variability is reasonably represented by the model. Limitations of the modelling concept are most markedly seen for sub-basins with a runoff component from deep groundwater bodies of which the dynamics cannot be satisfactorily represented without calibration. Further results of model applications are: (1) Lateral processes of redistribution of runoff and soil moisture at the hillslope scale, in particular reinfiltration of surface runoff, lead to markedly smaller discharge volumes at the basin scale than the simple sum of runoff of the individual sub-areas. Thus, these processes are to be captured also in large-scale models. The different relevance of these processes for different conditions is demonstrated by a larger percentage decrease of discharge volumes in dry as compared to wet years. (2) Precipitation characteristics have a major impact on the hydrological response of semi-arid environments. In particular, underestimated rainfall intensities in the rainfall input due to the rough temporal resolution of the model and due to interpolation effects and, consequently, underestimated runoff volumes have to be compensated in the model. A scaling factor in the infiltration module or the use of disaggregated hourly rainfall data show good results in this respect. The simulation results of Wasa are characterized by large uncertainties. These are, on the one hand, due to uncertainties of the model structure to adequately represent the relevant hydrological processes. On the other hand, they are due to uncertainties of input data and parameters particularly in view of the low data availability. Of major importance is: (1) The uncertainty of rainfall data with regard to their spatial and temporal pattern has, due to the strong non-linear hydrological response, a large impact on the simulation results. (2) The uncertainty of soil parameters is in general of larger importance on model uncertainty than uncertainty of vegetation or topographic parameters. (3) The effect of uncertainty of individual model components or parameters is usually different for years with rainfall volumes being above or below the average, because individual hydrological processes are of different relevance in both cases. Thus, the uncertainty of individual model components or parameters is of different importance for the uncertainty of scenario simulations with increasing or decreasing precipitation trends. (4) The most important factor of uncertainty for scenarios of water availability in the study area is the uncertainty in the results of global climate models on which the regional climate scenarios are based. Both a marked increase or a decrease in precipitation can be assumed for the given data. Results of model simulations for climate scenarios until the year 2050 show that a possible future change in precipitation volumes causes a larger percentage change in runoff volumes by a factor of two to three. In the case of a decreasing precipitation trend, the efficiency of new reservoirs for securing water availability tends to decrease in the study area because of the interaction of the large number of reservoirs in retaining the overall decreasing runoff volumes.
Die Landschaften Mitteleuropas sind das Resultat einer langwierigen Geschichte menschlicher Landnutzung mit ihren unterschiedlichen, z.T. konkurrierenden Nutzungsansprüchen. Durch eine überwiegend intensive Beanspruchung haben die direkten und indirekten Auswirkungen der Landnutzung in vielen Fällen zu Umweltproblemen geführt. Die Disziplin der Landschaftsökologie hat es sich zur Aufgabe gemacht, Konzepte für eine nachhaltige Nutzung der Landschaft zu entwickeln. Eine wichtige Fragestellung stellt dabei die Abschätzung der möglichen Folgen von Landnutzungsänderungen dar. Für die Analyse der relevanten Prozesse in der Landschaft werden häufig mathematische Modelle eingesetzt, welche es erlauben die Landschaft unter aktuellen Verhältnissen oder hinsichtlich veränderter Rahmenbedingungen zu untersuchen. Die hypothetische Änderung der Landnutzung, die als Landnutzungsszenario bezeichnet wird, verkörpert eine wesentliche Modifikation der Rahmenbedingungen, weil Landnutzung maßgeblich Einfluss auf die natürlichen Prozesse der Landschaft nimmt. Während die Antriebskräfte einer solchen Änderung überwiegend von sozio-ökonomischen und politischen Entscheidungen gesteuert werden, orientiert sich die exakte Verortung der Landnutzungsänderungen an den naturräumlichen Bedingungen und folgt z.T. erkennbaren Regeln. Anhand dieser Vorgaben ist es möglich, räumlich explizite Landnutzungsszenarien zu entwickeln, die als Eingangsdaten für die Modellierung verschiedener landschaftsökologischer Fragestellungen wie z.B. für die Untersuchung des Einflusses der Landnutzung auf den Wasserhaushalt, die Erosionsgefahr oder die Habitatqualität dienen können. Im Rahmen dieser Dissertation wurde das rasterbasierte deterministische Allokationsmodell luck (Land Use Change Scenario Kit) für die explizite Verortung der Landnutzungsänderungen entwickelt. Es basiert auf den in der Landschaftsökologie üblichen räumlichen Daten wie Landnutzung, Boden sowie Topographie und richtet sich bei der Szenarienableitung nach den Leitbildern der Landschaftsplanung. Das Modell fußt auf der Hypothese, dass das Landnutzungsmuster als Funktion seiner landschaftsökologischen Faktoren beschrieben werden kann. Das Veränderungspotenzial einer Landnutzungseinheit resultiert im Modell aus einer Kombination der Bewertung der relativen Eignung des Standortes für die jeweilige Landnutzung und der Berücksichtigung von Standorteigenschaften der umliegenden Nachbarn. Die Durchführung der Landnutzungsänderung im Modell ist iterativ angelegt, um den graduellen Prozess des Landschaftswandels nachvollziehen zu können. Als Fallbeispiel für die Anwendung solcher räumlich expliziten Landnutzungsszenarien dient die Fragestellung, inwieweit Landnutzungsänderungen die Hochwasserentstehung beeinflussen. Um den Einfluss auf die Hochwasserentstehung für jede der Landnutzungskategorien – bebaute, landwirtschaftlich genutzte und naturnahe Flächen – abschätzen zu können, wird im Landnutzungsmodell luck exemplarisch für jede Kategorie ein Teilmodell für die Veränderung von Landnutzung angeboten: 1) Ausdehnung der Siedlungsfläche: Dieses Teilmodell fußt auf der Annahme, dass sich Siedlungen nur in direkter Nachbarschaft bereits bestehender Bebauung und bevorzugt entlang von Entwicklungsachsen ausbreiten. Steile Hangneigungen stellen für potenzielle Standorte ein Hemmnis bei der Ausbreitung dar. 2) Stilllegung von Grenzertragsackerflächen: Gemäß der Hypothese, dass sich die Stilllegung von Ackerflächen an der potenziellen Ertragsleistung der Standorte orientiert, werden in diesem Teilmodell alle Ackerstandorte dahingehend bewertet und die Flächen mit der geringsten Leistungsfähigkeit stillgelegt. Bei homogenen Gebietseigenschaften werden die Stilllegungsflächen zufällig auf die Ackerfläche verteilt. 3) Etablierung von Schutzgebieten in Ufer- und Auenbereichen: Ausgehend von der These, dass sich entlang von Flüssen sensible Flächen befinden, deren Schutz positive Folgen für das Leistungsvermögen der Landschaft haben kann, werden in diesem Teilmodell schützenswerte Ufer- und Auenbereiche auf derzeit landwirtschaftlich genutzten Flächen ausgewiesen. Die Größe der Schutzgebietsfläche orientiert sich an der Morphologie der umgebenden Landschaft. Die drei Teilmodelle wurden hinsichtlich der implizierten Hypothesen mit vielen unterschiedlichen Ansätzen validiert. Das Resultat dieser intensiven Analyse zeigt für jedes Teilmodell eine zufriedenstellende Tauglichkeit. Die Modellierung der Landnutzungsänderungen wurden in drei mesoskaligen Flusseinzugsgebieten mit einer Fläche zwischen 100 und 500 km² durchgeführt, die sich markant in ihrer Landnutzung unterscheiden. Besonderer Wert wurde bei der Gebietsauswahl darauf gelegt, dass eines der Gebiete intensiv landwirtschaftlich genutzt wird, eines dicht besiedelt und eines vorwiegend bewaldet ist. Im Hinblick auf ihre Relevanz für die vorliegende Fragestellung wurden aus bestehenden Landnutzungstrends die Szenarien für (1) die prognostizierte Siedlungsfläche für das Jahr 2010, (2) die möglichen Konsequenzen des EU-weiten Beschlusses der Agenda 2000 und (3) die Novelle des Bundesnaturschutzgesetzes aus dem Jahr 2001 abgeleitet. Jedes Szenario wurde mit Hilfe des Modells auf die drei Untersuchungsgebiete angewendet. Dabei wurden für die Siedlungsausdehnung in allen drei Gebieten realistische Landnutzungsmuster generiert. Einschränkungen ergeben sich bei der Suche nach Grenzertragsstilllegungsflächen. Hier hat unter homogenen Gebietseigenschaften die zufällige Verteilung von Flächen für die Stilllegung zu einem unrealistischen Ergebnis geführt. Die Güte der Schutzgebietsausweisung ist maßgeblich an die aktuelle Landnutzung der Aue und die Morphologie des Geländes gebunden. Die besten Ergebnisse werden erzielt, wenn die Flächen in den Ufer- und Auenbereichen mehrheitlich unter derzeitiger Ackernutzung stehen und der Flusslauf sich in das Relief eingetieft hat. Exemplarisch werden für jeden Landnutzungstrend die hydrologischen Auswirkungen anhand eines historischen Hochwassers beschrieben, aus denen jedoch keine pauschale Aussage zum Einfluss der Landnutzung abgeleitet werden kann. Die Studie demonstriert die Bedeutung des Landnutzungsmusters für die natürlichen Prozesse in der Landschaft und unterstreicht die Notwendigkeit einer räumlich expliziten Modellierung für landschaftsökologische Fragestellungen in der Mesoskala.
Das Ziel dieser Arbeit ist es, die Strukturen im äußeren Erdkern zu untersuchen und Rückschlüsse auf die sich daraus ergebenden Konsequenzen für geodynamische Modellvorstellungen zu ziehen. Die Untersuchung der Kernphasenkaustik B mit Hilfe einer kumulierten Amplituden-Entfernungskurve ist Gegenstand des ersten Teils. Dazu werden die absoluten Amplituden der PKP-Phasen im Entfernungsbereich von 142 ° bis 147 ° bestimmt und mit den Amplituden synthetischer Seismogramme verglichen. Als Datenmaterial dienen die Breitbandregistrierungen des Deutschen Seismologischen Re-gionalnetzes (GRSN 1 ) und des Arrays Gräfenberg (GRF). Die verwendeten Wellen-formen werden im WWSSN-SP-Frequenzbereich gefiltert. Als Datenbasis dienen vier Tiefherdbeben der Subduktionszone der Neuen Hebriden (Vanuatu Island) und vier Nuklearexplosionen, die auf dem Mururoa und Fangataufa Atoll im Südpazifik stattgefunden haben. Beide Regionen befinden sich vom Regionalnetz aus gesehen in einer Epizentraldistanz von ungefähr 145 °. Die Verwendung eines homogen instrumentierten Netzes von Detektoren und die Anwendung von Stations- und Magnitudenkorrekturen verringern den Hauptteil der Streuung bei den Amplitudenwerten. Dies gilt auch im Vergleich zu Untersuchungen von langperiodischen Amplituden im Bereich der Kernphasenkaustik (Häge, 1981). Ein weiterer Grund für die geringe Streuung ist die ausschließliche Verwendung von Ereignissen mit kurzer impulsiver Herdzeitfunktion. Erst die geringe Streuung der Amplitudenwerte ermöglicht eine Interpretation der Daten. Die theoretischen Amplitudenkurven der untersuchten Erdmodelle zeigen im Bereich der Kaustik B einen gleichartigen Kurvenverlauf. Bei allen Berechnungen wird ein einheitliches Modell für die Güte der P- und S-Wellen verwendet, das sich aus den Q-Werten der Modelle CIT112 und PREM 2 zusammensetzt. Die mit diesem Q-Modell berechneten Amplituden liegen in geringem Maße oberhalb der gemessenen Amplituden. Dies braucht nicht berücksichtigt zu werden, da die kumulierte Amplituden-Entfernungskurve anhand der Lage des Maximums auf der Entfernungsachse ausgewertet wird. Folglich wird darauf verzichtet, ein alternatives Q-Modell zu entwickeln. Hinsichtlich der Lage des Kaustikmaximums lassen sich die untersuchten Erdmodelle in zwei Kategorien einteilen. Eine Gruppe besteht aus den Modellen IASP91 und 1066B, deren Maxima bei 144.6 ° und 144.7 ° liegen. Zur zweiten Gruppe von Modellen zählen AK135, PREM und SP6 mit den Maxima bei 145.1 ° und 145.2 ° (SP6). Die gemessene Amplitudenkurve hat ihr Maximum bei 145 °. Alle Entfernungsangaben beziehen sich auf eine Herdtiefe von 200 km. Die Kaustikentfernung für einen Oberflächenherd ist jeweils um 0.454 ° größer als die angegeben Werte. Damit liegen die Maxima der Modelle AK135 und PREM nur 0.1 ° neben dem der gemessenen kumulierten Amplitudenkurve. Daher wird auf die Erstellung eines eigenen Modells verzichtet, da dieses eine unwesentlich verbesserte Amplitudenkurve aufweisen würde. Das Ergebnis der Untersuchung ist die Erstellung einer gemessenen kumulierten Amplituden-Entfernungskurve für die Kaustik B. Die Kurve legt die Position der Kaustik B für kurzperiodische Daten auf ± 0.15 ° fest und bestimmt damit, welche Erdmodelle für die Beschreibung der Amplituden im Entfernungsbereich der Kaustik B besonders geeignet sind. Die Erdmodelle AK135 und PREM, ergänzt durch ein einheitliches Q-Modell, geben den Verlauf der Amplituden am besten wieder. Da die Amplitudenkurven beider Modelle nahe beieinander liegen, sind sie als gleichwertig zu bezeichnen. Im zweiten Teil der Arbeit wird die Struktur der Übergangszone in den inneren Erdkern anhand des spektralen Abklingens der Phase PKP(BC)diff am Punkt C der Laufzeitkurve untersucht. Der physikalische Prozeß der Beugung ist für die starke Abnahme der Amplituden dieser Phase verantwortlich. Die Diffraktion beeinflußt das Abklingverhalten verschiedener Frequenzanteile des seismischen Signals auf unterschiedliche Weise. Eine Deutung des Verhaltens erfordert die Berechnung von Abklingspektren. Dabei wird die Abschwächung des PKP(BC)diff Signals für acht Frequenzen zwischen 6.4 s und 1.25 Hz ermittelt und als Spektrum dargestellt. Die Form des Abklingspektrums ist charakteristisch für die Beschaffenheit der Geschwindigkeitsstruktur direkt oberhalb der Grenze zum inneren Erdkern (GIK). Die Beben, deren Kernphasen im Regionalnetz als diffraktierte Kernphasen BCdiff registriert werden, liegen in einem Entfernungsbereich jenseits von 150 °. In dieser Distanz befinden sich die Erdbebenherde der Tonga-Fidschi-Subduktionszone, deren Breitbandaufzeichnungen verwendet werden. Die Auswertung unkorrigierter Wellenformen ergibt Abklingspektren, die mit plausiblen Erdmodellen nicht in Einklang zu bringen sind. Aus diesem Grund werden die Daten einer spektralen Stationskorrektur unterzogen, die eigens zu diesem Zweck ermittelt wird. Am Beginn der Auswertung steht eine Prüfung bekannter Erdmodelle mit unterschiedlichen Geschwindigkeitsstrukturen oberhalb der GIK. Zu den untersuchten Modellen zählen PREM, IASP91, AK135Q, PREM2, SP6, OICM2 und eine Variante des PREM. Die Untersuchung ergibt, daß Modelle, die einen verringerten Gradienten oberhalb der GIK aufweisen, eine bessere Übereinstimmung mit den gemessenen Daten zeigen als Modelle ohne diese Übergangszone. Zur Verifikation dieser These wird ein Erdmodell, das keinen verringerten Gradienten oberhalb der GIK besitzt (PREM), durch eine Reihe unterschiedlicher Geschwindigkeitsverläufe in diesem Bereich ergänzt und deren synthetische Seismogramme berechnet. Das Resultat der Untersuchung sind zwei Varianten des PREM, deren Frequenzanalyse eine gute Übereinstimmung mit den Daten zeigt. Das Abklingspektrum des Erdmodells PD47, das in einer 380 km mächtigen Schicht einen negativen Gradienten besitzt, zeigt eine große Ähnlichkeit mit den gemessenen Spektren. Dennoch kann es nicht als realistisches Modell angesehen werden, da der Punkt C in einer zu großen Entfernung liegt. Darüber hinaus müßte die zu kurze Differenzlaufzeit zwischen PKP(AB) und PKP(DF) beziehungsweise PKIKP durch eine größere Änderung der Geschwindigkeitsstruktur im inneren Kern kompensiert werden. Es wird deshalb das Modell PD27a favorisiert, das diese Nachteile nicht aufweist. PD27a besitzt eine Schicht konstanter Geschwindigkeit oberhalb der GIK mit einer Mächtigkeit von 150 km. Die Art des Geschwindigkeitsverlaufs steht im Einklang mit der geodynamischen Modellvorstellung, nach der eine Anreicherung leichter Elemente oberhalb der GIK vorliegt, die als Ursache für die Konvektion im äußeren Erdkern anzusehen ist.
Deep convection is an essential part of the circulation in the North Atlantic Ocean. It influences the northward heat transport achieved by the thermohaline circulation. Understanding its stability and variability is therefore necessary for assessing climatic changes in the area of the North Atlantic. This thesis aims at improving the conceptual understanding of the stability and variability of deep convection. Observational data from the Labrador Sea show phases with and without deep convection. A simple two-box model is fitted to these data. The results suggest that the Labrador Sea has two coexisting stable states, one with regular deep convection and one without deep convection. This bistability arises from a positive salinity feedback that is due to the net freshwater input into the surface layer. The convecting state can easily become unstable if the mean forcing shifts to warmer or less saline conditions. The weather-induced variability of the external forcing is included into the box model by adding a stochastic forcing term. It turns out that deep convection is then switched "on" and "off" frequently. The mean residence time in either state is a measure of its stochastic stability. The stochastic stability depends smoothly on the forcing parameters, in contrast to the deterministic (non-stochastic) stability which may change abruptly. The mean and the variance of the stochastic forcing both have an impact on the frequency of deep convection. For instance, a decline in convection frequency due to a surface freshening may be compensated for by an increased heat flux variability. With a further simplified box model some stochastic stability features are studied analytically. A new effect is described, called wandering monostability: even if deep convection is not a stable state due to changed forcing parameters, the stochastic forcing can still trigger convection events frequently. The analytical expressions explicitly show how wandering monostability and other effects depend on the model parameters. This dependence is always exponential for the mean residence times, but for the probability of long nonconvecting phases it is exponential only if this probability is small. It is to be expected that wandering monostability is relevant in other parts of the climate system as well. All in all, the results demonstrate that the stability of deep convection in the Labrador Sea reacts very sensitively to the forcing. The presence of variability is crucial for understanding this sensitivity. Small changes in the forcing can already significantly lower the frequency of deep convection events, which presumably strongly affects the regional climate. ----Anmerkung: Der Autor ist Träger des durch die Physikalische Gesellschaft zu Berlin vergebenen Carl-Ramsauer-Preises 2003 für die jeweils beste Dissertation der vier Universitäten Freie Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin und Universität Potsdam.
Das Lektin aus Pisum sativum, der Gartenerbse, ist Teil der Familie der Leguminosenlektine. Diese Proteine haben untereinander eine hohe Sequenzhomologie, und die Struktur ihrer Monomere, ein all-ß-Motiv, ist hoch konserviert. Dagegen gibt es innerhalb der Familie eine große Vielfalt an unterschiedlichen Quartärstrukturen, die Gegenstand kristallographischer und theoretischer Arbeiten waren. Das Erbsenlektin ist ein dimeres Leguminosenlektin mit einer Besonderheit in seiner Struktur: Nach der Faltung in der Zelle wird aus einem Loop eine kurze Aminosäuresequenz herausgeschnitten, so dass sich in jeder Untereinheit zwei unabhängige Polypeptidketten befinden. Beide Ketten sind aber stark miteinander verschränkt und bilden eine gemeinsame strukturelle Domäne. Wie alle Lektine bindet Erbsenlektin komplexe Oligosaccharide, doch sind seine physiologische Rolle und der natürliche Ligand unbekannt. In dieser Arbeit wurden Versuche zur Entwicklung eines Funktionstests für Erbsenlektin durchgeführt und seine Faltung, Stabilität und Monomer-Dimer-Gleichgewicht charakterisiert. Um die spezifische Rolle der Prozessierung für Stabilität und Faltung zu untersuchen, wurde ein unprozessiertes Konstrukt in E. coli exprimiert und mit der prozessierten Form verglichen. Beide Proteine zeigen die gleiche kinetische Stabilität gegenüber chemischer Denaturierung. Sie denaturieren extrem langsam, weil nur die isolierten Untereinheiten entfalten können und das Monomer-Dimer-Gleichgewicht bei mittleren Konzentrationen an Denaturierungsmittel auf der Seite der Dimere liegt. Durch die extrem langsame Entfaltung zeigen beide Proteine eine apparente Hysterese im Gleichgewichtsübergang, und es ist nicht möglich, die thermodynamische Stabilität zu bestimmen. Die Stabilität und die Geschwindigkeit der Assoziation und Dissoziation in die prozessierten bzw. nichtprozessierten Untereinheiten sind für beide Proteine gleich. Darüber hinaus konnte gezeigt werden, dass auch unter nicht-denaturierenden Bedingungen die Untereinheiten zwischen den Dimeren ausgetauscht werden. Die Renaturierung der unprozessierten Variante ist unter stark nativen Bedingungen zu 100 % möglich. Das prozessierte Protein dagegen renaturiert nur zu etwa 50 %, und durch die Prozessierung ist die Faltung stark verlangsamt, der Faltungsprozess ist erst nach mehreren Tagen abgeschlossen. Im Laufe der Renaturierung wird ein Intermediat populiert, in dem die längere der beiden Polypeptidketten ein Homodimer mit nativähnlicher Untereinheitenkontaktfläche bildet. Der geschwindigkeitsbestimmende Schritt der Renaturierung ist die Assoziation der entfalteten kürzeren Kette mit diesem Dimer.
Motivated by recent proposals on the experimental detectability of quantum gravity effects, the present thesis investigates assumptions and methods which might be used for the prediction of such effects within the framework of loop quantum gravity. To this end, a scalar field coupled to gravity is considered as a model system. Starting from certain assumptions about the dynamics of the coupled gravity-matter system, a quantum theory for the scalar field is proposed. Then, assuming that the gravitational field is in a semiclassical state, a "QFT on curved space-time limit" of this theory is defined. In contrast to ordinary quantum field theory on curved space-time however, in this limit the theory describes a quantum scalar field propagating on a (classical) random lattice. Then, methods to obtain the low energy limit of such a lattice theory, especially regarding the resulting modified dispersion relations, are discussed and applied to simple model systems. Finally, under certain simplifying assumptions, using the methods developed before as well as a specific class of semiclassical states, corrections to the dispersion relations for the scalar and the electromagnetic field are computed within the framework of loop quantum gravity. These calculations are of preliminary character, as many assumptions enter whose validity remains to be studied more thoroughly. However they exemplify the problems and possibilities of making predictions based on loop quantum gravity that are in principle testable by experiment.
Vergleich von rekombinanten Vaccinia- und DNA-Vektoren zur Tumorimmuntherapie im C57BL/6-Mausmodell
(2002)
In der vorliegenden Arbeit wurden Tumorimpfstoffe auf der Basis des Plasmid-Vektors pCI, modified vaccinia virus Ankara (MVA) und MVA-infizierten dendritischen Zellen entwickelt und durch Sequenzierung, Western blotting und durchflußzytometrische Analyse überprüft. Die in vivo Wirksamkeit der Vakzinen wurde in verschiedenen Tumormodellen in C57BL/6 Mäusen verglichen. Die auf dem eukaryotischen Expressionsvektor pCI basierende DNA-Vakzinierung induzierte einen sehr wirksamen, antigenspezifischen und langfristigen Schutz vor Muzin, CEA oder beta-Galactosidase exprimierenden Tumoren. Eine MVA-Vakzinierung bietet in den in dieser Arbeit durchgeführten Tumormodellen keinen signifikanten Schutz vor Muzin oder beta-Galactosidase exprimierenden Tumoren. Sowohl humane, als auch murine in vitro generierte dendritische Zellen lassen sich mit MVA – im Vergleich zu anderen viralen Vektoren – sehr gut infizieren. Die Expressionsrate der eingefügten Gene ist aber gering im Vergleich zur Expression in permissiven Wirtszellen des Virus (embryonale Hühnerfibroblasten). Es konnte gezeigt werden, daß eine MVA-Infektion dendritischer Zellen ähnliche Auswirkungen auf den Reifezustand humaner und muriner dendritischer Zellen hat, wie eine Infektion mit replikationskompetenten Vakzinia-Stämmen, und außerdem die Hochregulation von CD40 während der terminalen Reifung von murinen dendritischen Zellen inhibiert wird. Die während der langfristigen in vitro Kultur auf CEF-Zellen entstandenen Deletionen im MVA Genom führten zu einer starken Attenuierung und dem Verlust einiger Gene, die immunmodulatorische Proteine kodieren, jedoch nicht zu einer Verminderung des zytopathischen Effekts in dendritischen Zellen. Die geringe Expressionsrate und die beobachtete Inhibition der Expression kostimulatorischer Moleküle auf dendritischen Zellen kann für eine wenig effektive Induktion einer Immunantwort in MVA vakzinierten Tieren durch cross priming oder die direkte Infektion antigenpräsentierender Zellen verantwortlich sein. Durch die Modifikation einer Methode zur intrazellulären IFN-gamma Färbung konnten in vakzinierten Mäusen tumorantigenspezifische CTL sensitiv und quantitativ detektiert werden. Die so bestimmte CTL-Frequenz, nicht jedoch die humorale Antwort, korrelierte mit der in vivo Wirksamkeit der verschiedenen Vakzinen: DNA vakzinierte Tiere entwickeln starke tumorantigenspezifische CTL-Antworten, wohingegen in MVA-vakzinierten Tieren überwiegend gegen virale Epitope gerichtete CD4 und CD8-T-Zellen detektiert wurden. Die Wirksamkeit der pCI-DNA-Vakzine spricht für die Weiterentwicklung in weiteren präklinischen Mausmodellen, beispielsweise unter Verwendung von MUC1 oder HLA-A2 transgenen Mäusen. Die Methoden zur Detektion Tumorantigen-spezifischer CTL in 96-Loch-Mikrotiterplatten können dabei zur systematischen Suche nach im Menschen immundominanten T-Zell-Epitopen im Muzin-Molekül genutzt werden. Der durchgeführte Vergleich der auf den Vektoren pCI und MVA basierenden Vakzinen und die Analyse neuerer Publikationen führen zu dem Ergebnis, daß vor allem DNA-Vakzinen in Zukunft eine wichtige Rolle bei der Entwicklung von aktiven Tumorimpfstoffen spielen werden. Rekombinante MVA-Viren, eventuell in Kombination mit DNA- oder anderen Vektoren, haben sich dagegen in zahlreichen Studien als wirksame Impfstoffe zur Kontrolle von durch Pathogene hervorgerufenen Infektionserkrankungen erwiesen.
Structural and spectroscopical study of crystals of 1,3,4-oxadiazole derivatives at high pressure
(2002)
In recent years the search for new materials of technological interest has given new impulses to the study of organic compounds. Organic substances possess a great number of advantages such as the possibility to adjust their properties for a given purpose by different chemical and physical techniques in the preparation process. Oxadiazole derivatives are interesting due to their use as material for light emitting diodes (LED) as well as scintillators. The physical properties of a solid depend on its structure. Different structures induce different intra- and intermolecular interactions. An advantageous method to modify the intra- as well as the intermolecular interactions of a given substance is the application of high pressure. Furthermore, using this method the chemical features of the compound are not influenced. We have investigated the influence of high pressure and high temperature on the super-molecular structure of several oxadiazole derivatives in crystalline state. From the results of this investigation an equation of state for these crystals was determined. Furthermore, the spectroscopical features of these materials under high pressure were characterized.
Das Phänomen der Subduktion eines aktiven Spreizungszentrums an der Südspitze Südamerikas ist seit langem bekannt. Eine Vielzahl von geologischen Beobachtungen wurden mit diesem Phänomen in Verbindung gebracht, trotzdem ist der genaue Mechanismus der Beeinflussung des aktiven Kontinentalrandes weitgehend unbekannt. Die Zusammenhänge zwischen den Subduktionsprozessen und der Entwicklung der patagonischen Anden zwischen 47°S und 48°S stehen im Mittelpunkt der Untersuchungen. Um eine detaillierte zeitliche Auflösung der zugrunde liegenden Prozesse untersuchen zu können, wurde die Entwicklung der Vorlandsedimentation, die thermische Entwicklung und die Heraushebung der Oberkruste des andinen Orogens untersucht und diese in Bezug zur Subduktion des Chile-Rückens gesetzt. Im Bereich von 47°30′S wurden die synorogenen Vorlandsedimente der Santa Cruz Formation sedimentologisch untersucht. Diese fluviatilen Sedimente wurden in einem reliefarmen Vorlandgebiet durch häufige Rinnenverlagerung und dem Aufbau von Rinnenumlagerungsgürteln in Kombination mit assoziierten großräumigen Überflutungsablagerungen akkumuliert. Sie stehen in einem engen Zusammenhang mit der orogenen Entwicklung im andinen Liefergebiet. Dies spiegelt sich in dem nach oben gröber werdenden Zyklus der Santa Cruz Formation wider. Die magnetostratigraphischen Untersuchungen einer 270 m mächtigen Sequenz aus der Basis der Santa Cruz Formation, die mit 329 Einzelproben aus 96 Probenpunkten beprobt wurde, ergab 7 Umkehrungen der geomagnetischen Feldrichtung. Mit Hilfe der geomagnetischen Polaritätszeitskala (CANDE AND KENT, 1995) konnte der untersuchte Abschnitt der Santa Cruz Formation zwischen 16.2 und 18.5 Ma datiert werden. Als Träger der Sedimentations-Remanenz konnten überwiegend Pseudoeinbereichs-Magentitpartikel und untergeordnet Hämatitpartikel identifiziert werden. An drei Profilen der Santa Cruz Formation wurden aus Sandsteinlagen unterschiedlicher stratigraphischer Position detritische Apatite mit Hilfe der thermochronologischen Spaltspurmethode untersucht. Die thermisch nicht rückgesetzten, detritischen Apatite spiegeln das Auftreten unterschiedlicher Altersdomänen im Liefergebiet der Sedimente wider. In der Kombination mit den geochemischen Gesamtgesteinsuntersuchungen der Sedimente und den petrographischen Untersuchungen der Sandsteine, die ein überwiegend andesitisch-vulkanisch geprägtes Liefergebiet widerspiegeln, kann nachgewiesen werden, dass die Erosion im Liefergebiet um 16.5 Ma in tiefere, deformierte Krustensegmente einschneidet. Dies bedeutet, dass aufgrund der Denudation im andinen Orogen erste Sockelgesteinseinheiten in den Bereich der Abtragung gelangen und dass dieser Eintrag um 12 bis 10 Ma ein Volumen einnimmt, das zu signifikanten Änderungen der Gesamtgesteinsgeochemie der Vorlandsedimente führt. Die thermochronologische Untersuchung von Apatiten aus rezenten topographischen Höhenprofilen aus der Kernzone der patagonischen Anden im Bereich von 47°30′S zeigen den Beginn einer beschleunigten Heraushebung des Orogens um 7.5 Ma. Aus diesen Untersuchungen kann eine Denudationsrate im Zeitraum der letzen 7 bis 8 Ma von 600 bis 650 m/Ma abgeschätzt werden. Die Modellierung der Apatit-Spaltspurergebnisse zeigt eine signifikante Temperaturerhöhung im Zeitraum zwischen 12 und 8 Ma um 20 bis 30°C für diesen Krustenbereich, die mit der Subduktion des aktiven Chile-Rückens in diesem Bereich der Anden in Verbindung gebracht wird. Aus den gewonnen Daten kann ein Modell für die Entwicklung der patagonischen Anden seit dem frühen Miozän abgeleitet werden. In diesem Modell wird die orogene Entwicklung in den patagonischen Anden auf eine erhöhte Konvergenzrate zwischen der Nazca Platte und der Südamerikanischen Platte zurückgeführt, die für die Heraushebung und Denudation der Anden sowie für die damit verbundene Entwicklung im Vorlandbereich verantwortlich ist. Diese orogene Entwicklung wird in einer späten Phase durch die nordwärts wandernde Subduktion des aktiven Spreizungszentrums des Chile Rückens überprägt und beeinflusst. Das auf der Integration von geologischen, chronologischen sowie thermochronologischen Daten beruhende Modell kann zahlreiche geologische und geophysikalische Beobachtungen in diesem Bereich der südlichen Anden konsistent erklären.
Comparative study of gene expression during the differentiation of white and brown preadipocytes
(2002)
Introduction Mammals have two types of adipose tissue: the lipid storing white adipose tissue and the brown adipose tissue characterised by its capacity for non-shivering thermogenesis. White and brown adipocytes have the same origin in mesodermal stem cells. Yet nothing is known so far about the commitment of precursor cells to the white and brown adipose lineage. Several experimental approaches indicate that they originate from the differentiation of two distinct types of precursor cells, white and brown preadipocytes. Based on this hypothesis, the aim of this study was to analyse the gene expression of white and brown preadipocytes in a systematic approach. Experimental approach The white and brown preadipocytes to compare were obtained from primary cell cultures of preadipocytes from the Djungarian dwarf hamster. Representational difference analysis was used to isolate genes potentially differentially expressed between the two cell types. The thus obtained cDNA libraries were spotted on microarrays for a large scale gene expression analysis in cultured preadipocytes and adipocytes and in tissue samples. Results 4 genes with higher expression in white preadipocytes (3 members of the complement system and a fatty acid desaturase) and 8 with higher expression in brown preadipocytes were identified. From the latter 3 coded for structural proteins (fibronectin, metargidin and a actinin 4), 3 for proteins involved in transcriptional regulation (necdin, vigilin and the small nuclear ribonucleoprotein polypeptide A) and 2 are of unknown function. Cluster analysis was applied to the gene expression data in order to characterise them and led to the identification of four major typical expression profiles: genes up-regulated during differentiation, genes down-regulated during differentiation, genes higher expressed in white preadipocytes and genes higher expressed in brown preadipocytes. Conclusion This study shows that white and brown preadipocytes can be distinguished by different expression levels of several genes. These results draw attention to interesting candidate genes for the determination of white and brown preadipocytes (necdin, vigilin and others) and furthermore indicate that potential importance of several functional groups in the differentiation of white and brown preadipocytes, mainly the complement system and extracellular matrix.
The length of the vegetation period (VP) plays a central role for the interannual variation of carbon fixation of terrestrial ecosystems. Observational data analysis has indicated that the length of the VP has increased in the last decades in the northern latitudes mainly due to an advancement of bud burst (BB). This phenomenon has been widely discussed in the context of Global Warming because phenology is correlated to temperatures. Analyzing the patterns of spring phenology over the last century in Southern Germany provided two main findings: - The strong advancement of spring phases especially in the decade before 1999 is not a singular event in the course of the 20th century. Similar trends were also observed in earlier decades. Distinct periods of varying trend behavior for important spring phases could be distinguished. - Marked differences in trend behavior between the early and late spring phases were detected. Early spring phases changed as regards the magnitude of their negative trends from strong negative trends between 1931 and 1948 to moderate negative trends between 1948 and 1984 and back to strong negative trends between 1984 and 1999. Late spring phases showed a different behavior. Negative trends between 1931 and 1948 are followed by marked positive trends between 1948 and 1984 and then strong negative trends between 1984 and 1999. This marked difference in trend development between early and late spring phases was also found all over Germany for the two periods 1951 to 1984 and 1984 to 1999. The dominating influence of temperature on spring phenology and its modifying effect on autumn phenology was confirmed in this thesis. However, - temperature functions determining spring phenology were not significantly correlated with a global annual CO2 signal which was taken as a proxy for a Global Warming pattern. - an index for large scale regional circulation patterns (NAO index) could only to a small part explain the observed phenological variability in spring. The observed different trend behavior of early and late spring phases is explained by the differing behavior of mean March and April temperatures. Mean March temperatures have increased on average over the 20th century accompanied by an increasing variation in the last 50 years. April temperatures, however, decreased between the end of the 1940s and the mid-1980s, followed by a marked warming after the mid-1980s. It can be concluded that the advancement of spring phenology in recent decades are part of multi-decadal fluctuations over the 20th century that vary with the species and the relevant seasonal temperatures. Because of these fluctuations a correlation with an observed Global Warming signal could not be found. On average all investigated spring phases advanced between 5 and 20 days between 1951 and 1999 for all Natural Regions in Germany. A marked difference be! tween late and early spring phases is due to the above mentioned differing behavior before and after the mid-1980s. Leaf coloring (LC) was delayed between 1951 and 1984 for all tree species. However, after 1984 LC was advanced. Length of the VP increased between 1951 and 1999 for all considered tree species by an average of ten days throughout Germany. It is predominately the change in spring phases which contributes to a change in the potentially absorbed radiation. Additionally, it is the late spring species that are relatively more favored by an advanced BB because they can additionally exploit longer days and higher temperatures per day advancement. To assess the relative change in potentially absorbed radiation among species, changes in both spring and autumn phenology have to be considered as well as where these changes are located in the year. For the detection of the marked difference between early and late spring phenology a new time series construction method was developed. This method allowed the derivation of reliable time series that spanned over 100 years and the construction of locally combined time series increasing the available data for model development. Apart from analyzed protocolling errors, microclimatic site influences, genetic variation and the observers were identified as sources of uncertainty of phenological observational data. It was concluded that 99% of all phenological observations at a certain site will vary within approximately 24 days around the parametric mean. This supports to the proposed 30-day rule to detect outliers. New phenology models that predict local BB from daily temperature time series were developed. These models were based on simple interactions between inhibitory and promotory agents that are assumed to control the developmental status of a plant. Apart from the fact that, in general, the new models fitted and predicted the observations better than classical models, the main modeling results were: - The bias of the classical models, i.e. overestimation of early observations and underestimation of late observations, could be reduced but not completely removed. - The different favored model structures for each species indicated that for the late spring phases photoperiod played a more dominant role than for early spring phases. - Chilling only plays a subordinate role for spring BB compared to temperatures directly preceding BB.
The primary focus on the present study was to identify early risk factors for infant aggression in a sample of high risk, low-income teenager mothers and their infants. Despite the amount of research on externalizing behavior, relatively little is known about its development in early childhood. Because chronically aggressive school-age children tend to be those who first display symptoms during preschool years, an examination of the early manifestations of aggressive behavior and the development of measurements for infants is needed. The present study explored a model of infant aggression development that emphasized infant aggression developing largely through the interaction of infant′s dispositional characteristics with their caregiving environment. The study addressed the following relations: (1) Maternal psychosocial functioning with reported and observed infant aggression and negative emotionality, (2) reported measurements of infant aggression and negative emotionality with observed infant measurements of infant aggression and negative emotionality, (3) infant negative emotionality and infant aggression, (4) infant emotion regulation with infant aggression and negative emotionality, (5) the interaction between emotion regulation and negative emotionality in relation to infant aggression, and (6) attachment classification with infant aggression and negative emotionality. Finally, the question of whether these six relations would differ by gender was also addressed. Maternal psychosocial functioning was assessed with self-reported measurements. Infant aggression, negative emotionality and emotion regulation were measured during two standardized assessments, the Strange Situation and the Bayley Scales of Infant Development Assessment and maternal reported with the Infant-Toddler Social and Emotional Assessment. Several interesting findings emerged. One of the main findings concerned maternal attribution and its possible role as a risk factor for later externalizing behaviors. That is, mothers, especially depressed and stressed mothers, tended to report higher levels of infant aggression and negative emotionality than was noted by more objective observers. This tendency was particularly evident in mothers with girl infants. Another important finding concerned emotion regulation. Even at this early age, clear differences in emotion regulation could be seen. Interestingly, infants with high negative emotionality and low emotion regulation were observed to be the most aggressive. Also significant relations emerged for infant negative emotionality and aggression and vise versa. Thus, for purposes of treatment and scientific study, the three constructs (emotion regulation, negative emotionality, and aggression) should be considered in combination. Investigating each alone may not prove fruitful in future examinations. Additionally, different emotion regulation behaviors were observed for girl and boy infants. Aggressive girls looked more at the environment, their toys and their mother, whereas aggressive boys looked less at the environment and their mother and explored their toys more, although looked at the toys less. Although difficult to interpret at this point, it is nonetheless interesting that gender differences exist at this young age in emotion regulatory behaviors. In conclusion, although preliminary, findings from the present study provide intriguing directions for future research. More studies need to conducted focusing on infant aggression, as well as longitudinal studies following the infants over time.
Hämoglobin-A1c (HbA1c) ist ein Hämoglobin (Hb)-Subtypus, der durch nicht-enzymatische Glykierung des N-terminalen Valinrestes der Hämoglobin-beta-Kette entsteht. Das gemessene Verhältnis von HbA1c zum Gesamt-Hämoglobin (5-20 % bei Diabetikern) repräsentiert den Mittelwert der Blutglucosekonzentration über einen zweimonatigen Zeitraum und stellt zur Beurteilung der diabetischen Stoffwechsellage eine Ergänzung zur Akutkontrolle der Glukosekonzentration dar. Ziel der vorliegenden Arbeit war es, einen amperometrischen Biosensor für die Bestimmung des medizinisch relevanten Parameters HbA1c zu entwickeln. Durch Selektion geeigneter Bioerkennungselemente und deren Immobilisierung unter Erhalt der Bindungsfunktion für die Zielmoleküle Hämoglobin bzw. HbA1c wurden spezifische, hochaffine und regenerationsstabile Sensoroberflächen geschaffen. Für die Entwicklung des HbA1c-Biosensors wurden zwei Konzepte - Enzymsensor und Immunosensor - miteinander verglichen. Die enzymatische Umsetzung von HbA1c erfolgte mit der Fructosylamin Oxidase (FAO) aus Pichia pastoris N 1-1 unter Freisetzung von H2O2, welches sowohl optisch über eine Indikatorreaktion als auch elektrochemisch nach Einschluss der FAO in PVA-SbQ und Fixierung des Immobilisats vor einer H2O2-Elektrode nachgewiesen wurde. Die Kalibration des Enzymsensors mit der HbA1c-Modellsubstanz Fructosyl-Valin ergab Nachweisgrenzen, die ausserhalb des physiologisch relevanten HbA1c-Konzentrationsbereich lagen. Aus der Umsetzung von glykierten Peptiden mit einer nicht HbA1c analogen Aminosäurensequenz, z.B. Fructosyl-Valin-Glycin wurde zudem eine geringe HbA1c-Spezifität abgeleitet. Für den Immunosensor wurden zwei heterogene Immunoassay-Formate unter Verwendung von hochaffinen und spezifischen Antikörpern in Kombination mit Glucose Oxidase (GOD) als Markerenzym zum Nachweis von HbA1c untersucht. Beim indirekt-kompetitiven Immunoassay wurde anstelle des kompletten HbA1c-Moleküls das glykierte Pentapeptid Fructosyl-Valin-Histidin-Leucin-Threonin-Prolin (glkPP) als Kompetitor und Affinitätsligand immobilisiert und so eine regenerierfähige Oberfläche geschaffen. Beim Sandwich-Immunoassay wurde im ersten Schritt Gesamt-Hämoglobin an die mit Haptoglobin (Hp) modifizierte Festphase angereichert und im zweiten Schritt der gebundene HbA1c-Anteil nachgewiesen. Für die Konstruktion des HbA1c-Immunosensors wurden Affinitätsmatrizen durch Modifizierung von Cellulose-Dialysemembranen mit glkPP bzw. Hp hergestellt. Grundlegend studiert wurde die Aktivierung der Cellulose-Membranen mit 1,1'-Carbonyldiimidazol (CDI) und 1-Cyano-4-dimethylaminopyridintetrafluoroborat (CDAP) als Aktivierungsagenzien. Eine gerichtete Immobilisierung der Liganden wurde realisiert, indem glkPP über dessen C-Terminus (einzige Carboxylatgruppe) und Hp über dessen periodat-oxidiertem Kohlenhydratrest an die amino- oder hydrazidfunktionalisierte Membranen kovalent gekoppelt wurden. Mit dem Einsatz der glkPP- und Hp-modifizierten Membranen in der elektrochemischen Messzelle war erstmalig der biosensorische Nachweis von HbA1c möglich. Als Transduktor diente eine Pt-Elektrode, an der das von der GOD generierte H2O2 umgesetzt und ein mit der HbA1c-Konzentration korrelierendes Stromsignal erzeugt wurde. Die Immunosensoren zeigten Ansprechzeiten von 3 s. Mit dem Immunosensor auf Basis des indirekt-kompetitiven Testprinzips wurde eine Kalibrationskurve für HbA1c im Bereich von 0,25-30 µg/ml (3,9-465 nM, CV 3-9 %) mit Assayzeiten von 60 min und mit dem Immunosensor im Sandwich-Format eine Kalibrationskurve im Bereich von 0,5-5 µg/ml (7,8-78 nM; 5-50 % HbA1c vom Gesamt-Hb, CV 6-10 %, 3 h) aufgenommen.
New polymers and low molecular compounds, suitable for organic light emitting devices and organic electronic applications, have been synthesised in this years in order to obtain electron transport characteristics compatible with requirements for applications in real plastic devices. However, despite of the technological importance and of the relevant progress in devices manufacture, fundamental physical properties of such class of materials are still not enough studied. In particular extensive presence of distributions of localised states inside the band gap has a deep impact on their electronic properties. Such presence of shallow traps as well as the influence of the sample preparation conditions on deep and shallow localised states have not been, until now, systematically explored. The thermal techniques are powerful tools in order to study localised levels in inorganic and organic materials. Thermally stimulated luminescence (TSL), thermally stimulated currents (TSC) and thermally stimulated depolarisation currents (TSDC) allow to deeply look to shallow and deep trap levels as well as they permit to study, in synergy with dielectric spectroscopy (DES), polarisation and depolarisation effects. We studied, by means of numerical simulations, the first and the second order kinetic equations characterised by negligible and strong re-trapping respectively. We included in the equations Gaussian, exponential and quasi-continuous distributions of localised states. The shapes of the theoretical peaks have been investigated by means of systematic variation of the two main parameters of the equations, i. e. the energy trap depth E and the frequency factor a and of the parameters regulating the distributions, in particular for a Gaussian distribution the distribution width s and the integration limits. The theoretical findings have been applied to experimental glow curves. Thin films of polymers and low molecular compounds. Polyphenylquinoxalines, trisphenylquinoxalines and oxadiazoles, studied because of their technological relevance, show complex thermograms, having several levels of localised states and depolarisation peaks. In particular well ordered films of an amphiphilic substituted 2-(p-nitrophenyl)-5-(p-undecylamidophenyl)-1,3,4-oxadiazole (NADPO) are characterised by rich TSL thermograms. A wide region of shallow traps, localised at Em = 4 meV, has been successfully fit by means of a first order kinetic equation having a Gaussian distribution of localised states. Two further peaks, having a different origin, have been characterised. The peaks at Tm = 221.5 K and Tm = 254.2 have activation energy of Em= 0.63 eV and Em = 0.66 eV, frequency factor s = 2.4x1012 s-1 and s = 1.85x1011 s-1, distribution width s = 0.045 eV and s = 0.088 eV respectively. Increasing the number of thermal cycle, a peak, probably connected with structural defects, appears at Tm = 197.7 K. The numerical analysis of this peak was performed by means of a first order equation containing a Gaussian distribution of traps. The activation energy of the trap level is centred at Em = 0.55 eV. The distribution is perfectly symmetric with a quite small width s = 0.028 eV. The frequency factor is s = 1.15 x 1012 s-1, resulting of the same order of magnitude of its neighbour peak at Tm = 221.5 K, having both, probably, the same origin. Furthermore the work demonstrates that the shape of the glow curves is strongly influenced by the excitation temperature and by the thermal cycles. For that reason Gaussian distributions of localised states can be confused with exponential distributions if the previous thermal history of the samples is not adequately considered.
Im Rahmen dieser Arbeit gelang es, katalytische Antikörper zur Hydrolyse von Benzylphenylcarbamaten sowie zahlreiche monoklonale Antikörper gegen Haptene herzustellen. Es wurden verschiedene Hapten-Protein-Konjugate unter Verwendung unterschiedlicher Kopplungsmethoden hergestellt und charakterisiert. Zur Generierung der hydrolytisch aktiven Antikörper wurden Inzuchtmäuse mit KLH-Konjugaten von 4 Übergangszustandsanaloga (ÜZA) immunisiert. Mit Hilfe der Hybridomtechnik wurden verschiedene monoklonale Antikörper gegen diese ÜZA gewonnen. Dabei wurden sowohl verschiedene Immunisierungsschemata als auch verschiedene Inzuchtmausstämme und Fusionstechniken verwendet. Insgesamt wurden 32 monoklonale Antikörper gegen die verwendeten ÜZA selektiert. Diese Antikörper wurden in großen Mengen hergestellt und gereinigt. Zum Nachweis der Antikörper-vermittelten Katalyse wurden verschiedene Methoden entwickelt und eingesetzt, darunter immunologische Nachweismethoden mit Anti-Substrat- und Anti-Produkt-Antikörpern und eine photometrische Methode mit Dimethylaminozimtaldehyd. Der Nachweis der hydrolytischen Aktivität gelang mit Hilfe eines Enzymsensors, basierend auf immobilisierter Tyrosinase. Die Antikörper N1-BC1-D11, N1-FA7-C4, N1-FA7-D12 und R3-LG2-F9 hydrolysierten die Benzylphenylcarbamate POCc18, POCc19 und Substanz 27. Der Nachweis der hydrolytischen Aktivität dieser Antikörper gelang auch mit Hilfe der HPLC. Der katalytische Antikörper N1-BC1-D11 wurde kinetisch und thermodynamisch untersucht. Es wurde eine Michaelis-Menten-Kinetik mit Km von 210 µM, vmax von 3 mM/min und kcat von 222 min-1 beobachtet. Diese Werte korrelieren mit den Werten der wenigen bekannten Diphenylcarbamat-spaltenden Abzyme. Die Beschleunigungsrate des Antikörpers N1-BC1-D11 betrug 10. Das ÜZA Hei3 hemmte die hydrolytische Aktivität. Dies beweist, dass die Hydrolyse in der Antigenbindungsstelle stattfindet. Weiter wurde zwischen der Antikörperkonzentration und der Umsatzgeschwindigkeit eine lineare Abhängigkeit festgestellt. Die thermodynamische Gleichtgewichtsdissoziationskonstante KD des Abzyms von 2,6 nM zeugt von einer sehr guten Affinität zum ÜZA. Hydrolytisch aktiv waren nur Antikörper, die gegen das Übergangszustandsanalogon Hei3 hergestellt worden waren. Es wird vermutet, dass die Hydrolyse der Benzylphenylcarbamate über einen Additions-Eliminierungsmechanismus unter Ausbildung eines tetraedrischen Übergangszustandes verläuft, dessen analoge Verbindung Hei3 ist. Im Rahmen der Generierung von Nachweisantikörpern zur Detektion der Substratabnahme bei der Hydrolyse wurden Anti-Diuron-Antikörper hergestellt. Einer der Antikörper (B91-CG5) ist spezifisch für das Herbizid Diuron und hat einen IC50-Wert von 0,19 µg/l und eine untere Nachweisgrenze von 0,04 µg/l. Ein anderer Antikörper (B91-KF5) reagiert kreuz mit einer Palette ähnlicher Herbizide. Mit diesen Antikörpern wurde ein empfindlicher Labortest, der ein Monitoring von Diuron auf Grundlage des durch die Trinkwasserverordnung festgeschriebenen Wertes für Pflanzenschutzmittel von 0,1 µg/l erlaubt, aufgebaut. Der Effekt der Anti-Diuron-Antikörper auf die Diuron-inhibierte Photosynthese wurde in vitro und in vivo untersucht. Es wurde nachgewiesen, dass sowohl in isolierten Thylakoiden, als auch in intakten Algen eine Vorinkubation der Anti-Diuron-Antikörper mit Diuron zur Inaktivierung seiner Photosynthese-hemmenden Wirkung führt. Wurde der Elektronentransport in den isolierten Thylakoiden oder in Algen durch Diuron unterbrochen, so führte die Zugabe der Anti-Diuron-Antikörper zur Reaktivierung der Elektronenübertragung.
Jets are highly collimated flows of matter. They are present in a large variety of astrophysical sources: young stars, stellar mass black holes (microquasars), galaxies with an active nucleus (AGN) and presumably also intense flashes of gamma-rays. In particular, the jets of microquasars, powered by accretion disks, are probably small-scale versions of the outflows from AGN. Beside observations of astrophysical jet sources, also theoretical considerations have shown that magnetic fields play an important role in jet formation, acceleration and collimation. Collimated jets seem to be systematically associated with the presence of an accretion disk around a star or a collapsed object. If the central object is a black hole, the surrounding accretion disk is the only possible location for a magnetic field generation. We are interested in the formation process of highly relativistic jets as observed from microquasars and AGN. We theoretically investigate the jet collimation region, whose physical dimensions are extremely tiny even compared to radio telescopes spatial resolution. Thus, for most of the jet sources, global theoretical models are, at the moment, the only possibility to gain information about the physical processes in the innermost jet region. For the first time, we determine the global two-dimensional field structure of stationary, axisymmetric, relativistic, strongly magnetized (force-free) jets collimating into an asymptotically cylindrical jet (taken as boundary condition) and anchored into a differentially rotating accretion disk. This approach allows for a direct connection between the accretion disk and the asymptotic collimated jet. Therefore, assuming that the foot points of the field lines are rotating with Keplerian speed, we are able to achieve a direct scaling of the jet magnetosphere in terms of the size of the central object. We find a close compatibility between the results of our model and radio observations of the M87 galaxy innermost jet. We also calculate the X-ray emission in the energy range 0.2--10.1\,keV from a microquasar relativistic jet close to its source of 5 solar masses. In order to do it, we apply the jet flow parameters (densities, velocities, temperatures of each volume element along the collimating jet) derived in the literature from the relativistic magnetohydrodynamic equations. We obtain theoretical thermal X-ray spectra of the innermost jet as composition of the spectral contributions of the single volume elements along the jet. Since relativistic effects as Doppler shift and Doppler boosting due to the motion of jets toward us might be important, we investigate how the spectra are affected by them considering different inclinations of the line of sight to the jet axis. Emission lines of highly ionized iron are clearly visible in our spectra, probably also observed in the Galactic microquasars GRS 1915+105 and XTE J1748-288. The Doppler shift of the emission lines is always evident. Due to the chosen geometry of the magnetohydrodynamic jet, the inner X-ray emitting part is not yet collimated. Ergo, depending on the viewing angle, the Doppler boosting does not play a major role in the total spectra. This is the first time that X-ray spectra have been calculated from the numerical solution of a magnetohydrodynamic jet.
Am Beispiel der Wiederkäuer wurde unter Zuhilfenahme von biochemischen und molekularbiologischen Methoden die Adaptation von Pflanzenfressern (Herbivoren) an pflanzliche Sekundärmetabolite wie z.B. Tannine untersucht. Tannine können in nicht an ihren Verzehr adaptierten Spezies durch ihr Proteinbindungsvermögen die Nahrungsverwertung und damit Wachstum und Gesundheit des Pflanzenfressers beeinträchtigen (antinutritive Wirkung). Einige Wiederkäuerarten wie z.B. das Reh (Capreolus capreolus) haben in ihrem Nahrungsspektrum viele stark tanninhaltige Pflanzen, leiden aber nicht unter den erwähnten postdigestiven Konsequenzen. Eine Möglichkeit, die antinutritive Wirkung von Tanninen zu neutralisieren, besteht in der Produktion tanninbindender Speichelproteine. Der Speichel verschiedener Wiederkäuerarten wurde auf das Vorhandensein tanninbindender Proteine untersucht. Diese Arten wurden so ausgewählt, dass alle drei Ernährungstypen (Konzentratselektierer, Intermediärtyp, Gras- und Rauhfutterfresser) in den Vergleich eingeschlossen werden konnten. Als Referenzspezies wurde der Konzentratselektierer Reh herangezogen. Die Speichelproteine des Rehs und die der Intermediärtypen (Rentier, Rangifer tarandus; Damhirsch, Cervus dama; Moschusochse, Ovibos moschatus) banden ungefähr doppelt so effektiv an hydrolysierbare Tannine (Tanninsäure), wie die der untersuchten Gras- und Rauhfutterfresser (Rind, Bos taurus; und Mufflon, Ovis orientalis musimon). Diese Abstufung zeigte sich auch bei der Untersuchung der Bindung an kondensierte Tannine (Quebracho). Eine Ausnahme stellte Mufflonspeichel dar, dieser band ebenso gut an Quebracho wie die Speichelproteine der anderen Ernährungstypen. Über eine Aminosäuretotalanalyse konnte festgestellt werden, dass der Speichel einiger untersuchter Wiederkäuerarten prolinreiche Proteine (PRPs) enthielt. Unter Ausnutzung ihrer Trichloressigsäure (TCA)-Löslichkeit wurden diese angereichert und genauer untersucht. Die Analyse der TCA-löslichen Speichelproteine der Konzentratselektierer (Reh, Elch) ergab einen relativen Prolingehalt von über 35 %, während beim Moschusochsen noch 29 % gemessen wurden. In Damhirsch- und Rinderspeichel wurden keine prolinreichen Proteine gefunden. Für die TCA-löslichen Speichelproteine des Rehs konnte eine hohe Tanninbindungskapazität nachgewiesen werden. Diese banden 24 - 30 x effektiver an Tannine als die TCA-löslichen Speichelproteine des Rindes. Die Tanninbindungskapazitäten der TCA-löslichen Speichelproteine von Moschusochse und Damhirsch waren ebenfalls höher als die des Rindes, aber niedriger als die des Rehs. Die Kohlenhydrat-Analyse der TCA-löslichen Speichelproteine des Rehs erbrachte, dass es sich bei ihnen um Glykoproteine handelt. Mittels Gelfiltration und zweidimensionaler Polyacrylamidgelektrophorese konnten fünf Proteingruppen mit Molekulargewichten zwischen 15 und 50 kd sowie isoelektrischen Punkten zwischen 4,0 und 8,2 detektiert werden. Von 15 dieser Proteine konnten die N-terminalen Aminosäuresequenzen ermittelt werden. Ausgehend von diesen Informationen wurden Reh-PRP spezifische mRNAs isoliert und partiell sequenziert. Die meisten dieser Fragmente hatten eine gemeinsame 18 Aminosäuren lange C-terminale Sequenz PPPEEQPEE/QSPDEE/DSPSE. Die Suche nach Übereinstimmungen der analysierten Sequenzen mit anderen Säugetier-PRPs in der Genbank ergab keine sinnvollen Ähnlichkeiten. Die Ergebnisse können zu Informationen über tanninbindende Proteine anderer Wiederkäuer führen. Die Sequenzinformationen stellen einen Ausgangspunkt bei der Analyse der evolutiven Zusammenhänge der Cerviden dar.
Nonlinear multistable systems under the influence of noise exhibit a plethora of interesting dynamical properties. A medium noise level causes hopping between the metastable states. This attractorhopping process is characterized through laminar motion in the vicinity of the attractors and erratic motion taking place on chaotic saddles, which are embedded in the fractal basin boundary. This leads to noise-induced chaos. The investigation of the dissipative standard map showed the phenomenon of preference of attractors through the noise. It means, that some attractors get a larger probability of occurrence than in the noisefree system. For a certain noise level this prefernce achieves a maximum. Other attractors are occur less often. For sufficiently high noise they are completely extinguished. The complexity of the hopping process is examined for a model of two coupled logistic maps employing symbolic dynamics. With the variation of a parameter the topological entropy, which is used together with the Shannon entropy as a measure of complexity, rises sharply at a certain value. This increase is explained by a novel saddle merging bifurcation, which is mediated by a snapback repellor. Scaling laws of the average time spend on one of the formerly disconnected parts and of the fractal dimension of the connected saddle describe this bifurcation in more detail. If a chaotic saddle is embedded in the open neighborhood of the basin of attraction of a metastable state, the required escape energy is lowered. This enhancement of noise-induced escape is demonstrated for the Ikeda map, which models a laser system with time-delayed feedback. The result is gained using the theory of quasipotentials. This effect, as well as the two scaling laws for the saddle merging bifurcation, are of experimental relevance.
Im ersten Teil der Arbeit wurden Strategien zur Analyse von Transkripten erarbeitet. Die ersten Versuche zielten darauf ab, in mit Glaskapillaren genommenen Einzelzellproben verschiedener Gewebeschichten RT-PCR durchzuführen, um spezifische Transkripte nachweisen zu können. Dies gelang für eine Reihe von Genen aus verschiedenen Pflanzenspezies. Dabei konnten sowohl Transkripte stark wie auch schwach exprimierter Gene nachgewiesen werden. Für die Erstellung von Gewebe-spezifischen Expressionsprofilen war es notwendig, die in vereinigten Zellproben enthaltene mRNA zunächst zu amplifizieren, um eine ausreichende Menge für Arrayhybridisierungen zu erhalten. Vor der Vermehrung wurde die mRNA revers transkribiert. Es wurden daran anschließend verschiedene Amplifikationsstrategien getestet: Die neben Tailing, Adapterligation und anderen PCR-basierenden Protokollen getestete Arbitrary-PCR hat sich in dieser Arbeit als einfache und einzige Methode herausgestellt, die mit so geringen cDNA-Mengen reproduzierbar arbeitet. Durch Gewebe-spezifische Array-hybridisierungen mit der so amplifizierten RNA konnten schon bekannte Expressionsmuster verschiedener Gene, vornehmlich solcher, die an der Photosynthese beteiligt sind, beobachtet werden. Es wurden aber auch eine ganze Reihe neuer offensichtlich Gewebe-spezifisch exprimierter Gene gefunden. Exemplarisch für die differentiell exprimierten Gene konnte das durch Arrayhybridisierungen gefundene Expressionsmuster der kleinen Untereinheit von Rubisco verifiziert werden. Hierzu wurden Methoden zum Gewebe-spezifischen Northernblot sowie semiquantitativer und Echtzeit-Einzelzell-RT-PCR entwickelt. Im zweiten Teil der Arbeit wurden Methoden zur Analyse von Metaboliten einschließlich anorganischer Ionen verwendet. Es stellte sich heraus, daß die multiparallele Methode der Gaschromatographie-Massenspektrometrie keine geeignete Methode für die Analyse selbst vieler vereinigter Zellinhalte ist. Daher wurde auf Kapillarelektrophorese zurückgegriffen. Eine Methode, die mit sehr kleinen Probenvolumina auskommt, eine hohe Trennung erzielt und zudem extrem geringe Detektionslimits besitzt. Die Analyse von Kohlenhydraten und Anionen erfordert eine weitere Optimierung. Über UV-Detektion konnte die K+-Konzentration in verschiedenen Geweben von A. thaliana bestimmt werden. Sie lag in Epidermis und Mesophyll mit ca. 25 mM unterhalb der für andere Pflanzenspezies (Solanum tuberosum und Hordeum vulgare) publizierten Konzentration. Weiter konnte gezeigt werden, daß zwölf freie Aminosäuren mittels einer auf Kapillarelektrophorese basierenden Methode in vereinigten Zellproben von Cucurbita maxima identifiziert werden konnten. Die Übertragung der Methode auf A. thaliana-Proben muß jedoch weiter optimiert werden, da die Sensitivität selbst bei Laser induzierter Fluoreszenz-Detektion nicht ausreichte. Im dritten und letzten Teil der Arbeit wurde eine Methode entwickelt, die die Analyse bekannter wie unbekannter Proteine in Gewebe-spezifischen Proben ermöglicht. Hierzu wurde zur Probennahme mittels mechanischer Mikrodissektion eine alternative Methode zur Laser Capture Microdissection verwendet, um aus eingebetteten Gewebeschnitten distinkte Bereiche herauszuschneiden und somit homogenes Gewebe anzureichern. Aus diesem konnten die Proteine extrahiert und über Polyacrylamidgelelektrophorese separariert werden. Banden konnten ausgeschnitten, tryptisch verdaut und massenspektrometrisch die Primärsequenz der Peptidfragmente bestimmt werden. So konnten als Hauptproteine im Mesophyll die große Untereinheit von Rubisco sowie ein Chlorophyll bindendes Protein gefunden werden. Die in dieser Arbeit entwickelten und auf die Modellpflanze Arabidopsis thaliana angewandten Einzelzellanalysetechniken erlauben es in Zukunft, physiologische Prozesse besser sowohl räumlich als auch zeitlich aufzulösen. Dies wird zu einem detaillierteren Verständnis mannigfaltiger Vorgänge wie Zell-Zell-Kommunikation, Signalweiterleitung oder Pflanzen-Pathogen-Interaktionen führen.
In this work we consider statistical learning problems. A learning machine aims to extract information from a set of training examples such that it is able to predict the associated label on unseen examples. We consider the case where the resulting classification or regression rule is a combination of simple rules - also called base hypotheses. The so-called boosting algorithms iteratively find a weighted linear combination of base hypotheses that predict well on unseen data. We address the following issues: o The statistical learning theory framework for analyzing boosting methods. We study learning theoretic guarantees on the prediction performance on unseen examples. Recently, large margin classification techniques emerged as a practical result of the theory of generalization, in particular Boosting and Support Vector Machines. A large margin implies a good generalization performance. Hence, we analyze how large the margins in boosting are and find an improved algorithm that is able to generate the maximum margin solution. o How can boosting methods be related to mathematical optimization techniques? To analyze the properties of the resulting classification or regression rule, it is of high importance to understand whether and under which conditions boosting converges. We show that boosting can be used to solve large scale constrained optimization problems, whose solutions are well characterizable. To show this, we relate boosting methods to methods known from mathematical optimization, and derive convergence guarantees for a quite general family of boosting algorithms. o How to make Boosting noise robust? One of the problems of current boosting techniques is that they are sensitive to noise in the training sample. In order to make boosting robust, we transfer the soft margin idea from support vector learning to boosting. We develop theoretically motivated regularized algorithms that exhibit a high noise robustness. o How to adapt boosting to regression problems? Boosting methods are originally designed for classification problems. To extend the boosting idea to regression problems, we use the previous convergence results and relations to semi-infinite programming to design boosting-like algorithms for regression problems. We show that these leveraging algorithms have desirable theoretical and practical properties. o Can boosting techniques be useful in practice? The presented theoretical results are guided by simulation results either to illustrate properties of the proposed algorithms or to show that they work well in practice. We report on successful applications in a non-intrusive power monitoring system, chaotic time series analysis and a drug discovery process. --- Anmerkung: Der Autor ist Träger des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2001/2002.
Populärwissenschaftlicher Abstract: Bislang gibt es in der beobachtenden optischen Astronomie zwei verschiedene Herangehensweisen: Einerseits werden Objekte durch Kameras abbildend erfaßt, andererseits werden durch die wellenlängenabhängige Zerlegung ihres Lichtes Spektren gewonnen. Das Integral - Field - Verfahren ist eine relativ neue Technik, welche die genannten Beobachtungsmethoden vereint. Das Objektbild im Teleskopfokus wird in räumlich zerlegt und jedes Ortselement einem gemeinsamen Spektrografen zugeführt. Hierdurch wird das Objekt nicht nur zweidimensional räumlich erfaßt, sondern zusätzlich die spektrale Kompenente als dritte Dimension erhalten, weswegen das Verfahren auch als 3D-Methode bezeichnet wird. Anschaulich kann man sich das Datenresultat als eine Abbildung vorstellen, in der jeder einzelne Bildpunkt nicht mehr nur einen Intensitätswert enthält, sondern gleich ein ganzes Spektrum. Diese Technik ermöglicht es, ausgedehnte Objekte im Unterschied zu gängigen Spaltspektrografen komplett zu erfassen. Die besondere Stärke der Methode ist die Möglichkeit, die Hintergrundkontamination der unmittelbaren Umgebung des Objektes zu erfassen und in der Auswertung zu berücksichtigen. Durch diese Fähigkeit erscheint die 3D-Methode prädestiniert für den durch moderne Großteleskope erschlossenen Bereich der extragalaktischen Stellarastronomie. Die detaillierte Untersuchung aufgelöster stellare Populationen in nahegelegenen Galaxien ist erst seit kurzer Zeit dank der Fortschritte mit modernen Grossteleskopen und fortschrittlicher Instrumentierung möglich geworden. Wegen der Bedeutung für die Entstehung und Evolution von Galaxien werden diese Arbeiten zukünftig weiter an Bedeutung gewinnen. In der vorliegenden Arbeit wurde die Integral-Field-Spektroskopie an zwei planetarischen Nebeln in der nächstgelegenen großen Spiralgalaxie M31 (NGC 224) getestet, deren Helligkeiten und Koordinaten aus einer Durchmusterung vorlagen. Hierzu wurden Beobachtungen mit dem MPFS-Instrument am russischen 6m - Teleskop in Selentschuk/Kaukasus sowie mit INTEGRAL/WYFFOS am englischen William-Herschel-Teleskop auf La Palma gewonnen. Ein überraschendes Ergebnis war, daß eins der beiden Objekte falsch klassifiziert wurde. Sowohl die meßbare räumliche Ausdehnung des Objektes als auch das spektrale Erscheinungsbild schlossen die Identität mit einem planetarischen Nebel aus. Mit hoher Wahrscheinlichkeit handelt es sich um einen Supernovaüberrest, zumal im Rahmen der Fehler an gleicher Stelle eine vom Röntgensatelliten ROSAT detektierte Röntgenquelle liegt. Die in diesem Projekt verwendeten Integral-Field-Instrumente wiesen zwei verschiedene Bauweisen auf, die sich miteinander vergleichen ließen. Ein Hauptkritikpunkt der verwendeten Instrumente war ihre geringe Lichtausbeute. Die gesammelten Erfahrung fanden Eingang in das Konzept des derzeit in Potsdam in der Fertigung befindlichen 3D-Instruments PMAS (Potsdamer Multi - Apertur - Spektrophotometer), welcher zunächst für das 3.5m-Teleskop des Calar - Alto - Observatoriums in Südspanien vorgesehen ist. Um die Effizienz dieses Instrumentes zu verbessern, wurde in dieser Arbeit die Kopplung der zum Bildrasterung verwendeten Optik zu den Lichtleitfasern im Labor untersucht. Die Untersuchungen zur Maximierung von Lichtausbeute und Stabilität zeigen, daß sich die Effizienz durch Auswahl einer geeigneten Koppelmethode um etwa 20 Prozent steigern lässt.
Subject of this work is the investigation of generic synchronization phenomena in interacting complex systems. These phenomena are observed, among all, in coupled deterministic chaotic systems. At very weak interactions between individual systems a transition to a weakly coherent behavior of the systems can take place. In coupled continuous time chaotic systems this transition manifests itself with the effect of phase synchronization, in coupled chaotic discrete time systems with the effect of non-vanishing macroscopic mean field. Transition to coherence in a chain of locally coupled oscillators described with phase equations is investigated with respect to the symmetries in the system. It is shown that the reversibility of the system caused by these symmetries results to non-trivial topological properties of trajectories so that the system constructed to be dissipative reveals in a whole parameter range quasi-Hamiltonian features, i.e. the phase volume is conserved on average and Lyapunov exponents come in symmetric pairs. Transition to coherence in an ensemble of globally coupled chaotic maps is described with the loss of stability of the disordered state. The method is to break the self-consistensy of the macroscopic field and to characterize the ensemble in analogy to an amplifier circuit with feedback with a complex linear transfer function. This theory is then generalized for several cases of theoretic interest.
Mercaptursäure und Nukleosidaddukt im Harn als Biomarker in 1-Hydroxymethylpyren-exponierten Ratten
(2002)
1-Methylpyren (MP) ist hepatokanzerogen in neugeborenen männlichen Mäusen. Durch Hydroxylierung an der benzylischen Stelle und anschließende Sulfonierung wird MP zu DNA-reaktivem 1-Sulfooxymethylpyren (SMP) aktiviert. In der Ratte führt die Exposition des benzylischen Alkohols, 1-Hydroxymethylpyren (HMP), zur DNA-Adduktbildung in verschiedenen Geweben. Eventuelle Konsequenz der Toxifizierung ist die Ausscheidung entsprechender Mercaptursäure und Nukleosidaddukt im Harn, welche aufgrund ihrer Herkunft als Biomarker eignen könnten. In dieser Arbeit wird die Ausscheidung der Mercaptursäure und des N2-Desoxyguanosinadduktes in HMP-exponierten Ratten untersucht. Nach der Applikation von HMP bzw. MP wurden weniger als 1 % der Dosis als MPMA über Urin und Faeces ausgeschieden (0 - 48 h). Die Ausscheidung erfolgt hauptsächlich in den ersten 24 h nach der Applikation. MPdG konnte weder in Urin noch in Faeces der HMP-behandelten Tieren identifiziert werden. Nach direkter SMP-Applikation wurde MPdG nur in sehr geringe Menge (weniger als 0,9 ppm in 12 h) im Urin gefunden. Aufgrund der geringen Menge eignet sich MPdG nicht als Biomarker. MPMA dagegen, lässt sich analytisch gut erfassen. Es sollte daher untersucht werden, ob MPMA die Toxifizierung des HMP wiederspiegelt. Die Voraussetzung dafür ist die Kenntnisse über das Metabolismusmuster von HMP. Es wurde daher umfassende Untersuchungen zum Metabolismus des HMP durchgeführt. Die Ergebnisse zeigten, dass mehr als 80 % der Metaboiten in ihrer oxidierten Form (PCS, deren Glucuronsäure-Konjugate sowie phenolische Sulfatester der PCS) ausgeschieden wurden. Demnach spielt die Oxidation des HMP zu PCS eine sehr wichtige Rolle bei der Detoxifizierung und Ausscheidung von HMP. Ferne konnte nachgewiesen werden, dass die Enzyme Alkohol- und Aldehyd-Dehydrogenase an der Oxidation von HMP beteiligt waren. Die Inhibitoren Disulfiram und Ethanol der o. g. Enzyme wurde daher zur Modulation der Detoxifizierung in vivo eingesetzt. Die Veränderungen in der Toxifizierung von HMP zu SMP wurden durch die SMP-Konzentration im Plasma, die DNA-Addukthäufigkeit und die MPMA-Ausscheidung erfasst. Die Vorbehandlung von Disulfiram und Ethanol führte zu tendentielle Erhöhung der SMP-Konzentration im Plasma, DNA-Addukthäufigkeit in der Leber und die MPMA-Ausscheidung. Bemerkenswert ist jedoch, dass bereits eine Dosis von 0,2 g Ethanol/kg Körpermasse bereits zu statistisch signifikanten Erhöhungen der MPMA-Ausscheidung bei weiblichen Ratten.
In der randomisierten, multizentrischen DASH-Studie (Dietary Approaches to Stop Hy-pertension), die unter kontrollierten Bedingungen stattfand, führte eine fettreduzierte Mischkost, reich an Obst, Gemüse und Milchprodukten, bei Borderline-Hypertonikern zu einer signifikanten Blutdrucksenkung. Während der Studienphase wurden Körpermasse, Natrium-Aufnahme sowie Alkoholzufuhr aufgrund der bekannten Einflussnahme auf den Blutdruck konstant gehalten. In der eigenen Pilot-Studie sollte untersucht werden, ob das Ergebnis der DASH-Studie (i) mit deutschen Hypertonikern und (ii) unter habituellen Ernährungs- und Lebensbedingungen mit regelmäßig durchgeführter Ernährungsberatung und ad libitum Verzehr anstelle des streng kontrollierten Studienansatzes bestätigt werden kann. Eine Konstanz der Körpermasse, der Natrium-Urinausscheidung (unter diesem Studienansatz valider als die Aufnahme) und des Alkoholkonsums wurde vorausgesetzt. Die Studienpopulation setzte sich aus 53 übergewichtigen Probanden mit einer nicht medikamentös therapierten Borderline-Hypertonie und ohne Stoffwechselerkrankungen zusammen. Die Studienteilnehmer wurden randomisiert entweder der Idealgruppe mit einer fettarmen Kost reich an Milchprodukten, Obst und Gemüse (ähnlich der DASH-Idealgruppe) oder der Kontrollgruppe mit habitueller Ernährungsweise zugeteilt. Über einen Zeitraum von fünf Wochen wurde den Probanden etwa 50% ihres täglichen Lebensmittelbedarfes entsprechend ihrer Gruppenzugehörigkeit kostenfrei zur Verfügung gestellt. Gelegenheitsblutdruckmessungen und 24h-Blutdruckmessungen, Ernährungs- und Aktivitätsprotokolle, Blut- und Urinproben sowie anthropometrische Messungen wurden vor, während und fünf Wochen nach der Interventionsphase durchgeführt. Die Ergebnisse zeigen, dass in der Idealgruppe keine signifikante Blutdrucksenkung beobachtet werden konnte. Dies lässt sich durch die Tatsache erklären, dass die Lebens-mittel- und Nährstoffaufnahme der deutschen Kontrollgruppe eher der amerikanischen Idealgruppe entsprach. In der Pilot-Studie waren die Unterschiede in der Nährstoffzufuhr zwischen den beiden Gruppen viel geringer als in der DASH-Studie; für eine blutdrucksenkende Ernährungsumstellung bestand somit nur ein geringer Spielraum. Eine weitere Erklärung besteht in der unterschiedlichen Zusammensetzung der Studienpopulation. Bei DASH wurden vorwiegend farbige Probanden (40% höhere Hypertonieprävalenz) untersucht. Die Studienergebnisse lassen also den Schluss zu, dass Ernährungs- und Lebensstilgewohnheiten sowie der genetische Hintergrund der entsprechenden Bevölkerungsgruppe bei der Formulierung von nährstoff- oder lebensmittelbezogenen Empfehlungen zur Senkung des Bluthochdruckes Berücksichtigung finden müssen.
Einfache Decarbonylierungen und stereoselektive Oxidationen von Cyclohexadienen und Cyclohexenen
(2001)
Zusammenfassend konnte im Rahmen dieser Arbeit das Synthesepotential von Cyclohexadienen und Cyclohexenen deutlich erweitert werden. Die Darstellung der 1-Alkylcyclohexa-2,5-dien-1-carbonsäuren erfolgte mittels Birch-Reduktion in flüssigem Ammoniak und anschließender Umsetzung der intermediär entstehenden Dianionen mit Alkylhalogeniden. So konnte ausgehend von verschiedenen Benzoesäurederivaten eine Reihe interessanter Cyclohexadiene in sehr guten Ausbeuten synthetisiert werden. Erstmals gelangen säurekatalysierte Decarbonylierungen von Cyclohexadiencarbonsäuren, was die einfache Synthese substituierter Aromaten in ausgezeichneten Ausbeuten ermöglichte. In dieser Arbeit wird der Reaktionsmechanismus vorgestellt, welcher durch den Nachweis von Kohlenmonoxid in der Gasphase der Reaktionslösung durch IR-Spektroskopie untermauert wird. Bei der säurekatalysierten Umsetzung von 3-alkylsubstituierten Cyclohexadien-carbonsäuren entstanden neben den erwarteten Aromaten Lactone in ca. 50% Ausbeute. Schließlich zeigen die untersuchten Singulettsauerstoff-En-Reaktionen, der im ersten Teil dargestellten Cyclohexadiene und Lactone, durchweg hohe Regioselektivitäten und lieferten durch elektrostatische Wechselwirkungen und konformative Effekte zum Teil sehr gute Diastereoselektivitäten. Die auxiliarkontrollierte Photooxygenierungen von Cyclohexenon welches mit verschiedenen Weinsäureestern ketalisiert wurde, zeigten jedoch keine bevorzugte p-Facialität des Singulettsauerstoffs.
Subject of this work is the investigation of universal scaling laws which are observed in coupled chaotic systems. Progress is made by replacing the chaotic fluctuations in the perturbation dynamics by stochastic processes. First, a continuous-time stochastic model for weakly coupled chaotic systems is introduced to study the scaling of the Lyapunov exponents with the coupling strength (coupling sensitivity of chaos). By means of the the Fokker-Planck equation scaling relations are derived, which are confirmed by results of numerical simulations. Next, the new effect of avoided crossing of Lyapunov exponents of weakly coupled disordered chaotic systems is described, which is qualitatively similar to the energy level repulsion in quantum systems. Using the scaling relations obtained for the coupling sensitivity of chaos, an asymptotic expression for the distribution function of small spacings between Lyapunov exponents is derived and compared with results of numerical simulations. Finally, the synchronization transition in strongly coupled spatially extended chaotic systems is shown to resemble a continuous phase transition, with the coupling strength and the synchronization error as control and order parameter, respectively. Using results of numerical simulations and theoretical considerations in terms of a multiplicative noise partial differential equation, the universality classes of the observed two types of transition are determined (Kardar-Parisi-Zhang equation with saturating term, directed percolation).
Merapi volcano is one of the most active and dangerous volcanoes of the earth. Located in central part of Java island (Indonesia), even a moderate eruption of Merapi poses a high risk to the highly populated area. Due to the close relationship between the volcanic unrest and the occurrence of seismic events at Mt. Merapi, the monitoring of Merapi's seismicity plays an important role for recognizing major changes in the volcanic activity. An automatic seismic event detection and classification system, which is capable to characterize the actual seismic activity in near real-time, is an important tool which allows the scientists in charge to take immediate decisions during a volcanic crisis. In order to accomplish the task of detecting and classifying volcano-seismic signals automatically in the continuous data streams, a pattern recognition approach has been used. It is based on the method of hidden Markov models (HMM), a technique, which has proven to provide high recognition rates at high confidence levels in classification tasks of similar complexity (e.g. speech recognition). Any pattern recognition system relies on the appropriate representation of the input data in order to allow a reasonable class-decision by means of a mathematical test function. Based on the experiences from seismological observatory practice, a parametrization scheme of the seismic waveform data is derived using robust seismological analysis techniques. The wavefield parameters are summarized into a real-valued feature vector per time step. The time series of this feature vector build the basis for the HMM-based classification system. In order to make use of discrete hidden Markov (DHMM) techniques, the feature vectors are further processed by applying a de-correlating and prewhitening transformation and additional vector quantization. The seismic wavefield is finally represented as a discrete symbol sequence with a finite alphabet. This sequence is subject to a maximum likelihood test against the discrete hidden Markov models, learned from a representative set of training sequences for each seismic event type of interest. A time period from July, 1st to July, 5th, 1998 of rapidly increasing seismic activity prior to the eruptive cycle between July, 10th and July, 19th, 1998 at Merapi volcano is selected for evaluating the performance of this classification approach. Three distinct types of seismic events according to the established classification scheme of the Volcanological Survey of Indonesia (VSI) have been observed during this time period. Shallow volcano-tectonic events VTB (h < 2.5 km), very shallow dome-growth related seismic events MP (h < 1 km) and seismic signals connected to rockfall activity originating from the active lava dome, termed Guguran. The special configuration of the digital seismic station network at Merapi volcano, a combination of small-aperture array deployments surrounding Merapi's summit region, allows the use of array methods to parametrize the continuously recorded seismic wavefield. The individual signal parameters are analyzed to determine their relevance for the discrimination of seismic event classes. For each of the three observed event types a set of DHMMs has been trained using a selected set of seismic events with varying signal to noise ratios and signal durations. Additionally, two sets of discrete hidden Markov models have been derived for the seismic noise, incorporating the fact, that the wavefield properties of the ambient vibrations differ considerably during working hours and night time. A total recognition accuracy of 67% is obtained. The mean false alarm (FA) rate can be given by 41 FA/class/day. However, variations in the recognition capabilities for the individual seismic event classes are significant. Shallow volcano-tectonic signals (VTB) show very distinct wavefield properties and (at least in the selected time period) a stable time pattern of wavefield attributes. The DHMM-based classification performs therefore best for VTB-type events, with almost 89% recognition accuracy and 2 FA/day. Seismic signals of the MP- and Guguran-classes are more difficult to detect and classify. Around 64% of MP-events and 74% of Guguran signals are recognized correctly. The average false alarm rate for MP-events is 87 FA/day, whereas for Guguran signals 33 FA/day are obtained. However, the majority of missed events and false alarms for both MP and Guguran events are due to confusion errors between these two event classes in the recognition process. The confusion of MP and Guguran events is interpreted as being a consequence of the selected parametrization approach for the continuous seismic data streams. The observed patterns of the analyzed wavefield attributes for MP and Guguran events show a significant amount of similarity, thus providing not sufficient discriminative information for the numerical classification. The similarity of wavefield parameters obtained for seismic events of MP and Guguran type reflect the commonly observed dominance of path effects on the seismic wave propagation in volcanic environments. The recognition rates obtained for the five-day period of increasing seismicity show, that the presented DHMM-based automatic classification system is a promising approach for the difficult task of classifying volcano-seismic signals. Compared to standard signal detection algorithms, the most significant advantage of the discussed technique is, that the entire seismogram is detected and classified in a single step.
Mit der vorliegenden Arbeit werden exemplarisch Chancen und Grenzen der Integration von Umwelt- und Naturschutz in Verfahren der ackerbaulichen Landnutzung aufgezeigt. Die Umsetzung von Zielen des Umwelt- und Naturschutzes in Verfahren der Landnutzung ist mit verschiedenen Schwierigkeiten verbunden. Diese liegen zum einen in der Konkretisierung der Ziele, um diese umsetzen zu können, zum anderen in vielfach unzulänglichem Wissen über den Zusammenhang zwischen unterschiedlichen Formen der Landnutzung und insbesondere den biotischen Naturschutzzielen. Zunächst wird die Problematik der Zielfestlegung und Konkretisierung erörtert. Das Umweltqualitätszielkonzept von Fürst et al. (1992) stellt einen Versuch dar, Ziele des Umwelt- und Naturschutzes zu konkretisieren. Dieses Konzept haben Heidt et al. (1997) auf einen Landschaftsausschnitt von ca. 6000 ha im Biosphärenreservat Schorfheide-Chorin im Nordosten Brandenburgs angewendet. Eine Auswahl der von Heidt et al. (1997) formulierten Umweltqualitätsziele bildet die Basis dieser Arbeit. Für die ausgewählten Umweltqualitätsziele wurden wesentliche Einflussfaktoren der Landnutzung identifiziert und ein Bewertungssystem entwickelt, mit dem die Auswirkungen von landwirtschaftlichen Anbauverfahren auf diese Umweltqualitätsziele abgebildet werden können. Die praktizierte Landnutzung von 20 Betrieben im Biosphärenreservat Schorfheide-Chorin wurde von 1994 bis 1997 hinsichtlich ihrer Auswirkungen auf die Umweltqualitätsziele analysiert. Die Analyse ergab ein sehr differenziertes Bild, das zum Teil Unterschiede in der Auswirkung auf die Umweltqualitätsziele für den Anbau einzelner Kulturen oder für bestimmte Betriebstypen zeigte. Es zeigte sich aber auch, dass es bei der Gestaltung des Anbaus einzelner Kulturarten große Unterschiede gab, die für Umweltqualitätsziele Bedeutung haben. Neben der Analyse der Landnutzung im Biosphärenreservat Schorfheide-Chorin wurde ein System entwickelt, mit dem die modellhafte Abbildung von Verfahren der Landnutzung möglich ist. Die Modellverfahren wurden in eine umfangreiche Datenbank eingebunden. Sie wurden mit Hilfe eines Fuzzy- Regelsystems hinsichtlich ihrer Auswirkungen auf die Umweltqualitätsziele bewertet. Die systematisch bewerteten Verfahren wurden in ein Betriebsmodell integriert, womit eine weitergehende Analyse der Zielbeziehungen und die Berechnung von Szenarien mit unterschiedlichen Rahmenbedingungen ermöglicht wurde. Die Analyse der Beziehung verschiedener Ziele zueinander (Zieldivergenz, Zielkonvergenz) zeigte, dass sich mit der Verfolgung vieler Umweltqualitätsziele auch positive Effekte für andere Umweltqualitätsziele ergaben. Teilweise konnte allerdings auch eine Zieldivergenz festgestellt werden, die auf mögliche Zielkonflikte hinweist. Bei der Analyse der Szenarienergebnisse zeigte sich, dass die vorgeschlagenen Veränderungen von Rahmenbedingungen vielfach eine Verschlechterung für verschiedene Umweltqualitätsziele mit sich bringen. Eine Ursache dafür liegt darin, dass bei der Definition der Szenarien die Bedeutung der Stilllegungen unterschätzt wurde.
Research on monolayers of amphiphilic lipids on aqueous solution is of basic importance in surface science. Due to the applicability of a variety of surface sensitive techniques, floating insoluble monolayers are very suitable model systems for the study of order, structure formation and material transport in two dimensions or the interactions of molecules at the interface with ions or molecules in the bulk (headword 'molecular recognition'). From the behavior of monolayers conclusions can be drawn on the properties of lipid layers on solid substrates or in biological membranes. This work deals with specific and fundamental interactions in monolayers both on the molecular and on the microscopic scale and with their relation to the lattice structure, morphology and thermodynamic behavior of monolayers at the air-water interface. As model system especially monolayers of long chain fatty acids are used, since there the molecular interactions can be gradually adjusted by varying the degree of dissociation by means of the suphase pH value. For manipulating the molecular interactions besides the subphase composition also temperature and monolayer composition are systematically varied. The change in the monolayer properties as a function of an external parameter is analyzed by means of isotherm and surface potential measurements, Brewster-angle microscopy, X-ray diffraction at grazing incidence and polarization modulated infrared reflection absorption spectroscopy. For this a quantitative measure for the molecular interactions and for the chain conformational order is derived from the X-ray data. The most interesting results of this work are the elucidation of the origin of regular polygonal and dendritic domain shapes, the various effects of cholesterol on molecular packing and lattice order of long chain amphiphiles, as well as the detection of an abrupt change in the head group bonding interactions, the chain conformational order and the phase transition pressure between tilted phases in fatty acid monolayers near pH 9. For the interpretation of the latter point a model of the head group bonding structure in fatty acid monolayers as a function of the pH value is developed.
Das Menderes Massiv im Westen der Türkei stellt eine große Kulmination metamorpher Gesteine dar. Das Untersuchungsgebiet ist im Zentralen Menderes Massiv (Ödemis Submassiv) gelegen, das von den beiden aktiven Gräben, dem Gediz Graben im Norden und dem Büyük Menderes Graben im Süden begrenzt wird. Die Untersuchungen der Eklogit Relikte im zentralen Menderes Massiv haben ergeben, dass sich im Menderes Massiv Hochdruckrelikte in unterschiedlichen tektonischen Positionen befinden. Zum einen existieren Eklogit-Blöcke in der obersten Einheit (Selcuk Einheit) des zentralen Menderes Massivs und zum anderen Hochdruck-Relikte in der strukturell mittleren Birgi - Tire Decke. Die Granate der quarzfreien Eklogit-Blöcke weisen große Ähnlichkeiten mit denen der HP/LT Gesteine von Sifnos und Syros auf. Die Entwicklung der Eklogit-Blöcke in der Olistostrom-Einheit lässt sich jedoch nicht mit den Eklogit Relikten in der strukturell mittleren Birgi Tire Decke vergleichen. Für die Eklogit-Relikte in der Birgi Tire Decke wurde eine polymetamorphe Entwicklung mithilfe petrologischer Untersuchungen und chemischen und Pb-Pb Datierungen herausgearbeitet. Die Eklogit Relikte gehören zu einem metamorphen Teilpfad, der durch eine Amphibolitfazies 1 - Hochdruck - Amphibolitfazies 2/Granulitfazies charakterisiert ist. Der Endpunkt dieses Teilpfades ist mit Temperaturen zwischen 700 und 750 °C und Drücken von 1.2 - 1.4 GPa belegt. Für diese Bedingungen konnte ein minimales Alter von 520 Ma durch chemische Datierungen an Monaziten einer Augengneisprobe und Pb-Pb Datierungen an Zirkonen einer Augengneis- und Metagabbroprobe bestimmt werden. Dieser amphibolit/granulitfazieller Endpunkt wird mit den Granitintrusionen des zentralen und südlichen Menderes Massiv korreliert, die in einem Zeitraum zwischen 520 Ma bis 550 Ma stattfanden. Sowohl die Amphibolitfazies 1 als auch das Hochdruckereignis werden der Panafrikanischen Orogenese zugeordnet. Für die Hochdruckbedingungen wurden maximale Temperaturen zwischen 680°C und 720°C und bei einem Druck von 2.2 GPa bestimmt. In den untersuchten Metasedimenten konnte eine prograde metamorphe Entwicklung abgeleitet werden, die amphibolitfazielle Bedingungen von 660°C bei 0.6 GPa erreichte. Das Metamorphosealter dieser Metasedimente konnte mit < 100 Ma mittels chemischer Mikrosondendatierung bestimmt werden. Die in den Metasedimenten herausgearbeiteten Druck- und Temperaturbedingungen wurden ebenfalls in den metabasischen Gesteinen bestimmt. Diese Ergebnisse werden als Krustenstapelung der metabasischen Gesteine, Augengneise und Metasedimente interpretiert, die mit der alpinen Orogenese im Zusammenhang stehen. Durch die Ergebnisse dieser Arbeit lässt sich die Birgi-Tire Decke im zentralen Menderes Massiv genauer charakterisieren. Sie besteht aus Metasedimenten, pelitischen Gneisen, Augengneisen und metabasichen Gesteinen. Die Gneise (pelitische und Augengneise) und die metabasischen Gesteine stellen panafrikanische Relikte dar, die einen amphibolit- eklogit- amphibolit/granulitfaziellen Metamorphosepfad gespeichert haben. Die amphibolit- bis granulitfazielle Metamorphose hängt mit den Granitintrusionen zusammen und fand in einem Zeitraum zwischen 520 - 550 Ma statt. Große Teile der Metasedimente der Birgi Tire Decke haben jedoch nur eine alpine metamorphe Entwicklung durchlaufen, wo sie unter amphibolitfazielle Bedingungen Krustentiefen erreichten, bei denen sie mit den panafrikanischen Relikten zusammen gestapelt wurden und eine gemeinsame Exhumierung erfahren haben.
In der vorliegenden Arbeit werden anhand der Edelgaszusammensetzung von Kimberliten und Lamproiten sowie ihrer gesteinsbildenden Minerale die Wechselwirkungen dieser Gesteine mit Fluiden diskutiert. Die untersuchten Proben stammen vom östlichen Baltischen Schild, vom Kola-Kraton (Poria Guba und Kandalaksha) und vom karelischen Kraton (Kostamuksha). Edelgasanalysen nach thermischer oder mechanischer Gasextraktion von 23 Gesamtgesteinsproben und 15 Mineralseparaten ergeben folgendes Bild: Helium- und Neon-Isotopendaten der Fluideinschlüsse von Lamproiten aus Kostamuksha lassen auf den Einfluss einer fluiden Phase krustaler Herkunft schliessen. Diese Wechselwirkungen fanden wahrscheinlich schon während des Magmenaufstiegs statt, denn spätere Einflüsse krustaler Fluide auf die Lamproite und ihr Nebengestein (Quarzit) sind gering, wie anhand der C/<sup>36Ar-Zusammensetzung gezeigt wird. Auch sind die mit verschiedenen Datierungsmethoden (Rb-Sr, Sm-Nd, K-Ar) an Mineralseparaten und teilweise an Gesamtgestein ermittelten Alter konsistent und machen eine metamorphe Überprägung unwahrscheinlich. Aufgrund der Verteilung der primordialen Edelgasisotope zwischen Fluideinschlüssen und Gesteinsmatrix ist ein langsamer Magmenaufstieg anzunehmen, was die Möglichkeit der Kontamination mit einem krustalen Fluid während des Magmenaufstiegs erhöht. Die Gasextraktion aus Mineralseparaten erfolgte thermisch, wodurch eine Freisetzung der Gase ausschließlich aus Fluideinschlüssen nicht möglich ist. Hierbei zeigen Amphibol und Klinopyroxen, separiert aus Kostamuksha-Lamproiten, in ihrer Neon-Isotopenzusammensetzung im Vergleich zur krustalen Zusammensetzung (Kennedy et al., 1990) ein leicht erhöhtes Verhältnis von <sup>20Ne/<sup>22Ne, was ein Hinweis auf Mantel-Neon sein könnte. Kalifeldspäte, Quarz und Karbonate enthalten dagegen nur Neon krustaler Zusammensetzung. Phlogopite haben sehr kleine Verhältnisse von <sup>20Ne/<sup>22Ne und <sup>21Ne/<sup>22Ne, zurückzuführen auf in-situ-Produktion von <sup>22Ne in Folge von U- und Th-Zerfallsprozessen. Wie unterschiedliche thermische Entgasungsmuster für <sup>40Ar und <sup>36Ar zeigen, ist <sup>36Ar in Fluideinschlüssen konzentriert. Das <sup>40Ar/<sup>36Ar-Isotopenverhältnis der Fluideinschlüsse von Lamproiten aus Kostamuksha ist antikorreliert mit der durch thermische Extraktion bestimmten Gesamtmenge an <sup>36Ar. Argon aus Fluideinschlüssen setzt sich daher aus zwei Komponenten zusammen: Einer Komponente mit atmosphärischer Argon-Isotopenzusammensetzung und einer krustalen Komponente mit einem Isotopenverhältnis <sup>40Ar/<sup>36Ar > 6000. Diffusion von radiogenem <sup>40Ar aus der Kristallmatrix in die Fluideinschlüsse spielt keine wesentliche Rolle. Kimberlite aus Poria Guba und Kandalaksha zeigen anhand der Helium- und z. T. auch der Neon-Isotopenzusammensetzung eine Mantelkomponente in den Fluideinschlüssen an. Bei einem angenommenen <sup>20Ne/<sup>22Ne-Isotopenverhältnis von 12,5 in der Mantelquelle ergibt sich ein <sup>21Ne/<sup>22Ne-Isotopenverhältnis von 0,073 ± 0,011 sowie ein <sup>3He/<sup>4He-Isotopenverhältnis, welches im Vergleich zum subkontinentalem Mantel (Dunai und Baur, 1995) stärker radiogen geprägt ist. Solche Isotopensignaturen sind mit höheren Konzentrationen an Uran und Thorium in der Mantelquelle der Kimberlite zu erklären. Rb-Sr- und Sm-Nd-Altersbestimmungen erfolgten von russischer Seite (Belyatskii et al., 1997; Nikitina et al., 1999) und ergeben ein Alter von 1,23 Ga für den Lamproitvulkanismus in Kostamuksha. Eigene K-Ar-Datierungen an Phlogopiten und Kalifeldspäten stimmen mit einem Alter von 1193 ± 20 Ma fast mit den Rb-Sr- und Sm-Nd-Altern überein. Die K-Ar-Datierung an einem Phlogopit aus Poria Guba, separiert aus dem Kimberlit PGK 12a, ergibt ein Alter von 396 Ma, ebenfalls in guter Übereinstimmung mit Rb-Sr-und Sm-Nd-Altern (ca. 400 Ma, Lokhov, pers. Mitteilung). K-Ar-Altersbestimmungen an Gesamtgestein aus Poria Guba erbrachten kein schlüssiges Alter. Die Rb-Sr- und Sm-Nd-Alter des Lamproitmagmatismus in Poria Guba betragen 1,72 Ga (Nikitina et al., 1999). Vergleiche von gemessenen mit berechneten Edelgaskonzentrationen aus in-situ-Produktion zeigen weiterhin, dass in Abhängigkeit vom Alter der Probe Diffusionsprozesse stattgefunden haben, die zu unterschiedlichen und z. T. erheblichen Verlusten an Helium und Neon führten. Diffusionsverluste an Argon sind dagegen kaum signifikant. Unterschiedliche Diffusionsverluste in Abhängigkeit von Alter und betrachtetem Edelgas zeigen auch die primordialen Edelgase.
Seit 1990 waren mehrere der großen Flussgebiete Mitteleuropas wiederholt von extremen Hochwassern betroffen. Da sowohl die Landoberfläche als auch die Flusssysteme weiter Teile Mitteleuropas in der Vergangenheit weitreichenden Eingriffen ausgesetzt gewesen sind, wird bei der Suche nach den Ursachen für diese Häufung von Extremereignissen auch die Frage nach der Verantwortung des Menschen hierfür diskutiert. Gewässerausbau, Flächenversiegelung, intensive landwirtschaftliche Bodenbearbeitung, Flurbereinigung und Waldschäden sind nur einige Beispiele und Folgen der anthropogenen Eingriffe in die Landschaft. Aufgrund der Vielfalt der beteiligten Prozesse und deren Wechselwirkungen gibt es allerdings bislang nur Schätzungen darüber, wie sehr sich die Hochwassersituation hierdurch verändert hat. Vorrangiges Ziel dieser Arbeit ist es, mit Hilfe eines hydrologischen Modells systematisch darzustellen, in welcher Weise, in welcher Größenordnung und unter welchen Umständen die Art der Landnutzung auf die Hochwasserentstehung Einfluss nimmt. Dies wird anhand exemplarischer Modellanwendungen in der hydrologischen Mesoskala untersucht. Zu diesem Zweck wurde das deterministische und flächendifferenzierte hydrologische Modell wasim-eth ausgewählt, das sich durch eine ausgewogene Mischung aus physikalisch begründeten und konzeptionellen Ansätzen auszeichnet. Das Modell wurde im Rahmen dieser Arbeit um verschiedene Aspekte erweitert, die für die Charakterisierung des Einflusses der Landnutzung auf die Hochwasserentstehung wichtig sind: (1) Bevorzugtes Fließen in Makroporen wird durch eine Zweiteilung des Bodens in Makroporen und Bodenmatrix dargestellt, die schnelle Infiltration und Perkolation jenseits der hydraulischen Leitfähigkeit der Bodenmatrix ermöglicht. (2) Verschlämmung äußert sich im Modell abhängig von Niederschlagsintensität und Vegetationsbedeckungsgrad als Verschlechterung der Infiltrationsbedingungen an der Bodenoberfläche. (3) Das heterogene Erscheinungsbild bebauter Flächen mit einer Mischung aus versiegelten Bereichen und Freiflächen wird berücksichtigt, indem jede Teilfläche je nach Versiegelungsgrad in einen unversiegelten Bereich und einen versiegelten Bereich mit Anschluss an die Kanalisation aufgeteilt wird. (4) Dezentraler Rückhalt von Niederschlagswasser kann sowohl für natürliche Mulden als auch für gezielt angelegte Versickerungsmulden mit definierten Infiltrationsbedingungen simuliert werden. Das erweiterte Modell wird exemplarisch auf drei mesoskalige Teileinzugsgebiete des Rheins angewandt. Diese drei Gebiete mit einer Fläche von zwischen 100 und 500 km² wurden im Hinblick darauf ausgewählt, dass jeweils eine der drei Hauptlandnutzungskategorien Bebauung, landwirtschaftliche Nutzung oder Wald dominiert. Für die drei Untersuchungsgebiete sind räumlich explizite Landnutzungs- und Landbedeckungsszenarien entworfen worden, deren Einfluss auf die Hochwasserentstehung mit Hilfe des erweiterten hydrologischen Modells simuliert wird. Im Einzelnen werden die Auswirkungen von Verstädterung, Maßnahmen zur Niederschlagsversickerung in Siedlungsgebieten, Stilllegung agrarisch genutzter Flächen, veränderter landwirtschaftlicher Bodenbearbeitung, Aufforstung sowie von Sturmschäden in Wäldern untersucht. Diese Eingriffe beeinflussen die Interzeption von Niederschlag, dessen Infiltration, die oberflächennahen unterirdischen Fließprozesse sowie, zum Beispiel im Fall der Kanalisation, auch die Abflusskonzentration. Die hydrologischen Simulationen demonstrieren, dass die Versiegelung einer Fläche den massivsten Eingriff in die natürlichen Verhältnisse darstellt und deshalb die stärksten (negativen) Veränderungen der Hochwassersituation hervorbringt. Außerdem wird deutlich, dass eine bloße Änderung des Interzeptionsvermögens zu keinen wesentlichen Veränderungen führt, da die Speicherkapazität der Pflanzenoberflächen im Verhältnis zum Volumen hochwasserauslösender Niederschläge eher klein ist. Stärkere Veränderungen ergeben sich hingegen aus einer Änderung der Infiltrationsbedingungen. Die Grenzen der entwickelten Methodik zeigen sich am deutlichsten bei der Simulation veränderter landwirtschaftlicher Bewirtschaftungsmethoden, deren mathematische Beschreibung und zahlenmäßige Charakterisierung aufgrund der Komplexität der beteiligten Prozesse mit großen Unsicherheiten behaftet ist. Die Modellierungsergebnisse belegen darüber hinaus, dass pauschale Aussagen zum Einfluss der Landnutzung auf die Hochwasserentstehung aufgrund der entscheidenden Bedeutung der klimatischen und physiographischen Randbedingungen unzulässig sind. Zu den klimatischen Randbedingungen zählen sowohl Niederschlagsintensität und -dauer als auch die Feuchtebedingungen vor einem hochwasserauslösenden Niederschlag. Die physiographischen Randbedingungen sind von der geomorphologischen und geologischen Ausstattung des Gebiets vorgegeben. Weiterhin muss der räumliche und zeitliche Maßstab, über den Aussagen getroffen werden, klar definiert sein, da sich mit steigender Einzugsgebietsgröße die relative Bedeutung sowohl der verschiedenen Niederschlagstypen als auch der physiographischen Eigenschaften verschiebt. Dies wird in der vorliegenden Arbeit im Gegensatz zu vielen anderen Untersuchungen konsequent berücksichtigt. In Abhängigkeit von Randbedingungen und räumlichen Maßstab sind aufgrund der gewonnen Erkenntnisse folgende Aussagen zum Einfluss von Landnutzungsänderungen auf die Hochwasserentstehung möglich: (1) Für intensive konvektive Niederschlagsereignisse mit tendenziell geringer Vorfeuchte ist der Einfluss der Landnutzung größer als für langanhaltende advektive Niederschläge geringer Intensität, da im ersten Fall veränderte Infiltrationsbedingungen stärker zum Tragen kommen als bei kleinen Niederschlagsintensitäten. (2) In kleinen Einzugsgebieten, wo kleinräumige Konvektivzellen zu Hochwassern führen können, ist der Einfluss der Landnutzung dementsprechend größer als in großen Flussgebieten wie dem Rheingebiet, wo vor allem langanhaltende advektive Ereignisse (unter Umständen verbunden mit Schneeschmelze) relevant sind. (3) In Gebieten mit guten Speichereigenschaften wie mächtigen, gut durchlässigen Böden und gut durchlässigem Gesteinsuntergrund ist der Einfluss der Landnutzung größer als in Gebieten mit geringmächtigen Böden und geringdurchlässigem Festgestein. Dies ist darin begründet, dass in Gebieten mit guten Speichereigenschaften bei einer Verschlechterung der Infiltrationsbedingungen mehr Speicherraum für Niederschlag verloren geht als in anderen Gebieten.
Die vorliegende Arbeit beschäftigt sich mit der Synthese und den Eigenschaften von linearen und verzweigten amphiphilen Polypeptid-Blockcopolymeren. Die Frage nach dem Einfluss der Topologie und Konformation der Blockcopolymere auf die supramolekularen und kolloidalen Eigenschaften bildete einen wichtigen Aspekt bei den Untersuchungen. Die Blockcopolymere wurden nach einem mehrstufigen Reaktionsschema durch Kombination von anionischer und ringöffnender Polymerisation von Aminosäuren-N-Carboxyanhydriden (NCA) synthetisiert. Die Untersuchung der Polypeptid-Blockcopolymere hinsichtlich ihres Aggregationsverhaltens in fester Phase sowie in verdünnter wässriger Lösung erfolgte mittels Streumethoden (SAXS, WAXS, DLS) sowie abbildender Methoden (TEM). Durch Einsatz der Blockcopolymere als polymere Stabilisatoren in der Emulsionspolymerisation wurden Oberflächen funktionalisierte Latizes erhalten. Als Beispiel für eine pharmazeutische Anwendung wurden bioverträgliche Polypeptid-Blockcopolymere als Wirkstoff-Trägersysteme in der Krebstherapie eingesetzt.
Eine Reihe 9,9-dialkylsubstituierter Polyfluorene mit linearen und verzweigtkettigen Alkylsubstituenten und einem Molekulargewicht von bis zu 200000 g/mol wurde synthetisiert und charakterisiert. Darüber hinaus wurden einige dieser Polymere mit einer geeigneten 'Lochtransport'-Funktionalität (Triphenylamin-Derivate) ausgestattet, um die Ladungstransporteigenschaften und das Molekulargewicht dieser Substanzen zu kontrollieren. Die thermische Orientierung dieser neuen Polymere auf geriebenen Polyimid-Schichten führte zu hoch anisotropen Filmen mit großen dichroischen Verhältnissen (Absorption parallel und senkrecht zur Reibungsrichtung gemessen). Ferner wurde eine Gruppe chiraler Polyfluorene synthetisiert und hinsichtlich ihrer chiroptischen Eigenschaften untersucht. Der mit diesen chiralen, konjugierten Polymeren erreichte Grad der Anisotropie in Absorption (CD), circular polarisierter Photolumineszenz (CPPL) und Elektrolumineszenz (CPEL) überstieg die bis dahin bekannten Werte um einen Faktor von 200.
Chemisch dotiertes Polypyrrol gilt als Modellsubstanz für leitfähige Polymere mit nichtdegeneriertem Grundzustand. Das elektrische Transportverhalten in dotiertem Polypyrrol wird durch lokalisierte Ladungsträger, Bipolaronen und Polaronen, bestimmt. Es besteht dabei eine enge gegenseitige Wechselwirkung zwischen der Struktur der Polymerkette und den Eigenschaften der Ladungsträger. Die in dieser Arbeit vorgestellte Kombination von Hochdruckmethodik und optischer Spektroskopie vertieft das Verständnis der Beziehung zwischen der molekularen und supramolekularen Struktur und den elektronischen und optischen Eigenschaften. Durch spezifische Synthesemethoden lassen sich unterschiedliche Strukturen in der polymeren Probe induzieren, die sich durch den Anteil an hochgeordneten Polymerketten unterscheiden. Die gezielte Veränderung dieser Strukturen durch Druckexperimente ermöglicht das Studium des Einflusses der Synthesemethoden auf die Ladungsträgereigenschaften. Für diese Studien wurden herkömmlich synthetisierte Polypyrrol-Filme und Filme, die sich aus Polypyrrol-Nanoröhren zusammensetzen (Synthese in Kernspur-membranen, "Template-Synthese") bei ansonsten gleichen Syntheseparametern untersucht. Raman- und Infrarotspektroskopie sowie UV-Vis-NIR-Absorptionsspektroskopie, die jeweils für die Hochdruckmethodik adaptiert wurden, dienten der Charakterisierung der Proben. Zusätzlich wurden temperatur- und druckabhängige Messungen des elektrischen Widerstands an den Template-Proben durchgeführt. Die Morphologie template-synthetisierter Polypyrrol-Nanoröhren und die filmbildenden Eigenschaften sowie der mögliche Aufbau von Schichtarchitekturen wurden mit transmissions- und rasterelektronenmikroskopischen Techniken untersucht. Die aus den Hochdruckexperimenten gewonnenen Daten werden in der Arbeit im Hinblick auf die Stabilität der Ladungsträger interpretiert. Im Ergebnis bewirkt die Druckerhöhung eine Dissoziation der Bipolaronen in den untersuchten Proben. Das Ladungsträger-gleichgewicht verschiebt sich dadurch mit steigendem Druck zu Zuständen mit höherem Anteil an polaronischen Ladungsträgern. Die Template-Synthese bewirkt gegenüber herkömmlich synthetisierten Proben einen höheren Anteil an Polaronen bereits bei Normaldruck, und eine Lage des Systems näher bei einem Isolator-Metall-Übergang. Die Dissoziationsrate der Bipolaronen ist für Template- und herkömmlich synthetisierte Proben vergleichbar groß und unabhängig vom Initialzustand nach der Synthese. Dieses Verhalten der Ladungsträger wird weitergehend im Rahmen eines Modells untersucht, bei dem der Einfluß benachbarter Polymerketten und der Dotandionen berücksichtigt wird. Dementsprechend können sich die Wellenfunktionen der Ladungsträger unter bestimmten Bedingungen auch auf benachbarte Ketten erstrecken (transversale Polaronen bzw. Bipolaronen). Eine solche Ausdehnung der Wellenfunktionen unter Mitwirkung der Dotandionen wurde in den untersuchten Proben nicht festgestellt. Die Wellenfunktionen der Ladungsträger besitzen demnach hauptsächlich Komponenten entlang der Polymerkette (longitudinale Polaronen bzw. Bipolaronen). Aus der Änderungsrate druckabhängiger spektraler Charakteristiken lassen sich Aussagen über den Ordnungszustand der Probe ableiten. Diese auf experimentellem Wege gefundenen Ergebnisse liefern somit Hinweise für die bisher kontrovers diskutierte Koexistenz der beiden Ladungsträgerarten Polaronen und Bipolaronen und die Größe ihrer jeweiligen Bindungsenergien. Druckerhöhung und Template-Synthese bewirken analoge Änderungen der Polymerstruktur. Sowohl höherer Druck wie auch die Template-Synthese lassen sich mit einem höheren Ordnungsgrad in den Template-Proben korrelieren. Der Ladungstransport in den Proben kann durch ein Mott Variable Range Hopping-Modell mit druckabhängiger charakteristischer Dimension beschrieben werden. Die Erhöhung des Drucks bewirkt einen Anstieg der Dimension, eine bessere Überlappung der Wellenfunktionen der Ladungsträger und eine Vergrößerung der Lokalisierungslänge der Ladungsträger. Die druckinduzierte Dissoziation der Bipolaronen beeinflußt den Ladungstransport zusätzlich durch Erhöhung der Anzahl unabhängiger Ladungsträger und verbessert diesen aufgrund stärkerer Überlappung der Wellenfunktionen. Template-Proben niedriger Synthesetemperatur zeigen bei Normaldruck eine höhere Dimension des Mott Variable Range Hoppings und eine größere Lokalisierungslänge gegenüber bei Raumtemperatur synthetisierten Proben. Kürzere Synthesezeiten bewirken einen Anstieg der Dimension bei Normaldruck und eine Verschiebung des Dimensionscrossovers zu niedrigeren Temperaturen. Template-Proben kurzer Synthesezeit zeigen geringere druckinduzierte Änderungen als solche mit langer Synthesezeit. Es wurde ein kontinuierliches Ordnungsmodell der Polypyrrol-Nanoröhren entwickelt, das dieses Verhalten beschreibt. Die Morphologie und die mechanischen Eigenschaften der Nanoröhren werden durch spezifische Syntheseparameter, wie Temperatur und Dauer, beeinflußt und können mit Transmissions- und Rasterelektronenmikroskopie beobachtet werden. Die filmbildenden Eigenschaften der Röhren hängen stark von diesen mechanischen Eigenschaften ab. Die Struktur der Filme kann dabei von einer unregelmäßigen Anordnung der Röhren bis zu nahezu parallel ausgerichteten Röhren variieren. Es wurden Möglichkeiten untersucht, die Röhren in den Filmen zu orientieren und aus diesen Filmen durch Schichtung makroskopische Architekturen mit einem hohen Grad an orientierten Röhren aufzubauen. Solche Architekturen können für verschiedene Anwendungen, z.B. in elektronischen Bauteilen oder mikroskopischen Bioreaktoren, von Interesse sein.
Die Ausstattung der gastrointestinalen Mukosa des Menschen und der Ratte mit Sulfotransferasen wurde mit Hilfe von Immunodetektion und Enzymaktivitätsmessungen untersucht. In Proben aus Colon und Rektum von 39 Personen wurden die Formen h1A1, h1A3 und h1B1 identifiziert, wobei in einer weiteren Probe, die als einzige von einem an Colitis Ulcerosa erkrankten Patienten stammte, keine Sulfotransferasen nachgewiesen werden konnten. Bei der Immunblot-Analyse war das Expressionsmuster der einzelnen Formen in allen Proben ähnlich. In wenigen Proben waren die relativen Signalintensitäten der h1A1 und der h1B1 um die Hälfte erniedrigt. Der Gehalt von SULT an zytosolischem Protein zeigte einen bis zu 8 - 10fachen Unterschied, er betrug jedoch bei zwei Dritteln der Proben zwischen 0,15 und 0,3 (h1A1 und h1A3) bzw. 0,6 und 0,8 Promille (h1B1). Die Variation konnte nicht auf Alter, Geschlecht oder Krankheitsbild der Patienten zurückgeführt werden. Auch der für die allelischen Varianten der h1A1 beschriebene Effekt auf die Enzymaktiviät bzw. Stabilität konnte in der Menge an immunreaktivem Protein nicht in diesem Ausmaß detektiert werden. Die Allelhäufigkeit von h1A1*R und h1A1*H war gegenüber der gesunden Bevölkerung nicht verändert. In den sieben Proben aus dem Dünndarm (Coecum, viermal Ileum, Jejunum) konnten zusätzlich die Formen h1E1 und h2A1 identifiziert werden. Ein möglicherweise der Form h1C1 entsprechendes Protein wurde im Magen detektiert. Im Vergleich zum Menschen war die Expression in der Ratte stärker auf die Leber konzentriert. Während beim Menschen in allen untersuchten Abschnitten Sulfotransferasen in Mengen detektiert wurden, die in zwei Fällen (h1B1 und h1A3) sogar den Gehalt in der Leber überstiegen, beschränkte sich die Expression in der Ratte auf im Vergleich zur Leber geringe Mengen im Magen und Dickdarm. Nachgewiesen wurden die r1B1, r1A1 sowie eine nicht identifizierte Form von 35kD, bei der es sich vermutlich um die r1C2 handelt. Im Vergleich zur Leber enthielt der Dickdarm der Ratte 20 - 30 % an r1B1 und 3 % an r1A1, während im Dickdarm des Menschen die 3 - 5fache Menge an h1B1 und 25 - 50 % an h1A1 gefunden wurden. Die nicht identifizierte Form verhielt sich wie die r1B1. Die für die Leber der Ratte bekannte geschlechtsabhängige Expression wurde im Gastrointestinaltrakt nicht beobachtet. Die Verteilung der Sulfotransferasen im Colon und Ileum des Menschen wurde immunhistochemisch untersucht; für die Gewebe der Ratte war die Spezifität der zur Verfügung stehenden Antiseren nicht ausreichend. Im Colon traten h1B1-spezifische Färbungen in den differenzierten Enterozyten am oberen Ende der Krypten auf, im Dünndarm wurden die Epithelzellen der Zotten gefärbt. Die Färbung konzentrierte sich auf das Zytoplasma. Eine ähnliche Verteilung zeigte sich für h1A1 und h1A3, außer daß zusätzlich eine intensive Färbung der Endothelzellen der Kapillaren in der Submukosa des Ileums auftrat. Im Dickdarm war dies nur bei den Kapillaren in den Lymphfollikeln zu erkennen. Die h2A1 war lediglich im Zytoplasma der Epithelzellen der Zotten des Ileums nachzuweisen, während im Colon keine Farbreaktion auftrat. Durch die Verwendung der rekombinanten Indikatorstämme TA1538-h1A1, -h1A3 und -h1B1 und des Ausgangsstammes Salmonella typhimurium TA1538 im Ames-Test wurde gezeigt, daß verschiedene benzylische und allylische Alkohole durch im humanen Colon exprimierte Sulfotransferasen zu Mutagenen aktiviert werden. In den meisten Fällen erwies sich eine der drei Sulfotransferasen als besonders effizient in der Bioaktivierung, während durch die anderen Formen kein oder nur ein schwacher Effekt verursacht wurde. Die Bioaktivierung von Promutagenen durch Sulfotransferasen im Colon muß im Zusammenhang mit der Lokalisation diskutiert werden. Die Zellen im Darm, in denen immunhistochemisch Sulfotransferasen detektiert wurden, haben mit Ausnahme des Endothels je nach Abschnitt eine Lebensdauer von maximal fünf Tagen und machen keine weiteren Zellteilungen mehr durch. Daher sind DNA-Schäden in diesen Zellen ein sehr geringes Risiko für den Organismus. Soweit die reaktiven Metabolite in diesen Zellen gefangen bleiben, kann die Bioaktivierung in diesen Zellen und die Bildung von Addukten als protektiv betrachten werden, da letztere nach wenigen Tagen mit den toten Zellen in das Darmlumen abgegeben werden. Für den Vergleich der Bioaktiverung von Promutagenen durch die Form 1B1 des Menschen und der Ratte wurden aus V79 Lungenfibroblasten des Chinesischen Hamsters abgeleitete Zellinien hergestellt, die je eine der beiden Formen stabil exprimieren. Damit standen 1B1-profiziente Indikatorzellen für den HPRT-Genmutationstest zur Verfügung, und die 1B1-abhängige Bioaktivierung konnte in einem System untersucht werden, die dem eukaryontischen Organismus näher steht als die für die Ames-Tests verwendeten Bakterien. So war z.B. die Sulfotransferase wie im Gewebe im Zytoplasma lokalisiert. Als Modellsubstanzen wurden hierbei die bereits in TA1538-h1B1 mutagen wirkenden benzylischen Alkohole 6-Hydroxymethylbenzo[a]pyren und 4-Hydroxycyclopenta-[def]chrysen getestet. Da die Sensitivität einer Sulfotransferase-exprimierenden V79-Zellinie sowohl durch die Menge an Sulfotransferase als auch durch die Verfügbarkeit des Sulfodonors limitiert sein könnte, wurden die Mutagenitätsexperimente mit V79-r1B1-Zellinien durchgeführt, die sich in ihrer Enzymaktivität um das Zwanzigfache unterschieden: V79-r1B1/A und -/B. Eine starke Erhöhung der Mutantenfrequenz wurde nur in der hoch exprimierenden Zellinie V79-r1B1/A (1019 ± 224 pmol/mg/min) beobachtet, so daß eine gravierende Beeinträchtigung der Sensitivität durch einen Mangel an Kosubstrat ausgeschlossen wurde. In der niedriger exprimierenden Zellinie V79-r1B1/B (57 ± 9 pmol/mg/min) war nur mit 6-Hydroxymethylbenzo[a]pyren ein schwacher Anstieg der Mutantenfrequenz zu erkennen, der mit 0,3 µM bei einer in etwa 100fach höheren Konzentration begann als bei V79-r1B1/A. Die zytosolische Fraktion aus V79-r1B1/B-Zellen enthielt in etwa die dreifache Menge an r1B1-Protein wie die aus Colonmucosa der Ratte. Da zumindest für die humane Mukosa gezeigt wurde, daß die 1B1 nur im einschichtigen Epithel, nicht aber in allen Zellen der Mukosa exprimiert wird, repräsentiert die zytosolische Fraktion aus der Mukosa nur bedingt die Expression in den Epithelzellen und der Vergleich mit den V79-1B1-Zellen ist grob. Im Gegensatz zu V79-r1B1/B war die Zellinie V79-h1B1, die ebenfalls nur mit Darm und Leber vergleichbare Mengen an h1B1 exprimierte, in der Lage, beide benzylischen Alkohole zu aktivieren. Der Erhöhung der Mutantenfrequenz im Vergleich zur KontrollZellinie war ähnlich wie bei der stark exprimierenden Zellinie V79-r1B1/A, erforderte aber 10fach höhere Konzentrationen. Somit unterscheiden sich Mensch und Ratte nicht nur insgesamt in ihrer Ausstattung des Gastrointestinaltrakts mit Sulfotransferasen, auch bei Betrachtung einer einzelnen Form zeigten sich deutliche Unterschiede in der Aktivierung von zwei Promutagenen. Die Ratte ist daher ein ungeeignetes Modell, um die Rolle von Sulfotransferasen bei tumorinitiierenden Prozessen im Darm zu untersuchen. Dies unterstreicht die Bedeutung von rekombinanten in-vitro-Systemen für die Erfassung des humanen Metabolismus von Fremdstoffen. Insgesamt kennt man nur eine geringe Anzahl von Substanzen, die im Tierexperiment Colontumore erzeugen, und mit Ausnahme der heterozyklischen aromatischen Amine sind diese lediglich von experimenteller Bedeutung. Dies spricht für effiziente Schutzmechanismen der Darmmukosa gegenüber Mutagenen und läßt die Frage nach der hohen Inzidenz des Kolorektalkarzinoms offen.
Gasausströmungen, oft in der Form hoch kollimierter Jets, sind ein allgegenwärtiges Phänomen bei der Geburt neuer Sterne. Emission von stossangeregtem molekularem Wasserstoff bei Wellenlängen im nahen Infrarotbereich ist ein Merkmal ihrer Existenz und auch in eingebetteten, im Optischen obskurierten Ausströmungen generell gut zu beobachten. In dieser Arbeit werden die Resultate einer von Auswahleffekten freien, empfindlichen, grossflächigen Suche nach solchen Ausströmungen von Protosternen in der v=1-0 S(1) Linie molekularen Wasserstoffs bei einer Wellenlänge von 2.12 µm vorgestellt. Die Durchmusterung umfasst eine Fläche von etwa einem Quadratgrad in der Orion A Riesenmolekülwolke. Weitere Daten aus einem grossen Wellenlängenbereich werden benutzt, um die Quellen der Ausströmungen zu identifizieren. Das Ziel dieser Arbeit ist es, eine Stichprobe von Ausströmungen zu bekommen, die so weit wie möglich frei von Auswahleffekten ist, um die typischen Eigenschaften protostellarer Ausströmungen und deren Entwicklung festzustellen, sowie um die Rückwirkung der Ausströmungen auf die umgebende Wolke zu untersuchen. Das erste Ergebnis ist, dass Ausströmungen in Sternentstehungsgebieten tatsächlich sehr häufig sind: mehr als 70 Jet-Kandidaten werden identifiziert. Die meisten zeigen eine sehr irreguläre Morphologie anstelle regulärer oder symmetrischer Strukturen. Dies ist auf das turbulente, klumpige Medium zurückzuführen, in das sich die Jets hineinbewegen. Die Ausrichtung der Jets ist zufällig verteilt. Insbesondere gibt es keine bevorzugte Ausrichtung der Jets parallel zum grossräumigen Magnetfeld in der Wolke. Das legt nahe, dass die Rotations- und Symmetrieachse in einem protostellaren System durch zufällige, turbulente Bewegung in der Wolke bestimmt wird. Mögliche Ausströmungsquellen werden für 49 Jets identifiziert; für diese wird der Entwicklungsstand und die bolometrische Leuchtkraft abgeschätzt. Die Jetlänge und die H2 Leuchtkraft entwickeln sich gemeinsam mit der Ausströmungsquelle. Von null startend, dehnen sich die Jets schnell bis auf eine Länge von einigen Parsec aus und werden dann langsam wieder kürzer. Sie sind zuerst sehr leuchtkräftig, die H2 Helligkeit nimmt aber im Lauf der protostellaren Entwicklung ab. Die Längen- und H2 Leuchtkraftentwicklung lässt sich im Wesentlichen durch eine zuerst sehr hohe, dann niedriger werdende Massenausflussrate erklären, die auf eine zuerst sehr hohe, dann niedriger werdende Gasakkretionsrate auf den Protostern schliessen lässt (Akkretion und Ejektion sind eng verknüpft!). Die Längenabnahme der Jets erfordert eine ständig wirkende Abbremsung der Jets. Ein einfaches Modell einer simultanen Entwicklung eines Protosterns, seiner zirkumstellaren Umgebung und seiner Ausströmung (Smith 2000) kann die gemessenen H2- und bolometrischen Leuchtkräfte der Jets und ihrer Quellen reproduzieren, unter der Annahme, dass die starke Akkretionsaktivität zu Beginn der protostellaren Entwicklung mit einer überproportional hohen Massenausflussrate verbunden ist. Im Durchmusterungsgebiet sind 125 dichte Molekülwolkenkerne bekannt (Tatematsu et al. 1993). Jets (bzw. Sterne) entstehen in ruhigen Wolkenkernen, d.h. solchen mit einem niedrigen Verhältnis von interner kinetischer Energie zu gravitativer potentieller Energie; dies sind die Wolkenkerne höherer Masse. Die Wolkenkerne mit Jets haben im Mittel grössere Linienbreiten als die ohne Jets. Dies ist darauf zurückzuführen, dass sie bevorzugt in den massereicheren Wolkenkernen zu finden sind, welche generell eine grössere Linienbreite haben. Es gibt keinen Hinweis auf stärkere interne Bewegungen in Wolkenkernen mit Jets, die durch eine Wechselwirkung der Jets mit den Wolkenkernen erzeugt sein könnte. Es gibt, wie von der Theorie vorausgesagt, eine Beziehung zwischen der Linienbreite der Wolkenkerne und der H2 Leuchtkraft der Jets, wenn Jets von Klasse 0 und Klasse I Protosternen separat betrachtet werden; dabei sind Klasse 0 Jets leuchtkräftiger als Klasse I Jets, was ebenfalls auf eine zeitabhängige Akkretionsrate mit einer frühzeitigen Spitze und einem darauffolgenden Abklingen hinweist. Schliesslich wird die Rückwirkung der Jetpopulation auf eine Molekülwolke unter der Annahme strikter Vorwärtsimpulserhaltung betrachtet. Die Jets können auf der Skala einer ganzen Riesenmolekülwolke und auf den Skalen von Molekülwolkenkernen nicht genügend Impuls liefern, um die abklingende Turbulenz wieder anzuregen. Auf der mittleren Skala von molekularen Klumpen, mit einer Grösse von einigen parsec und Massen von einigen hundert Sonnenmassen liefern die Jets jedoch genügend Impuls in hinreichend kurzer Zeit, um die Turbulenz “am Leben zu erhalten” und können damit helfen, einen Klumpen gegen seinen Kollaps zu stabilisieren.
1. Die Deacetylierung von crabshell – Chitosan führte gleichzeitig zu einem drastischen Abfall der mittleren viscosimetrischen Molmasse ( Mv), insbesondere wenn die Temperatur und die Konzentration an NaOH erhöht werden. Diese Parameter beeinflussten jedoch nicht den Grad der Deacetylierung (DD). Wichtig ist jedoch die Quelle des Ausgangsmaterials: Chitin aus Pandalus borealis ist ein guter Rohstoff für die Herstellung von Chitosan mit niedrigem DD und gleichzeitig hoher mittlerer Mv, während Krill-Chitin (Euphausia superba) ein gutes Ausgangsmaterial zur Herstellung von Chitosan mit hohem DD und niedrigem Mv ist. Chitosan, das aus Insekten (Calliphora erythrocephala), unter milden Bedingungen (Temperatur: 100°C, NaOH-Konzentration: 40 %, Zeit: 1-2h ) hergestellt wurde, hatte die gleichen Eigenschaften hinsichtlich DD und Mv wie das aus Krill hergestellte Chitosan. Der Bedarf an Zeit, Energie und NaOH ist für die Herstellung von Insekten-Chitosan geringer als für crabshell-Chitosan vergleichbare Resultaten für DD und Mv. 2. Chitosan wurde durch den Schimmelpilz Aspergillus fumigatus zu Chitooligomeren fermentiert. Die Ausbeute beträgt 25%. Die Chitooligomere wurden mit Hilfe von HPLC und MALDI-TOF-Massenspektrmetrie identifiziert. Die Fermentationsmischung fördert die Immunität von Pflanzen gegen Bakterien und Virusinfektion. Die Zunahme der Immunität schwankt jedoch je nach System Pflanze-Pathogen. Die Fermentation von Chitosan durch Aspergillus fumigatus könnte eine schnelle und billige Methode zur Herstellung von Chitooligomeren mit guter Reinheit und Ausbeute sein. Eine partiell aufgereinigte Fermentationsmischung dieser Art könnte in der Landwirtschaft als Pathogeninhibitor genutzt werden. Durch kontrollierte Fermentation, die Chitooligomere in definierter Zusammensetzung (d.h. definierter Verteilung des Depolymerisationsgrades) liefert, könnte man zu Mischungen kommen, die für die jeweilige Anwendung eine optimale Bioaktivität besitzen. 3. Die aus Chitosan-Dispersionen hergestellten MCChB-Filme weisen bessere mechanische Eigenschaften (Bruchfestigkeit, Dehnung) und eine höhere Wasseraufnahmefähigkeit auf als Filme, die nach herkömmlichen Methoden aus sauerer Lösung hergestellt werden. Die Einführung von Proteinen ändert die mechanischen Eigenschaften der MCChB-Filme abhängig von der Art, der Proteine sowie des DD und der Mv des eingesetzte Chitosan. Die Zugabe von Protein beschleunigt den biologischen Abbau der MCChB-Filme. Aus den untersuchten MCChB-Filmen mit Proteinzusatz können leichte, reißfeste und dennoch elastische Materialen hergestellt werden. 4. Mit Hilfe von MCChB-Dispersion kann Papier modifiziert werden. Dadurch werden die mechanischen Eigenschaften verbessert und die Wasseraufnahme wird verringert. Die Zugabe von Proteinen verringert das Wasseraufnahmevermögen noch weiter. Ein geringes Wasseraufnahmevermögen ist der bedeutendste Faktor bei der Papierherstellung. Auch Papier, das mit einem MCChB-Protein-Komplexe modifiziert wurde, zeigt gute mechanische Eigenschaften. 5. Wird Chitosan durch unmittelbare Einführung von MCChB auf Cellulose-Fasern aufgebracht, so erhält man eine netzartige Struktur, während durch Ausfällung aufgebrachtes Chitosan eine dünne Schicht auf den Cellulose-Fasern bildet. Die netzartige Struktur erleichtert die Bioabbaubarkeit, während die Schichtstruktur diese erschwert. 6. Die guten mechanischen Eigenschaften, die geringe Wasseraufnahmefähigkeit und die mit Cellulose vergleichbare Bioabbaubarkeit von Papier, das mit MCChB modifiziert wurde, lassen MCChB für die Veredlung von Papier nützlich erscheinen.
In dieser Arbeit wird die Beschichtung von kolloidalen Templaten mit Hilfe der Layer-by-layer Technik beschrieben. Mit ihr ist es möglich, die Oberfläche der Template mit sehr dünnen und gut definierten Filmen zu versehen. Durch Auflösung der Template werden Kapseln hergestellt, die je nach Zusammensetzung der Beschichtung unterschiedliche Eigenschaften aufweisen.
In dieser Arbeit wurden zwei Themenbereiche bearbeitet: 1. Ellipsometrie an Adsorpionsschichten niedermolekularer Tenside an der Wasser/Luft-Grenzfläche (Ellipsometrie ist geeignet, adsorbierte Mengen von nicht- und zwitterionischen Tensiden zu messen, bei ionischen werden zusätzlich die Gegenionen mit erfaßt; Ellipsometrie mißt sich ändernde Gegenionenverteilung). 2. Ellipsometrische Untersuchung von endadsorbierten Polymerbürsten an der Wasser/Öl-Grenzfläche (Ellipsometrie ist nicht in der Lage, verschiedene Segmentkonzentrationsprofile innerhalb der Bürste aufzulösen, ist aber sehr wohl geeignet, Skalengesetze für Dicken und Drücke in Abhängigkeit von Ankerdichte und Kettenlänge der Polymere zu überprüfen; für in Heptan gequollene Poly-isobuten-Bürsten konnte gezeigt werden, daß sie sich entsprechend den theoretischen Vorhersagen für Bürsten in einem theta-Lösungsmittel verhalten)
The objective of this thesis is to provide new space compaction techniques for testing or concurrent checking of digital circuits. In particular, the work focuses on the design of space compactors that achieve high compaction ratio and minimal loss of testability of the circuits. In the first part, the compactors are designed for combinational circuits based on the knowledge of the circuit structure. Several algorithms for analyzing circuit structures are introduced and discussed for the first time. The complexity of each design procedure is linear with respect to the number of gates of the circuit. Thus, the procedures are applicable to large circuits. In the second part, the first structural approach for output compaction for sequential circuits is introduced. Essentially, it enhances the first part. For the approach introduced in the third part it is assumed that the structure of the circuit and the underlying fault model are unknown. The space compaction approach requires only the knowledge of the fault-free test responses for a precomputed test set. The proposed compactor design guarantees zero-aliasing with respect to the precomputed test set.
Als Grundlage vieler statistischer Verfahren wird der Prozess der Entstehung von Daten modelliert, um dann weitere Schätz- und Testverfahren anzuwenden. Diese Arbeit befasst sich mit der Frage, wie diese Spezifikation für parametrische Modelle selbst getestet werden kann. In Erweiterung bestehender Verfahren werden Tests mit festem Kern eingeführt und ihre asymptotischen Eigenschaften werden analysiert. Es wird gezeigt, dass die Bestimmung der kritischen Werte mit mehreren Stichprobenwiederholungsverfahren möglich ist. Von diesen ist eine neue Monte-Carlo-Approximation besonders wichtig, da sie die Komplexität der Berechnung deutlich verringern kann. Ein bedingter Kleinste-Quadrate-Schätzer für nichtlineare parametrische Modelle wird definiert und seine wesentlichen asymptotischen Eigenschaften werden hergeleitet. Sämtliche Versionen der Tests und alle neuen Konzepte wurden in Simulationsstudien untersucht, deren wichtigste Resultate präsentiert werden. Die praktische Anwendbarkeit der Testverfahren wird an einem Datensatz zur Produktwahl dargelegt, der mit multinomialen Logit-Modellen analysiert werden soll.
Die Entstehung zeitlich veränderlicher kolloidaler Strukturen in wäßrigen Calciumphosphat-Dispersionen wurde abgebildet und einer Strukturanalyse unterzogen. Diese wurde durchgeführt unter Einsatz verschiedener bildgebenderund Streumethoden, deren Ergebnisse verglichen wurden. Ziel der Arbeit war es, aus biomineralisierenden Systemen bekannte Prozesse zu vereinfachen und im Experiment nachzustellen. Die gefundenen komplexen hierarchischen Strukturendes Calciumphosphates sind stark von Eigenschaften des Polymerzusatzes abhängig.
Polymers at membranes
(2000)
The surface of biological cells consists of a lipid membrane and a large amount of various proteins and polymers, which are embedded in the membrane or attached to it. We investigate how membranes are influenced by polymers, which are anchored to the membrane by one end. The entropic pressure exerted by the polymer induces a curvature, which bends the membrane away from the polymer. The resulting membrane shape profile is a cone in the vicinity of the anchor segment and a catenoid far away from it. The perturbative calculations are confirmed by Monte-Carlo simulations. An additional attractive interaction between polymer and membrane reduces the entropically induced curvature. In the limit of strong adsorption, the polymer is localized directly on the membrane surface and does not induce any pressure, i.e. the membrane curvature vanishes. If the polymer is not anchored directly on the membrane surface, but in a non-vanishing anchoring distance, the membrane bends towards the polymer for strong adsorption. In the last part of the thesis, we study membranes under the influence of non-anchored polymers in solution. In the limit of pure steric interactions between the membrane and free polymers, the membrane curves towards the polymers (in contrast to the case of anchored polymers). In the limit of strong adsorption the membrane bends away from the polymers.
In einer Längsschnittstudie mit 215 Schülern der achten Klasse wurde der Zusammenhang zwischen selbstgesteuertem Lernen, motivationalen (Zielorientierungen, Selbstwirksamkeit, schulischer Affekt) und kognitiven Variablen (Intelligenz) sowie Leistungsindikatoren (Schulleistung, Noten) erhoben. Selbstgesteuertes Lernen wurde mit Hilfe eines strukturierten Interviews (Zimmerman, 1986) und eines Lernstrategie-Fragebogens erfasst. Zum einen zeigte sich, dass die Lernstrategie-Angaben im Interview und im Fragebogen in keiner bedeutsamen Beziehung zueinander standen. Zum anderen ergaben sich deutliche Unterschiede in der Vorhersage der Leistungsindikatoren. Die per Interview erfassten Lernstrategien besaßen sowohl Vorhersagekraft bezüglich Schulnoten und Schulleistung und zeigten signifikante Zusammenhänge zu den individuellen Zielorientierungen, dem schulischen Affekt und der Selbstwirksamkeit. Darüber hinaus konnten Leistungsveränderungen von der achten zur neunten Klasse vorhergesagt werden. Der parallel eingesetzte Lernstrategie-Fragebogen leistete im Vergleich dazu keine Erklärung der Leistungsvarianz. Implikationen für die Diagnostik selbstgesteuerten Lernens werden diskutiert.