Refine
Year of publication
Document Type
- Article (11482)
- Monograph/Edited Volume (4118)
- Doctoral Thesis (3247)
- Review (1141)
- Part of a Book (766)
- Part of Periodical (289)
- Other (259)
- Master's Thesis (171)
- Postprint (170)
- Working Paper (77)
Language
- German (22022) (remove)
Is part of the Bibliography
- yes (22022) (remove)
Keywords
- Deutschland (59)
- Digitalisierung (36)
- Nachhaltigkeit (35)
- Patholinguistik (34)
- patholinguistics (34)
- Sprachtherapie (33)
- Jüdische Studien (27)
- Genisa (25)
- Geniza (25)
- Germany (24)
Institute
- Historisches Institut (1844)
- Wirtschaftswissenschaften (1650)
- Sozialwissenschaften (1392)
- Bürgerliches Recht (1232)
- Institut für Germanistik (1231)
- Institut für Romanistik (1054)
- Öffentliches Recht (1014)
- Department Erziehungswissenschaft (1005)
- Department Psychologie (810)
- Department Sport- und Gesundheitswissenschaften (784)
In Anlehnung an das Self-Regulated-Strategy-Development-Modell von Harris und Graham (1996) wurde das Selbstregulatorische Aufsatztraining (SAT) zur Förderung der Schreibkompetenz bei Grundschülern der 4. und 5. Klasse entwickelt. SAT integriert die Vermittlung von Schreibstrategien (hier: „Erzählendes Schreiben“) mit Merkmalen selbstgesteuerten Lernens (Zielsetzung, strategisches Planen, Selbstbewertung und Selbstkorrektur). Die Wirksamkeit des Trainings wurde in drei Studien untersucht: 1. Eine Pilotstudie diente der Überprüfung der prinzipiellen Eignung von SAT zur Förderung von Schreibleistungen bei Grundschülern der 5. Klassen (N = 42) und der Optimierung seiner Teilkomponenten und Vorgehensweisen. 2. In der Hauptuntersuchung wurden die Effektivität und Nachhaltigkeit des SAT-Programms bei Schülern der 4. Klasse (N = 154) im Vergleich zu zwei Bedingungen getestet: (a) der isolierten Einübung von Schreibstrategien (Aufsatztraining) und (b) konventionellem Aufsatzunterricht (Unterrichtskontrollgruppe). 3. In einer weiteren Studie wurde die Wirksamkeit des Trainings speziell bei Schülern mit ungünstigen Lernvoraussetzungen überprüft; die Studie diente zudem der Illustration des dabei gewählten Vorgehens am Einzelfall (N = 6). Die ermittelten Befunde sprechen übereinstimmend dafür, dass die Kombination aus strategischem plus selbstregulatorischem Training (SAT) die stärksten und nachhaltigsten Effekte auf die Schreibleistung erzielt. Der Trainingseffekt generalisiert zudem auf die Erinnerungsleistung bei der freien Wiedergabe einer Kurzgeschichte. Schüler mit schwachen Aufsatzleistungen und ungünstigen Lernvoraussetzungen profitieren von dem SAT-Programm in besonderem Maße. In der Diskussion werden Aufgaben für die zukünftige Forschung erörtert. Forschungsbedarf besteht u.a. hinsichtlich (a) einer stärkeren Verknüpfung von Schreibtrainings mit der kognitionspsychologischen Forschung; (b) der Dekomposition und gezielten Überprüfung der einzelnen Trainingskomponenten; (c) der Ausweitung des SAT-Programms auf andere Textgenre; (d) der Integration verfeinerter Revisionsstrategien in das Förderprogramm; und (e) dessen Implementierung in den Regelunterricht.
Die immunologische Kontrazeption mittels Zona pellucida (ZP) Proteinen gilt als vielversprechender Ansatz für die Reproduktionskontrolle verwilderter Haus- und Wildtierbestände. Da die Applikation von nativer ZP mit Nebenwirkungen verbunden ist, wird die Verwendung einzelner ZP Peptide als Bestandteil kontrazeptiver Vakzine als besonders aussichtsreich erachtet. Das Prinzip dieser nebenwirkungsfreien ZP Immunisierung ist die gezielte Trennung der Entzündungsreaktionen auslösenden T-Zell-Epitope der ZP von den kontrazeptiv wirkenden B-Zell-Epitopen. Niedermolekulare synthetische oder rekombinante Peptide allein sind gering immunogen und können somit keine ausreichende Immunantwort induzieren. Die Verwendung von Peptiden für die immunologische Kontrazeption erfordert daher ein „Vakzin-Design“, d. h. die gezielte Kombination der Peptide mit immunstimulierenden Substanzen (Liposomen, Carrierproteinen, Adjuvantien). Zielstellung der vorliegenden Arbeit war die Untersuchung des Potentials synthetischer Peptide für die Immunokontrazeption von verwilderten Hauskatzen (Felis catus). Dazu wurden zunächst relevante B-Zell-Epitope des felinen Zona pellucida Proteins, ZPB2, identifiziert und synthetisiert. Zwei der synthetischen Peptide (P3, P6) wurden zur Herstellung von Antikörpern an BSA konjugiert und zusammen mit Freundschem Adjuvans in Ratten verimpft. Die kontrazeptive Relevanz beider Peptide sowie der Ratten Anti-Peptid Antiseren wurde im in vitro Befruchtungssystem der Hauskatze geprüft. Zur Untersuchung der Immunogenität der Peptide in der Zielspezies Hauskatze erfolgte die Entwicklung von Vakzin-Prototypen für die einmalige Applikation. Neben der Eruierung der Stärke und Dauer der Immunantwort wurde durch Verpaarung der Tiere auch das kontrazeptive Potential in vivo abgeschätzt.
Gegenstand der Arbeit ist die lichtinduzierte Orientierung von multifunktionalen Polymeren, die u.a. für die Herstellung von optischen Schichten in Flüssigkristalldisplays verwendet werden können. Dafür wurden Polymere entwickelt, die wenigstens eine mesogene und eine lichtsensitive Gruppe enthalten. Diese Gruppen zeigen Eigenschaften, die für die Orientierung der kompletten Polymerfilme verantwortlich sind. Das Material wird dafür zunächst in einem ersten Schritt kurz mit linear polarisiertem Licht bestrahlt, wobei richtungsabhängig eine photochemische Reaktion an der lichtsensitiven Gruppe erfolgt und dadurch ein "Orientierungskeim" gelegt wird. Durch die thermische Ausrichtung der mesogenen Gruppen an den photochemisch generierten "Orientierungskeimen" erfolgt die komplette Orientierung des Filmes in einem zweiten Schritt. Dadurch wird eine hohe optische Anisotropie erhalten. Dieses Verfahren wurde als Zwei-Stufen-Bulk-Orientierungsprozess bezeichnet. In der vorliegenden Arbeit wurden die Photoreaktionen verschiedener lichtsensitiver Gruppen, wie z. B. Azobenzen, Stilben und Zimtsäureester und deren Orientierungsfähigkeit in flüssigkristallinen Polymeren untersucht. Der Orientierungsprozess wurde durch die Wahl geeigneter Bestrahlungsbedingungen optimiert. Die Effizienz der Orientierung wurde anhand der sich verändernden winkelabhängigen Absorptionseigenschaften und der Doppelbrechung des Materials analysiert. Es wurde gezeigt, dass eine effiziente lichtinduzierte Orientierung bei einer Vielzahl von flüssigkristallinen Polymeren realisierbar ist. So wurde z. B. erstmalig gefunden, dass durch eine Photo-Fries-Orientierung eine hohe optische Anisotropie erhalten werden kann. Außerdem wurde eine neue lichtsensitive Gruppe auf der Basis von Donor-Akzeptor-substituiertem Ethen entwickelt, die farbneutral ist und durch polarisiertes UV-Licht sowohl orientiert als auch re-orientiert werden kann. Es wurden weiterhin Polymere entwickelt, die zusätzlich zu den photosensitiven und flüssigkristallinen Einheiten, fluoreszierende Gruppen enthalten. Die Auswahl geeigneter Fluoreszenzverbindungen erfolgte aufgrund ihrer anisometrischen Form, ihrer Ordnungsparameter in einer niedermolekularen Flüssigkristallmischung und ihrer Photostabilität. Das Orientierungsverhalten von ausgewählten Fluorophoren wurde in sechs Ter- und zwei Copolymeren untersucht. Das Prinzip der Orientierung beruht auf einer kooperativen Ausrichtung der Seitengruppen. Aus diesem Grund kommt dem Nachweis der Kooperativität in der vorliegenden Arbeit eine besondere Stellung zu. Durch lichtinduzierte Bulk-Orientierung wurden Filme erhalten, welche durch eine richtungsabhängige Fluoreszenz und Absorption im sichtbaren- oder UV-Bereich charakterisiert sind. Die Fluoreszenz wird durch einige lichtsensitive Verbindungen komplett gelöscht. Die wahlweise erhaltenen anisotropen Filme von farbigen, fluoreszierenden oder farbneutralen Verbindungen, die zudem in kleinen Pixeln von wenigen Mikrometern orientiert werden können, eröffnen vielfältige Möglichkeiten für den Einsatz von multi-funktionalen Polymeren als optische Schichten in Flüssigkristalldisplays.
Ziel dieser Arbeit ist es, ein sequentielles Extraktionsverfahren zur Erfassung unterschiedlich stabiler Anteile der orgnischen Bodensubstanz (OBS) zu entwickeln und zu klären, ob ein Zusammenhang zwischen Löslichkeit und Stabilität besteht. Darüber hinaus sollen der Einfluss von Bewirtschaftungsmaßnahmen auf Menge und Zusammensetzung dieser OBS-Anteile und Zusammenhänge zwischen Fourier Transform Infrarot (FT-IR)-Spektroskopiedaten und der Kationenaustauschkapazität (KAK) der OBS analysiert werden. Für die Untersuchungen wurden Böden der Langzeitfeldexperimente (LFE) in Halle, Bad Lauchstädt und Rotthalmünster beprobt. Zur Erfassung unterschiedlicher OBS-Fraktionen wurden im ersten Schritt die wasserlöslichen OBS-Anteile (OBS(W)-Fraktion) aus den Böden isoliert. Im zweiten Schritt wurden aus den Extraktionsrückständen der Wasserextraktion OBS-Anteile mit einer Natrium (Na)-Pyrophosphatlösung extrahiert (OBS(PY)-Fraktion). Die Stabilität der OBS-Fraktionen wurde anhand von δ13C-Bestimmungen und 14C-Messungen untersucht. Die Charakterisierung der Zusammensetzung der OBS-Fraktionen erfolgte mittels FT-IR Spektroskopie. Generell wird mit der OBS(PY)-Fraktion ein größerer Anteil am organischen Kohlenstoffgehalt der Böden erfasst als mit der OBS(W)-Fraktion. Die δ13C- und 14C-Daten zeigen, dass die OBS(W)-Fraktion höhere Anteile jungen organischen Materials als die OBS(PY)-Fraktion enthält. Das entwickelte sequentielle Extraktionsverfahren ist also prinzipiell geeignet unterschiedlich stabile OBS-Anteile anhand ihrer Löslichkeit zu isolieren. Mittels FT-IR spektroskopischer Untersuchungen wird festgestellt, dass Bewirtschaftungsmaßnahmen, wie die Düngung, sowie Standorteigenschaften die Zusammensetzung der OBS-Fraktionen beeinflussen. Für die OBS(PY)-Fraktion ist dies stärker ausgeprägt als für die OBS(W)-Fraktion. Die KAK der OBS(PY)-Fraktion aus den Böden der LFE in Halle und Bad Lauchstädt ist positiv mit der Absorptionsintensität der C=O-Bande in den FT-IR Spektren dieser OBS-Fraktion korreliert.
Substanzen der pharmazeutischen und chemischen Industrie müssen nach internationalen Richtlinien auf deren Toxizität gegenüber Mensch und Umwelt geprüft werden. Dazu gehören u. a. Prüfungen zur Vorhersage des embryotoxischen Potentials, die am lebenden Organismus durchgeführt werden. Mit dem Ziel die Anzahl der Tierversuche zu verringern, die notwendig sind um das toxikologische Profil einer Prüfsubstanz zu bestimmen, wurde der Embryonale Stammzelltest (EST) entwickelt. Als Grundlage des EST dienen embryonale Stammzellen (ES-Zellen) einer Zelllinie. ES-Zellen sind Zellen, die sich in der frühen embryonalen Entwicklung in die Zellen der Keimblätter entwickeln können. Daraus wiederum differenzieren die vielen verschiedenen, unterschiedlich spezialisierten Zelltypen des komplexen Organismus. Im EST wird die Konzentration einer Prüfsubstanz bestimmt, bei der die Differenzierung von ES-Zellen zu Herzmuskelzellen zu 50 % inhibiert wird. Zusätzlich wird die Konzentration der Prüfsubstanz bestimm°t, bei der 50 % der ES-Zellen (IC50D3) bzw. Fibroblastenzellen (IC503T3) absterben. Die allgemeine Toxizität ist damit von der spezifischen Toxizität der Prüfsubstanz auf die ES-Zellen und deren Differenzierung unterscheidbar. Die Parameter fliessen in ein biostatistisches Modell zur Prädiktion des embryotoxischen Potentials der Prüfsubstanzen ein. Es wurde ein Versuchsprotokoll entwickelt, wonach die ES-Zellen sich verstärkt zu Endothelzellen differenzieren. Die Endothelzellen, die im lebenden Organismus die Wand der späteren Blutgefässe, wie Venen und Arterien bilden, wurden mittels molekularbiologischer Methoden auf der RNA- und der Protein-Ebene nachgewiesen und quantifiziert. Verschiedene Zellkulturmethoden, Wachstumsfaktoren, als auch Wachstumsfaktorkonzentrationen wurden auf deren Vermögen die Differenzierung der ES-Zellen zu Endothelzellen zu induzieren, untersucht. Nach der Etablierung des Differenzierungsprotokolls wurden sieben Substanzen auf deren Vermögen geprüft, die Differenzierung von ES-Zellen zu Endothelzellen zu inhibieren. Die Endothelzellen wurden dabei über die Expression der RNA von zwei endothelzellspezifischen Genen quantifiziert. Im Vergleich dazu wurden die IC50D3 und die IC503T3 der Prüfsubstanz bestimmt, um eine Abschätzung des embryotoxischen Potentials der Prüfsubstanz zu ermöglichen. Die Ergebnisse zeigten, dass eine Abschätzung des embryotoxischen Potentials der sieben Prüfsubstanzen in nicht-, schwach- oder stark embryotoxisch vorgenommen werden konnte. Es ist zu schlussfolgern, dass der weiterentwickelte in vitro Embryotoxizitätsassay sensitiv und reproduzierbar ist. Mit der Verwendung von verschiedenen Differenzierungsendpunkten kann die Prädiktionskraft des Assays deutlich verbessert, und die Anzahl von Tierversuchen verringert werden. Durch die Verwendung von molekularbiologischen Markern kann der Assay einem Hochdurchsatzscreening zugängig gemacht werden und damit die Anzahl von Prüfsubstanzen deutlich erhöht werden.
Die Hochwasserereignisse der letzten Jahre haben Mängel bei der schnellen Verfügbarkeit des klassischen Darstellungs-, Entscheidungs- und Analyseinstruments Karte offenbart. Die Erfahrungen von 1997 und 2002 verdeutlichen, dass eine homogene digitale Datengrundlage, die neben rein topographischen zusätzlich auch fachspezifische Informationen des Hochwasserschutzes enthält, für eine effektive Bekämpfung solcher Ereignisse notwendig ist. Mit den Daten des ,Amtlichen Topographisch-Kartographischen Informationssystems’ (ATKIS) liegen topographische Basisdaten in graphikfreier Form als digitales Landschaftsmodell (DLM) flächendeckend für die Bundesrepublik vor. Anhand der exemplarischen Ableitung von nutzerorientierten Kartenmodellen aus diesen graphikfreien Daten wurde deren Eignung für den besonderen Verwendungszweck im Rahmen eines Hochwasserschutz-Informationssystems überprüft. Als Anwendungsbeispiel wurde das Gebiet der Ziltendorfer Niederung, die während des Oder-Hochwassers 1997 überflutet wurde, gewählt. In Expertengesprächen wurden zunächst Inhalte identifiziert, die für einen wirksamen Hochwasserschutz Relevanz besitzen; diese Inhalte wurden anschließend analog zum ATKIS-Systemdesign strukturiert und als Objekte eines separaten Objektbereichs im digitalen Fachmodell (DFM) erfasst. Bei der Ableitung von (Bildschirm-) Karten aus den graphikfreien Daten wurden jeweils unterschiedliche Kriterien für die Basiskarte und die Fachinhalte berücksichtigt. Dabei wurden verschiedene kartographische Regeln und Gesetze mit dem Ziel der prägnanten Visualisierung und damit der eindeutigen Lesbarkeit der Karten angewendet. Beispielhaft sei hier die Schaffung einer visuellen Hierarchie zwischen Basiskarte und Fachinhalten genannt. Die besonderen Nutzungsbedingungen von Karten im Einsatzfall erfordern u.a., dass die Karten auch von Personen, die nur über geringe oder keine Erfahrung im Umgang mit Karten verfügen, schnell und einfach zu lesen sind, um so eine sichere Informationsvermittlung zu gewährleisten. Voraussetzung dafür ist einerseits die Beschränkung auf die Darstellung der wesentlichen Inhalte, andererseits die Verwendung leicht lesbarer Kartenzeichen. Aus diesem Grund wurden einheitliche Kartenzeichen zur Darstellung der Fachinhalte entwickelt, die entweder aus allgemein bekannten Symbolen, aus den im Katastrophenschutz üblicherweise verwendeten sog. taktischen Zeichen oder aus Fachzeichen des Hochwasserschutzes abgeleitet wurden. Die entwickelten Kartenmodelle wurden abschließend in qualitativen Experteninterviews in Bezug auf ihre Qualität und Verwendbarkeit im Hochwasserschutz geprüft. Die Auswertung der Interviews ergab eine insgesamt positive Beurteilung der Karten für den Einsatz in Hochwasserschutz-Informationssystemen. Damit leistet die vorliegende Arbeit einen Beitrag zur Entwicklung von (Bildschirm-) Karten zur Unterstützung bei der Entscheidungsfindung im Katastrophenmanagement.
In einer multiplen Einzelfallstudie mit zehn aphasischen Patienten wurde die Wirksamkeit eines semantischen und eines phonologischen Therapieansatzes zur Behandlung von Wortabrufstörungen verglichen. Detaillierte Einzelfalluntersuchungen ermöglichten die Diagnose der zugrundeliegenden funktionalen Störungen bei jedem Patienten. Auf diese Weise konnten die erzielten Therapieeffekte auf die individuellen kognitiv-neurolinguistischen Störungsmuster bezogen werden. Im Vordergrund der Therapie stand in beiden Ansätzen das mündliche Benennen von Objektabbildungen mit unterschiedlichen Arten von Hilfen. Während in der semantischen Therapie Teilaspekte des semantischen Zielkonzepts als Benennhilfen eingesetzt wurden, handelte es sich bei den phonologischen Hilfen um Teilinformationen der Zielwortform. Bei der Erhebung von spezifischen Therapieeffekten wurde zwischen itemspezifischen und itemübergreifenden Verbesserungen sowie kurz- und langfristigen Effekten auf die mündlichen Benennleistungen unterschieden. Dabei wurden neben den quantitativen Verbesserungen (% korrekt) auch die qualitativen Effekte (Fehlertypen) der beiden Ansätze berücksichtigt, und es wurden Transfereffekte in die Spontansprache der Patienten untersucht. Zusätzlich wurden auch die Soforteffekte der verschiedenen Benennhilfen in den Therapiesitzungen erhoben. Im Methodenvergleich zeigte sich, dass die phonologische Therapiephase kurzfristig bei der Mehrzahl der Patienten signifikante Verbesserungen beim Bildbenennen bewirkte, diese Effekte haben sich jedoch überwiegend als nicht stabil erwiesen. Im Gegensatz dazu erwies sich die semantische Therapiephase auch als langfristig effektiv. Im Unterschied dazu erwiesen sich die phonologischen Benennhilfen bei fast allen Patienten als unmittelbar effektiver als die semantischen Benennhilfen. Somit waren die Soforteffekte der Hilfetypen in den Therapiesitzungen kein sicherer Indikator für die Dauer der Gesamteffekte einer Therapiephase. Außerdem zeigte sich nicht bei allen Patienten ein direkter Zusammenhang zwischen der Art ihrer zugrundeliegenden funktionalen Störung und den erzielten Therapieeffekten. Einerseits profitierten Patienten mit erhaltenen semantischen Verarbeitungsleistungen von der semantischen Therapie, andererseits zeigten sich signifikante phonologische Therapieeffekte bei Patienten mit zentral-semantischen Störungen. Die Wirkmechanismen der beiden Therapieansätze werden unter Berücksichtigung unterschiedlicher kognitiv-neurolinguistischer Theorien zum mündlichen Wortabrufprozess beim Bildbenennen interpretiert.
Entsprechend der sogenannten Set-point-Theorie besitzt jeder Mensch eine individuell festgelegte Körpermasse, die über große Zeiträume konstant gehalten und gegen Abweichungen verteidigt wird. Es wird angenommen, dass der Körper auf noch unbekannte Weise Änderungen in der Körpermasse per se wahrnimmt und daraufhin Mechanismen aktiviert, die zur Regenerierung der ursprünglichen Masse führen. In dieser Arbeit wurde die Hypothese getestet, dass eine künstliche Erhöhung der Körpermasse zu einer kompensatorischen Reduktion in der Körpermasse führt, um das Ausgangsgewicht wieder zu regenerieren. Die Körpermasse von männlichen und weiblichen Mäusen wurde akut durch die Implantation von Gewichten mit einer Masse von 10% der aktuellen Körpermasse in die Bauchhöhle erhöht. Bei Gültigkeit der Set-point-Theorie sollte die Körpermassereduktion der Masse des zusätzlichen Gewichtsimplantats entsprechen. Die Mäuse reagierten auf die künstlich erhöhte Körpermasse geschlechtsspezifisch. Männchen zeigten eine partielle Reduktion in der Körpermasse. Weibchen zeigten langfristig jedoch keine Änderungen in der Körpermasse. Die Reduktion der Körpermasse erfolgte bei den Männchen durch eine Abnahme in der Fettmasse. Die fettfreie Masse war in beiden Geschlechtern nicht verändert. Änderungen in der Körpermasse wurden vor allem durch Änderungen in der Energieaufnahme hervorgerufen. Ein Einfluss des Energieumsatzes auf Änderungen in der Körpermasse konnte nicht nachgewiesen werden. Die Regulation der Körpermasse entsprechend eines massespezifischen Set-points konnte partiell für die Männchen gezeigt werden. Bei den Männchen könnte daher die Wahrnehmung der Körpermasse in die Regulation der Körpermasse teilweise integriert sein. Weibchen verminderten ihre Körpermasse dagegen trotz der künstlichen Körpermasseerhöhung nicht. Das führte zur Bewahrung der Energiereserven und spricht eher für die Regulation der Körpermasse entsprechend des notwendigen Energiebedarfs im Vergleich zu Änderungen in der Körpermasse per se. Diese Ergebnisse zeigen, dass die Regulation der Körpermasse geschlechtsspezifischen Mechanismen unterliegt. Dementsprechend sind auch geschlechtsspezifische Ansätze zur Therapie von Übergewicht und Adipositas notwendig.
Die Frage nach der Herkunft und der dynamischen Entwicklung langlebiger kosmischer Magnetfelder ist in vielen Details noch unbeantwortet. Es besteht zwar kein Zweifel daran, dass das Magnetfeld der Erde und anderer kosmischer Objekte durch den sogenannten Dynamoeffekt verursacht werden, der genaue Mechanismus als auch die notwendigen Voraussetzungen und Randbedingungen der zugrundeliegenden Strömungen sind aber weitgehend unbekannt. Die für einen Dynamo interessanten Strömungsmuster, die im Inneren von Himmelskörpern durch Konvektion und differentielle Rotation entstehen, sind Konvektionsrollen parallel zur Rotationsachse. Auf einer Strömung mit eben solcher Geometrie, der sogenannten Roberts-Strömung, basieren die in der vorliegenden Arbeit untersuchten Dynamomodelle. Mit Methoden der nichtlinearen Dynamik wird versucht, das Systemverhalten bei Änderung der Systemparamter genauer zu charakterisieren. Die numerischen Untersuchungen beginnen mit einer Analyse der Dynamoaktivität der Roberts-Strömung in Abhängigkeit von den zwei freien Parametern in den Modellgleichungen, der magnetischen Prandtl-Zahl und der Stärke des Energieinputs. Gefunden werden verschiedene Lösungstypen die von einem stationären Magnetfeld über periodische bis zu chaotischen Zuständen reichen. Die yugrundeliegenden Symmetrien werden beschrieben und die Bifurkationen, die zum Wechsel der Lösungstypen führen, charakterisiert. Zusätzlich gibt es Bereiche bei sehr kleinen Prandtl-Zahlen, in denen überhaupt kein Dynamo existiert. Dieses Verhalten wird in der Literatur auch für viele andere numerisch ausgewertete Modelle beschrieben. Im Übergangsbereich zwischen dynamoaktivem und dynamoinaktivem Bereich wird das Auftreten einer sogenannten Blowout-Bifurkation gefunden. Desweiteren beschäftigt sich die Arbeit mit der Frage, inwiefern Helizität, also eine schraubenförmige Bewegung, der Strömung den Dynamoeffekt beeinflusst. Dazu werden ähnliche Strömungstypen verglichen, die sich hauptsächlich in ihrem Helizitätswert unterscheiden. Es wird gefunden, dass ein bestimmter Wert der Helizität nicht unterschritten werden darf, um einen stabilen Roberts-Dynamo zu erhalten.
Gangschwärme nehmen eine bedeutende Stellung im Verständnis zur kontinentalen Fragmentierung ein. Einerseits markieren sie das Paläo-Spannungsfeld und helfen bei der Rekonstruktion der strukturellen Entwicklung der gedehnten Lithosphäre, andererseits gibt ihre petrologische Beschaffenheit Aufschluß über die Entstehung des Magmas, Aufstieg und Platznahme und schließlich erlaubt ihre Altersbestimmung die Rekonstruktion einer chronologischen Reihenfolge magmatischer und struktureller Ereignisse. Das Arbeitsgebiet im namibianischen Henties Bay-Outjo Dike swarm (HOD) war zur Zeit der Unterkreide einem Rifting mit intensiver Platznahme von überwiegend mafischen Gängen unterworfen. Geochemische Signaturen weisen die Gänge als erodierte Förderkanäle der Etendeka Plateaubasalte aus. Durch den Einsatz von hochauflösenden Aeromagnetik- und Satellitendaten war es möglich, die Geometrie des Gangschwarmes erstmals detailliert synoptisch zu erfassen. Viele zu den Schichten des Grundgebirges foliationsparallel verlaufende magnetische Anomalien können unaufgeschlossenen kretazischen Intrusionen zugeordnet werden. Bei der nach Norden propagierenden Südatlantiköffnung spielte die unterschiedliche strukturelle Vorzeichnung durch die neoproterozoischen Faltengürtel sowie Lithologie und Spannungsfeld des Angola Kratons eine bedeutende Rolle. Im küstennahen zentralen Bereich war dank der Vorzeichnung des Nordost streichenden Damara-Faltengürtels ein Rifting in Nordwest-Südost-Richtung dominierend, bis das Angola Kraton ein weiteres Fortscheiten nach Nordosten hemmte und die Vorzeichnung des Nordwest streichenden Kaoko-Faltengürtels an der Westgrenze den weiteren Riftverlauf und die letztendlich erfolgreiche Öffnung des Südatlantiks bestimmte. Aus diesem Grund kann das Gebiet des HOD als ein failed rift betrachtet werden. Die Entwicklung des Spannungsfeldes im HOD kann folgendermaßen skizziert werden: 1. Platznahme von Gängen bei gleichzeitig hoher Dehnungsrate und hohem Magmenfluß. 2. Platznahme von Zentralvulkanen entlang reaktivierter paläozoischer Lineamente bei Abnahme der Dehnungsrate und fortbestehendem hohen Magmenfluß. 3. Abnahme/Versiegen des Magmenflusses und neotektonische Bewegungen führen zur Bildung von Halbgräben.
Die vorliegende Arbeit beschreibt das Verhalten von Polypeptid-Blockcopolymeren in der festen Phase und in selektiven Lösungsmitteln. Blockcopolymere auf Basis von Poly(L-glutaminsäure-5-benzylester) (PBLGlu) oder Poly(Nε-benzoyloxycarbonyl-L-lysin) (PZLLys), die in dieser Arbeit eingesetzt wurden, besitzen wegen ihrer helikalen Sekundärstruktur eine sog. Stäbchen-Knäuel-Geometrie, wobei die Knäuelkomponente Polystyrol oder Polybutadien ist. Die Phasenbildung dieser Blockcopolymere ist durch die Packungseigenschaften des rigiden Blocks beeinflusst. Es wurden bevorzugt lamellare Strukturen gebildet, in denen die Stäbchen parallel angeordnet sind. Das Vorhandensein eines permanenten Dipolmomentes führt zur Wechselwirkung zwischen den Helices und zur Erhöhung des Ordnungsgrades in der Phase. Ein zusätzlicher Parameter, der die Morphologie der Phase beeinflußt, ist die Chiralität der Peptidhelix, durch die chirale Überstrukturen induziert werden. In dünnen Filmen (40 nm), wo die Geometrie begrenzt ist, führt es zu Frustrationen in der Phase. Die dadurch entstandene Spannung wurde durch einen zick-zack-artigen Lamellenverlauf abgebaut. In selektiven Lösungsmitteln für die synthetische Komponente (PS) bilden die Polypeptid-Blockcopolymere vesikuläre Strukturen, deren kugel- oder wurmförmige Geometrie von der Elastizität der Membran abhängig ist. Durch Entfernung der Z-Schutzgruppe kann PZLLys in eine wasserlösliche Form überführt werden, so dass die PB-PLLys Blockcopolymere unter Bildung von Vesikeln in Wasser löslich sind. Dabei ist die Konformation des Peptids vom pH-Wert des Mediums abhängig und kann von einem Knäuel zu einer Helix reversibel geschaltet werden. Beim Modifizieren der Sekundärstruktur wurde eine Änderung der Aggregationszahl beobachtet. Somit können diese Blockcopolymere für die Herstellung von schaltbaren Aggregaten eingesetzt werden.
Die Autoren untersuchten mit Hilfe einer Fragebogenstudie das Sexualverhalten von StudentenInnen und KrankenpflegeschülernInnen unter der Bedrohung durch AIDS(n = 593). Als Ergebnis lässt sich festhalten, dass unterschiedliche Personengruppen mit unterschiedlichen Einstellungen, mit unterschiedlichem Wissen über HIV und AIDS, mit unterschiedlichem Sexualverhalten sowie einem unterschiedlichen Grad von persönlicher Betroffenheit auf differenzierte Weise angesprochen und zur Prävention angeleitet werden müssen. Die berufliche Nähe zu HIV und AIDS hat keinen Einfluss auf die sexuellen Einstellungen und Verhaltensweisen. Nur durch eine Selbststeuerung kann einer Gefahrensituation, wie sie eine mögliche HIV-Infektion darstellt, begegnet werden. Von daher muss neben der persönlichen Betroffenheit auch die Einsicht gegeben sein, dass ich mich als Individuum eigenständig vor dieser Gefahr schützen kann. Ferner muss dieses Verhalten in die eigene Lebenswelt eingepasst und von der eigenen sozialen Umgebung getragen werden. Präventionsbemühungen müssen auf kompetenzsteigernde, ressourcenorientierte und differenzierte Maßnahmen setzen. Ansätze von Furchtappellen und Lustfeindlichkeit wirken kontraproduktiv. Eine Beschränkung der Prävention auf individuumzentrierte Maßnahmen ist wenig effektiv, sofern gesellschaftliche und strukturelle Bedingungen ausgeblendet werden. Ziel von Sexualpädagogik und AIDS-Präventionsarbeit muss es daher sein, eine von allen geteilte Kommunikationsstruktur für Intimität zu entwickeln.
Eine Nutzung der optischen Anisotropie dünner Schichten ist vor allem für die Displaytechnologie, die optische Datenspeicherung und für optische Sicherheitselemente von hoher Bedeutung. Diese Doktorarbeit befasst sich mit theoretischen und experimentellen Untersuchung von dreidimensionaler Anisotropie und dabei insbesondere mit der Untersuchung von lichtinduzierter dreidimensionaler Anisotropie in organischen dünnen Polymer-Schichten. Die gewonnenen Erkentnisse und entwickelten Methoden können wertvolle Beiträge für Optimierungsprozesse, wie bei der Kompensation der Blickwinkelabhängigkeit von Flüssigkristall-Displays, liefern. Die neue Methode der Immersions-Transmissions-Ellipsometrie (ITE) zur Untersuchung von dünneren Schichten wurde im Rahmen dieser Dissertation entwickelt. Diese Methode gestattet es, in Kombination mit konventioneller Reflexions- und Transmissionsellipsometrie, die absoluten dreidimensionalen Brechungsindices einer biaxialen Schicht zu bestimmen. Erstmals gelang es damit, das dreidimensionale Brechungsindexellipsoid von transparenten, dünneren (150 nm) Filmen hochgenau (drei Stellen hinter dem Komma) zu bestimmen. Die ITE-Methode hat demzufolge das Potential, auch bei noch dünneren Schichten mit Gewinn eingesetzt werden zu können. Die lichtinduzierte Generierung von dreidimensionaler Anisotropie wurde in dünnen Schichten von azobenzenhaltigen und zimtsäurehaltigen, amorphen und flüssig-kristallinen Homo- und Copolymeren untersucht. Erstmals wurden quantitative Untersuchungen zur Änderung von lichtinduzierten, dreidimensionalen Anisotropien in dünnen Schichten von azobenzenhaltigen und zimtsäurehaltigen Polymeren bei Tempern oberhalb der Glastemperatur durchgeführt. Bei vielen der untersuchten Polymere war die dreidimensionale Ordnung nach dem Bestrahlen mit polarisiertem Licht und anschließendem Tempern oberhalb der Glastemperatur scheinbar von der Schichtdicke abhängig. Die Ursache liegt wohl in der, mit der neuentwickelten ITE-Methode detektierten, planaren Ausgangsorientierung der aufgeschleuderten dünneren Schichten. Um Verkippungs-Gradienten in dickeren Polymerschichten in ihrem Verlauf zu bestimmen, wurde eine spezielle Methode unter Benutzung der Wellenleitermoden-Spektroskopie entwickelt. Quantenchemisch bestimmte, maximal induzierbare Doppelbrechungen in flüssig-kristallinen Polymeren wurden mit den experimentell gefundenen Ordnungen verglichen.
Die Untersuchung mikrogelinster astronomischer Objekte ermöglicht es, Informationen über die Größe und Struktur dieser Objekte zu erhalten. Im ersten Teil dieser Arbeit werden die Spektren von drei gelinsten Quasare, die mit dem Potsdamer Multi Aperture Spectrophotometer (PMAS) erhalten wurden, auf Anzeichen für Mikrolensing untersucht. In den Spektren des Vierfachquasares HE 0435-1223 und des Doppelquasares HE 0047-1756 konnten Hinweise für Mikrolensing gefunden werden, während der Doppelquasar UM 673 (Q 0142--100) keine Anzeichen für Mikrolensing zeigt. Die Invertierung der Lichtkurve eines Mikrolensing-Kausik-Crossing-Ereignisses ermöglicht es, das eindimensionale Helligkeitsprofil der gelinsten Quelle zu rekonstruieren. Dies wird im zweiten Teil dieser Arbeit untersucht. Die mathematische Beschreibung dieser Aufgabe führt zu einer Volterra'schen Integralgleichung der ersten Art, deren Lösung ein schlecht gestelltes Problem ist. Zu ihrer Lösung wird in dieser Arbeit ein lokales Regularisierungsverfahren angewendet, das an die kausale Strukture der Volterra'schen Gleichung besser angepasst ist als die bisher verwendete Tikhonov-Phillips-Regularisierung. Es zeigt sich, dass mit dieser Methode eine bessere Rekonstruktion kleinerer Strukturen in der Quelle möglich ist. Weiterhin wird die Anwendbarkeit der Regularisierungsmethode auf realistische Lichtkurven mit irregulärem Sampling bzw. größeren Lücken in den Datenpunkten untersucht.
Ellipsometrische Lichtstreuung als neue Methode zur Charakterisierung der Grenzfläche von Kolloiden
(2004)
Die ellipsometrische Lichtstreuung wird als eine neue, leistungsfähige Methode zur Charakterisierung von Schichten um kolloidale Partikel vorgestellt. Theoretische Grundlage der Methode ist die Mie-Theorie der Lichtstreuung. Experimentell wurde die Polarisationsoptik eines Null-Ellipsometers in den Strahlengang eines Lichtstreuaufbaus eingebaut. Wie in der Reflexionsellipsometrie um den Brewsterwinkel herum erhält man in der ellipsometrischen Streuung einen Winkelbereich, in dem die Methode empfindlich auf Schichten an der Oberfläche der Partikel ist. An verschiedenen Systemen wurde die Tauglichkeit der ellipsometrischen Streuung zur Charakterisierung von Schichten auf Partikeln demonstriert. So wurden Dicke und Brechungsindex einer thermosensitiven Schicht von Poly(N-isopropylacrylamid) auf einem Poly(methylmethacrylat)-Kern bestimmt. Damit ist es möglich, experimentell den Schichtbrechungsindex und damit den Quellungsgrad zu bestimmen. Des Weiteren wurde der Einfluss der NaCl-Konzentration auf die Polyelektrolythülle von Poly(methylmethacrylat)-Poly(styrolsulfonat)-Blockcopolymer-Partikeln untersucht. Die Polyelektrolytketten liegen im hier untersuchten Beispiel nicht gestreckt vor. Als drittes wurde die Verteilung von niedermolekularen Ionen um elektrostatisch stabilisierte Poly(styrol)-Latexpartikel in Wasser untersucht. Hier wurde gezeigt, dass die beobachteten Schichtdicken und Schichtbrechungsindizes viel größer sind, als nach der klassischen Poisson-Boltzmann-Theorie zu erwarten ist. Des Weiteren wurde die Doppelbrechung von unilamellaren Lipidvesikeln bestimmt. Außerdem wurden Messungen der dynamische Lichtstreuung im Intensitätsminimum der Ellipsometrie durchgeführt. Dabei wird ein Prozess mit einer Korrelationszeit, die unabhängig vom Streuvektor, aber abhängig von der verwendeten Wellenlänge ist, sichtbar. Die Natur dieses Prozesses konnte hier nicht vollständig geklärt werden.
Muster globaler anthropogener CO₂-Emissionen : sozio-ökonomische Determinanten und ihre Wirkung
(2004)
Die wesentlichen sozio-ökonomischen Prozesse, die die vermehrten anthropogenen CO₂-Emissionen verursachen, können durch die Determinanten Bevölkerung, Wohlstand (Bruttoinlandsprodukt pro Kopf) und Technologie (Energie- und Kohlenstoffintensität) vereinfacht beschrieben werden. Der Einfluss dieser Determinanten auf die Emissionsänderungen ist nicht für alle Länder der Erde gleich. Zeitreihen der CO₂-Emissionen aus der Verbrennung fossiler Energieträger, der Bevölkerung, des Bruttoinlandsproduktes und des Primärenergieverbrauches von 121 Ländern bilden die Grundlage für das entwickelte statistische Verfahren zur schrittweisen Informationsverdichtung, mit dem der gesamte Datenraum zu 6 energiewirtschaftlichen Ländertypen schrittweise zusammengefasst wird. Zur Beschreibung dieser Ländertypen wird mit Hilfe der Dekompositionsanalyse der Einfluss der Bevölkerungs-, der Wohlstands- und der Technologiekomponenten an den Emissionsänderungen quantifiziert. Die Ländertypen können vereinfacht als Repräsentanten unterschiedlicher Entwicklungsstufen und -richtungen angesehen werden. Sie bilden unter anderem eine Grundlage für die Weiterentwicklung und Kalibrierung regionalisierter makro-ökonomischer Modelle zu den sozio-ökonomischen Hintergründen der vermehrten anthropogenen CO₂-Emissionen.
Die vorliegende Arbeit befasst sich mit der Untersuchung von Wanderungsüberlegungen der Einwohner der Stadt Visaginas vor dem Hintergrund steigender ökonomischer Unsicherheit, bedingt durch die bevorstehende Schließung des Atomkraftwerkes 'Ignalina'. Visaginas befindet sich im Nordosten Litauens, in einer der strukturschwächsten Regionen des Landes. Von Mitte der 70er bis Ende der 80er Jahre entstand die Stadt als Wohnstätte für die Arbeiter des sich zu dieser Zeit ebenfalls im Bau befindlichen Atomkraftwerkes 'Ignalina' sowie für deren Angehörige. Noch heute ist die Stadt wirtschaftlich vom Kraftwerk abhängig: Nicht nur ist das staatliche Unternehmen der größte Arbeitgeber für die ca. 30.000 Einwohner, sondern darüber hinaus stellt auch die Mehrzahl der unabhängigen Firmen ihre Leistungen und Produktion in dessen Dienst. Auf Druck der Europäischen Union, welche bereits Ende der 90er Jahre aus sicherheitstechnischen Gründen die Schließung des Atomkraftwerkes forderte, beschloss die Regierung Litauens, das Atomkraftwerk stillzulegen. Am 1. Januar 2005 wird der Betrieb des ersten Reaktors eingestellt. Die endgültige Abschaltung ist bis zum Januar 2009 vorgesehen. Auf diese Weise wird der Stadt Visaginas, und damit verbunden vielen ihrer Einwohner, die wirtschaftliche Existenzgrundlage entzogen. Bedingt durch den Wegfall ihres Arbeitsplatzes wird ein Großteil der Einwohner gezwungen sein, sich nach Beschäftigungsalternativen umzuschauen. Da jedoch auch im Umland der Stadt keine ausreichenden Möglichkeiten bestehen, die freigesetzten Arbeitskräfte aufzufangen, wird für viele Betroffene die einzige Alternative darin liegen, Visaginas auf der Suche nach einem neuen Arbeitsplatz zu verlassen. Die Tatsache, dass der Großteil der heutigen Einwohner aus anderen Unionsrepubliken der damaligen Sowjetunion nach Visaginas kam und nur selten über gute Kenntnisse in der Landessprache Litauisch verfügt, stellt dabei ein besonderes Problem dar. Der Arbeit lag folgende zentrale Fragestellung zugrunde: Warum wandern unter gleichen strukturellen (vor allem ökonomischen) Rahmenbedingungen Menschen aus Visaginas ab, während andere dies nicht tun bzw. eine Abwanderung gar nicht in Erwägung ziehen? Betreuer/Gutachter: Prof. Wilfried Heller; Prof. Sebastian Lentz
Gerade in den letzten Jahren erfuhr Open Source Software (OSS) eine zunehmende Verbreitung und Popularität und hat sich in verschiedenen Anwendungsdomänen etabliert. Die Prozesse, welche sich im Kontext der OSS-Entwicklung (auch: OSSD – Open Source Software-Development) evolutionär herausgebildet haben, weisen in den verschiedenen OSS-Entwicklungsprojekten z.T. ähnliche Eigenschaften und Strukturen auf und auch die involvierten Entitäten, wie z.B. Artefakte, Rollen oder Software-Werkzeuge sind weitgehend miteinander vergleichbar. Dies motiviert den Gedanken, ein verallgemeinerbares Modell zu entwickeln, welches die generalisierbaren Entwicklungsprozesse im Kontext von OSS zu einem übertragbaren Modell abstrahiert. Auch in der Wissenschaftsdisziplin des Software Engineering (SE) wurde bereits erkannt, dass sich der OSSD-Ansatz in verschiedenen Aspekten erheblich von klassischen (proprietären) Modellen des SE unterscheidet und daher diese Methoden einer eigenen wissenschaftlichen Betrachtung bedürfen. In verschiedenen Publikationen wurden zwar bereits einzelne Aspekte der OSS-Entwicklung analysiert und Theorien über die zugrundeliegenden Entwicklungsmethoden formuliert, aber es existiert noch keine umfassende Beschreibung der typischen Prozesse der OSSD-Methodik, die auf einer empirischen Untersuchung existierender OSS-Entwicklungsprojekte basiert. Da dies eine Voraussetzung für die weitere wissenschaftliche Auseinandersetzung mit OSSD-Prozessen darstellt, wird im Rahmen dieser Arbeit auf der Basis vergleichender Fallstudien ein deskriptives Modell der OSSD-Prozesse hergeleitet und mit Modellierungselementen der UML formalisiert beschrieben. Das Modell generalisiert die identifizierten Prozesse, Prozessentitäten und Software-Infrastrukturen der untersuchten OSSD-Projekte. Es basiert auf einem eigens entwickelten Metamodell, welches die zu analysierenden Entitäten identifiziert und die Modellierungssichten und -elemente beschreibt, die zur UML-basierten Beschreibung der Entwicklungsprozesse verwendet werden. In einem weiteren Arbeitsschritt wird eine weiterführende Analyse des identifizierten Modells durchgeführt, um Implikationen, und Optimierungspotentiale aufzuzeigen. Diese umfassen beispielsweise die ungenügende Plan- und Terminierbarkeit von Prozessen oder die beobachtete Tendenz von OSSD-Akteuren, verschiedene Aktivitäten mit unterschiedlicher Intensität entsprechend der subjektiv wahrgenommenen Anreize auszuüben, was zur Vernachlässigung einiger Prozesse führt. Anschließend werden Optimierungszielstellungen dargestellt, die diese Unzulänglichkeiten adressieren, und ein Optimierungsansatz zur Verbesserung des OSSD-Modells wird beschrieben. Dieser Ansatz umfasst die Erweiterung der identifizierten Rollen, die Einführung neuer oder die Erweiterung bereits identifizierter Prozesse und die Modifikation oder Erweiterung der Artefakte des generalisierten OSS-Entwicklungsmodells. Die vorgestellten Modellerweiterungen dienen vor allem einer gesteigerten Qualitätssicherung und der Kompensation von vernachlässigten Prozessen, um sowohl die entwickelte Software- als auch die Prozessqualität im OSSD-Kontext zu verbessern. Desweiteren werden Softwarefunktionalitäten beschrieben, welche die identifizierte bestehende Software-Infrastruktur erweitern und eine gesamtheitlichere, softwaretechnische Unterstützung der OSSD-Prozesse ermöglichen sollen. Abschließend werden verschiedene Anwendungsszenarien der Methoden des OSS-Entwicklungsmodells, u.a. auch im kommerziellen SE, identifiziert und ein Implementierungsansatz basierend auf der OSS GENESIS vorgestellt, der zur Implementierung und Unterstützung des OSSD-Modells verwendet werden kann.
In der Person von Georg Potente, der von 1902 bis 1938 in Potsdam-Sanssouci tätig war, spiegelt sich eine Entwicklung vom königlichen Ober- und Hofgärtner zum staatlichen Gartendirektor, einem schöpferisch tätigen Gartendenkmalpfleger wider. Sein Schaffen in historischen Gärten ist charakterisiert durch ein zeittypisches Spannungsfeld von kaiserlichen Aufgaben zur Neuanlage und Modernisierung einzelner Parkteile bis zu komplizierten gartendenkmalpflegerischen Wiederherstellungsarbeiten ganzer Parkbereiche. Die dabei von Potente begründete und praktizierte Herangehensweise, nach der Erforschung der Entstehungsgeschichte und der Auswertung aller historischen Pläne und Beschreibungen der Gartenanlage durch eine plangrafische Überlagerung die verschiedenen zeitlichen Zustände zu gewichten und den wiederherzustellenden Zeitstil festzulegen, begründete in den 20er Jahren des 20. Jahrhunderts die wissenschaftliche Arbeitsweise der sich entwickelnden Gartendenkmalpflege.
Anna Seghers (1900 - 1983)
(2001)
"Deutsche, Jüdin, Kommunistin, Schriftstellerin, Frau, Mutter - so viele Identitäten, so dicht besetzt ihr Leben, so eindeutig ihr Werk. Am 19. November 2000 wurde sie 100 Jahre alt - Anna Seghers. Die Universität Potsdam hat der großen deutschen Schriftstellerin und engagierten Kommunistin, die mit ihren Exilromanen "Das siebte Kreuz" (1942) und "Transit" (1944) Weltruhm erlangte, eine Website gewidmet, die in ihrer präzisen und konzentrierten Darstellung Seghers Werk treffend widerspiegelt. Neben Links zur Biographie und eine Auswahlbiographie der Primär- und Sekundärliteratur findet der Leser Querverweise auf Archiv, Stiftung, Gedenkstätte und Gesellschaft der Literatin ..." Quelle: Literatur online : mit den 700 wichtigsten Adressen zum Thema / Hrsg.: Jörg Krichbaum ... - Köln : Arcum, Vectrum, 2000. - 215 S. (deutsche-internetadressen.de ; Bd. 22). - ISBN: 3-930912-92-9
Die Verbalflexion in Lehrplänen und Lehrwerken für den Französischunterricht an Deutschsprachige
(2000)
Der Beitrag fasst die Ergebnisse einer Forschungsarbeit zur Verbalflexion in Lehrplänen und Lehrwerken für den Französischunterricht an allgemeinbildenden Gymnasien der Bundesrepublik Deutschland zusammen. Im Mittelpunkt steht ein Problem, das bereits in der frühesten fächerübergreifenden Methodik des modernen Fremdsprachenunterrichts aufgeworfen wurde. (Seidelmann, Christian Friedrich: Tractatus philosophico-philologicus de methodo recte tractandi linguas exoticas speciatim gallicam, italicam et anglicam (1724). Faksimiliert, übersetzt und herausgegeben von Franz Josef Zapp und Konrad Schröder, Augsburg 1984.) Seidelmann hat schon vor mehr als 250 Jahren darauf hingewiesen, daß für den Fremdsprachenunterricht ungeeignete Grammatiken zur Verfügung stehen. Sie weisen einerseits Lücken auf und enthalten andererseits unnötigen Ballast: 'Ne quisquam sibi persuadeat, Grammaticas, maximam partem hodiernas, esse compendia, in quibus Linguarum fundamenta sive prima principio contineantur .... ' ('Niemand darf der Meinung sein, daß die Grammatiken, und erst recht die derzeitigen, Zusammenfassungen sind, die die Grundlagen oder die wichtigsten Elemente der Sprachen enthalten.') Seidelmann 1724; zitiert nach der zweisprachigen Ausgabe von Zapp und Schröder, Augsburg 1984, S. 81. Vor bald 100 Jahren betonte Viëtor im Zusammenhang mit der Diskussion um die 'Überbürdung' der Schüler die Notwendigkeit, die Verbalflexion gewissermaßen 'auszumisten'. Wie meine Arbeit u.a. zeigt, reichen ganze 42 Verbparadigmen aus, um das Lernziel der kommunikativen Kompetenz zu realisieren. Das heißt, man kann auf über die Hälfte der bis zu 90 Verbalparadigmen, die in Lehrwerken für den Französischunterricht vermittelt werden, verzichten. Die 42 Konjugationsmuster können als Teil eines nach kohärenten Prinzipien konstituierten und in diesem Sinne genormten sprachlichen Grundstocks für unterschiedliche Lehrgangstypen betrachtet werden. Dieser Grundstock läßt sich schulartübergreifend und adressatenunabhängig, d.h. in Lehrmaterialien für allgemeinbildende und berufsbildende Schulen, verwenden. Außerdem wird noch ein Vorschlag für die Progression der Lehrinhalte der Verbalflexion über vier bzw. zweieinhalb Schuljahre unterbreitet.
UNICERT in zehn Punkten
(2000)
Die im Französischunterricht an Deutschsprachige zu vermittelnden Kategorien der Verbalflexion
(2000)
Im Mittelpunkt des Beitrags steht eine sprachwissenschaftlich verantwortete Beschreibung der im Französischunterricht auf der Sekundarstufe I zu unterrichtenden grammatischen Kategorien der Verbalflexion. Aufgrund der Mängel in verbreiteten Lehrwerken erscheint es dringend notwendig, nachvollziehbare Empfehlungen zu den Tempora und Modi vorzulegen. Mein Vorschlag richtet sich in erster Linie an Lehrplan- und Lehrwerkautoren.
Untersucht werden die Wirkungen unterschiedlicher Trainingsprogramme für Kinder mit Lernstörungen. - Im Motivationstraining werden das Zielsetzungsverhalten und die Attribution trainiert. - Das metakognitive Strategietraining trainiert die Orientierung, Planung, Temporegulation und Selbstkontrolle bei Lernaufgaben. Das Motivations- und das Strategietraining arbeiten mit unterrichtsstoff-unabhängigen Inhalten. Erst später erfolgt eine Übertragung auf den Schulunterricht. - Ein Rechtschreiblerntraining fördert die Motivation und metakognitive Strategien in Rechtschreibung, also am möglicherweise aversiv besetzten Inhalt, aber auch mit der Chance, dass die Kinder ihre negativen Lernerfahrungen bald als Irrtum einordnen können. Diese drei Trainingsprogramme werden in Kleingruppen realisiert. - Ein "Unterrichtsintegriertes Training" trainiert die Motivation und metakognitive Strategien im Klassenunterricht. Die Programme wurden bei Kindern im Alter von 9 bis 12 Jahre mit sonderpädagogischem Förderbedarf im Lernen eingesetzt. Der IQ der Schüler lag zwischen 80 und 100. Die Schüler waren in ihrem Lernen entmutigt und realisierten ineffektive Lernstrategien. Lese-Rechtschreibschwäche oder Rechenschwäche wurden ausgeschlossen. Als Effektvariable wurden kognitive, metakognitive und motivationale Maße erhoben, aber auch das Verhalten bei Schwierigkeitserleben. Kontrolliert wurden sowohl die unmittelbaren Trainingswirkungen als auch die Langzeitwirkungen nach 3 bis 6 Monaten. Darüber hinaus wurden differenzielle Effekte erfasst. Alle Trainingsprogramme erreichten gute Effektstärken in kognitiven und metakognitiven Variablen. Eine gute Ermutigungswirkung erzielten allerdings nur das Motivations- und das Strategietraining. Diese Ermutigungswirkung wiederum erwies sich als entscheidend für die Nachhaltigkeit und Anwendung gelernter Strategien bei Schwierigkeitserleben. Verallgemeinert erfordert ein Trainingserfolg folgende Bedingungen: 1. Verbindung des Trainings von Motivation und Lernstrategien. 2. Realisierung eines Intensivtrainings, in dem die Ressourcen des Kindes aktiviert werden. 3. Festigung der gelernten Strategien über einen längeren Zeitraum und Anwendung im Schulunterricht.
Die 'Repräsentativstudie zum Drogenkonsum Potsdamer Jugendlicher 2002' ist eine Querschnittsstudie. Es wurden Art und Umfang des Drogenkonsums der Jugendlichen im Alter von 14 bis 18 Jahren, die in der Stadt Potsdam zur Zeit der Befragung wohnhaft waren, untersucht, im besonderem die Lifetime-Prävalenz, das Erstkonsumalter, 12-Monatsprävalenz, Konsumort, sozialer Kontext, Probierbereitschaft, Informationsquellen, Konsumwirkung sowie Probleme mit dem Drogenkonsum etc. Insgesamt kamen 953 Fragebögen zur Auswertung. Die enthaltenen Interpretationen dienen der Stadt Potsdam für langfristige Maßnahmen, die Drogenhilfe zu planen und durchzuführen.
Die gedruckte Fassung der Universitätsbibliographie der Universität Potsdam enthält alle der Universitätsbibliothek gemeldeten Veröffentlichungen von Einzelmitgliedern der Universität Potsdam sowie der Universität als Korporation aus dem Zeitraum von 1994 bis 1996.
Der aktuelle Stand der Universitätsbibliographie (1992 bis heute) ist im Internet recherchierbar unter:
https://publishup.uni-potsdam.de/opus4-ubp/home/index/help/content/bibliography_start
In dieser Arbeit wurden die Molekülstrukturen und die elektronischen Eigenschaften von Vanadium(IV)- und Oxo-Rhenium(V)-Chelaten mit einem kombinierten molekülmechanisch-quantenchemischen Ansatz untersucht, um sterische und elektronische Effekte der Komplexierung mit einem theoretischen Modell zu quantifizieren. Es konnte gezeigt werden, daß auf diese Weise detaillierte Aussagen zu den Bindungsverhältnissen der Metallchelate getroffen werden können. Die Berechnung der Molekülstrukturen gelingt mit exzellenter Übereinstimmung mit den Kristallstrukturen der Komplexe. Die molekülmechanischen Berechnungen erfolgen auf der Grundlage des Extensible Systematic Force Field ESFF und des Consistent Force Field 91 (CFF91). Dabei konnte die hohe Flexibilität und Zuverlässigkeit des regelbasierten ESFF für eine Vielzahl verschiedenster Metallchelate nachgewiesen werden. Aufgrund der mangelhaften Ergebnisse für trigonal-prismatische Komplexgeometrien mit dem ESFF wurden eine Anpassung des CFF91 für derartige Vanadiumkomplexe vorgenommen. Auf Grundlage von theoretischen Ergebnissen wurden die alternativen Strukturen von isoelektronischen Vanadiumkomplexen berechnet und in Übereinstimmung mit experimentellen Daten, theoretischen Modellen der Komplexchemie und empirischen Fakten eine Hypothese für die Ursache der strukturellen Differenzen erarbeitet. Der hier vorgestellte, kombinierte Algorithmus aus kraftfeldbasierter Geometrieoptimierung und single-point-Rechnung an diesen Strukturen ist ein zuverlässiger und relativ schneller Weg Molekülgeometrien von Metallkomplexen zu berechnen. Er kann somit zur Voraussagen von Komplexstrukturen und zur gezielten Modellierung definierter Koordinationsgeometrien verwendet werden.
Fragestellung Die mittlere Kindheit ist geprägt von rapiden Fortschritten im Bereich der sozio-kognitiven Entwicklung. Besonders deutlich wird dies daran, daß Kinder in dieser Zeit komplexere Formen sozialer Perspektivenübernahme konstruieren und ihr Verständnis bezüglich sozialer Prozesse und interpersoneller Beziehungen erheblich erweitern. Dabei gewinnen Gleichaltrigenbeziehungen an Relevanz, da sie zwei entscheidende Aspekte vereinigen, die für das Fortschreiten der sozio- kognitiven und emotionalen Entwicklung des Kindes notwendig sind. Zum einen haben Kinder in diesem Alter die wichtigsten Voraussetzungen für die Herausbildung reiferer Formen sozialen Austausches erworben. Zum anderen fordert die symmetrisch- reziproke Struktur von Gleichaltrigenbeziehungen verstärkt soziale Kompetenzen heraus, da zwischen Gleichrangigen die Entwicklung gemeinsamer Sichtweisen nur möglich ist, wenn die unterschiedlichen Perspektiven der Interaktionspartner kooperativ koordiniert werden (Selman, 1984, Youniss, 1994). Konflikte spielen in diesem Ko- Konstruktionsprozeß eine besondere Rolle, da die Überwindung des durch Konflikte entstehenden kognitiven Desäquilibriums zu einer Weiterentwicklung kognitiver Strukturen und sozialer Kompetenzen beitragen kann (Piaget, 1986). Wenn soziale Konflikte wiederholt nicht befriedigend bewältigt werden, können sie allerdings auch negative Folgen für Selbstwertgefühl und Motivation nach sich ziehen und kognitives Wachstum eher behindern. Das entwicklungsförderliche Potential sozialer Konflikte kann nur dann positiv wirksam werden, wenn Konflikte erfolgreich bewältigt werden. Dies geschieht am ehesten, wenn die Konfliktpartner gegenüber sozialer Interaktion positiv eingestellt sind und versuchen, eigene Interessen mit denen des Konfliktpartners auszubalancieren. Als ungünstig für erfolgreiche Konfliktbewältigung gilt dagegen ein Übermaß negativer Emotionen und der Versuch, den Konfliktpartner zu dominieren (Putallaz & Sheppard, 1992). Freunde zeigen aufgrund der zwischen ihnen bestehenden emotionalen Bindung eine verstärkte positive soziale Orientierung, die darin zum Ausdruck kommt, daß sie auch in Konflikten vermehrt positive Emotionen austauschen und den Ausdruck negativer Emotionen kontrollieren. Im Bemühen um Aufrechterhaltung oder Vertiefen ihrer Beziehungen und in Sorge um das Wohlergehen des anderen setzen sie in ihrem aufeinander bezogenen Handeln eher moralische Prinzipien um und versuchen eher als nicht befreundete Kinder, gegensätzliche Interessen auszugleichen (Putallaz & Sheppard, 1992; v. Salisch, 1991).
Die Pektat-Lyasen gehören zu einer Proteinfamilie, die meistens von pflanzenpathogenen Mikroorganismen sekretiert werden. Die Enzyme katalysieren den Abbau von Polygalakturonsäure, einem Hauptbestandteil in pflanzlichen Mittellamellen und Primärzellwänden. Der Abbau der alpha-1,4-verbrückten Galakturonsäurereste erfogt durch eine beta-Eliminierungsreaktion, dabei entsteht ein Produkt mit einer ungesättigten C4-C5 Bindung am nicht reduzierenden Ende, das durch spektroskopische Messungen beobachtet werden kann. Für die enzymatische Reaktion der Pektat-Lyasen ist Calcium nötig und das pH-Optimum der Reaktion liegt bei pH 8.5. Alle bis jetzt bekannten Strukturen der Pektat- und Pektin-Lyasen haben das gleiche Strukturmotiv - eine rechtsgängige parallele beta-Helix. Die Struktur der Pektat-Lyase aus Bacillus subtilis (BsPel) ist im Komplex mit Calcium gelöst worden. BsPel ist ein monomeres Protein mit einer ungefähren Molekularmasse von 43 kDa, das keine Disulfidbrücken enthält. Dies erlaubte sowohl eine effiziente rekombinante Expression des Wildtypproteins, als auch von destabilisierten Mutanten im Cytoplasma von E. coli. Parallele beta-Helices sind relativ große, jedoch verhältnismäßig einfach aufgebaute Proteine. Um detailliertere Informationen über die kritischen Schritte bei der in vitro-Faltung von parallelen beta-Helices zu erhalten, sollte in der vorliegenden Arbeit versucht werden, den Faltungsmechanismus dieses Proteins näher zu charakterisieren. Dabei sollte vor allem die Frage geklärt werden, welche Wechselwirkungen für die Stabilität dieses Proteins einerseits und für die Stabilität von essentiellen Faltungsintermediaten andererseits besonders wichtig sind.<BR>Rückfaltung von BsPel, ausgehend vom guanidiniumchlorid-denaturierten Zustand, war bei kleinen Proteinkonzentrationen und niedrigen Temperaturen vollständig möglich. GdmCl-induzierte Faltungsübergänge waren aber nicht reversibel und zeigten eine apparente Hysterese. Kinetische Messungen des Fluoreszenz- und CD-Signals im fernen UV ergaben eine extreme Denaturierungsmittelabhängigkeit der Rückfaltungsrate im Bereich des Übergangmittelpunktes. Der extreme Abfall der Rückfaltungsraten mit steigender Denaturierungsmittelkonzentration kann als kooperative Entfaltung eines essentiellen Faltungsintermediats verstanden werden. Dieses Faltungsintermediat ist temperaturlabil und kann durch den Zusatz Glycerin im Renaturierungspuffer stabilisiert werden, wobei sich die Hysterese verringert, jedoch nicht vollständig aufgehoben wird. Durch reverse Doppelsprungexperimente konnten zwei transiente Faltungsintermediate nachgewiesen werden, die auf zwei parallelen Faltungswegen liegen und beide zum nativen Zustand weiterreagieren können. Fluoreszenzemissionsspektren der beiden Intermediate zeigten, daß beide schon nativähnliche Struktur aufweisen. Kinetische Daten von Prolin-Doppelsprungexperimenten zeigten, daß Prolinisomerisierung den geschwindigkeitsbestimmenden Schritt in der Reaktivierung des denaturierten Enzyms darstellt. Desweiteren konnte durch Prolin-Doppelsprungexperimenten an Mutanten mit Substitutionen im Prolinrest 281 gezeigt werden, daß die langsame Renaturierung von BsPel nicht durch die Isomerisierung der einzigen cis-Peptidbindung an Prolin 281 verursacht wird, sondern durch die Isomerisierung mehrerer trans-Proline. Die beiden beobachteten transienten Faltungsintermediate sind somit wahrscheinlich zwei Populationen von Faltungsintermediaten mit nicht-nativen X-Pro-Peptidbindungen, wobei sich die Populationen durch mindestens eine nicht-native X-Pro-Peptidbindung unterscheiden.<BR>Der Austausch des Prolinrestes 281 gegen verschiedene Aminosäuren (Ala, Ile, Leu, Phe, Gly) führte zu einer starken Destabilisierung des nativen Proteins und daneben auch zu einer Reduktion in der Aktivität, da die Mutationsstelle in der Nähe der putativen Substratbindetasche liegt. Die Rückfaltungskinetiken der Prolinmutanten war bei 10°C annähernd gleich zum Wildtyp und die geschwindigkeitsbestimmenden Schritte der Faltung waren durch die Mutation nicht verändert. Die durch die Mutation verursachte drastische Destabilisierung des nativen Zustands führte zu einem reversiblen Entfaltungsgleichgewicht bei pH 7 und 10°C. GdmCl-induzierte Faltungsübergänge der Mutante P281A zeigten bei Messungen der Tryptophanfluoreszenzemission und der Aktivität einen kooperativen Phasenübergang mit einem Übergangsmittelpunkt bei 1.1 M GdmCl. Durch die Übereinstimmung der Faltungsübergänge bei beiden Messparametern konnten die Faltungsübergänge nach dem Zwei-Zustandsmodell ausgewertet werden. Dabei wurde eine freie Sabilisierungsenthalpie der Faltung für die Mutante von <nobr>- 64.2 ± 0.4 kJ/mol</nobr> und eine Kooperativität des Übergangs von <nobr>- 58.2 ± 0.3 kJ/(mol·M)</nobr> bestimmt.<BR> BsPel enthält, wie die meisten monomeren rechtsgängigen parallelen beta-Helix-Proteine, einen internen Stapel wasserstoffverbrückter Asparagin-Seitenketten. Die Mehrheit der erzeugten Mutanten mit Substitutionen im Zentrum der Asn-Leiter (N271X) waren als enzymatisch aktives Protein zugänglich. Die Auswirkung der Mutation auf die Stabilität und Rückfaltung wurde an den Proteinen BsPel-N271T und BsPel-N271A näher analysiert. Dabei führte die Unterbrechung des Asparaginstapels im Inneren der beta-Helix zu keiner drastischen Destabilisierung des nativen Proteins. Allerdings führten diese Mutationen zu einem temperatur-sensitiven Faltungsphänotyp und die Hysterese im Denaturierungsübergang wurde verstärkt. Offenbar wird durch die Unterbrechung des Asparaginstapel ein essentielles, thermolabiles Faltungsintermediat destabilisiert. Der Asparaginstapel wird somit bei der Faltung sehr früh ausgebildet und ist wahrscheinlich schon im Übergangszustand vorhanden.
Die vorliegende Arbeit ist eine aktuelle Dokumentation von Körperbau, Körperzusammensetzung und Ernährungsgewohnheiten an 708 jüngeren und älteren Männern und Frauen aus dem Bundesland Brandenburg. Der Körperbau wurde über ein 42 Längen-, Breiten-, Tiefen- und Umfangsmaße umfassendes anthropometrisches Untersuchungsprogramm bestimmt. Die Einschätzung von Gesamtkörperfettanteil und Magermasse erfolgte mit zwei Feldmethoden, der Hautfaltendickenmessung und der bioelektrischen Impedanzanalyse. Mit Hilfe eines semiquantitativen Fragebogens zu den Ernährungsgewohnheiten wurde der Lebensmittelverzehr erfasst und daraus die Energie- und Nährstoffaufnahme berechnet. Die Ergebnisse zum Körperbau zeigen im Mittel eine Abnahme der Längenmaße, jedoch eine Zunahme der Breiten-, Tiefen- und Umfangsmaße mit steigendem Erwachsenenalter. Einfache Parameter zur Beurteilung des Ernährungszustandes, wie Körpermasse und Body-Mass-Index (BMI) nehmen im Alter geschlechtsspezifisch zu. Nach den Richtlinien der WHO für den BMI gelten 55,3% der untersuchten Männern als übergewichtig, davon 10% als adipös. Von allen untersuchten Frauen sind 41,6% übergewichtig, davon sind 14,3% adipös. Der Anteil der Übergewichtigen ist zwar beim weiblichen Geschlecht geringer, aber dafür haben mehr Frauen die Grenze zur Adipositas überschritten. Für eine wissenschaftlich exakte Beurteilung des Ernährungszustandes reichen Körpermasse und BMI nicht aus, da sie die Körperzusammensetzung nicht bzw. nicht genügend berücksichtigen. Die subkutane Fettschichtdicke nimmt insbesondere am Rumpf zu, was als zusätzliches Gesundheitsrisiko gilt. Der Gesamtkörperfettanteil steigt im Erwachsenenalter abhängig von der Berechnungsmethode an. Die untersuchten Frauen sind gegenüber den Männern in allen Altersgruppen durch einen etwa ein Drittel höheren Körperfettanteil gekennzeichnet. Die tägliche Nahrungsenergieaufnahme der untersuchten Personen lässt eine abnehmende Tendenz bis zum 65. Lebensjahr erkennen. Trotz einer sinkenden Nahrungsenergieaufnahme im Alter, nimmt der BMI zu. Mögliche Ursachen hierfür werden in der Arbeit diskutiert. Der Anteil der Grundnährstoffe an der Energiebereitstellung entspricht in keiner der untersuchten Gruppen den Empfehlungen der Deutschen Gesellschaft für Ernährung. Allgemein ist der Fettkonsum zu hoch und der Kohlenhydratanteil zu gering. Das zeigt sich besonders in den beiden mittleren untersuchten Altersgruppen und bei den Männern stärker als bei den Frauen.
Flugzeug- und Shuttle getragene SAR-Systeme werden zur Ableitung des Bodenwassergehalt im Oberboden verwendet. Die Untersuchungsgebiete lagen auf der Insel Rügen, in Oberbayern (Oberpfaffenhofen) und in Oklahoma (Little Washita). Die Regionalierung mit Fernerkundungsdaten wird anhand von geostatistisch aufbereiteten Referenzmessungen aus dem Feld verifiziert. Verschiedene Ableitungsverfahren (Regression, Rückstreuungsmodellierung, Nomogramme und Inversionsmodellierung) werden verglichen und Fehlermargen werden abgeleitet.
Diese Arbeit beschäftigt sich mit der Annahme, dass den Erdbeben ein selbstorganisiert kritischer Zustand der Erdkruste zugrunde liegt. Mit Hilfe einer Erweiterung bisheriger Modelle wird gezeigt, dass ein solcher Zustand nicht nur für die Grössenverteilung der Erdbeben (Gutenberg-Richter Gesetz), sondern auch für das beobachtete raumzeitliche Auftreten, z.B. für das Omori-Gesetz für Nachbebenserien, verantwortlich sein kann. Desweiteren wird die Frage nach der Vorhersagbarkeit grosser Erdbeben in solchen Modellsimulationen untersucht.
Die Studie untersucht den Erwerb der frühen Verbmorphologie im Estnischen. Als Datengrundlage der Arbeit dienen Spontansprachaufnahmen von 10 estnischsprachigen Kindern im Alter zwischen 10 und 32 Monaten. Die Studie versucht eine detaillierte Analyse des Erwerbs des estnischsprachigen Verbmorphologie vorzunehmen. Dabei werden die aufeinander folgenden Entwicklungsstadien, ihre ungefähren Altersgrenzen, sowie Erwerbsreihenfolge dargestellt und mit typologisch unterschiedlichen Sprachen verglichen.
In der vorliegenden Arbeit wurden Studenten des Regel- und Reformstudiengangs der Charitè Universitätsmedizin Berlin zu ihrer motivationalen Orientierung, ihrer Selbstwirksamkeit, ihrer Studienzufriedenheit und den Lernstrategien, die sie im Studium verwenden, gefragt. Aufgrund der im Reformstudiengang verwendeten Methode des problembasierten Lernens, der umgestalteten Prüfungsmodalitäten und der überschaubaren Anzahl an Studenten wurde erwartet, dass Reformstudenten Tiefenstrategien beim Lernen häufiger nutzen als Studenten des Regelstudiengangs. Studenten beider Studiengänge nutzen Tiefenstrategien häufiger als Oberflächenstrategien und lernen stärker ichorientiert als aufgabenorientiert. Jedoch sind die Reformstudenten mit den Bedingungen und Inhalten ihres Studiums zufriedener. Gutachter / Betreuer: Spörer, Nadine; Brunstein, Joachim C.; Kirsch, Bärbel
In-situ Wachstumsuntersuchungen beim reaktiven Anlassen von Cu, In Schichten in elementarem Schwefel
(2003)
In dieser Arbeit wurde das reaktive Anlassen von dünnen Kupfer-Indium-Schichten in elementarem Schwefel mittels energiedispersiver Röntgenbeugung untersucht. Durch die simultane Aufnahme der Röntgenspektren und der Messung der diffusen Reflexion von Laserlicht der Wellenlänge 635 nm an der Oberfläche der Probe während des Schichtwachstums von CuInS<SUB>2</SUB> konnte eine Methode zur Prozesskontrolle für ein Herstellungsverfahren von CuInS<SUB>2</SUB> etabliert werden. Die Bildung von CuInS<SUB>2</SUB> aus Kupfer-Indium-Vorläuferschichten wird dominiert von Umwandlungen der intermetallischen Phasen. CuInS<SUB>2</SUB> wächst innerhalb der Aufheizperiode ab einer Temperatur von ca. 200°C aus der Phase Cu11In9. Jedoch zerfällt letztere metallische Phase in Cu16In9 und flüssiges Indium bei einer Temperatur von ca. 310°C. Das flüssige Indium reagiert im Falle von Kupferarmut mit dem Schwefel und führt zu einem zusätzlichen Reaktionspfad über InS zu CuIn5S8. Unter Präparationsbedingungen mit Kupferüberschuss wird das Indium in einer intermetallischen Phase gebunden.Erstmals konnte die Phase Digenite bei Temperaturen über 240°C beobachtet werden. Beim Abkühlen auf Raumtemperatur wandelt sich diese Phase unter dem Verbrauch von Schwefel in Covellite um.Für Proben mit Kupferüberschuss konnte eine Wachstumskinetik proportional zur Temperatur beobachtet werden. Dieses Verhalten wurde durch eine stress-induzierte Diffusion als dominierenden Reaktionsmechanismus interpretiert. Dabei werden während der Bildung von CuInS<SUB>2</SUB> durch unterschiedliche Ausdehnungen der metallischen und sulfidischen Schichten eine Spannung in der CuInS<SUB>2</SUB>-Schicht induziert, die nach Überschreiten einer Grenzspannung zu Rissen in der CuInS2-Schicht führt. Entlang dieser Risse findet ein schneller Transport der Metalle zur Oberfläche, wo diese mit dem Schwefel reagieren können, statt. Die Risse heilen durch die Bildung neuen Sulfids wieder aus.
Die heutige optische Informationsverarbeitung erfordert neue Materialien, die Licht effektiv verarbeiten, steuern und speichern können. Photorefraktive (PR) Materialien sind dafür sehr interessant. In diesen Materialien entsteht bei inhomogener Beleuchtung (z.B. mit einem Intererenzmuster) über Ladungsträgergenerierung und Einfang der Ladungsträger in Fallen ein Raumladungsfeld. Dieses wird über den elektrooptischen Effekt in eine räumliche Modulation des Brechungsindex umgesetzt. Letztendlich führt somit die inhomogene Beleuchtung eines PR-Materials zu einer räumlich variierenden Änderung des Brechungsindex. Vor ca. 10 Jahren wurde entdeckt, dass auch Polymere einen PR-Effekt aufweisen können. Die Ansprechzeit dieser Materialien wird dabei wesentlich durch die Dynamik der Ladungsträger (bestimmt durch Erzeugung, Transport, Einfang in Fallen etc.) begrenzt. Bis zu Beginn dieser Arbeit war es noch nicht gelungen, einen quantitativen Zusammenhang zwischen der Ladungsträgerdynamik und der Ansprechzeit des PR-Effekts experimentell nachzuweisen. In dieser Arbeit wird ein Weg aufgezeigt, durch photophysikalische Experimente unter verschiedenen Beleuchtungsbedingungen alle photophysikalischen Größen experimentell zu bestimmen, die den Aufbau des Raumladungsfelds in organischen photorefraktiven Materialien bestimmen. So konnte durch Experimente unter Beleuchtung mit kurzen Einzelpulsen sowohl die Beweglichkeit der freien Ladungsträger als auch die charakteristischen Parameter flacher Fallen ermittelt werden. Zur Bestimmung der Dichte tiefer Fallen wurde die Intensitätsabhängigkeit des stationären Photostroms untersucht. Durch die analytische Lösung des bestimmenden Gleichungssystems konnte gezeigt werden, dass die Sublinearität der Intensitätsabhängigkeit des Photostroms primär mit dem Verhältnis zwischen Entleerungs- und Einfangkoeffizienten tiefer Fallen korreliert. Zur unabhängigen Bestimmung des Entleerungskoeffizienten der tiefen Fallen wurden Doppelpulsexperimente mit variabler Verzögerungszeit zwischen den Pulsen verwendet. Mit den erhaltenen Parametern konnte dann das untere Limit der zum Aufbau des Raumladungsfelds notwendigen Zeit abgeschätzt werden. Diese Werte wurden mit den gemessenen photorefraktiven Ansprechzeiten verglichen. Es zeigt sich, dass weder die Photogeneration noch der Transport der Ladungsträger die Geschwindigkeit des Aufbaus des Raumladungsfeldes limitiert. Stattdessen konnte erstmals quantitativ nachgewiesen werden, dass die Dynamik des Raumladungsfelds in den hier untersuchten PR-Materialien durch das Füllen tiefer Fallen mit photogenerierten Ladungsträgern bestimmt wird. Dabei spielt das Verhältnis zwischen dem Einfang- und dem Rekombinationskoeffizienten eine wesentliche Rolle. Weiterhin wurde die Dynamik des Aufbaus des Raumladungsfelds bei unterschiedlichen Vorbeleuchtungsbedingungen quantitativ simuliert und mit den experimentellen PR-Transienten verglichen. Die gute Übereinstimmung zwischen den simulierten und gemessenen Transienten erlaubte es abschließend, die kritischen Parameter, die die Dynamik des PR-Effekts in den untersuchten Polymeren begrenzen, zu identifizieren.
Mit der vorliegenden Arbeit sollten mit Hilfe elektronenmikroskopischer Methoden verschiedene Liposomen-DNA-Komplexe zum Gentransfer charakterisiert sowie die Aufnahme und Verteilung in der Zellkultur untersucht werden. Dabei waren vor allem solche Präparationen von besonderem Interesse, die in unserer Arbeitsgruppe 'Drug Targeting' getestet oder entwickelt und verwendet wurden, wie Sendai-Virus Liposomen (HVJ-Liposomen), Virosomen sowie DAC-Chol und DOCSPER-Liposomen als Vertreter der kationischen Lipide. Im ersten Teil der Arbeit wurden fusogene Liposomen und Virosomen charakterisiert. Bei diesen Untersuchungen wurden folgende Ergebnisse erzielt: ·Sendai-Viren fusionieren mit Liposomen unterschiedlicher Lipidzusammensetzung. ·Die daraus resultierenden HVJ-Liposomen sind mit elektronenmikroskopischen Methoden identifizierbar. ·Die Spikes auf den HVJ-Liposomen besitzen fusogene Eigenschaften. ·HVJ-Liposomen eignen sich auf Grund der geringen Ausbeute sowie der geringen Transfektionseffizienz nicht zum in vitro Gentransfer. ·Virosomen stellen einen weiteren Typ fusogener Gentransfervesikel dar. ·Ihre Größe und fusogenen Eigenschaften sind abhängig von der externen Zugabe einer optimierten Lipidmischung. ·Im Innenraum der Virosomen kann mit Poly-L-Lysin vorkomplexierte DNA verkapselt werden. ·Die fusogenen Eigenschaften der Virosomen wurden mit Hilfe immunelektronenmikroskopischer Techniken und monoklonaler Antikörper gegen Hämagglutinin/Neuraminidase und das Fusionsprotein sowie mit polyklonalen Antiseren gezeigt. ·An Hand goldmarkierter DNA sind Virosomen nach der Transfektion in der Zelle nachweisbar. Da in unserer Arbeitsgruppe bevorzugt kationische Liposomen zum Gentransfer verwendet werden, wurde auch die Struktur der Liposomen untersucht und folgende Ergebnisse dokumentiert: ·Die Struktur und die Größe kationischer Liposomen werden hauptsächlich durch die Lipidzusammensetzung bestimmt. ·Die Bildung von Liposomen-DNA-Komplexen ist mit einer Größenzunahme der Komplexe gekoppelt. ·Die Anzahl gebundener Plasmide steigt mit der Größe der Lipoplexe. ·Gentransferaktive Lipopolyplexe (mit Protaminsulfat komplexierte DNA und DAC-Chol- Liposomen) sind kleiner als Lipoplexe. Ihre Struktur wird von der Zusammensetzung bestimmt. Eine weitere wichtige Frage betrifft den Weg der Gencarrier in der Zelle. Kenntnisse über diese Vorgänge sind vorteilhaft, um die einzelnen Schritte zu verstehen und möglichst gezielt zu verbessern. Bei der Untersuchung der Partikel im Hinblick auf zelluläre Barrieren beim Gentransfer konnten folgende Ergebnisse erzielt werden: ·Die Bindung der Partikel an die Zellmembran und Aufnahme sind abhängig von den eingesetzten Zellen und Komplexen sowie derInkubationszeit. ·Die Aufnahme erfolgt über endozytotische Mechanismen, wobei Lipopolyplexe schneller als Lipoplexe in die Zellen gelangen. Nicht alle gebundenen Komplexe werden aufgenommen. ·Die aufgenommenen Partikel befinden sich in Endosomen und werden ins Innere der Zelle transportiert. ·Freisetzung der DNA und Eintritt in den Zellkern über Kernporen konnte nicht beobachtet werden. ·DNA-haltige Vesikel in Kernnähe deuten auf einen weiteren Mechanismus hin (Vesikeltransfer zum Zellkern).
Im Landschaftszustand und in der Landschaftsentwicklung kommen funktionale Beziehungen zwischen dem naturbedingten Energie-, Wasser- und Stoffhaushalt einerseits und den Auswirkungen der Landnutzung andererseits zum Ausdruck. Gegenwärtig verändert der globale Anstieg der bodennahen Temperaturen vielerorts den landschaftlichen Energie-, Wasser- und Stoffhaushalt, wobei besonders in Trockengebieten zu erwarten ist, dass dieser Trend in Verbindung mit einer unangepassten Landnutzung das Regenerationsvermögen der Vegetation einschränkt und zur Zerstörung der Bodendecke führt. Für die Mongolei und für benachbarte Gebiete Asiens sind in Szenarien zur globalen Erwärmung hohe Werte des Temperaturanstiegs prognostiziert worden. Eine globale Einschätzung der anthropogen induzierten Bodendegradation hat diese Region als stark oder extrem stark betroffen eingestuft. Vor diesem Hintergrund wurde im Uvs-Nuur-Becken, das im Nordwesten der Mongolei und damit in einer der trockensten Regionen des Landes gelegen ist, untersucht, wie sich der globale Temperaturanstieg auf der lokalen und regionalen Ebene widerspiegelt und wie der Landschaftshaushalt dabei verändert wird. Die Auswirkungen des sommerlichen Witterungsverlaufes auf den Landschaftszustand sind 1997 bis 1999 an einem Transsekt erfasst worden, das sich zwischen dem Kharkhiraa-Gebirge am Westrand des Beckens und dem See Uvs Nuur im Beckeninneren von den Polsterfluren und Matten der alpinen Stufe über die Gebirgswaldsteppe, die Trockensteppe bis zur Halbwüste erstreckt. An neun Messpunkten wurden witterungsklimatische Daten in Verbindung mit Merkmalen der Vegetation, des Bodens und der Bodenfeuchte aufgenommen. Die im Sommer 1998 gewonnenen Messwerte wurden mit Hilfe einer Clusteranalyse gebündelt und verdichtet. Auf dieser Grundlage konnten landschaftliche Zustandsformen inhaltlich gekennzeichnet, zeitlich eingeordnet und durch Zeit-Verhaltens-Modelle (Stacks) abgebildet werden. Aus den Zeit-Verhaltens-Modellen wird ersichtlich, dass man Zustandsformen, in denen die Hitze und die Trockenheit des Sommers 1998 besonders stark zum Ausdruck kommen, an allen Messpunkten beobachten kann, nimmt man die Station auf dem fast 3.000 m hohen Gipfel des Khukh Uul sowie die grundwasserbeeinflusste Station in unmittelbarer Seenähe aus. In ihrer extremen Form sind Trockenperioden jedoch nur im Beckeninneren und am Fuß der Randgebirge, also in der Halbwüste, in der Trockensteppe und in der Wiesensteppe aufgetreten. Im Bergwald sowie im Bereich der alpinen Matten und Polsterfluren fehlen sie. Am stärksten sind die grundwasserfreien Bereiche der Halbwüste von der Hitze und Niederschlagsarmut des Sommers 1998 betroffen. An vier Fünfteln der Tage des Beobachtungszeitraumes herrscht an diesem Messpunkt extreme Trockenheit. Es fällt entweder gar kein Niederschlag oder nur so wenig, dass der seit dem Frühjahr erschöpfte Bodenwasservorrat nicht aufgefüllt wird. Das Verhältnis zwischen Niederschlag und potenzieller Verdunstung liegt hier bei 1:12. In der Halbwüste zeichnet sich eine fortschreitende Desertifikation ab, zumal hier eine nichtangepasste Weidenutzung dominiert, in der Ziegen eine immer größere Rolle spielen. Dies gilt insbesondere für Bereiche in Siedlungsnähe. Örtlich ist auch der Bestand der Trockensteppe gefährdet, die sich an die Halbwüste zum Beckenrand hin anschließt. Hier ist nicht nur die Viehdichte am höchsten, sondern hier werden auch die meisten unbefestigten Fahrwege wild angelegt und die Bodendecke damit zerstört. Dies kann im Endeffekt zu einem Übergreifen von Prozessen der Desertifikation führen. Aus methodischer Sicht zeigt sich, dass die Kennzeichnung landschaftlicher Zustandsformen durch Zeit-Verhaltens-Modelle die Ermittlung der Auswirkungen von Witterung und Klima auf den Landschaftszustand erleichtert, da sie deren Aussage konzentriert. Zur Interpretation der Ergebnisse ist jedoch ein Rückgriff auf die beschreibende Darstellung der Messwerte notwendig. Die im westlichen Uvs-Nuur-Becken und seinen Randgebirgen angewandte Verfahrensweise ermöglicht es, globale Aussagen zur globalen Erwärmung der Kontinente regional oder lokal zu überprüfen und zu untersetzen."
Im Rahmen dieser Arbeit wurden zwei humane Varianten des von Wang et al., 1999, erstmals beschriebenen muskelspezifischen Proteins Xin (Huhn und Maus) über Sequenzanalyse, Immunofluoreszenzmikroskopie, Transfektionsstudien und biochemischer Analyse näher charakterisiert. Die Proteine wurden mit human Xin related proteins 1 und 2 – hXirp1 und 2 –bezeichnet. Die Xin-Proteine enthielten bisher unbekannte, sowie spezifische, repetitive Motive, die aus jeweils mindestens 16 Aminosäuren bestanden. Ihre Aminosäuresequenz, mit einer Vielzahl weiterer putativer Motivsequenzen, verwies auf eine potentielle Funktion von hXirp als Adapterprotein in Muskelzellen. Das hier näher untersuchte hXirp1 lokalisierte an den Zell-Matrix-Verbindungen der Muskel-Sehnen-Übergangszone im Skelettmuskel, sowie an den Zell-Zell-Verbindungen der Glanzstreifen im Herzmuskel. Während der Muskelentwicklung zeigte hXirp1 eine sehr frühe Expression, zusammen mit einer prägnanten Lokalisation an den Prämyofibrillen und deren Verankerungsstrukturen, die auf eine Funktion des Proteins in der Myofibrillogenese deuten. Ektopische Expressionen von hXirp1 in einer Vielzahl von Nichtmuskel-Kulturzellen zeigten wiederum eine Lokalisation des Proteins an den Zell-Matrix-Kontakten dieser Zellen. Am Beispiel von hXirp1 und 2 wurde stellvertretend für die Familie der Xin-Proteine gezeigt, daß es sich bei den repetitiven Motiven um neuartige, F-Aktin bindende Sequenzmotive handelte. Die Xin-Proteine können somit als muskelspezifische, aktinbindende, potentielle Adapterproteine bezeichnet werden, denen eine strukturelle und funktionelle Beteiligung an der Verankerung der Myofibrillen im adulten Muskel, wie auch während der Myofibrillogenese zukommt.
Menschen nehmen Tausende von Stoffen als bitter wahr. Die chemische Struktur der verschiedenen Bitterstoffe ist sehr vielfältig: Sie reicht von kleinen Molekülen wie Kaliumchlorid oder Harnstoff, bis zu sehr komplexen organischen Verbindungen. Die Größe der einzigen bekannten menschlichen Familie von Bitterrezeptoren (TAS2Rs) wurde auf nur ca. 80-120 Mitglieder geschätzt. In Anbetracht der hohen Zahl und Komplexität der Bitterstoffe erscheint die Zahl von Rezeptoren als sehr gering. Dies führt natürlich zu einer Reihe von Fragen: Wie viele Mitglieder hat die menschliche TAS2R-Genfamilie? Wie viele verschiedene Substanzen können denselben Rezeptor aktivieren? Scheint die Zahl der TAS2R-Rezeptoren ausreichend, alle Bitterstoffe wahrnehmen zu können oder muss es noch andere Bitterrezeptorfamilien geben? Diese Fragen zu beantworten, ist das Ziel der vorliegenden Arbeit. Hier durchgeführte Analysen des menschlichen Genomprojektes zeigen, dass Menschen ca. 25 TAS2R-Rezeptoren besitzt, die eine sehr divergente Aminosäurestruktur aufweisen. Diese Rezeptoren wurden in eine neu entwickelte Expressionskassette kloniert, die den Transport des Rezeptors an die Zelloberfläche ermöglicht. Um Liganden für die menschliche TAS2R-Rezeptoren zu identifizieren, wurden die Rezeptoren in HEK293 Zellen exprimiert und mit verschiedenen Bitterstoffen stimuliert. Der Nachweis der Rezeptoraktivierung erfolgte durch Calcium-Imaging. Es konnte gezeigt werden, dass hTAS2R16 der menschliche Rezeptor zur Wahrnehmung von Salicin und verwandten bitteren Pyranosiden ist. So wird hTAS2R16 in HEK293 Zellen durch Salicin und chemisch verwandte Substanzen aktiviert. Ein Vergleich der in diesem Messsystem erhaltenen Daten mit psychophysikalisch ermittelten Geschmackswahrnehmungen beim Menschen, ergab eine hohe Übereinstimmung. Die Ergebnisse deuten auch darauf hin, dass die Desensitiverung einzelner Rezeptoren die Ursache für die Adaption des Bittergeschmacks ist. Der Nachweis der Expression des Rezeptors in menschlichen Geschmackspapillen, sowie die festgestellte Assoziation des G/A Polymorpphismus an Position 665 des hTAS2R16 Gens mit einer reduzierten Salicinwahrnehmung, sind weitere unabhängige Beweise für diese These. Ein anderer menschlicher Rezeptor, hTAS2R10, wird durch die Bitterstoffe Strychnin, Brucin und Denatonium aktiviert. Dies sowie die Tatsache, dass die zur Aktivierung benutzten Konzentrationen eine sinnvolle Korrelation zu dem menschlichen Geschmacksschwellwert von Strychnin zeigen, sind starke Hinweise, dass hTAS2R10 der menschliche Rezeptor zur Wahrnehmung von Strychnin und verwandten Substanzen ist. Die vorliegenden Daten zeigen eindeutig, dass die TAS2R-Rezeptoren auch beim Menschen Bitterrezeptoren darstellen. Sowohl hTAS2R16, als auch hTAS2R10 werden durch ein Spektrum strukturell sehr unterschiedlicher Bitterstoffe aktiviert. Falls die anderen Mitglieder der TAS2R-Familie ebenfalls dieses Verhalten zeigen, wäre es möglich, dass die nur ca. 25 Mitglieder umfassende TAS2R-Rezeptorfamilie des Menschen tatsächlich zur Wahrnehmung aller Bitterstoffe ausreicht.
Die Präeklampsie ist eine schwangerschaftsspezifische Bluthochdruck-Erkrankung, die im Allgemeinen nach der 20. Schwangerschaftswoche auftritt. Neben der Hypertonie sind die Proteinurie und die Ödembildung charakteristische Symptome der Präeklampsie. Obwohl heute die Pathophysiologie der Präeklampsie zum großen Teil verstanden ist, ist die Ätiologie dieser Erkrankung noch unklar. 1999 konnten wir in den Seren von Präeklampsie-Patientinnen agonistische Autoantikörper, die gegen den Angiotensin II AT1-Rezeptor gerichtet sind (AT1-AAK), nachweisen. Diese AT1-AAK gehören zur Antikörpersubklasse IgG3. Die AT1-AAK führen in Kulturen neonataler Rattenkardiomyozyten AT1-Rezeptor spezifisch zu einem positiv chronotropen Effekt. Mittels Immunpräzipitation wurde gezeigt, dass AT1-AAK spezifisch den AT1-Rezeptor präzipitieren. Kontrollproben, aus denen die AT1-AAK entfernt wurden, führen zu keiner Präzipitation des AT1-Rezeptors. Die Präzipitation des AT1-Rezeptors bleibt ebenfalls aus, wenn die AT1-AAK mit einem Peptid, welches der Aminosäuresequenz des zweiten extrazellulären Loops des humanen AT1-Rezeptors entspricht, behandelt wurden. Eine Langzeitbehandlung der Kulturen neonataler Rattenherzzellen mit AT1-AAK vermindert die funktionelle Ansprechbarkeit der Zellen auf einen erneuten AT1-Rezeptor-Stimulus. Eine veränderte AT1-Rezeptorexpression wurde nicht nachgewiesen. In guter Übereinstimmung mit den in vitro-Expressionsdaten wurde gezeigt, dass die plazentare AT1-Rezeptorexpression bei Präeklampsie-Patientinnen nicht verschieden von der plazentaren AT1-Rezeptorexpression gesunder Schwangerer mit nicht pathogen verändertem Blutdruck ist. Im Zellsystem der neonatalen Rattenherzzellen führen die AT1-AAK zur Aktivierung von Gi-Proteinen und zu verringerten intrazellulären cAMP-Spiegeln. Des Weiteren wurde gezeigt, dass die AT1-AAK in Kulturen neonataler Rattenherzzellen die Transkriptionsfaktoren AP-1 und NFkB aktivieren. Die Aktivierung des Transkriptionsfaktors NFkB wurde vornehmlich in den Nicht-Myozyten der Rattenherzzellkultur nachgewiesen. Generell wurde festgestellt, dass sich die AT1-AAK pharmakologisch wie der natürliche Agonist des AT1-Rezeptors, Angiotensin II, verhalten. Erste Daten dieser Arbeit deuten auf einen eventuellen Einfluss der AT1-AAK auf die Expression von Komponenten der extrazellulären Matrix bzw. assoziierter Faktoren (Kollagen III, MMP-2, TIMP-2, Colligin) hin. In allen in dieser Arbeit untersuchten Seren von klinisch diagnostizierten Präeklampsie-Patientinnen wurden agonistische AT1-AAK nachgewiesen. Wir vermuten daher, dass die AT1-AAK möglicherweise bedeutend in der Pathogenese der Präeklampsie sind.
Ein Spezialgebiet der modernen Mikroelektronik ist die Miniaturisierung und Entwicklung von neuen nanostrukturierten und Komposit-Materialen aus 3d-Metallen. Durch geeignete Zusammensetzungen können diese sowohl mit einer hohen Sättigungsmagnetisierung und Koerzitivfeldstärke als mit besserer Oxidationsbeständigkeit im Vergleich zu den reinen Elementen erzielt werden. In der vorliegenden Arbeit werden neue Methoden für die Herstellung von bimetallischen kolloidalen Nanopartikeln vor allem mit einer Kern-Hülle-Struktur (Kern@Hülle) präsentiert. Bei der überwiegenden Zahl der vorgestellten Reaktionen handelt es sich um die thermische Zersetzung von metallorganischen Verbindungen wie Kobaltcarbonyl, Palladium- und Platinacetylacetonate oder die chemische Reduktion von Metallsalze mit langkettigem Alkohol in organischem Lösungsmittel. Daneben sind auch Kombinationen aus diesen beiden Verfahren beschrieben. Es wurden Kolloide aus einem reinen Edelmetall (Pt, Pd, Ag) in einem organischen Lösungsmittel synthetisiert und daraus neue, bisher in dieser Form nicht bekannte Ag@Co-, Pt@Co-, Pd@Co- und Pt@Pd@Co-Nanopartikel gewonnen. Der Kobaltgehalt der Ag@Co-, Teilchen konnte im Bereich von 5 bis 73 At. % beliebig eingestellt werden. Der mittlere Durchmesser der Ag@Co-Partikel wurde von 5 nm bis 15 nm variiert. Bei der Herstellung von Pt@Co-Teilchen wurde eine unterschiedlich dicke Kobalt-Hülle von ca. 1,0 bis 2,5 nm erzielt. Im Fall des Palladiums wurden sowohl monodispere als auch polydisperse Pd-Nanopartikel mit einer maximal 1,7-2,0nm dicken Kobalthülle synthetisiert. Ein großer Teil dieser Arbeit befasst sich mit den magnetischen Eigenschaften der kolloidalen Teilchen, wobei die SQUID-Magnetometrie und Röntgenzirkulardichroismus (XMCD) dafür eingesetzt wurden. Weil magnetische Messungen alleine nur indirekte Schlüsse über die untersuchten Systeme erlauben, wurde dabei besonderer Wert auf die möglichst genaue strukturelle Charakterisierung der Proben mittels moderner Untersuchungsmethoden gelegt. Röntgendiffraktometrie (XRD), Röntgenabsorptionsfeinstruktur- (EXAFS) und UV-Vis-Spektroskopie sowie Transmissionselektronenmikroskopie (TEM) in Kombination mit Elektronen Energieverlustspektroskopie (EELS) und energiedispersive Röntgenfluoreszensanalyse (EDX) wurden verwendet.
Zur Ermittlung der Akzeptanz und ihres prädiktiven Wertes für den Verzehr von Lebensmitteln bzw. Getränken, sind Beliebtheitsprüfungen mit Konsumenten unter standardisierten Bedingungen im Sensoriklabor üblich. Die prädiktive Aussagekraft dieser Laboruntersuchungen wird jedoch durch folgende Aspekte eingeschränkt: (1) Der situative Kontext wird ausgeschaltet, d.h. die Verzehrssituation, in der ein Produkt üblicherweise konsumiert wird, ist im Labor bewusst eliminiert und das zu bewertende Produkt wird nicht in einer kompletten Mahlzeit dargeboten (2) Der Produktkontakt im Labor ist im Gegensatz zu der anhaltenden Konfrontation unter alltäglichen Bedingungen nur kurzfristig, was Langzeitaussagen bzw. Dauerpräferenzen nicht zuläßt; (3) Im Labortest ist die freie Auswahl auf eine geringe Anzahl angebotener Produkte beschränkt. In dieser Arbeit soll daher die Frage beantwortet werden, welchen prädiktiven Wert sensorische Beliebtheitsuntersuchungen im Labor für Lebensmittelakzeptanz und -verzehr unter Alltagssituationen haben. Dies wird für verschiedene Altersgruppen gezeigt, die frei in ihrer Entscheidungsfindung sind. Dazu gaben 56 Studenten (23,1±3,7 Jahre) und zwei Seniorengruppen, zum einen aus einer Begegnungsstätte (20 Probanden; 75,6±8,1 Jahre) und zum anderen aus dem betreuten Wohnen (14 Probanden; 76,1±12,5 Jahre), in einer ersten Laboruntersuchung Beliebtheitsbewertungen (Akzeptanz und Rangordnungsprüfung) zu 6 Erfrischungsgetränken ab. Anschließend folgte ein mindestens vierwöchiger Zeitraum, in denen die Probanden aus einem speziell für die Studie konzipierten Automaten Getränke in Einrichtungen der Gemeinschaftsverpflegung entnehmen konnten. Die Entnahme war via Chipkarte ad libitum möglich. Computergestützt wurden dabei individuelle Getränkewahl, Menge und Entnahmezeit aufgezeichnet. Unmittelbar nach der Automatenphase wurde eine erneute Laboruntersuchung durchgeführt. In allen Untersuchungsphasen wurden dieselben Erfrischungsgetränke aus Konzentrat, variiert in Apfel- oder Orangensaftgeschmack, ohne oder mit Zusatz von Zucker (20g/l) und Kohlensäure (4 g/l CO2), angeboten. Eine Quntitativ Deskriptive Analyse bestätigte unterschiedliche Profile bei den Produkten, so dass von sensorisch wahrnehmbaren Unterschieden zwischen den Produkten ausgegangen werden konnte. Die Probanden bekamen zu keiner Zeit Informationen über die exakte Zusammensetzung der Getränke. Sowohl in der Laborbewertung als auch nach Getränkekonsum via Automat, fanden sich unterschiede zwischen den Altersgruppen. In der Akzeptanzprüfung bewerteten Studenten die Apfelvarianten besser als die Orangenvarianten. Senioren, die insgesamt höhere Akzeptanzwerte vergaben, bewerteten alle Getränke in fast allen Attributen gleichermaßen gut. Nach der 4-wöchigen Automatenphase hatte sich die Akzeptanz der sechs Getränke nicht wesentlich geändert. Auch in beiden Rangordnungsprüfungen waren bei den Studenten „Apfel“ und „Apfel mit Kohlensäure“ auf den ersten Plätzen, „Orange mit Zuckerzusatz“ auf dem letzten Platz. Nach Adjustierung auf die individuelle Trinkmenge (in Wenig-, Mittel- Vieltrinker) und wurde „Apfel mit Kohlensäure“ in der Automatenphase von den Studenten am meisten getrunken. In der Vieltrinkergruppe wurde „Orange mit Zuckerzusatz“ deutlich vernachlässigt. Der Automatenkonsum der Studenten bestätigte damit im Wesentlichen die Ergebnisse der Beliebtheitsprüfung im Labor. Bei den Senioren waren in der Rangordnungsprüfung, die eine Lieblingsreihenfolge erzwang, alle süßeren Getränke (mit Zuckerzusatz) auf den ersten Plätzen. In der Automatenphase wurden jedoch viele Getränke ohne Zuckerzusatz bevorzugt. Dies zeigte sich sowohl in der individuellen Präferenz, als auch im Gesamtkonsum. Aufgrund der Ergebnisse kann der prädiktive Wert von Laboruntersuchungen mit Senioren in Bezug auf die Auswahl und den Konsum unter alltäglichen Bedingungen als gering beurteilt werden. Die Getränke mit der individuell höchsten Laborpräferenz wurden unter Alltagsumgebung in der Gemeinschaftsverpflegung in deutlich geringeren Umfang als erwartet verzehrt. In der Vergleichsgruppe der Studenten ist die Übereinstimmung größer(p<0,05). In Häufigkeitsfragebögen vor und nach der Automatenphase wurde das Trinkverhalten speziell von kohlensäurehaltigen Getränken erfragt. Der Anteil von kohlensäurehaltigen Getränken ist sehr variabel, und kann tagesabhängig von einem geringen bis zum Hauptanteil ausmachen. Senioren tranken von den Automatengetränken weniger kohlensäurehaltige Getränke als Studenten(p<0,001). Trotzdem zeigte nur eine Minderheit einen völligen Verzicht, wie sich durch Fragebogen und auch Automatenkonsum ermitteln ließ. Die Verwendung eines computergestützten Getränkeautomaten bietet eine neue Möglichkeit, die Langzeitpräferenz und den tatsächlichen Konsum unter gewohnten Alltagsbedingungen und bei freier Produktauswahl zu ermitteln. Selbst bei Altersgruppen, die mit Laboruntersuchungen überfordert sind, können Vorlieben untersucht werden.
Der "Leukocyte Receptor Complex" (LRC) ist ein DNA-Sequenzabschnitt auf dem Chromosom 19 des Menschen, der eine Länge von über 900.000 Basenpaaren umfaßt. In diesem Chromosomenabschnitt ist eine Vielzahl von Genen lokalisiert, die für die Funktion verschiedener weißer Blutzellen (Leukozyten) von entscheidender Bedeutung sind. Bei den aus diesen Genen synthetisierten Proteinen (Eiweißen) handelt es sich um Strukturen, die auf der Oberfläche dieser Zellen lokalisiert sind und zur Interaktion der Leukozyten mit ihrer Umgebung dienen. Diese auch als Rezeptoren bezeichneten Proteine können mit Oberflächenproteinen auf anderen Körperzellen wechselwirken und daraus resultierende Signale in das Innere der Blutzelle weiterleiten. In der vorliegenden Doktorarbeit wurde der LRC im Detail untersucht. Hierzu wurde zunächst der gesamte Chromosomenabschnitt aus kleineren, einander überlappenden DNA-Fragmenten rekonstruiert. Aufgrund der in diesen DNA-Fragmenten enthaltenen DNA-Sequenzen war es möglich, den gesamten Chromosomenabschnitt ähnlich einem Puzzle zusammenzusetzen. Die anschließende Analyse des LRC zeigte, daß sich dieser in drei Bereiche, sogenannte Cluster, unterteilen läßt. Diese Cluster sind dadurch gekennzeichnet, daß in ihnen jeweils nur Gene eines Rezeptortyps vorkommen. Hierbei handelt es sich um ‚immunoglobulin-like transcript′ -Gene (ILT) und ‚killer cell Ig-like receptor′-Gene (KIR). Die KIR- und ILT-Cluster werden von weiteren stammesgeschichtlich verwandten Genen unterbrochen und flankiert. Je nach Individuum können im LRC bis zu 31 solcher verwandten Rezeptorgene lokalisiert sein. Auf der Grundlage der Kartierungsdaten und von Daten des humanen Genomprojekts war es zudem möglich, evolutionäre Untersuchungen zur Entwicklung des LRC durchzuführen. Dabei wurde eine Hypothese zur Entstehung des LRC entworfen und zu anderen Spezies in Beziehung gesetzt. Im zweiten Teil der Arbeit habe ich aufbauend auf der sogenannten HRCA-Methode eine Technik entwickelt, die es erlaubt kleinste Unterschiede zwischen DNA-Sequenzen, sogenannte Einzelbasenpaaraustausche, nachzuweisen. Die entwickelte Methode kann verwendet werden, um sehr ähnliche DNA-Sequenzen, wie z.B. verschiedene KIR-Sequenzen, zu unterscheiden und ihre Menge zu bestimmen. Sie ist außerdem geeignet Mutationen, die mit bestimmten Krankheiten assoziiert sind, nachzuweisen und könnte somit in der Diagnostik Anwendung finden.
Ziel dieser Arbeit war es, die Auswirkungen der geothermischen Energieerzeugung aus umwelt- und naturschutzfachlicher Sicht zu untersuchen und zu bewerten. Auf der Grundlage einer umfassenden Literaturstudie, von Expertenbefragungen sowie der Besichtigung des Hydrothermalen Erdwärmekraftwerkes in Neustadt-Glewe und der Erdwärmesondenanlage auf dem Max-Planck-Campus in Golm wurden die für eine behördliche Genehmigung der Erschließung und Nutzung von Erdwärmevorkommen notwendigen gesetzlichen Regelungen systematisch aufgearbeitet und die mit den Techniken zur Erschließung bzw. den Anlagen zur Nutzung von Erdwärme verbundenen umweltrelevanten Wirkfaktoren ausgewiesen und systematisch dargestellt. Darauf aufbauend wurden die potenziellen Wirkungen auf die Schutzgüter des UVPG qualitativ erfasst und, soweit es in Anbetracht des derzeitigen Standes der Forschung möglich war, quantifiziert. Die Wirkungen wurden schließlich hinsichtlich ihrer Bedeutung und Erheblichkeit im Rahmen von behördlichen Genehmigungsentscheidungen bewertet und miteinander verglichen. Die Anforderungen an den Inhalt von Antragsunterlagen wurden dargestellt. Gutachter / Betreuer: Dr. Holger Rößling ; Dipl.-Biol. Karl Scheurlen
In festen azobenzenhaltigen Polymeren wurde bei Bestrahlung mit blauem Licht ein makroskopischer Materialtransport beobachtet. Um die Dynamik der Gitterentstehung zu verfolgen, wurde am Speicherring für Synchrotronstrahlung ein Gitterschreibaufbau errichtet. Damit konnte erstmals in dieser Arbeit die Gitterbildungsgeschwindigkeit in-situ simultan mit Röntgen- und Lichtstreuung untersucht werden. Mit Hilfe einer speziellen Anpassung der Röntgenstreutheorie konnten sehr gute Übereinstimmungen von theoretischen Berechnungen mit den Messergebnissen erzielt werden. Dabei konnte nachgewiesen werden, dass sich zeitgleich mit einem Oberflächengitter auch ein Dichtegitter entwickelt. Durch die Trennung beider Streuanteile ließ sich die Dynamik der Strukturentstehungen bestimmen. Des weiteren konnte erstmals mit Hilfe der Photoelektronenspektroskopie die molekulare Orientierung an der Oberfläche eines Oberflächengitters nachgewiesen werden. Die Bewegungsursache kann auf einen Impulsübertrag während der Isomerisierung zurückgeführt werden, während die Bewegungsrichtung durch den elektrischen Feldvektor festgelegt wird. Die Theorie der Gitterentstehung konnte verbessert werden.
Eine Nutzung der optischen Anisotropie dünner Schichten ist vor allem für die Displaytechnologie, die optische Datenspeicherung und für optische Sicherheitselemente von hoher Bedeutung. Diese Doktorarbeit befasst sich mit theoretischen und experimentellen Untersuchung von dreidimensionaler Anisotropie und dabei insbesondere mit der Untersuchung von lichtinduzierter dreidimensionaler Anisotropie in organischen dünnen Polymer-Schichten. Die gewonnenen Erkentnisse und entwickelten Methoden können wertvolle Beiträge für Optimierungsprozesse, wie bei der Kompensation der Blickwinkelabhängigkeit von Flüssigkristall-Displays, liefern. Die neue Methode der Immersions-Transmissions-Ellipsometrie (ITE) zur Untersuchung von dünneren Schichten wurde im Rahmen dieser Dissertation entwickelt. Diese Methode gestattet es, in Kombination mit konventioneller Reflexions- und Transmissionsellipsometrie, die absoluten dreidimensionalen Brechungsindices einer biaxialen Schicht zu bestimmen. Erstmals gelang es damit, das dreidimensionale Brechungsindexellipsoid von transparenten, dünneren (150 nm) Filmen hochgenau (drei Stellen hinter dem Komma) zu bestimmen. Die ITE-Methode hat demzufolge das Potential, auch bei noch dünneren Schichten mit Gewinn eingesetzt werden zu können. Die lichtinduzierte Generierung von dreidimensionaler Anisotropie wurde in dünnen Schichten von azobenzenhaltigen und zimtsäurehaltigen, amorphen und flüssig-kristallinen Homo- und Copolymeren untersucht. Erstmals wurden quantitative Untersuchungen zur Änderung von lichtinduzierten, dreidimensionalen Anisotropien in dünnen Schichten von azobenzenhaltigen und zimtsäurehaltigen Polymeren bei Tempern oberhalb der Glastemperatur durchgeführt. Bei vielen der untersuchten Polymere war die dreidimensionale Ordnung nach dem Bestrahlen mit polarisiertem Licht und anschließendem Tempern oberhalb der Glastemperatur scheinbar von der Schichtdicke abhängig. Die Ursache liegt wohl in der, mit der neuentwickelten ITE-Methode detektierten, planaren Ausgangsorientierung der aufgeschleuderten dünneren Schichten. Um Verkippungs-Gradienten in dickeren Polymerschichten in ihrem Verlauf zu bestimmen, wurde eine spezielle Methode unter Benutzung der Wellenleitermoden-Spektroskopie entwickelt. Quantenchemisch bestimmte, maximal induzierbare Doppelbrechungen in flüssig-kristallinen Polymeren wurden mit den experimentell gefundenen Ordnungen verglichen.
Zwischen 1990 und 1994 wurden rund 1000 Liegenschaften, die in der ehemaligen DDR von der Sowjetarmee und der NVA für militärische Übungen genutzt wurden, an Bund und Länder übergeben. Die größten Truppenübungsplätze liegen in Brandenburg und sind heute teilweise in Großschutzgebiete integriert, andere Plätze werden von der Bundeswehr weiterhin aktiv genutzt. Aufgrund des militärischen Betriebs sind die Böden dieser Truppenübungsplätze oft durch Blindgänger, Munitionsreste, Treibstoff- und Schmierölreste bis hin zu chemischen Kampfstoffen belastet. Allerdings existieren auf fast allen Liegenschaften neben diesen durch Munition und militärische Übungen belasteten Bereichen auch naturschutzfachlich wertvolle Flächen; gerade in den Offenlandbereichen kann dies durchaus mit einer Belastung durch Kampfmittel einhergehen. Charakteristisch für diese offenen Flächen, zu denen u.a. Zwergstrauchheiden, Trockenrasen, wüstenähnliche Sandflächen und andere nährstoffarme baumlose Lebensräume gehören, sind Großflächigkeit, Abgeschiedenheit sowie ihre besondere Nutzung und Bewirtschaftung, d.h. die Abwesenheit von land- und forstwirtschaftlichem Betrieb sowie von Siedlungsflächen. Diese Charakteristik war die Grundlage für die Entwicklung einer speziell angepassten Flora und Fauna. Nach Beendigung des Militärbetriebs setzte dann in weiten Teilen eine großflächige Sukzession – die allmähliche Veränderung der Zusammensetzung von Pflanzen- und Tiergesellschaften – ein, die diese offenen Bereiche teilweise bereits in Wald verwandelte und somit verschwinden ließ. Dies wiederum führte zum Verlust der an diese Offenlandflächen gebundenen Tier- und Pflanzenarten. Zur Erhaltung, Gestaltung und Entwicklung dieser offenen Flächen wurden daher von einer interdisziplinären Gruppe von Naturwissenschaftlern verschiedene Methoden und Konzepte auf ihre jeweilige Wirksamkeit untersucht. So konnten schließlich die für die jeweiligen Standortbedingungen geeigneten Maßnahmen eingeleitet werden. Voraussetzung für die Einleitung der Maßnahmen sind zum einen Kenntnisse zu diesen jeweiligen Standortbedingungen, d.h. zum Ist-Zustand, sowie zur Entwicklung der Flächen, d.h. zur Dynamik. So kann eine Abschätzung über die zukünftige Flächenentwicklung getroffen werden, damit ein effizienter Maßnahmeneinsatz stattfinden kann. Geoinformationssysteme (GIS) spielen dabei eine entscheidende Rolle zur digitalen Dokumentation der Biotop- und Nutzungstypen, da sie die Möglichkeit bieten, raum- und zeitbezogene Geometrie- und Sachdaten in großen Mengen zu verarbeiten. Daher wurde ein fachspezifisches GIS für Truppenübungsplätze entwickelt und implementiert. Die Aufgaben umfassten die Konzeption der Datenbank und des Objektmodells sowie fachspezifischer Modellierungs-, Analyse- und Präsentationsfunktionen. Für die Integration von Fachdaten in die GIS-Datenbank wurde zudem ein Metadatenkatalog entwickelt, der in Form eines zusätzlichen GIS-Tools verfügbar ist. Die Basisdaten für das GIS wurden aus Fernerkundungsdaten, topographischen Karten sowie Geländekartierungen gewonnen. Als Instrument für die Abschätzung der zukünftigen Entwicklung wurde das Simulationstool AST4D entwickelt, in dem sowohl die Nutzung der (Raster-)Daten des GIS als Ausgangsdaten für die Simulationen als auch die Nutzung der Simulationsergebnisse im GIS möglich ist. Zudem können die Daten in AST4D raumbezogen visualisiert werden. Das mathematische Konstrukt für das Tool war ein so genannter Zellulärer Automat, mit dem die Flächenentwicklung unter verschiedenen Voraussetzungen simuliert werden kann. So war die Bildung verschiedener Szenarien möglich, d.h. die Simulation der Flächenentwicklung mit verschiedenen (bekannten) Eingangsparametern und den daraus resultierenden unterschiedlichen (unbekannten) Endzuständen. Vor der Durchführung einer der drei in AST4D möglichen Simulationsstufen können angepasst an das jeweilige Untersuchungsgebiet benutzerspezifische Festlegungen getroffen werden.
Nach einem Rekurs über den Utopiebegriff wurden sowohl im diarischen Werk als auch in der veröffentlichten Prosa Brigitte Reimanns utopische Konzeptionen aufgespürt. Gesucht wurde das Utopische sowohl in den Beschreibungen einer konkreten Gesellschaftsutopie, als auch in den literarischen „Verfeinerungen“ einer kruden Ideologie, wie im kritischen Hinterfragen des „Noch-Nicht-Bewussten“ (Ernst Bloch). Als ästhetische Utopien wurden auch Wunschbilder des Alltags, Träume, Märchen und Mythen gedeutet. Ausführliche Untersuchungen beschäftigten sich mit der Gestaltung der weiblichen Figuren und ihrer Entwicklung von der ideologisch (auch männlich) indoktrinierten Protagonistin zur „freien“ Ich–Gestalterin. Nachgewiesen wurde sowohl im diarischen Werk, als auch in der veröffentlichten Prosa eine Wandlung des Utopieverständnisses von der Gesellschaftsutopie zur subjektiven „Augenblicksutopie“, die im Deutungshorizont der Literatur der Romantik auch als DDR-spezifische Innerlichkeit verstanden werden könnte, welche mit ihrem Rückzug ins Individuelle die ritualisierte DDR-Öffentlichkeit desavouierte.
In den letzten Jahren wurden relativ komplexe Erosionsmodelle entwickelt, deren Teilprozesse immer mehr auf physikalisch begründeten Ansätzen beruhen. Damit verbunden ist eine höhere Anzahl aktueller Eingangsparameter, deren Bestimmung im Feld arbeits- und kostenaufwendig ist. Zudem werden die Parameter punktuell, also an bestimmten Stellen und nicht flächenhaft wie bei der Fernerkundung, erfasst. Im Rahmen dieser Arbeit wird gezeigt, wie Satellitendaten als relativ kostengünstige Ergänzung oder Alternative zur konventionellen Parametererhebung genutzt werden können. Dazu werden beispielhaft der Blattflächenindex (LAI) und der Bedeckungsgrad für das physikalisch begründete Erosionsmodell EROSION 3D abgeleitet. Im Mittelpunkt des Interesses steht dabei das Aufzeigen von existierenden Methoden, die die Basis für eine operationelle Bereitstellung solcher Größen nicht nur für Erosions- sondern allgemein für Prozessmodelle darstellen. Als Untersuchungsgebiet dient das primär landwirtschaftlich genutzte Einzugsgebiet des Mehltheuer Baches, das sich im Sächsischen Lößgefilde befindet und für das Simulationsrechnungen mit konventionell erhobenen Eingangsparametern für 29 Niederschlagsereignisse im Jahr 1999 vorliegen [MICHAEL et al. 2000]. Die Fernerkundungsdatengrundlage bilden Landsat-5-TM-Daten vom 13.03.1999, 30.04.1999 und 19.07.1999. Da die Vegetationsparameter für alle Niederschlagsereignisse vorliegen sollen, werden sie basierend auf der Entwicklung des LAI zeitlich interpoliert. Dazu erfolgt zunächst die Ableitung des LAI für alle vorhandenen Fruchtarten nach den semi-empirischen Modellen von CLEVERS [1986] und BARET & GUYOT [1991] mit aus der Literatur entnommenen Koeffizienten. Des Weiteren wird eine Methode untersucht, nach der die Koeffizienten für das Clevers-Modell aus den TM-Daten und einem vereinfachten Wachstumsmodell bestimmt werden. Der Bedeckungsgrad wird nach ROSS [1981] aus dem LAI ermittelt. Die zeitliche Interpolation des LAI wird durch die schlagbezogene Anpassung eines vereinfachten Wachstumsmodells umgesetzt, das dem hydrologischen Modell SWIM [KRYSANOVA et al. 1999] entstammt und in das durchschnittliche Tagestemperaturen eingehen. Mit den genannten Methoden bleiben abgestorbene Pflanzenteile unberücksichtigt. Im Vergleich zur konventionellen terrestrischen Parametererhebung ermöglichen sie eine differenziertere Abbildung räumlicher Variabilitäten und des zeitlichen Verlaufes der Vegetationsparameter. Die Simulationsrechnungen werden sowohl mit den direkten Bedeckungsgraden aus den TM-Daten (pixelbezogen) als auch mit den zeitlich interpolierten Bedeckungsgraden für alle Ereignisse (schlagbezogen) durchgeführt. Bei beiden Vorgehensweisen wird im Vergleich zur bisherigen Abschätzung eine Verbesserung der räumlichen Verteilung der Parameter und somit eine räumliche Umverteilung von Erosions- und Depositionsflächen erreicht. Für die im Untersuchungsgebiet vorliegende räumliche Heterogenität (z. B. Schlaggröße) bieten Landsat-TM-Daten eine ausreichend genaue räumliche Auflösung. Damit wird nachgewiesen, dass die satellitengestützte Fernerkundung im Rahmen dieser Untersuchungen sinnvoll einsetzbar ist. Für eine operationelle Bereitstellung der Parameter mit einem vertretbaren Aufwand ist es erforderlich, die Methoden weiter zu validieren und möglichst weitestgehend zu automatisieren.
Es ist schon seit längerer Zeit bekannt, dass nach Kontakt des Biomaterials mit der biologischen Umgebung bei Implantation oder extrakorporaler Wechselwirkung zunächst Proteine aus dem umgebenden Milieu adsorbiert werden, wobei die Oberflächeneigenschaften des Materials die Zusammensetzung der Proteinschicht und die Konformation der darin enthaltenden Proteine determinieren. Die nachfolgende Wechselwirkung von Zellen mit dem Material wird deshalb i.d.R. von der Adsorbatschicht vermittelt. Der Einfluss der Oberflächen auf die Zusammensetzung und Konformation der Proteine und die nachfolgende Wechselwirkung mit Zellen ist von besonderem Interesse, da einerseits eine Aussage über die Anwendbarkeit ermöglicht wird, andererseits Erkenntnisse über diese Zusammenhänge für die Entwicklung neuer Materialien mit verbesserter Biokompatibilität genutzt werden können. In der vorliegenden Habilitationsschrift wurde deshalb der Einfluss der Zusammensetzung von Polymeren bzw. von deren Oberflächeneigenschaften auf die Adsorption von Proteinen, den Aktivitätszustand der plasmatischen Gerinnung und die Adhäsion von Zellen untersucht. Dabei wurden auch Möglichkeiten zur Beeinflussung dieser Vorgänge über eine Veränderung der Volumenzusammensetzung oder durch Oberflächenmodifikationen von Biomaterialien vorgestellt. Erkenntnisse aus diesen Arbeiten konnten für die Entwicklung von Membranen für Biohybrid-Organe genutzt werden.
In der wissenschaftlichen Literatur, in der betrieblichen Praxis und in der gesellschaftlichen Diskussion wird wieder zunehmend mehr die Bedeutung der Beschäftigten für den Unternehmenserfolg hervorgehoben und diskutiert. Unternehmen, die zielgerichtet geeignete Managementstrategien mit Blick auf den Umgang mit ihren Beschäftigten einsetzen, werden in bezug auf ihre ökonomische Wertschöpfung als erfolgreicher charakterisiert. Besonders im Bereich Human Resources Management lassen sich erste Belege finden, die es ermöglichen, den ökonomischen Erfolg von Unternehmen kausal auf einzelne Personalmanagementstrategien zurückzuführen. Ziel eigener Untersuchungen in der IT- und Softwarebranche war es, Unternehmenserfolg auf der Grundlage ökonomischer Erfolgsmaße und des subjektiven Erlebens der Beschäftigten in kleinen und mittleren Softwareunternehmen unter besonderer Fokussierung des Human Resources Management und der Unternehmenskultur zu untersuchen.
Der Buchfinkengesang wurde in Potsdam in zwei Hauptpopulationen über drei Jahre aufgenommen. Jedes Individuum wurde eindeutig am individuellen Strophentypenrepertoire identifiziert. Ein weiterer Punkt der die individuelle Wiedererkennung bestätigt ist die hohe Standorttreue der adulten Männchen. Die beschriebene Methode eignet sich für die Untersuchung von gesamten Populationen, um den Wandel des Gesangs von Populationen in Raum und Zeit zu beschreiben. Die Haupterkenntnisse der Arbeit sind: - Die Gesamtanzahl der Grundstrophentypen innerhalb einer Population bleibt über Jahre konstant. - Die relative Häufigkeit jedes einzelnen Strophentyps variiert von Jahr zu Jahr und von Population zu Population. - Gesangslernen erfolgt exakt mit einem Korrektheitsgrad von mindestens 96%. - Das Song-Sharing ist innerhalb der Population hoch. Die diskutierten Mechanismen für das Song-Sharing sind: Die Lebenserwartung, das Zugverhalten, das Lernverhalten, die Etabliertheit von Strophentypen, Weibchenpräferenzen und die Reaktionen der territorialen Männchen. - Weiterhin wurde ein Modell zur kulturellen Evolution des Buchfinkengesangs programmiert, um die Rolle der Einflussfaktoren, wie Fehlerquote, Abwanderungsrate und Laufzeit zu ermitteln. Der Wandel des Dialektes erfolgt graduell in Raum und Zeit. Daher sind keine scharfen Dialektgrenzen anzutreffen. Trotz dieser Tatsache markieren die etablierten Strophentypen die Population. 50 % der Juvenilen siedeln am Geburtsort, auf diese Weise bleibt der Dialekt erhalten und Inzest wird vermieden. -Analysiert man das Repertoire benachbarten Männchen bei isolierten Alleen, so entspricht die Gesangsangleichung in etwa dem Zufall. -Intraindividuelle Vergleiche der quantitativen Parameter des jeweiligen Strophentyps wurden saisonal und annuell durchgeführt. Saisonal konnten für einen Strophentyp ein Trend ermittelt werden. Bei jährlichen Vergleichen konnten intraindividuell ausschließlich nicht signifikante Ergebnisse ermittelt werden, wohingegen die interindividuelle Variation in zwei Fällen signifikant war. In einem Fall bestand ein Trend und in einem weiteren Fall war die Variationsunterschiede nicht signifikant. - Der Verlauf der Brutsaison lässt sich an der jährlichen Gesangsaktivität nachvollziehen.
Aromatische Amine und Amide (aAA) sind aufgrund ihrer starken Verbreitung in der menschlichen Umwelt und ihres kanzerogenen Potenzials von großer toxikologischer Bedeutung. Die Kanzerogenität der aAA wird durch die Mutagenität hochreaktiver Stoffwechselprodukte vermittelt, die in zwei sequenziellen katalytischen Reaktionen entstehen. Die erste ist meistens eine N-Hydroxylierung, die oft durch Cytochrom P450 1A2 (CYP1A2) katalysiert wird. Daran schließt sich eine O-Konjugation durch Sulfotransferasen (SULT) oder N-Acetyltransferasen (NAT) an. Die Bioaktivierung ist ein kritischer Parameter für die Übertragbarkeit von Ergebnissen aus Tiermodellen auf den Menschen. Rekombinante in vitro Systeme, die fremdstoffmetabolisierende Enzyme verschiedener Spezies exprimieren, ermöglichen die vergleichende Untersuchung der Bioaktivierung im Menschen und in Versuchstieren. Ziel des Projektes war die Aufklärung der Bioaktivierung der aAA durch humane Enzyme. Im Vordergrund stand die Untersuchung der Rolle humaner SULT in diesem Prozess. Es wurden rekombinante in vitro Systeme, konstruiert, die CYP1A2 und SULT des Menschen koexprimieren. SULT-cDNAs wurden in den Säugerzell Expressionsvektor pMPSV kloniert und in Standardindikatorzellen für Mutagenitätsuntersuchungen (V79 Zellen aus dem Chinesischen Hamster) transfiziert. Das Expressionsniveau von CYP1A2 und SULT wurde mittels Immunblotanalyse und radiometrischen Aktivitätsmessungen charakterisiert. In den rekombinanten Zellen wurden vier aAA als Modellsubstanzen (2-Acetylaminofluoren, 2-Aminoanthracen, 3′-Methyl-4-dimethylaminoazobenzol, 2,4-Diaminotoluol) auf ihre Mutagenität am hprt-Locus hin untersucht.Die aAA waren in Zellen, die keine rekombinanten Enzyme oder lediglich CYP1A2 exprimierten, nicht mutagen. In Zellen, die CYP1A2 und SULT der Subfamilie 1A koexprimierten, erzeugten sie bereits in geringen Konzentrationen klare mutagene Effekte (0,3 µM für 2-Acetylaminofluoren und 3′-Methyl-4-dimethylaminoazobenzol; 0,1 µM für 2-Aminoanthracen; 10 µM für 2,4-Diaminotoluol). Die stärkste Aktivierung von 2-Acetylaminofluoren und 3′-Methyl-4-dimethylaminoazobenzol erfolgte in der Zelllinie, die CYP1A2 und SULT1A2 koexprimierte; die stärkste Aktivierung von 2,4-Diaminotoluol und 2-Aminoanthracen erfolgte in der Zelllinie, die CYP1A2 und SULT1A1 koexprimierte. Sowohl SULT1A1 als auch SULT1A2 sind im Menschen genetisch polymorph. Ein unterschiedlich starkes Aktivierungspotenzial der Alloenzyme könnte eine individuell unterschiedliche Suszeptibilität für die durch aAA ausgelöste Kanzerogenese bedingen. In HPRT-Mutationsuntersuchungen mit rekombinanten Zellen zeigten die allelischen Varianten der SULT1A2 starke Unterschiede in ihrem Aktivierungpotenzial. Nur in der Zelllinie, die das Alloenzym SULT1A2*1 mit CYP1A2 koexprimierte, wurde 2-Acetylaminofluoren zum Mutagen aktiviert. Zur Aktivierung von 3′-Methyl-4-dimethylaminoazobenzol waren jedoch sowohl das Alloenzym SULT1A2*1 als auch das Alloenzym SULT1A2*2 in der Lage. Die Alloenzyme der SULT1A1 zeigten ein ähnlich gutes Aktivierungspotenzial für aAA. In früheren Studien wurde gezeigt, dass die SULT1C1 der Ratte eine wichtige Rolle bei der Aktivierung der aAA in dieser Spezies spielt. Dahingegen war die humane SULT1C1 nicht in der Lage die untersuchten aAA zu aktivieren. Die Kenntnis solcher Spezieunterschiede könnte wichtig sein um unterschiedliche Organotropismen aAA in Menschen und Tiermodellen zu erklären, da SULT mit starker Gewebespezifität exprimiert werden und das Expressionsmuster für die einzelnen SULT-Formen in Menschen und Ratten sich stark unterscheidet.
In der vorliegenden Arbeit habe ich wichtige Teilmechanismen der Erregungs-Sekretionskopplung in der Speicheldrüse der Schabe Periplaneta americana (L.) untersucht. Die Speicheldrüse ist von dopaminergen und serotonergen Fasern innerviert (Baumann et al., 2002). Beide Transmitter stimulieren eine unterschiedliche Reaktion der Drüse: Dopamin (DA) stimuliert die P-Zellen der Acini und die Ausführgangzellen, während Serotonin (5-HT) die P- und C-Zellen der Acini stimuliert, nicht jedoch die Ausführgangzellen. Der Endspeichel ist nach einer DA-Stimulierung proteinfrei. Dagegen enthält er nach einer 5-HT-Stimulierung Proteine, die von den C-Zellen sezerniert werden (Just & Walz, 1996). Im ersten Teil meiner Arbeit habe ich mittels Kapillarelektrophoretischer Analyse (CE-Analyse) die Elektrolytkonzentrationen im Endspeichel untersucht sowie die Raten der Flüssigkeitssekretion gemessen. Damit wollte ich klären, welche Transporter an der Sekretion des Primärspeichels und an dessen Modifikation beteiligt sind. Ausserdem wollte ich die Rolle der transportaktiven Epithelzellen der Ausführgänge für die Modifikation des Primärspeichels untersuchen. Dafür habe ich einen Vergleich der Elektrolytkonzentrationen im DA- und 5-HT-stimulierten Endspeichel durchgeführt. Der Elektrolytgehalt des DA- und 5-HT-stimulierten Endspeichels unterscheidet sich nicht signifikant voneinander. Er ist nach beiden Stimulierungen hypoosmotisch zum verwendeten Ringer. Die Ausführgangzellen werden durch DA stimuliert und modifizieren den Primärspeichel durch eine netto-Ionenreabsorption. Meine Versuche zeigen jedoch, dass auch die während einer 5-HT-Stimulierung der Drüse unstimulierten Ausführgangzellen den Primärspeichel modifizieren. In einer nachfolgenden Versuchsreihe habe ich den Einfluss von Ouabain, einem Hemmstoff der Na+-K+-ATPase, und Bumetanid, einem Hemmstoff des NKCC, auf die Raten der Flüssigkeitssekretion sowie den Elektrolytgehalt des Endspeichels untersucht. Ich habe gefunden, dass die Aktivität der Na+-K+-ATPase wichtig für die Modifikation des DA-stimulierten Primärspeichels ist. Im Gegensatz dazu ist sie für die Modifikation des 5-HT-stimulierten Primärspeichels nicht von Bedeutung. Bezüglich der Flüssigkeitssekretion habe ich keinen Einfluss der Na+-K+-ATPase-Aktivität auf die DA-stimulierten Sekretionsraten gefunden, dagegen ist die 5-HT-stimulierte Sekretionsrate in Anwesenheit von Ouabain gesteigert. Die Aktivität des NKCC ist für beide sekretorische Prozesse, die Ionen- und die Flüssigkeitssekretion, wichtig. Eine Hemmung des NKCC bewirkt eine signifikante Verringerung der Raten der Flüssigkeitssekretion nach DA- und 5-HT-Stimulierung sowie in beiden Fällen einen signifikanten Abfall der Ionenkonzentrationen im Endspeichel. Im zweiten Teil meiner Arbeit habe ich versucht, Änderungen der intrazellulären Ionenkonzentrationen in den Acinuszellen während einer DA- oder 5-HT-Stimulierung zu messen. Diese Experimente sollten mit der Methode des "ratiometric imaging" durchgeführt werden. Messungen mit dem Ca2+-sensitiven Fluoreszenzfarbstoff Fura-2 zeigten keinen globalen Anstieg in der intrazellulären Ca2+-Konzentration der P-Zellen. Aufgrund von Problemen mit einer schlechten Beladung der Zellen, einer starken und sich während der Stimulierung ändernden Autofluoreszenz der Zellen sowie Änderungen im Zellvolumen wurden keine Messungen mit Na+- und K+-sensitiven Fluoreszenzfarbstoffen durchgeführt. Im dritten Teil dieser Arbeit habe ich die intrazellulären Signalwege untersucht, die zwischen einer 5-HT-Stimulierung der Drüse und der Proteinsekretion vermitteln. Dazu wurde der Proteingehalt im Endspeichel biochemisch mittels eines modifizierten Bradford Assay gemessen. Eine erstellte Dosis-Wirkungskurve zeigt, dass die Rate der Proteinsekretion von der zur Stimulierung verwendeten 5-HT-Konzentration abhängt. In einer Serie von Experimenten habe ich die intrazellulären Konzentrationen von Ca2+, cAMP und / oder cGMP erhöht und anschließend den Proteingehalt im Endspeichel gemessen. Ein Anstieg der intrazellulären Ca2+-Konzentration aktiviert nur eine geringe Rate der Proteinsekretion. Dagegen kann die Steigerung der intrazellulären cAMP-Konzentration eine stärkere Proteinsekretion aktivieren, die sich nicht signifikant von der nach 5-HT-Stimulierung unterscheidet. Die cAMP-stimulierte Proteinsekretion kann durch gleichzeitige Erhöhung der intrazellulären Ca2+-Konzentration weiter gesteigert werden. Dagegen aktivierte eine Erhöhung der intrazellulären cGMP-Konzentration die Proteinsekretion nicht. Aufgrund dieser Ergebnisse postuliere ich die Existenz eines die Adenylatcyclase aktivierenden 5-HT-Rezeptors in der Basolateralmembran der C-Zellen.
In der vorliegenden Untersuchung wurde ein arbeitspsychologisches Problem thematisiert, dass in Mensch-Maschine-Systemen auftritt. In Mensch-Maschine-Systemen werden Informationen in kodierter Form ausgetauscht. Diese inhaltlich verkürzte Informationsübertragung hat den Vorteil, keine lange Zustandsbeschreibung zu benötigen, so dass der Mensch auf die veränderten Zustände schnell und effizient reagieren kann. Dies wird aber nur dann ermöglicht, wenn der Mensch die kodierten Informationen (Kodes) vorher erlernten Bedeutungen zuordnen kann. Je nach Art der kodierten Informationen (visuelle, akustische oder alphanumerische Signale) wurden Gestaltungsempfehlungen für Kodealphabete entwickelt. Für Operateure resultiert die mentale Belastung durch Dekodierungsprozesse vor allem aus dem Umfang des Kodealphabetes (Anzahl von Kodezeichen), der wahrnehmungsmäßigen Gestaltung der Kodes und den Regeln über die Zuordnung von Bedeutungen zu Kodezeichen. Die Entscheidung über die Güte von Kodealphabeten geschieht in der Arbeitspsychologie in der Regel über Leistungsindikatoren. Dies sind üblicherweise die zur Dekodierung der Kodes benötigte Zeit und dabei auftretende Zuordnungsfehler. Psychophysiologische Daten werden oft nicht herangezogen. Fraglich ist allerdings, ob Zeiten und Fehler allein verlässliche Indikatoren für den kognitiven Aufwand bei Dekodierungsprozessen sind, da im hochgeübten Zustand bei gleichen Alphabetlängen, aber unterschiedlicher Kodezeichengestaltung sich häufig die mittleren Dekodierungszeiten zwischen Kodealphabeten nicht signifikant unterscheiden und Fehler überhaupt nicht auftreten. Die in der vorliegenden Arbeit postulierte Notwendigkeit der Ableitung von Biosignalen gründet sich auf die Annahme, dass mit ihrer Hilfe zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen gewonnen werden können, die mit der Erhebung von Leistungsdaten nicht erfasst werden. Denn gerade dann, wenn sich die Leistungsdaten zweier Kodealphabete nicht unterscheiden, können psychophysiologische Daten unterschiedliche Aspekte mentaler Beanspruchung erfassen, die mit Hilfe von Leistungsdaten nicht bestimmt werden können. Daher wird in Erweiterung des etablierten Untersuchungsansatzes vorgeschlagen, Biosignale als dritten Datenbereich, neben Leistungsdaten und subjektiven Daten mentaler Beanspruchung, abzuleiten, um zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen zu erhalten. Diese Annahme sollte mit Hilfe der Ableitung von Biosignalen überprüft werden. Der Begriff mentaler Beanspruchung wird in der bisherigen Literatur nur unzureichend definiert und differenziert. Daher wird zur Untersuchung dieses Konzepts, die wissenschaftliche Literatur berücksichtigend, ein erweitertes Modell mentaler Beanspruchung vorgestellt. Dabei wird die mentale Beanspruchung abgegrenzt von der emotionalen Beanspruchung. Mentale Beanspruchung wird weiterhin unterschieden in psychomotorische, perzeptive und kognitive Beanspruchung. Diese Aspekte mentaler Beanspruchung werden jeweils vom psychomotorischen, perzeptiven oder kognitiven Aufwand der zu bearbeitenden Aufgabe ausgelöst. In der vorliegenden Untersuchung wurden zwei zentrale Fragestellungen untersucht: Einerseits wurde die Analyse der anwendungsbezogenen Frage fokussiert, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung über die Leistungsdaten (Dekodierungszeiten und Fehleranzahl) hinaus, zusätzliche Informationen zur Bestimmung der Güte von Kodealphabeten liefern. Andererseits wurde der Forschungsaspekt untersucht, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung die zur Dekodierung notwendigen perzeptiven und kognitiven Aspekte mentaler Beanspruchung differenzieren können. Emotionale Beanspruchung war nicht Gegenstand der Analysen, weshalb in der Operationalisierung versucht wurde, sie weitgehend zu vermeiden. Psychomotorische Beanspruchung als dritter Aspekt mentaler Beanspruchung (neben perzeptiver und kognitiver Beanspruchung) wurde für beide Experimentalgruppen weitgehend konstant gehalten. In Lernexperimenten hatten zwei anhand eines Lern- und Gedächtnistests homogenisierte Stichproben jeweils die Bedeutung von 54 Kodes eines Kodealphabets zu erwerben. Dabei wurde jeder der zwei unahbhängigen Stichproben ein anderes Kodealphabet vorgelegt, wobei sich die Kodealphabete hinsichtlich Buchstabenanzahl (Kodelänge) und anzuwendender Zuordnungsregeln unterschieden. Damit differierten die Kodealphabete im perzeptiven und kognitiven Aspekt mentaler Beanspruchung. Die Kombination der Abkürzungen entsprach den in einer Feuerwehrleitzentrale verwendeten (Kurzbeschreibungen von Notfallsituationen). In der Lernphase wurden den Probanden zunächst die Kodealphabete geblockt mit ihren Bedeutungen präsentiert. Anschließend wurden die Kodes (ohne deren Bedeutung) in sechs aufeinanderfolgenden Prüfphasen randomisiert einzeln dargeboten, wobei die Probanden instruiert waren, die Bedeutung der jeweiligen Kodes in ein Mikrofon zu sprechen. Während des gesamten Experiments wurden, neben Leistungsdaten (Dekodierungszeiten und Fehleranzahl) und subjektiven Daten über die mentale Beanspruchung im Verlauf der Experimente, folgende zentralnervöse und peripherphysiologische Biosignale abgeleitet: Blutdruck, Herzrate, phasische und tonische elektrodermale Aktivität und Elektroenzephalogramm. Aus ihnen wurden zunächst 13 peripherphysiologische und 7 zentralnervöse Parameter berechnet, von denen 7 peripherphysiologische und 3 zentralnervöse Parameter die statistischen Voraussetzungen (Einschlusskriterien) soweit erfüllten, dass sie in die inferenzstatistische Datenanalyse einbezogen wurden. Leistungsdaten und subjektive Beanspruchungseinschätzungen der Versuchsdurchgänge wurden zu den psychophysiologischen Parametern in Beziehung gesetzt. Die Befunde zeigen, dass mittels der psychophysiologischen Daten zusätzliche Erkenntnisse über den kognitiven Aufwand gewonnen werden können. Als weitere Analyse wurden die Kodes post hoc in zwei neue Kodealphabete eingeteilt. Ziel dieser Analyse war es, die Unterschiede zwischen beiden Kodealphabeten zu erhöhen, um deutlichere reizbezogene psychophysiologische Unterschiede in den EEG-Daten zwischen den Kodealphabeten zu erhalten. Dazu wurde diejenigen, hinsichtlich ihrer Bedeutung, parallelen Kodes in beiden Kodealphabeten ausgewählt, die sich in der Dekodierungszeit maximal voneinander unterschieden. Eine erneute Analyse der EEG-Daten erbrachte jedoch keine Verbesserung der Ergebnisse. Drei Hauptergebnisse bezüglich der psychophysiologischen Parameter konnten festgestellt werden: Das erste Ergebnis ist für die psychophysiologische Methodik bedeutsam. Viele psychophysiologische Parameter unterschieden zwischen den Prüfphasen und zeigen damit eine hinreichende Sensitivität zur Untersuchung mentaler Beanspruchung bei Dekodierungsprozessen an. Dazu gehören die Anzahl der spontanen Hautleitwertsreaktionen, die Amplitude der Hautleitwertsreaktionen, das Hautleitwertsniveau, die Herzrate, die Herzratendifferenz und das Beta-2-Band des EEG. Diese Parameter zeigen einen ähnlichen Verlauf wie die Leistungsdaten. Dies zeigt, dass es möglich ist, die hier operationaliserte Art mentaler Beanspruchung in Form von Dekodierungsprozessen psychophysiologisch zu analysieren. Ein zweites Ergebnis betrifft die Möglichkeit, Unterschiede mentaler Beanspruchung zwischen beiden Gruppen psychophysiologisch abzubilden: Das Hautleitwertsniveau und das Theta-Frequenzband des Spontan-EEG zeigten Unterschiede zwischen beiden Stichproben von der ersten Prüfphase an. Diese Parameter indizieren unterschiedlichen kognitiven Aufwand in beiden Stichproben über alle Prüfphasen. Das wichtigste Ergebnis betrifft die Frage nach einem Informationsgewinn bei Einsatz psychophysiologischer Methoden zur Bewertung der Güte von Kodealphabeten: Einen tatsächlichen Informationsgewinn gegenüber den Leistungsdaten zeigte die Amplitude der elektrodermalen Aktivität und die Herzraten-Differenz an. Denn in den späteren Prüfphasen, wenn sich die Leistungsdaten beider Kodealphabete nicht mehr unterschieden, konnten unterschiedliche Ausprägungen dieser psychophysiologischen Parameter zwischen beiden Kodealphabeten verzeichnet werden. Damit konnten unterschiedliche Aspekte mentaler Beanspruchung in beiden Kodealphabeten in den späteren Prüfphasen erfasst werden, in denen sich die Leistungsdaten nicht mehr unterschieden. Alle drei Ergebnisse zeigen, dass es, trotz erheblichen technischen und methodischen Aufwands, sinnvoll erscheint, bei der Charakterisierung mentaler Belastungen und für die Gestaltung von Kodealphabeten auch psychophysiologische Daten heranzuziehen, da zusätzliche Informationen über den perzeptiven und kognitiven Dekodierungsaufwand gewonnen werden können.
Im Bereich der medizinischen Diagnostik spielen DNA-Chips eine immer wichtigere Rolle. Dabei werden Glas- oder Silikon-Oberflächen mit Tausenden von einzelsträngigen DNA-Fragmenten, sog. Sonden, bestückt, die mit den passenden DNA-Fragmenten in der zugefügten Patientenprobe verschmelzen. Die Auswertung solcher Messungen liefert die Diagnose für Krankheiten wie z.B. Krebs, Alzheimer oder für den Nachweis pathogener Erreger. Durch fortschreitende Miniaturisierung dieser Meßsysteme können bis zu 40.000 Genfragmente des Menschen in einer einzigen Messung analysiert werden. Neben den DNA-Fragmenten können Bio-Chips auch für andere biologische Komponenten wie Antikörper und Proteine eingesetzt werden, wobei bei letzteren neben der Bindung auch die Aktivität ein wichtiger Diagnoseparamter ist. Am Fraunhofer-Institut für medizinische Technik und am Lehrstuhl für Analytische Biochemie der Universität Potsdam wurden im Rahmen einer Doktorarbeit Methoden entwickelt, die es ermöglichen auf nukleinsäuremodifizierten Sensoroberflächen die Aktivität von Proteinen zu messen. Es wurden Nukleinsäuren auf Oberflächen optischer Sensoren verankert. Diese fungierten als Rezeptor für die Proteine sowie auch als Substrat für Restriktionsenzyme, die Nukleinsäuren schneiden und Polymerasen, die Nukleinsäuren synthetisieren und verlängern können. Seine Anwendung fand diese Messmethode in der Messung der Aktivität des Proteins Telomerase, das in 90% aller Tumore erhöhte Aktivität gegenüber gesunden Zellen aufweist. Die Vorteile dieses neuen Assays gegenüber älteren Methoden liegt im Verzicht auf radioaktiv-markierten Komponenten und einer deutlich verkürzten Analysezeit. Die Arbeit schliesst mit einem funktionsfähigen Nachweis der Telomeraseaktivität im Zellextrakt von gesunden und kranken Zellen. Der direkte Einfluß von Hemmstoffen auf die Aktivität konnte sichtbar gemacht werden, und steht daher bei der Entwicklung neuer Tumor-Diagnostika und Therapeutika zur Verfügung.
Die wachsenden Kosten für die Behandlung chronischer lumbaler Rückenschmerzen stehen zunehmend in Diskrepanz mit den begrenzten Mitteln für das Gesundheitswesen. Untersuchungen zeigen, dass aktive Trainingsprogramme, je früher sie eingesetzt werden, einen positiven Einfluss auf die Senkung von Kosten für die Gesellschaft haben. Ein rechtzeitiger Einsatz der medizinischen Kräftigungstherapie bei Rückenschmerzpatienten ist somit unter rehabilitativen Gesichtspunkten notwendig. Insbesondere das Training im Wasser gestattet gelenkschonende Übungen in frühen Phasen der Rehabilitation und lassen eine raschere Wiederherstellung erwarten. Über die körperlichen Auswirkungen therapeutischer Trainingsmaßnahmen im Wasser sind bis dato wenige Studien verfügbar, welche die Wirkung des Mediums Wasser auf konditionelle Parameter objektiv quantifizieren und bewerten. Jedoch sind bislang die Möglichkeiten für ein gezieltes Krafttraining im Wasser begrenzt. Eine gerätetechnische Entwicklung, die ein rumpfstabilisierendes Krafttraining im Warmwasser ermöglicht, lässt im Vergleich zu herkömmlichen Trainingsmöglichkeiten eine noch effizientere rehabilitative Behandlung erwarten. Es wird die Fragestellung verfolgt, inwieweit aktive Trainingsformen im Wasser die Maximalkraft und die neuromuskuläre Funktion der Rumpfmuskulatur, sowie den Schmerz von Rückenpatienten beeinflussen. Ferner soll im Rahmen der Untersuchungen die Effektivität eines neu entwickelten Wassertrainingsgerätes geprüft werden. Die Untersuchungen der Ergebnisse von 80 weiblichen Probanden (in fünf Gruppen aufgeteilt: Kontrollgruppe, Aquajogging, Aquarücken, Aquagerät und Rückengymnastik an Land) zeigen, dass durch aktive Interventionsmaßnahmen eine Verbesserung der Kraftfähigkeit und eine Reduzierung von Schmerzen erzielt werden kann. Hingegen kommt es in der Kontrollgruppe, ohne Trainingsanwendungen, zur Stagnation des chronischen Schmerzzustandes, sogar zur Verschlechterung der Kraftentwicklung der Rückenstreckmuskulatur. In allen Trainingsgruppen konnten kurzfristig und mittelfristig weniger Muskelfunktionsstörungen nachgewiesen werden. Bei Betrachtung der Kraftentwicklung der unteren Rumpfmuskulatur fällt auf, dass die höchsten Zuwächse der Bauchmuskelkraft in den Gruppen Aquarücken und Aquagerät festzustellen sind. Die Kraft der Rückenstreckermuskulatur entwickelte sich in der Gruppe Aquagerät mit einer Steigerung von 55% nach der Intervention am stärksten. Es kann die Hypothese aufgestellt werden, dass das Training im warmen Wasser unter stabilisierten Voraussetzungen eine effizientere Methode zur Stärkung der unteren Rumpfmuskulatur zu sein scheint. Bei der Entwicklung der Kraft der oberen Rücken- und Schultergürtelmuskulatur kommt es in den Gruppen Aquajogging und Aquarücken zu den größten Steigerungen. Dies könnte mit der höheren Aktivität der Arme im Übungsprogramm zusammenhängen. Positiv ist die hohe Reduzierung der Schmerzen in allen Trainingsgruppen zu bewerten. Jedoch ist bei Betrachtung der Ergebnisse festzustellen, dass für eine weitere Manifestierung der Trainingserfolge ein weiterführendes Training bedeutsam ist. Die Ergebnisse dieser Studie belegen, dass durch ein gezieltes Training im Wasser und an Land über 6 Wochen, je zweimal pro Woche, deutliche Verbesserungen in der Entwicklung von Kraft, Schmerzintensität, Funktionseinschränkung und Muskelfunktion möglich sind. Ferner werden in dieser Arbeit positive Zusammenhänge zwischen den Entwicklungen Schmerzintensität und Rückenstreckerkraft, sowie Schmerzintensität und Bauchmuskelkraft beobachtet. Zwischen den Versuchsgruppen im Wasser und der Versuchsgruppe an Land konnten nur geringe Unterschiede in den Ergebnissen nachgewiesen werden. Jedoch geben die Resultate Hinweis darauf, dass bei höheren Schmerzintensitäten die Intervention im Wasser die Therapie der Wahl zu sein scheint. Die Resultate dieser Untersuchungen machen deutlich, dass der Einsatz eines Wassertrainingsgerätes in der Therapie chronischer Rückenschmerzpatienten eine effiziente Methode zur Senkung von Schmerzen und zur Steigerung der Kraft der Rücken- und Bauchmuskulatur ist. Vorteile des Wassertraingsgerätes sind die gute Stabilisation des Beckens, trotz auftriebswirksamer Mechanismen im Wasser, die bedienerfreundliche Handhabung, der separat einstellbare Widerstand, die schnellen Therapieerfolge und die hohe Motivation der Kursteilnehmer. Diese Beobachtungen lassen eine effizientere Therapie und damit Kostenersparnisse vermuten. Nachteile sind das hohe Gewicht des Wassertraingsgerätes und die relativ hohen Anschaffungskosten. Die hohe Reduzierung der Schmerzintensität bei den Probanden, die am Wassertrainingsgerät Interventionen durchführten, lassen vermuten, dass diese Geräteanwendungen für Patienten mit sehr schmerzhaften oder subakuten Verlaufsformen besonders geeignet ist. Der schonende Charakter der Aquatherapie und der Einsatz eines neuen Wassertrainingsgerätes unterstützt in effektiver Weise die modernen Konzepte der Rehabilitation chronischer Rückenschmerzpatienten.
Die Eifel ist eines der jüngsten vulkanischen Gebiete Mitteleuropas. Die letzte Eruption ereignete sich vor ungefähr 11000 Jahren. Bisher ist relativ wenig bekannt über die tieferen Mechanismen, die für den Vulkanismus in der Eifel verantwortlich sind. Erdbebenaktivität deutet ebenso darauf hin, dass die Eifel eines der geodynamisch aktivsten Gebiete Mitteleuropas ist. In dieser Arbeit wird die Receiver Function Methode verwendet, um die Strukturen des oberen Mantels zu untersuchen. 96 teleseismische Beben (mb > 5.2) wurden ausgewertet, welche von permanenten und mobilen breitbandigen und kurzperiodischen Stationen aufgezeichnet wurden. Das temporäre Netzwerk registrierte von November 1997 bis Juni 1998 und überdeckte eine Fläche von ungefähr 400x250 km². Das Zentrum des Netzwerkes befand sich in der Vulkaneifel. Die Auswertung der Receiver Function Analyse ergab klare Konversionen von der Moho und den beiden Manteldiskontinuitäten in 410 km und 660 km Tiefe, sowie Hinweise auf einen Mantel-Plume in der Region der Eifel. Die Moho wurde bei ungefähr 30 km Tiefe beobachtet und zeigt nur geringe Variationen im Bereich des Netzwerkes. Die beobachteten Variationen der konvertierten Phasen der Moho können mit lateralen Schwankungen in der Kruste zu tun haben, die mit den Receiver Functions nicht aufgelöst werden können. Die Ergebnisse der Receiver Function Methode deuten auf eine Niedriggeschwindigkeitszone zwischen 60 km bis 90 km in der westlichen Eifel hin. In etwa 200 km Tiefe werden im Bereich der Eifel amplitudenstarke positive Phasen von Konversionen beobachtet. Als Ursache hierfür wird eine Hochgeschwindigkeitszone vorgeschlagen, welche durch mögliches aufsteigendes, dehydrierendes Mantel-Material verursacht wird. Die P zu S Konversionen an der 410 km Diskontinuität zeigen einen späteren Einsatz als nach dem IASP91-Modell erwartet wird. Die migrierten Daten weisen eine Absenkung der 410 km Diskontinuität um bis zu 20 km Tiefe auf, was einer Erhöhung der Temperatur von bis zu etwa 140° Celsius entspricht. Die 660 km Diskontinuität weist keine Aufwölbung auf. Dies deutet darauf hin, dass kein Mantelmaterial direkt von unterhalb der 660 km Diskontinuität in der Eifel-Region aufsteigt oder, dass der Ursprung des Eifel-Plumes innerhalb der Übergangszone liegt.
Die intensive Auswertung unterschiedlicher schriftlicher und mündlicher Quellen sowie die Erschließung von damals "geheimer" Literatur für die Forschung heute ermöglicht eine differenzierte Rekonstruktion historischer Abläufe. Die vorliegende Arbeit nutzt diesen Zugang zur Darstellung von kleineren und größeren DDR-internen sportpolitischen Strukturwandlungen der 1960er und 1970er Jahre, die ihren Höhepunkt in einer dramatischen Umsteuerung des DDR-Hochleistungssports fanden. Es wird gezeigt, wie die Akteure unter Führung von Manfred EWALD, gewähltem Mitglied des SED-Zentralkomitees, einer Zentralfigur des DDR-Sports (vergleichbar mit der Bedeutung eines Willi DAUME im Westen) zwischen Systemzwängen und individueller Handlungsfreiheit innerhalb des Rahmens einer Diktatur in der Phase des Wechsels von Walter ULBRICHT zu Erich HONECKER eine Effektivierung des zentralistischen Modells durchsetzten (eine Parallele zum Ansatz von Monika KAISER). Im Gegensatz zu vielen kontroversen Erklärungsmodellen belegt der Verf., dass die Medaillenerfolge durch die zentrale Steuerung aller Abläufe gewährleistet wurden. Ohne SED-Auftrag wurde 1967 die "Leistungssportkommission der DDR" (LSK der DDR) gebildet. Im Unterschied zu den zahlreichen vom Verf. erstmals dargestellten Vorgängermodellen war diese SED-LSK "oberhalb des DTSB" angesiedelt und erteilte ihm Parteiaufträge - die Unterordnung des organisierten Sports unter die Autorität des Zentralkomitee machte angesichts der "Nationalen Fronten" von Armeesportvereinigung "Vorwärts" und Sportvereinigung "Dynamo" (SPITZER) jegliche zentrale Sportpolitik erst durchsetzbar. Zur "LSK der DDR" waren SED-Mitglieder abgeordnet, welche ihr Sachgebiet vertraten und nach gemeinsamer Beschlussfassung die Ergebnisse der LSK-Arbeit wiederum in ihrem jeweiligen Tätigkeitsfeld durchzusetzen hatten, was in der Diss. ausgeführt wird. Sportvertreter ebenso wie hochrangige Abgesandte der Ministerien, die mit der Produktion von Gütern für den Hochleistungssport befasst waren, gehörten den LSK-Gremien an, die auch die DDR-Sportwissenschaft steuerten; es lässt sich sogar nachweisen, dass die Herrschaft über diesen wichtigen Apparat sowie die Dopingforschung ein Hauptmotiv der LSK-Bildung gewesen ist. Durch seine Quellenorientierung und die Fülle an Belegen gibt die vorliegende Arbeit neue Anreize zur Auseinandersetzung mit dem Phänomen der Steuerung des Hochleistungssports in der DDR - auch über den Untersuchungszeitraum hinaus. Die Untersuchung wurde von der Humanwissenschaftlichen Fakultät der Universität Potsdam als Dissertation angenommen. Sie geht auf ein Stipendium dieser Universität zurück; das Verfahren konnte mit einem Prädikat abgeschlossen werden. Gutachter waren Prof. Dr. Dr. Gertrud PFISTER, Kopenhagen, Prof. Dr. Christoph KLEßMANN, Potsdam, und der Betreuer, Steady Visiting Prof. Univ. Odense, Priv.-Doz. Dr. habil. Giselher SPITZER, Berlin / Potsdam / Odense (Dänemark).
In der vorliegenden Dissertation wird die Bedeutung von Brachen für Artenvielfalt und Stabilität von Blüte-Bestäuber-Nahrungsnetzen in agrarisch genutzten Landschaften anhand ausgewählter blütenbesuchender Insektengruppen (Syrphidae, Lepidoptera) untersucht. Die Freilandarbeiten fanden von 1998-2000 im Raum der Feldberger Seenlandschaft, Mecklenburg-Vorpommern, statt. Es werden die beiden Hauptnahrungsquellen Nektar und Pollen betrachtet, dabei fanden Untersuchungen zur Intensität der Blüte-Bestäuber-Interaktion auf Stilllegungsflächen, zum flächenbezogenen quantitativen Nektarangebot im Jahresverlauf, zur individuellen Pollennutzung bei Syrphiden und zur Breite und Überlappung der Nahrungsnischen bei den dominanten Arten Episyrphus balteatus, Metasyrphus corollae, Syritta pipiens und Sphaerophoria scripta statt. Im Ergebnis zeigt sich eine hohe Bedeutung der Brachflächen für die Stabilität des Blüte-Bestäuber-Netzes, während die Diversität von anderen, eher landschaftsbezogenen Faktoren abhängig ist.
In der nichtlinearen Datenreihenanalyse hat sich seit etwa 10 Jahren eine Monte-Carlo-Testmethode etabliert, die Theiler-surrogatmethode, mit Hilfe derer entschieden werden kann, ob eine Datenreihe nichtlinearen Ursprungs sei. Diese Methode wird kritisiert, modifiziert und verallgemeinert. Das, was Theiler untersuchen will braucht andere Surrogatmethoden, die hier konstruiert werden. Und das, was Theiler untersucht braucht gar keine Monte-Carlo-Methoden. Mit Hilfe des in der Arbeit eingeführten Begriffs des Phasensignals werden Testmöglichkeiten dargelegt und Beziehungen zwischen den nichtlinearen Eigenschaften der Zeitreihe und deren Phasenspektrum erforscht. Das Phasensignal wird aus dem Phasenspektrum der Zeitreihe hergeleitet und registriert außerordentliche Geschehnisse im Zeitbereich sowie Phasenkopplungen im Frequenzbereich. Die gewonnenen Erkenntnisse werden auf das Problem der Polbewegung angewendet. Die Hypothese einer nichtlinearen Beziehung zwischen der atmosphärischen Erregung und der Polbewegung wird untersucht. Eine nichtlineare Behandlung wird nicht für nötig gehalten.
Die Landschaften Mitteleuropas sind das Resultat einer langwierigen Geschichte menschlicher Landnutzung mit ihren unterschiedlichen, z.T. konkurrierenden Nutzungsansprüchen. Durch eine überwiegend intensive Beanspruchung haben die direkten und indirekten Auswirkungen der Landnutzung in vielen Fällen zu Umweltproblemen geführt. Die Disziplin der Landschaftsökologie hat es sich zur Aufgabe gemacht, Konzepte für eine nachhaltige Nutzung der Landschaft zu entwickeln. Eine wichtige Fragestellung stellt dabei die Abschätzung der möglichen Folgen von Landnutzungsänderungen dar. Für die Analyse der relevanten Prozesse in der Landschaft werden häufig mathematische Modelle eingesetzt, welche es erlauben die Landschaft unter aktuellen Verhältnissen oder hinsichtlich veränderter Rahmenbedingungen zu untersuchen. Die hypothetische Änderung der Landnutzung, die als Landnutzungsszenario bezeichnet wird, verkörpert eine wesentliche Modifikation der Rahmenbedingungen, weil Landnutzung maßgeblich Einfluss auf die natürlichen Prozesse der Landschaft nimmt. Während die Antriebskräfte einer solchen Änderung überwiegend von sozio-ökonomischen und politischen Entscheidungen gesteuert werden, orientiert sich die exakte Verortung der Landnutzungsänderungen an den naturräumlichen Bedingungen und folgt z.T. erkennbaren Regeln. Anhand dieser Vorgaben ist es möglich, räumlich explizite Landnutzungsszenarien zu entwickeln, die als Eingangsdaten für die Modellierung verschiedener landschaftsökologischer Fragestellungen wie z.B. für die Untersuchung des Einflusses der Landnutzung auf den Wasserhaushalt, die Erosionsgefahr oder die Habitatqualität dienen können. Im Rahmen dieser Dissertation wurde das rasterbasierte deterministische Allokationsmodell luck (Land Use Change Scenario Kit) für die explizite Verortung der Landnutzungsänderungen entwickelt. Es basiert auf den in der Landschaftsökologie üblichen räumlichen Daten wie Landnutzung, Boden sowie Topographie und richtet sich bei der Szenarienableitung nach den Leitbildern der Landschaftsplanung. Das Modell fußt auf der Hypothese, dass das Landnutzungsmuster als Funktion seiner landschaftsökologischen Faktoren beschrieben werden kann. Das Veränderungspotenzial einer Landnutzungseinheit resultiert im Modell aus einer Kombination der Bewertung der relativen Eignung des Standortes für die jeweilige Landnutzung und der Berücksichtigung von Standorteigenschaften der umliegenden Nachbarn. Die Durchführung der Landnutzungsänderung im Modell ist iterativ angelegt, um den graduellen Prozess des Landschaftswandels nachvollziehen zu können. Als Fallbeispiel für die Anwendung solcher räumlich expliziten Landnutzungsszenarien dient die Fragestellung, inwieweit Landnutzungsänderungen die Hochwasserentstehung beeinflussen. Um den Einfluss auf die Hochwasserentstehung für jede der Landnutzungskategorien – bebaute, landwirtschaftlich genutzte und naturnahe Flächen – abschätzen zu können, wird im Landnutzungsmodell luck exemplarisch für jede Kategorie ein Teilmodell für die Veränderung von Landnutzung angeboten: 1) Ausdehnung der Siedlungsfläche: Dieses Teilmodell fußt auf der Annahme, dass sich Siedlungen nur in direkter Nachbarschaft bereits bestehender Bebauung und bevorzugt entlang von Entwicklungsachsen ausbreiten. Steile Hangneigungen stellen für potenzielle Standorte ein Hemmnis bei der Ausbreitung dar. 2) Stilllegung von Grenzertragsackerflächen: Gemäß der Hypothese, dass sich die Stilllegung von Ackerflächen an der potenziellen Ertragsleistung der Standorte orientiert, werden in diesem Teilmodell alle Ackerstandorte dahingehend bewertet und die Flächen mit der geringsten Leistungsfähigkeit stillgelegt. Bei homogenen Gebietseigenschaften werden die Stilllegungsflächen zufällig auf die Ackerfläche verteilt. 3) Etablierung von Schutzgebieten in Ufer- und Auenbereichen: Ausgehend von der These, dass sich entlang von Flüssen sensible Flächen befinden, deren Schutz positive Folgen für das Leistungsvermögen der Landschaft haben kann, werden in diesem Teilmodell schützenswerte Ufer- und Auenbereiche auf derzeit landwirtschaftlich genutzten Flächen ausgewiesen. Die Größe der Schutzgebietsfläche orientiert sich an der Morphologie der umgebenden Landschaft. Die drei Teilmodelle wurden hinsichtlich der implizierten Hypothesen mit vielen unterschiedlichen Ansätzen validiert. Das Resultat dieser intensiven Analyse zeigt für jedes Teilmodell eine zufriedenstellende Tauglichkeit. Die Modellierung der Landnutzungsänderungen wurden in drei mesoskaligen Flusseinzugsgebieten mit einer Fläche zwischen 100 und 500 km² durchgeführt, die sich markant in ihrer Landnutzung unterscheiden. Besonderer Wert wurde bei der Gebietsauswahl darauf gelegt, dass eines der Gebiete intensiv landwirtschaftlich genutzt wird, eines dicht besiedelt und eines vorwiegend bewaldet ist. Im Hinblick auf ihre Relevanz für die vorliegende Fragestellung wurden aus bestehenden Landnutzungstrends die Szenarien für (1) die prognostizierte Siedlungsfläche für das Jahr 2010, (2) die möglichen Konsequenzen des EU-weiten Beschlusses der Agenda 2000 und (3) die Novelle des Bundesnaturschutzgesetzes aus dem Jahr 2001 abgeleitet. Jedes Szenario wurde mit Hilfe des Modells auf die drei Untersuchungsgebiete angewendet. Dabei wurden für die Siedlungsausdehnung in allen drei Gebieten realistische Landnutzungsmuster generiert. Einschränkungen ergeben sich bei der Suche nach Grenzertragsstilllegungsflächen. Hier hat unter homogenen Gebietseigenschaften die zufällige Verteilung von Flächen für die Stilllegung zu einem unrealistischen Ergebnis geführt. Die Güte der Schutzgebietsausweisung ist maßgeblich an die aktuelle Landnutzung der Aue und die Morphologie des Geländes gebunden. Die besten Ergebnisse werden erzielt, wenn die Flächen in den Ufer- und Auenbereichen mehrheitlich unter derzeitiger Ackernutzung stehen und der Flusslauf sich in das Relief eingetieft hat. Exemplarisch werden für jeden Landnutzungstrend die hydrologischen Auswirkungen anhand eines historischen Hochwassers beschrieben, aus denen jedoch keine pauschale Aussage zum Einfluss der Landnutzung abgeleitet werden kann. Die Studie demonstriert die Bedeutung des Landnutzungsmusters für die natürlichen Prozesse in der Landschaft und unterstreicht die Notwendigkeit einer räumlich expliziten Modellierung für landschaftsökologische Fragestellungen in der Mesoskala.
Das Ziel dieser Arbeit ist es, die Strukturen im äußeren Erdkern zu untersuchen und Rückschlüsse auf die sich daraus ergebenden Konsequenzen für geodynamische Modellvorstellungen zu ziehen. Die Untersuchung der Kernphasenkaustik B mit Hilfe einer kumulierten Amplituden-Entfernungskurve ist Gegenstand des ersten Teils. Dazu werden die absoluten Amplituden der PKP-Phasen im Entfernungsbereich von 142 ° bis 147 ° bestimmt und mit den Amplituden synthetischer Seismogramme verglichen. Als Datenmaterial dienen die Breitbandregistrierungen des Deutschen Seismologischen Re-gionalnetzes (GRSN 1 ) und des Arrays Gräfenberg (GRF). Die verwendeten Wellen-formen werden im WWSSN-SP-Frequenzbereich gefiltert. Als Datenbasis dienen vier Tiefherdbeben der Subduktionszone der Neuen Hebriden (Vanuatu Island) und vier Nuklearexplosionen, die auf dem Mururoa und Fangataufa Atoll im Südpazifik stattgefunden haben. Beide Regionen befinden sich vom Regionalnetz aus gesehen in einer Epizentraldistanz von ungefähr 145 °. Die Verwendung eines homogen instrumentierten Netzes von Detektoren und die Anwendung von Stations- und Magnitudenkorrekturen verringern den Hauptteil der Streuung bei den Amplitudenwerten. Dies gilt auch im Vergleich zu Untersuchungen von langperiodischen Amplituden im Bereich der Kernphasenkaustik (Häge, 1981). Ein weiterer Grund für die geringe Streuung ist die ausschließliche Verwendung von Ereignissen mit kurzer impulsiver Herdzeitfunktion. Erst die geringe Streuung der Amplitudenwerte ermöglicht eine Interpretation der Daten. Die theoretischen Amplitudenkurven der untersuchten Erdmodelle zeigen im Bereich der Kaustik B einen gleichartigen Kurvenverlauf. Bei allen Berechnungen wird ein einheitliches Modell für die Güte der P- und S-Wellen verwendet, das sich aus den Q-Werten der Modelle CIT112 und PREM 2 zusammensetzt. Die mit diesem Q-Modell berechneten Amplituden liegen in geringem Maße oberhalb der gemessenen Amplituden. Dies braucht nicht berücksichtigt zu werden, da die kumulierte Amplituden-Entfernungskurve anhand der Lage des Maximums auf der Entfernungsachse ausgewertet wird. Folglich wird darauf verzichtet, ein alternatives Q-Modell zu entwickeln. Hinsichtlich der Lage des Kaustikmaximums lassen sich die untersuchten Erdmodelle in zwei Kategorien einteilen. Eine Gruppe besteht aus den Modellen IASP91 und 1066B, deren Maxima bei 144.6 ° und 144.7 ° liegen. Zur zweiten Gruppe von Modellen zählen AK135, PREM und SP6 mit den Maxima bei 145.1 ° und 145.2 ° (SP6). Die gemessene Amplitudenkurve hat ihr Maximum bei 145 °. Alle Entfernungsangaben beziehen sich auf eine Herdtiefe von 200 km. Die Kaustikentfernung für einen Oberflächenherd ist jeweils um 0.454 ° größer als die angegeben Werte. Damit liegen die Maxima der Modelle AK135 und PREM nur 0.1 ° neben dem der gemessenen kumulierten Amplitudenkurve. Daher wird auf die Erstellung eines eigenen Modells verzichtet, da dieses eine unwesentlich verbesserte Amplitudenkurve aufweisen würde. Das Ergebnis der Untersuchung ist die Erstellung einer gemessenen kumulierten Amplituden-Entfernungskurve für die Kaustik B. Die Kurve legt die Position der Kaustik B für kurzperiodische Daten auf ± 0.15 ° fest und bestimmt damit, welche Erdmodelle für die Beschreibung der Amplituden im Entfernungsbereich der Kaustik B besonders geeignet sind. Die Erdmodelle AK135 und PREM, ergänzt durch ein einheitliches Q-Modell, geben den Verlauf der Amplituden am besten wieder. Da die Amplitudenkurven beider Modelle nahe beieinander liegen, sind sie als gleichwertig zu bezeichnen. Im zweiten Teil der Arbeit wird die Struktur der Übergangszone in den inneren Erdkern anhand des spektralen Abklingens der Phase PKP(BC)diff am Punkt C der Laufzeitkurve untersucht. Der physikalische Prozeß der Beugung ist für die starke Abnahme der Amplituden dieser Phase verantwortlich. Die Diffraktion beeinflußt das Abklingverhalten verschiedener Frequenzanteile des seismischen Signals auf unterschiedliche Weise. Eine Deutung des Verhaltens erfordert die Berechnung von Abklingspektren. Dabei wird die Abschwächung des PKP(BC)diff Signals für acht Frequenzen zwischen 6.4 s und 1.25 Hz ermittelt und als Spektrum dargestellt. Die Form des Abklingspektrums ist charakteristisch für die Beschaffenheit der Geschwindigkeitsstruktur direkt oberhalb der Grenze zum inneren Erdkern (GIK). Die Beben, deren Kernphasen im Regionalnetz als diffraktierte Kernphasen BCdiff registriert werden, liegen in einem Entfernungsbereich jenseits von 150 °. In dieser Distanz befinden sich die Erdbebenherde der Tonga-Fidschi-Subduktionszone, deren Breitbandaufzeichnungen verwendet werden. Die Auswertung unkorrigierter Wellenformen ergibt Abklingspektren, die mit plausiblen Erdmodellen nicht in Einklang zu bringen sind. Aus diesem Grund werden die Daten einer spektralen Stationskorrektur unterzogen, die eigens zu diesem Zweck ermittelt wird. Am Beginn der Auswertung steht eine Prüfung bekannter Erdmodelle mit unterschiedlichen Geschwindigkeitsstrukturen oberhalb der GIK. Zu den untersuchten Modellen zählen PREM, IASP91, AK135Q, PREM2, SP6, OICM2 und eine Variante des PREM. Die Untersuchung ergibt, daß Modelle, die einen verringerten Gradienten oberhalb der GIK aufweisen, eine bessere Übereinstimmung mit den gemessenen Daten zeigen als Modelle ohne diese Übergangszone. Zur Verifikation dieser These wird ein Erdmodell, das keinen verringerten Gradienten oberhalb der GIK besitzt (PREM), durch eine Reihe unterschiedlicher Geschwindigkeitsverläufe in diesem Bereich ergänzt und deren synthetische Seismogramme berechnet. Das Resultat der Untersuchung sind zwei Varianten des PREM, deren Frequenzanalyse eine gute Übereinstimmung mit den Daten zeigt. Das Abklingspektrum des Erdmodells PD47, das in einer 380 km mächtigen Schicht einen negativen Gradienten besitzt, zeigt eine große Ähnlichkeit mit den gemessenen Spektren. Dennoch kann es nicht als realistisches Modell angesehen werden, da der Punkt C in einer zu großen Entfernung liegt. Darüber hinaus müßte die zu kurze Differenzlaufzeit zwischen PKP(AB) und PKP(DF) beziehungsweise PKIKP durch eine größere Änderung der Geschwindigkeitsstruktur im inneren Kern kompensiert werden. Es wird deshalb das Modell PD27a favorisiert, das diese Nachteile nicht aufweist. PD27a besitzt eine Schicht konstanter Geschwindigkeit oberhalb der GIK mit einer Mächtigkeit von 150 km. Die Art des Geschwindigkeitsverlaufs steht im Einklang mit der geodynamischen Modellvorstellung, nach der eine Anreicherung leichter Elemente oberhalb der GIK vorliegt, die als Ursache für die Konvektion im äußeren Erdkern anzusehen ist.
Das Lektin aus Pisum sativum, der Gartenerbse, ist Teil der Familie der Leguminosenlektine. Diese Proteine haben untereinander eine hohe Sequenzhomologie, und die Struktur ihrer Monomere, ein all-ß-Motiv, ist hoch konserviert. Dagegen gibt es innerhalb der Familie eine große Vielfalt an unterschiedlichen Quartärstrukturen, die Gegenstand kristallographischer und theoretischer Arbeiten waren. Das Erbsenlektin ist ein dimeres Leguminosenlektin mit einer Besonderheit in seiner Struktur: Nach der Faltung in der Zelle wird aus einem Loop eine kurze Aminosäuresequenz herausgeschnitten, so dass sich in jeder Untereinheit zwei unabhängige Polypeptidketten befinden. Beide Ketten sind aber stark miteinander verschränkt und bilden eine gemeinsame strukturelle Domäne. Wie alle Lektine bindet Erbsenlektin komplexe Oligosaccharide, doch sind seine physiologische Rolle und der natürliche Ligand unbekannt. In dieser Arbeit wurden Versuche zur Entwicklung eines Funktionstests für Erbsenlektin durchgeführt und seine Faltung, Stabilität und Monomer-Dimer-Gleichgewicht charakterisiert. Um die spezifische Rolle der Prozessierung für Stabilität und Faltung zu untersuchen, wurde ein unprozessiertes Konstrukt in E. coli exprimiert und mit der prozessierten Form verglichen. Beide Proteine zeigen die gleiche kinetische Stabilität gegenüber chemischer Denaturierung. Sie denaturieren extrem langsam, weil nur die isolierten Untereinheiten entfalten können und das Monomer-Dimer-Gleichgewicht bei mittleren Konzentrationen an Denaturierungsmittel auf der Seite der Dimere liegt. Durch die extrem langsame Entfaltung zeigen beide Proteine eine apparente Hysterese im Gleichgewichtsübergang, und es ist nicht möglich, die thermodynamische Stabilität zu bestimmen. Die Stabilität und die Geschwindigkeit der Assoziation und Dissoziation in die prozessierten bzw. nichtprozessierten Untereinheiten sind für beide Proteine gleich. Darüber hinaus konnte gezeigt werden, dass auch unter nicht-denaturierenden Bedingungen die Untereinheiten zwischen den Dimeren ausgetauscht werden. Die Renaturierung der unprozessierten Variante ist unter stark nativen Bedingungen zu 100 % möglich. Das prozessierte Protein dagegen renaturiert nur zu etwa 50 %, und durch die Prozessierung ist die Faltung stark verlangsamt, der Faltungsprozess ist erst nach mehreren Tagen abgeschlossen. Im Laufe der Renaturierung wird ein Intermediat populiert, in dem die längere der beiden Polypeptidketten ein Homodimer mit nativähnlicher Untereinheitenkontaktfläche bildet. Der geschwindigkeitsbestimmende Schritt der Renaturierung ist die Assoziation der entfalteten kürzeren Kette mit diesem Dimer.
Vergleich von rekombinanten Vaccinia- und DNA-Vektoren zur Tumorimmuntherapie im C57BL/6-Mausmodell
(2002)
In der vorliegenden Arbeit wurden Tumorimpfstoffe auf der Basis des Plasmid-Vektors pCI, modified vaccinia virus Ankara (MVA) und MVA-infizierten dendritischen Zellen entwickelt und durch Sequenzierung, Western blotting und durchflußzytometrische Analyse überprüft. Die in vivo Wirksamkeit der Vakzinen wurde in verschiedenen Tumormodellen in C57BL/6 Mäusen verglichen. Die auf dem eukaryotischen Expressionsvektor pCI basierende DNA-Vakzinierung induzierte einen sehr wirksamen, antigenspezifischen und langfristigen Schutz vor Muzin, CEA oder beta-Galactosidase exprimierenden Tumoren. Eine MVA-Vakzinierung bietet in den in dieser Arbeit durchgeführten Tumormodellen keinen signifikanten Schutz vor Muzin oder beta-Galactosidase exprimierenden Tumoren. Sowohl humane, als auch murine in vitro generierte dendritische Zellen lassen sich mit MVA – im Vergleich zu anderen viralen Vektoren – sehr gut infizieren. Die Expressionsrate der eingefügten Gene ist aber gering im Vergleich zur Expression in permissiven Wirtszellen des Virus (embryonale Hühnerfibroblasten). Es konnte gezeigt werden, daß eine MVA-Infektion dendritischer Zellen ähnliche Auswirkungen auf den Reifezustand humaner und muriner dendritischer Zellen hat, wie eine Infektion mit replikationskompetenten Vakzinia-Stämmen, und außerdem die Hochregulation von CD40 während der terminalen Reifung von murinen dendritischen Zellen inhibiert wird. Die während der langfristigen in vitro Kultur auf CEF-Zellen entstandenen Deletionen im MVA Genom führten zu einer starken Attenuierung und dem Verlust einiger Gene, die immunmodulatorische Proteine kodieren, jedoch nicht zu einer Verminderung des zytopathischen Effekts in dendritischen Zellen. Die geringe Expressionsrate und die beobachtete Inhibition der Expression kostimulatorischer Moleküle auf dendritischen Zellen kann für eine wenig effektive Induktion einer Immunantwort in MVA vakzinierten Tieren durch cross priming oder die direkte Infektion antigenpräsentierender Zellen verantwortlich sein. Durch die Modifikation einer Methode zur intrazellulären IFN-gamma Färbung konnten in vakzinierten Mäusen tumorantigenspezifische CTL sensitiv und quantitativ detektiert werden. Die so bestimmte CTL-Frequenz, nicht jedoch die humorale Antwort, korrelierte mit der in vivo Wirksamkeit der verschiedenen Vakzinen: DNA vakzinierte Tiere entwickeln starke tumorantigenspezifische CTL-Antworten, wohingegen in MVA-vakzinierten Tieren überwiegend gegen virale Epitope gerichtete CD4 und CD8-T-Zellen detektiert wurden. Die Wirksamkeit der pCI-DNA-Vakzine spricht für die Weiterentwicklung in weiteren präklinischen Mausmodellen, beispielsweise unter Verwendung von MUC1 oder HLA-A2 transgenen Mäusen. Die Methoden zur Detektion Tumorantigen-spezifischer CTL in 96-Loch-Mikrotiterplatten können dabei zur systematischen Suche nach im Menschen immundominanten T-Zell-Epitopen im Muzin-Molekül genutzt werden. Der durchgeführte Vergleich der auf den Vektoren pCI und MVA basierenden Vakzinen und die Analyse neuerer Publikationen führen zu dem Ergebnis, daß vor allem DNA-Vakzinen in Zukunft eine wichtige Rolle bei der Entwicklung von aktiven Tumorimpfstoffen spielen werden. Rekombinante MVA-Viren, eventuell in Kombination mit DNA- oder anderen Vektoren, haben sich dagegen in zahlreichen Studien als wirksame Impfstoffe zur Kontrolle von durch Pathogene hervorgerufenen Infektionserkrankungen erwiesen.
Das Phänomen der Subduktion eines aktiven Spreizungszentrums an der Südspitze Südamerikas ist seit langem bekannt. Eine Vielzahl von geologischen Beobachtungen wurden mit diesem Phänomen in Verbindung gebracht, trotzdem ist der genaue Mechanismus der Beeinflussung des aktiven Kontinentalrandes weitgehend unbekannt. Die Zusammenhänge zwischen den Subduktionsprozessen und der Entwicklung der patagonischen Anden zwischen 47°S und 48°S stehen im Mittelpunkt der Untersuchungen. Um eine detaillierte zeitliche Auflösung der zugrunde liegenden Prozesse untersuchen zu können, wurde die Entwicklung der Vorlandsedimentation, die thermische Entwicklung und die Heraushebung der Oberkruste des andinen Orogens untersucht und diese in Bezug zur Subduktion des Chile-Rückens gesetzt. Im Bereich von 47°30′S wurden die synorogenen Vorlandsedimente der Santa Cruz Formation sedimentologisch untersucht. Diese fluviatilen Sedimente wurden in einem reliefarmen Vorlandgebiet durch häufige Rinnenverlagerung und dem Aufbau von Rinnenumlagerungsgürteln in Kombination mit assoziierten großräumigen Überflutungsablagerungen akkumuliert. Sie stehen in einem engen Zusammenhang mit der orogenen Entwicklung im andinen Liefergebiet. Dies spiegelt sich in dem nach oben gröber werdenden Zyklus der Santa Cruz Formation wider. Die magnetostratigraphischen Untersuchungen einer 270 m mächtigen Sequenz aus der Basis der Santa Cruz Formation, die mit 329 Einzelproben aus 96 Probenpunkten beprobt wurde, ergab 7 Umkehrungen der geomagnetischen Feldrichtung. Mit Hilfe der geomagnetischen Polaritätszeitskala (CANDE AND KENT, 1995) konnte der untersuchte Abschnitt der Santa Cruz Formation zwischen 16.2 und 18.5 Ma datiert werden. Als Träger der Sedimentations-Remanenz konnten überwiegend Pseudoeinbereichs-Magentitpartikel und untergeordnet Hämatitpartikel identifiziert werden. An drei Profilen der Santa Cruz Formation wurden aus Sandsteinlagen unterschiedlicher stratigraphischer Position detritische Apatite mit Hilfe der thermochronologischen Spaltspurmethode untersucht. Die thermisch nicht rückgesetzten, detritischen Apatite spiegeln das Auftreten unterschiedlicher Altersdomänen im Liefergebiet der Sedimente wider. In der Kombination mit den geochemischen Gesamtgesteinsuntersuchungen der Sedimente und den petrographischen Untersuchungen der Sandsteine, die ein überwiegend andesitisch-vulkanisch geprägtes Liefergebiet widerspiegeln, kann nachgewiesen werden, dass die Erosion im Liefergebiet um 16.5 Ma in tiefere, deformierte Krustensegmente einschneidet. Dies bedeutet, dass aufgrund der Denudation im andinen Orogen erste Sockelgesteinseinheiten in den Bereich der Abtragung gelangen und dass dieser Eintrag um 12 bis 10 Ma ein Volumen einnimmt, das zu signifikanten Änderungen der Gesamtgesteinsgeochemie der Vorlandsedimente führt. Die thermochronologische Untersuchung von Apatiten aus rezenten topographischen Höhenprofilen aus der Kernzone der patagonischen Anden im Bereich von 47°30′S zeigen den Beginn einer beschleunigten Heraushebung des Orogens um 7.5 Ma. Aus diesen Untersuchungen kann eine Denudationsrate im Zeitraum der letzen 7 bis 8 Ma von 600 bis 650 m/Ma abgeschätzt werden. Die Modellierung der Apatit-Spaltspurergebnisse zeigt eine signifikante Temperaturerhöhung im Zeitraum zwischen 12 und 8 Ma um 20 bis 30°C für diesen Krustenbereich, die mit der Subduktion des aktiven Chile-Rückens in diesem Bereich der Anden in Verbindung gebracht wird. Aus den gewonnen Daten kann ein Modell für die Entwicklung der patagonischen Anden seit dem frühen Miozän abgeleitet werden. In diesem Modell wird die orogene Entwicklung in den patagonischen Anden auf eine erhöhte Konvergenzrate zwischen der Nazca Platte und der Südamerikanischen Platte zurückgeführt, die für die Heraushebung und Denudation der Anden sowie für die damit verbundene Entwicklung im Vorlandbereich verantwortlich ist. Diese orogene Entwicklung wird in einer späten Phase durch die nordwärts wandernde Subduktion des aktiven Spreizungszentrums des Chile Rückens überprägt und beeinflusst. Das auf der Integration von geologischen, chronologischen sowie thermochronologischen Daten beruhende Modell kann zahlreiche geologische und geophysikalische Beobachtungen in diesem Bereich der südlichen Anden konsistent erklären.
Hämoglobin-A1c (HbA1c) ist ein Hämoglobin (Hb)-Subtypus, der durch nicht-enzymatische Glykierung des N-terminalen Valinrestes der Hämoglobin-beta-Kette entsteht. Das gemessene Verhältnis von HbA1c zum Gesamt-Hämoglobin (5-20 % bei Diabetikern) repräsentiert den Mittelwert der Blutglucosekonzentration über einen zweimonatigen Zeitraum und stellt zur Beurteilung der diabetischen Stoffwechsellage eine Ergänzung zur Akutkontrolle der Glukosekonzentration dar. Ziel der vorliegenden Arbeit war es, einen amperometrischen Biosensor für die Bestimmung des medizinisch relevanten Parameters HbA1c zu entwickeln. Durch Selektion geeigneter Bioerkennungselemente und deren Immobilisierung unter Erhalt der Bindungsfunktion für die Zielmoleküle Hämoglobin bzw. HbA1c wurden spezifische, hochaffine und regenerationsstabile Sensoroberflächen geschaffen. Für die Entwicklung des HbA1c-Biosensors wurden zwei Konzepte - Enzymsensor und Immunosensor - miteinander verglichen. Die enzymatische Umsetzung von HbA1c erfolgte mit der Fructosylamin Oxidase (FAO) aus Pichia pastoris N 1-1 unter Freisetzung von H2O2, welches sowohl optisch über eine Indikatorreaktion als auch elektrochemisch nach Einschluss der FAO in PVA-SbQ und Fixierung des Immobilisats vor einer H2O2-Elektrode nachgewiesen wurde. Die Kalibration des Enzymsensors mit der HbA1c-Modellsubstanz Fructosyl-Valin ergab Nachweisgrenzen, die ausserhalb des physiologisch relevanten HbA1c-Konzentrationsbereich lagen. Aus der Umsetzung von glykierten Peptiden mit einer nicht HbA1c analogen Aminosäurensequenz, z.B. Fructosyl-Valin-Glycin wurde zudem eine geringe HbA1c-Spezifität abgeleitet. Für den Immunosensor wurden zwei heterogene Immunoassay-Formate unter Verwendung von hochaffinen und spezifischen Antikörpern in Kombination mit Glucose Oxidase (GOD) als Markerenzym zum Nachweis von HbA1c untersucht. Beim indirekt-kompetitiven Immunoassay wurde anstelle des kompletten HbA1c-Moleküls das glykierte Pentapeptid Fructosyl-Valin-Histidin-Leucin-Threonin-Prolin (glkPP) als Kompetitor und Affinitätsligand immobilisiert und so eine regenerierfähige Oberfläche geschaffen. Beim Sandwich-Immunoassay wurde im ersten Schritt Gesamt-Hämoglobin an die mit Haptoglobin (Hp) modifizierte Festphase angereichert und im zweiten Schritt der gebundene HbA1c-Anteil nachgewiesen. Für die Konstruktion des HbA1c-Immunosensors wurden Affinitätsmatrizen durch Modifizierung von Cellulose-Dialysemembranen mit glkPP bzw. Hp hergestellt. Grundlegend studiert wurde die Aktivierung der Cellulose-Membranen mit 1,1'-Carbonyldiimidazol (CDI) und 1-Cyano-4-dimethylaminopyridintetrafluoroborat (CDAP) als Aktivierungsagenzien. Eine gerichtete Immobilisierung der Liganden wurde realisiert, indem glkPP über dessen C-Terminus (einzige Carboxylatgruppe) und Hp über dessen periodat-oxidiertem Kohlenhydratrest an die amino- oder hydrazidfunktionalisierte Membranen kovalent gekoppelt wurden. Mit dem Einsatz der glkPP- und Hp-modifizierten Membranen in der elektrochemischen Messzelle war erstmalig der biosensorische Nachweis von HbA1c möglich. Als Transduktor diente eine Pt-Elektrode, an der das von der GOD generierte H2O2 umgesetzt und ein mit der HbA1c-Konzentration korrelierendes Stromsignal erzeugt wurde. Die Immunosensoren zeigten Ansprechzeiten von 3 s. Mit dem Immunosensor auf Basis des indirekt-kompetitiven Testprinzips wurde eine Kalibrationskurve für HbA1c im Bereich von 0,25-30 µg/ml (3,9-465 nM, CV 3-9 %) mit Assayzeiten von 60 min und mit dem Immunosensor im Sandwich-Format eine Kalibrationskurve im Bereich von 0,5-5 µg/ml (7,8-78 nM; 5-50 % HbA1c vom Gesamt-Hb, CV 6-10 %, 3 h) aufgenommen.
Im Rahmen dieser Arbeit gelang es, katalytische Antikörper zur Hydrolyse von Benzylphenylcarbamaten sowie zahlreiche monoklonale Antikörper gegen Haptene herzustellen. Es wurden verschiedene Hapten-Protein-Konjugate unter Verwendung unterschiedlicher Kopplungsmethoden hergestellt und charakterisiert. Zur Generierung der hydrolytisch aktiven Antikörper wurden Inzuchtmäuse mit KLH-Konjugaten von 4 Übergangszustandsanaloga (ÜZA) immunisiert. Mit Hilfe der Hybridomtechnik wurden verschiedene monoklonale Antikörper gegen diese ÜZA gewonnen. Dabei wurden sowohl verschiedene Immunisierungsschemata als auch verschiedene Inzuchtmausstämme und Fusionstechniken verwendet. Insgesamt wurden 32 monoklonale Antikörper gegen die verwendeten ÜZA selektiert. Diese Antikörper wurden in großen Mengen hergestellt und gereinigt. Zum Nachweis der Antikörper-vermittelten Katalyse wurden verschiedene Methoden entwickelt und eingesetzt, darunter immunologische Nachweismethoden mit Anti-Substrat- und Anti-Produkt-Antikörpern und eine photometrische Methode mit Dimethylaminozimtaldehyd. Der Nachweis der hydrolytischen Aktivität gelang mit Hilfe eines Enzymsensors, basierend auf immobilisierter Tyrosinase. Die Antikörper N1-BC1-D11, N1-FA7-C4, N1-FA7-D12 und R3-LG2-F9 hydrolysierten die Benzylphenylcarbamate POCc18, POCc19 und Substanz 27. Der Nachweis der hydrolytischen Aktivität dieser Antikörper gelang auch mit Hilfe der HPLC. Der katalytische Antikörper N1-BC1-D11 wurde kinetisch und thermodynamisch untersucht. Es wurde eine Michaelis-Menten-Kinetik mit Km von 210 µM, vmax von 3 mM/min und kcat von 222 min-1 beobachtet. Diese Werte korrelieren mit den Werten der wenigen bekannten Diphenylcarbamat-spaltenden Abzyme. Die Beschleunigungsrate des Antikörpers N1-BC1-D11 betrug 10. Das ÜZA Hei3 hemmte die hydrolytische Aktivität. Dies beweist, dass die Hydrolyse in der Antigenbindungsstelle stattfindet. Weiter wurde zwischen der Antikörperkonzentration und der Umsatzgeschwindigkeit eine lineare Abhängigkeit festgestellt. Die thermodynamische Gleichtgewichtsdissoziationskonstante KD des Abzyms von 2,6 nM zeugt von einer sehr guten Affinität zum ÜZA. Hydrolytisch aktiv waren nur Antikörper, die gegen das Übergangszustandsanalogon Hei3 hergestellt worden waren. Es wird vermutet, dass die Hydrolyse der Benzylphenylcarbamate über einen Additions-Eliminierungsmechanismus unter Ausbildung eines tetraedrischen Übergangszustandes verläuft, dessen analoge Verbindung Hei3 ist. Im Rahmen der Generierung von Nachweisantikörpern zur Detektion der Substratabnahme bei der Hydrolyse wurden Anti-Diuron-Antikörper hergestellt. Einer der Antikörper (B91-CG5) ist spezifisch für das Herbizid Diuron und hat einen IC50-Wert von 0,19 µg/l und eine untere Nachweisgrenze von 0,04 µg/l. Ein anderer Antikörper (B91-KF5) reagiert kreuz mit einer Palette ähnlicher Herbizide. Mit diesen Antikörpern wurde ein empfindlicher Labortest, der ein Monitoring von Diuron auf Grundlage des durch die Trinkwasserverordnung festgeschriebenen Wertes für Pflanzenschutzmittel von 0,1 µg/l erlaubt, aufgebaut. Der Effekt der Anti-Diuron-Antikörper auf die Diuron-inhibierte Photosynthese wurde in vitro und in vivo untersucht. Es wurde nachgewiesen, dass sowohl in isolierten Thylakoiden, als auch in intakten Algen eine Vorinkubation der Anti-Diuron-Antikörper mit Diuron zur Inaktivierung seiner Photosynthese-hemmenden Wirkung führt. Wurde der Elektronentransport in den isolierten Thylakoiden oder in Algen durch Diuron unterbrochen, so führte die Zugabe der Anti-Diuron-Antikörper zur Reaktivierung der Elektronenübertragung.
Am Beispiel der Wiederkäuer wurde unter Zuhilfenahme von biochemischen und molekularbiologischen Methoden die Adaptation von Pflanzenfressern (Herbivoren) an pflanzliche Sekundärmetabolite wie z.B. Tannine untersucht. Tannine können in nicht an ihren Verzehr adaptierten Spezies durch ihr Proteinbindungsvermögen die Nahrungsverwertung und damit Wachstum und Gesundheit des Pflanzenfressers beeinträchtigen (antinutritive Wirkung). Einige Wiederkäuerarten wie z.B. das Reh (Capreolus capreolus) haben in ihrem Nahrungsspektrum viele stark tanninhaltige Pflanzen, leiden aber nicht unter den erwähnten postdigestiven Konsequenzen. Eine Möglichkeit, die antinutritive Wirkung von Tanninen zu neutralisieren, besteht in der Produktion tanninbindender Speichelproteine. Der Speichel verschiedener Wiederkäuerarten wurde auf das Vorhandensein tanninbindender Proteine untersucht. Diese Arten wurden so ausgewählt, dass alle drei Ernährungstypen (Konzentratselektierer, Intermediärtyp, Gras- und Rauhfutterfresser) in den Vergleich eingeschlossen werden konnten. Als Referenzspezies wurde der Konzentratselektierer Reh herangezogen. Die Speichelproteine des Rehs und die der Intermediärtypen (Rentier, Rangifer tarandus; Damhirsch, Cervus dama; Moschusochse, Ovibos moschatus) banden ungefähr doppelt so effektiv an hydrolysierbare Tannine (Tanninsäure), wie die der untersuchten Gras- und Rauhfutterfresser (Rind, Bos taurus; und Mufflon, Ovis orientalis musimon). Diese Abstufung zeigte sich auch bei der Untersuchung der Bindung an kondensierte Tannine (Quebracho). Eine Ausnahme stellte Mufflonspeichel dar, dieser band ebenso gut an Quebracho wie die Speichelproteine der anderen Ernährungstypen. Über eine Aminosäuretotalanalyse konnte festgestellt werden, dass der Speichel einiger untersuchter Wiederkäuerarten prolinreiche Proteine (PRPs) enthielt. Unter Ausnutzung ihrer Trichloressigsäure (TCA)-Löslichkeit wurden diese angereichert und genauer untersucht. Die Analyse der TCA-löslichen Speichelproteine der Konzentratselektierer (Reh, Elch) ergab einen relativen Prolingehalt von über 35 %, während beim Moschusochsen noch 29 % gemessen wurden. In Damhirsch- und Rinderspeichel wurden keine prolinreichen Proteine gefunden. Für die TCA-löslichen Speichelproteine des Rehs konnte eine hohe Tanninbindungskapazität nachgewiesen werden. Diese banden 24 - 30 x effektiver an Tannine als die TCA-löslichen Speichelproteine des Rindes. Die Tanninbindungskapazitäten der TCA-löslichen Speichelproteine von Moschusochse und Damhirsch waren ebenfalls höher als die des Rindes, aber niedriger als die des Rehs. Die Kohlenhydrat-Analyse der TCA-löslichen Speichelproteine des Rehs erbrachte, dass es sich bei ihnen um Glykoproteine handelt. Mittels Gelfiltration und zweidimensionaler Polyacrylamidgelektrophorese konnten fünf Proteingruppen mit Molekulargewichten zwischen 15 und 50 kd sowie isoelektrischen Punkten zwischen 4,0 und 8,2 detektiert werden. Von 15 dieser Proteine konnten die N-terminalen Aminosäuresequenzen ermittelt werden. Ausgehend von diesen Informationen wurden Reh-PRP spezifische mRNAs isoliert und partiell sequenziert. Die meisten dieser Fragmente hatten eine gemeinsame 18 Aminosäuren lange C-terminale Sequenz PPPEEQPEE/QSPDEE/DSPSE. Die Suche nach Übereinstimmungen der analysierten Sequenzen mit anderen Säugetier-PRPs in der Genbank ergab keine sinnvollen Ähnlichkeiten. Die Ergebnisse können zu Informationen über tanninbindende Proteine anderer Wiederkäuer führen. Die Sequenzinformationen stellen einen Ausgangspunkt bei der Analyse der evolutiven Zusammenhänge der Cerviden dar.
Im ersten Teil der Arbeit wurden Strategien zur Analyse von Transkripten erarbeitet. Die ersten Versuche zielten darauf ab, in mit Glaskapillaren genommenen Einzelzellproben verschiedener Gewebeschichten RT-PCR durchzuführen, um spezifische Transkripte nachweisen zu können. Dies gelang für eine Reihe von Genen aus verschiedenen Pflanzenspezies. Dabei konnten sowohl Transkripte stark wie auch schwach exprimierter Gene nachgewiesen werden. Für die Erstellung von Gewebe-spezifischen Expressionsprofilen war es notwendig, die in vereinigten Zellproben enthaltene mRNA zunächst zu amplifizieren, um eine ausreichende Menge für Arrayhybridisierungen zu erhalten. Vor der Vermehrung wurde die mRNA revers transkribiert. Es wurden daran anschließend verschiedene Amplifikationsstrategien getestet: Die neben Tailing, Adapterligation und anderen PCR-basierenden Protokollen getestete Arbitrary-PCR hat sich in dieser Arbeit als einfache und einzige Methode herausgestellt, die mit so geringen cDNA-Mengen reproduzierbar arbeitet. Durch Gewebe-spezifische Array-hybridisierungen mit der so amplifizierten RNA konnten schon bekannte Expressionsmuster verschiedener Gene, vornehmlich solcher, die an der Photosynthese beteiligt sind, beobachtet werden. Es wurden aber auch eine ganze Reihe neuer offensichtlich Gewebe-spezifisch exprimierter Gene gefunden. Exemplarisch für die differentiell exprimierten Gene konnte das durch Arrayhybridisierungen gefundene Expressionsmuster der kleinen Untereinheit von Rubisco verifiziert werden. Hierzu wurden Methoden zum Gewebe-spezifischen Northernblot sowie semiquantitativer und Echtzeit-Einzelzell-RT-PCR entwickelt. Im zweiten Teil der Arbeit wurden Methoden zur Analyse von Metaboliten einschließlich anorganischer Ionen verwendet. Es stellte sich heraus, daß die multiparallele Methode der Gaschromatographie-Massenspektrometrie keine geeignete Methode für die Analyse selbst vieler vereinigter Zellinhalte ist. Daher wurde auf Kapillarelektrophorese zurückgegriffen. Eine Methode, die mit sehr kleinen Probenvolumina auskommt, eine hohe Trennung erzielt und zudem extrem geringe Detektionslimits besitzt. Die Analyse von Kohlenhydraten und Anionen erfordert eine weitere Optimierung. Über UV-Detektion konnte die K+-Konzentration in verschiedenen Geweben von A. thaliana bestimmt werden. Sie lag in Epidermis und Mesophyll mit ca. 25 mM unterhalb der für andere Pflanzenspezies (Solanum tuberosum und Hordeum vulgare) publizierten Konzentration. Weiter konnte gezeigt werden, daß zwölf freie Aminosäuren mittels einer auf Kapillarelektrophorese basierenden Methode in vereinigten Zellproben von Cucurbita maxima identifiziert werden konnten. Die Übertragung der Methode auf A. thaliana-Proben muß jedoch weiter optimiert werden, da die Sensitivität selbst bei Laser induzierter Fluoreszenz-Detektion nicht ausreichte. Im dritten und letzten Teil der Arbeit wurde eine Methode entwickelt, die die Analyse bekannter wie unbekannter Proteine in Gewebe-spezifischen Proben ermöglicht. Hierzu wurde zur Probennahme mittels mechanischer Mikrodissektion eine alternative Methode zur Laser Capture Microdissection verwendet, um aus eingebetteten Gewebeschnitten distinkte Bereiche herauszuschneiden und somit homogenes Gewebe anzureichern. Aus diesem konnten die Proteine extrahiert und über Polyacrylamidgelelektrophorese separariert werden. Banden konnten ausgeschnitten, tryptisch verdaut und massenspektrometrisch die Primärsequenz der Peptidfragmente bestimmt werden. So konnten als Hauptproteine im Mesophyll die große Untereinheit von Rubisco sowie ein Chlorophyll bindendes Protein gefunden werden. Die in dieser Arbeit entwickelten und auf die Modellpflanze Arabidopsis thaliana angewandten Einzelzellanalysetechniken erlauben es in Zukunft, physiologische Prozesse besser sowohl räumlich als auch zeitlich aufzulösen. Dies wird zu einem detaillierteren Verständnis mannigfaltiger Vorgänge wie Zell-Zell-Kommunikation, Signalweiterleitung oder Pflanzen-Pathogen-Interaktionen führen.
Populärwissenschaftlicher Abstract: Bislang gibt es in der beobachtenden optischen Astronomie zwei verschiedene Herangehensweisen: Einerseits werden Objekte durch Kameras abbildend erfaßt, andererseits werden durch die wellenlängenabhängige Zerlegung ihres Lichtes Spektren gewonnen. Das Integral - Field - Verfahren ist eine relativ neue Technik, welche die genannten Beobachtungsmethoden vereint. Das Objektbild im Teleskopfokus wird in räumlich zerlegt und jedes Ortselement einem gemeinsamen Spektrografen zugeführt. Hierdurch wird das Objekt nicht nur zweidimensional räumlich erfaßt, sondern zusätzlich die spektrale Kompenente als dritte Dimension erhalten, weswegen das Verfahren auch als 3D-Methode bezeichnet wird. Anschaulich kann man sich das Datenresultat als eine Abbildung vorstellen, in der jeder einzelne Bildpunkt nicht mehr nur einen Intensitätswert enthält, sondern gleich ein ganzes Spektrum. Diese Technik ermöglicht es, ausgedehnte Objekte im Unterschied zu gängigen Spaltspektrografen komplett zu erfassen. Die besondere Stärke der Methode ist die Möglichkeit, die Hintergrundkontamination der unmittelbaren Umgebung des Objektes zu erfassen und in der Auswertung zu berücksichtigen. Durch diese Fähigkeit erscheint die 3D-Methode prädestiniert für den durch moderne Großteleskope erschlossenen Bereich der extragalaktischen Stellarastronomie. Die detaillierte Untersuchung aufgelöster stellare Populationen in nahegelegenen Galaxien ist erst seit kurzer Zeit dank der Fortschritte mit modernen Grossteleskopen und fortschrittlicher Instrumentierung möglich geworden. Wegen der Bedeutung für die Entstehung und Evolution von Galaxien werden diese Arbeiten zukünftig weiter an Bedeutung gewinnen. In der vorliegenden Arbeit wurde die Integral-Field-Spektroskopie an zwei planetarischen Nebeln in der nächstgelegenen großen Spiralgalaxie M31 (NGC 224) getestet, deren Helligkeiten und Koordinaten aus einer Durchmusterung vorlagen. Hierzu wurden Beobachtungen mit dem MPFS-Instrument am russischen 6m - Teleskop in Selentschuk/Kaukasus sowie mit INTEGRAL/WYFFOS am englischen William-Herschel-Teleskop auf La Palma gewonnen. Ein überraschendes Ergebnis war, daß eins der beiden Objekte falsch klassifiziert wurde. Sowohl die meßbare räumliche Ausdehnung des Objektes als auch das spektrale Erscheinungsbild schlossen die Identität mit einem planetarischen Nebel aus. Mit hoher Wahrscheinlichkeit handelt es sich um einen Supernovaüberrest, zumal im Rahmen der Fehler an gleicher Stelle eine vom Röntgensatelliten ROSAT detektierte Röntgenquelle liegt. Die in diesem Projekt verwendeten Integral-Field-Instrumente wiesen zwei verschiedene Bauweisen auf, die sich miteinander vergleichen ließen. Ein Hauptkritikpunkt der verwendeten Instrumente war ihre geringe Lichtausbeute. Die gesammelten Erfahrung fanden Eingang in das Konzept des derzeit in Potsdam in der Fertigung befindlichen 3D-Instruments PMAS (Potsdamer Multi - Apertur - Spektrophotometer), welcher zunächst für das 3.5m-Teleskop des Calar - Alto - Observatoriums in Südspanien vorgesehen ist. Um die Effizienz dieses Instrumentes zu verbessern, wurde in dieser Arbeit die Kopplung der zum Bildrasterung verwendeten Optik zu den Lichtleitfasern im Labor untersucht. Die Untersuchungen zur Maximierung von Lichtausbeute und Stabilität zeigen, daß sich die Effizienz durch Auswahl einer geeigneten Koppelmethode um etwa 20 Prozent steigern lässt.
Mercaptursäure und Nukleosidaddukt im Harn als Biomarker in 1-Hydroxymethylpyren-exponierten Ratten
(2002)
1-Methylpyren (MP) ist hepatokanzerogen in neugeborenen männlichen Mäusen. Durch Hydroxylierung an der benzylischen Stelle und anschließende Sulfonierung wird MP zu DNA-reaktivem 1-Sulfooxymethylpyren (SMP) aktiviert. In der Ratte führt die Exposition des benzylischen Alkohols, 1-Hydroxymethylpyren (HMP), zur DNA-Adduktbildung in verschiedenen Geweben. Eventuelle Konsequenz der Toxifizierung ist die Ausscheidung entsprechender Mercaptursäure und Nukleosidaddukt im Harn, welche aufgrund ihrer Herkunft als Biomarker eignen könnten. In dieser Arbeit wird die Ausscheidung der Mercaptursäure und des N2-Desoxyguanosinadduktes in HMP-exponierten Ratten untersucht. Nach der Applikation von HMP bzw. MP wurden weniger als 1 % der Dosis als MPMA über Urin und Faeces ausgeschieden (0 - 48 h). Die Ausscheidung erfolgt hauptsächlich in den ersten 24 h nach der Applikation. MPdG konnte weder in Urin noch in Faeces der HMP-behandelten Tieren identifiziert werden. Nach direkter SMP-Applikation wurde MPdG nur in sehr geringe Menge (weniger als 0,9 ppm in 12 h) im Urin gefunden. Aufgrund der geringen Menge eignet sich MPdG nicht als Biomarker. MPMA dagegen, lässt sich analytisch gut erfassen. Es sollte daher untersucht werden, ob MPMA die Toxifizierung des HMP wiederspiegelt. Die Voraussetzung dafür ist die Kenntnisse über das Metabolismusmuster von HMP. Es wurde daher umfassende Untersuchungen zum Metabolismus des HMP durchgeführt. Die Ergebnisse zeigten, dass mehr als 80 % der Metaboiten in ihrer oxidierten Form (PCS, deren Glucuronsäure-Konjugate sowie phenolische Sulfatester der PCS) ausgeschieden wurden. Demnach spielt die Oxidation des HMP zu PCS eine sehr wichtige Rolle bei der Detoxifizierung und Ausscheidung von HMP. Ferne konnte nachgewiesen werden, dass die Enzyme Alkohol- und Aldehyd-Dehydrogenase an der Oxidation von HMP beteiligt waren. Die Inhibitoren Disulfiram und Ethanol der o. g. Enzyme wurde daher zur Modulation der Detoxifizierung in vivo eingesetzt. Die Veränderungen in der Toxifizierung von HMP zu SMP wurden durch die SMP-Konzentration im Plasma, die DNA-Addukthäufigkeit und die MPMA-Ausscheidung erfasst. Die Vorbehandlung von Disulfiram und Ethanol führte zu tendentielle Erhöhung der SMP-Konzentration im Plasma, DNA-Addukthäufigkeit in der Leber und die MPMA-Ausscheidung. Bemerkenswert ist jedoch, dass bereits eine Dosis von 0,2 g Ethanol/kg Körpermasse bereits zu statistisch signifikanten Erhöhungen der MPMA-Ausscheidung bei weiblichen Ratten.
In der randomisierten, multizentrischen DASH-Studie (Dietary Approaches to Stop Hy-pertension), die unter kontrollierten Bedingungen stattfand, führte eine fettreduzierte Mischkost, reich an Obst, Gemüse und Milchprodukten, bei Borderline-Hypertonikern zu einer signifikanten Blutdrucksenkung. Während der Studienphase wurden Körpermasse, Natrium-Aufnahme sowie Alkoholzufuhr aufgrund der bekannten Einflussnahme auf den Blutdruck konstant gehalten. In der eigenen Pilot-Studie sollte untersucht werden, ob das Ergebnis der DASH-Studie (i) mit deutschen Hypertonikern und (ii) unter habituellen Ernährungs- und Lebensbedingungen mit regelmäßig durchgeführter Ernährungsberatung und ad libitum Verzehr anstelle des streng kontrollierten Studienansatzes bestätigt werden kann. Eine Konstanz der Körpermasse, der Natrium-Urinausscheidung (unter diesem Studienansatz valider als die Aufnahme) und des Alkoholkonsums wurde vorausgesetzt. Die Studienpopulation setzte sich aus 53 übergewichtigen Probanden mit einer nicht medikamentös therapierten Borderline-Hypertonie und ohne Stoffwechselerkrankungen zusammen. Die Studienteilnehmer wurden randomisiert entweder der Idealgruppe mit einer fettarmen Kost reich an Milchprodukten, Obst und Gemüse (ähnlich der DASH-Idealgruppe) oder der Kontrollgruppe mit habitueller Ernährungsweise zugeteilt. Über einen Zeitraum von fünf Wochen wurde den Probanden etwa 50% ihres täglichen Lebensmittelbedarfes entsprechend ihrer Gruppenzugehörigkeit kostenfrei zur Verfügung gestellt. Gelegenheitsblutdruckmessungen und 24h-Blutdruckmessungen, Ernährungs- und Aktivitätsprotokolle, Blut- und Urinproben sowie anthropometrische Messungen wurden vor, während und fünf Wochen nach der Interventionsphase durchgeführt. Die Ergebnisse zeigen, dass in der Idealgruppe keine signifikante Blutdrucksenkung beobachtet werden konnte. Dies lässt sich durch die Tatsache erklären, dass die Lebens-mittel- und Nährstoffaufnahme der deutschen Kontrollgruppe eher der amerikanischen Idealgruppe entsprach. In der Pilot-Studie waren die Unterschiede in der Nährstoffzufuhr zwischen den beiden Gruppen viel geringer als in der DASH-Studie; für eine blutdrucksenkende Ernährungsumstellung bestand somit nur ein geringer Spielraum. Eine weitere Erklärung besteht in der unterschiedlichen Zusammensetzung der Studienpopulation. Bei DASH wurden vorwiegend farbige Probanden (40% höhere Hypertonieprävalenz) untersucht. Die Studienergebnisse lassen also den Schluss zu, dass Ernährungs- und Lebensstilgewohnheiten sowie der genetische Hintergrund der entsprechenden Bevölkerungsgruppe bei der Formulierung von nährstoff- oder lebensmittelbezogenen Empfehlungen zur Senkung des Bluthochdruckes Berücksichtigung finden müssen.
Einfache Decarbonylierungen und stereoselektive Oxidationen von Cyclohexadienen und Cyclohexenen
(2001)
Zusammenfassend konnte im Rahmen dieser Arbeit das Synthesepotential von Cyclohexadienen und Cyclohexenen deutlich erweitert werden. Die Darstellung der 1-Alkylcyclohexa-2,5-dien-1-carbonsäuren erfolgte mittels Birch-Reduktion in flüssigem Ammoniak und anschließender Umsetzung der intermediär entstehenden Dianionen mit Alkylhalogeniden. So konnte ausgehend von verschiedenen Benzoesäurederivaten eine Reihe interessanter Cyclohexadiene in sehr guten Ausbeuten synthetisiert werden. Erstmals gelangen säurekatalysierte Decarbonylierungen von Cyclohexadiencarbonsäuren, was die einfache Synthese substituierter Aromaten in ausgezeichneten Ausbeuten ermöglichte. In dieser Arbeit wird der Reaktionsmechanismus vorgestellt, welcher durch den Nachweis von Kohlenmonoxid in der Gasphase der Reaktionslösung durch IR-Spektroskopie untermauert wird. Bei der säurekatalysierten Umsetzung von 3-alkylsubstituierten Cyclohexadien-carbonsäuren entstanden neben den erwarteten Aromaten Lactone in ca. 50% Ausbeute. Schließlich zeigen die untersuchten Singulettsauerstoff-En-Reaktionen, der im ersten Teil dargestellten Cyclohexadiene und Lactone, durchweg hohe Regioselektivitäten und lieferten durch elektrostatische Wechselwirkungen und konformative Effekte zum Teil sehr gute Diastereoselektivitäten. Die auxiliarkontrollierte Photooxygenierungen von Cyclohexenon welches mit verschiedenen Weinsäureestern ketalisiert wurde, zeigten jedoch keine bevorzugte p-Facialität des Singulettsauerstoffs.
Mit der vorliegenden Arbeit werden exemplarisch Chancen und Grenzen der Integration von Umwelt- und Naturschutz in Verfahren der ackerbaulichen Landnutzung aufgezeigt. Die Umsetzung von Zielen des Umwelt- und Naturschutzes in Verfahren der Landnutzung ist mit verschiedenen Schwierigkeiten verbunden. Diese liegen zum einen in der Konkretisierung der Ziele, um diese umsetzen zu können, zum anderen in vielfach unzulänglichem Wissen über den Zusammenhang zwischen unterschiedlichen Formen der Landnutzung und insbesondere den biotischen Naturschutzzielen. Zunächst wird die Problematik der Zielfestlegung und Konkretisierung erörtert. Das Umweltqualitätszielkonzept von Fürst et al. (1992) stellt einen Versuch dar, Ziele des Umwelt- und Naturschutzes zu konkretisieren. Dieses Konzept haben Heidt et al. (1997) auf einen Landschaftsausschnitt von ca. 6000 ha im Biosphärenreservat Schorfheide-Chorin im Nordosten Brandenburgs angewendet. Eine Auswahl der von Heidt et al. (1997) formulierten Umweltqualitätsziele bildet die Basis dieser Arbeit. Für die ausgewählten Umweltqualitätsziele wurden wesentliche Einflussfaktoren der Landnutzung identifiziert und ein Bewertungssystem entwickelt, mit dem die Auswirkungen von landwirtschaftlichen Anbauverfahren auf diese Umweltqualitätsziele abgebildet werden können. Die praktizierte Landnutzung von 20 Betrieben im Biosphärenreservat Schorfheide-Chorin wurde von 1994 bis 1997 hinsichtlich ihrer Auswirkungen auf die Umweltqualitätsziele analysiert. Die Analyse ergab ein sehr differenziertes Bild, das zum Teil Unterschiede in der Auswirkung auf die Umweltqualitätsziele für den Anbau einzelner Kulturen oder für bestimmte Betriebstypen zeigte. Es zeigte sich aber auch, dass es bei der Gestaltung des Anbaus einzelner Kulturarten große Unterschiede gab, die für Umweltqualitätsziele Bedeutung haben. Neben der Analyse der Landnutzung im Biosphärenreservat Schorfheide-Chorin wurde ein System entwickelt, mit dem die modellhafte Abbildung von Verfahren der Landnutzung möglich ist. Die Modellverfahren wurden in eine umfangreiche Datenbank eingebunden. Sie wurden mit Hilfe eines Fuzzy- Regelsystems hinsichtlich ihrer Auswirkungen auf die Umweltqualitätsziele bewertet. Die systematisch bewerteten Verfahren wurden in ein Betriebsmodell integriert, womit eine weitergehende Analyse der Zielbeziehungen und die Berechnung von Szenarien mit unterschiedlichen Rahmenbedingungen ermöglicht wurde. Die Analyse der Beziehung verschiedener Ziele zueinander (Zieldivergenz, Zielkonvergenz) zeigte, dass sich mit der Verfolgung vieler Umweltqualitätsziele auch positive Effekte für andere Umweltqualitätsziele ergaben. Teilweise konnte allerdings auch eine Zieldivergenz festgestellt werden, die auf mögliche Zielkonflikte hinweist. Bei der Analyse der Szenarienergebnisse zeigte sich, dass die vorgeschlagenen Veränderungen von Rahmenbedingungen vielfach eine Verschlechterung für verschiedene Umweltqualitätsziele mit sich bringen. Eine Ursache dafür liegt darin, dass bei der Definition der Szenarien die Bedeutung der Stilllegungen unterschätzt wurde.
Das Menderes Massiv im Westen der Türkei stellt eine große Kulmination metamorpher Gesteine dar. Das Untersuchungsgebiet ist im Zentralen Menderes Massiv (Ödemis Submassiv) gelegen, das von den beiden aktiven Gräben, dem Gediz Graben im Norden und dem Büyük Menderes Graben im Süden begrenzt wird. Die Untersuchungen der Eklogit Relikte im zentralen Menderes Massiv haben ergeben, dass sich im Menderes Massiv Hochdruckrelikte in unterschiedlichen tektonischen Positionen befinden. Zum einen existieren Eklogit-Blöcke in der obersten Einheit (Selcuk Einheit) des zentralen Menderes Massivs und zum anderen Hochdruck-Relikte in der strukturell mittleren Birgi - Tire Decke. Die Granate der quarzfreien Eklogit-Blöcke weisen große Ähnlichkeiten mit denen der HP/LT Gesteine von Sifnos und Syros auf. Die Entwicklung der Eklogit-Blöcke in der Olistostrom-Einheit lässt sich jedoch nicht mit den Eklogit Relikten in der strukturell mittleren Birgi Tire Decke vergleichen. Für die Eklogit-Relikte in der Birgi Tire Decke wurde eine polymetamorphe Entwicklung mithilfe petrologischer Untersuchungen und chemischen und Pb-Pb Datierungen herausgearbeitet. Die Eklogit Relikte gehören zu einem metamorphen Teilpfad, der durch eine Amphibolitfazies 1 - Hochdruck - Amphibolitfazies 2/Granulitfazies charakterisiert ist. Der Endpunkt dieses Teilpfades ist mit Temperaturen zwischen 700 und 750 °C und Drücken von 1.2 - 1.4 GPa belegt. Für diese Bedingungen konnte ein minimales Alter von 520 Ma durch chemische Datierungen an Monaziten einer Augengneisprobe und Pb-Pb Datierungen an Zirkonen einer Augengneis- und Metagabbroprobe bestimmt werden. Dieser amphibolit/granulitfazieller Endpunkt wird mit den Granitintrusionen des zentralen und südlichen Menderes Massiv korreliert, die in einem Zeitraum zwischen 520 Ma bis 550 Ma stattfanden. Sowohl die Amphibolitfazies 1 als auch das Hochdruckereignis werden der Panafrikanischen Orogenese zugeordnet. Für die Hochdruckbedingungen wurden maximale Temperaturen zwischen 680°C und 720°C und bei einem Druck von 2.2 GPa bestimmt. In den untersuchten Metasedimenten konnte eine prograde metamorphe Entwicklung abgeleitet werden, die amphibolitfazielle Bedingungen von 660°C bei 0.6 GPa erreichte. Das Metamorphosealter dieser Metasedimente konnte mit < 100 Ma mittels chemischer Mikrosondendatierung bestimmt werden. Die in den Metasedimenten herausgearbeiteten Druck- und Temperaturbedingungen wurden ebenfalls in den metabasischen Gesteinen bestimmt. Diese Ergebnisse werden als Krustenstapelung der metabasischen Gesteine, Augengneise und Metasedimente interpretiert, die mit der alpinen Orogenese im Zusammenhang stehen. Durch die Ergebnisse dieser Arbeit lässt sich die Birgi-Tire Decke im zentralen Menderes Massiv genauer charakterisieren. Sie besteht aus Metasedimenten, pelitischen Gneisen, Augengneisen und metabasichen Gesteinen. Die Gneise (pelitische und Augengneise) und die metabasischen Gesteine stellen panafrikanische Relikte dar, die einen amphibolit- eklogit- amphibolit/granulitfaziellen Metamorphosepfad gespeichert haben. Die amphibolit- bis granulitfazielle Metamorphose hängt mit den Granitintrusionen zusammen und fand in einem Zeitraum zwischen 520 - 550 Ma statt. Große Teile der Metasedimente der Birgi Tire Decke haben jedoch nur eine alpine metamorphe Entwicklung durchlaufen, wo sie unter amphibolitfazielle Bedingungen Krustentiefen erreichten, bei denen sie mit den panafrikanischen Relikten zusammen gestapelt wurden und eine gemeinsame Exhumierung erfahren haben.
In der vorliegenden Arbeit werden anhand der Edelgaszusammensetzung von Kimberliten und Lamproiten sowie ihrer gesteinsbildenden Minerale die Wechselwirkungen dieser Gesteine mit Fluiden diskutiert. Die untersuchten Proben stammen vom östlichen Baltischen Schild, vom Kola-Kraton (Poria Guba und Kandalaksha) und vom karelischen Kraton (Kostamuksha). Edelgasanalysen nach thermischer oder mechanischer Gasextraktion von 23 Gesamtgesteinsproben und 15 Mineralseparaten ergeben folgendes Bild: Helium- und Neon-Isotopendaten der Fluideinschlüsse von Lamproiten aus Kostamuksha lassen auf den Einfluss einer fluiden Phase krustaler Herkunft schliessen. Diese Wechselwirkungen fanden wahrscheinlich schon während des Magmenaufstiegs statt, denn spätere Einflüsse krustaler Fluide auf die Lamproite und ihr Nebengestein (Quarzit) sind gering, wie anhand der C/<sup>36Ar-Zusammensetzung gezeigt wird. Auch sind die mit verschiedenen Datierungsmethoden (Rb-Sr, Sm-Nd, K-Ar) an Mineralseparaten und teilweise an Gesamtgestein ermittelten Alter konsistent und machen eine metamorphe Überprägung unwahrscheinlich. Aufgrund der Verteilung der primordialen Edelgasisotope zwischen Fluideinschlüssen und Gesteinsmatrix ist ein langsamer Magmenaufstieg anzunehmen, was die Möglichkeit der Kontamination mit einem krustalen Fluid während des Magmenaufstiegs erhöht. Die Gasextraktion aus Mineralseparaten erfolgte thermisch, wodurch eine Freisetzung der Gase ausschließlich aus Fluideinschlüssen nicht möglich ist. Hierbei zeigen Amphibol und Klinopyroxen, separiert aus Kostamuksha-Lamproiten, in ihrer Neon-Isotopenzusammensetzung im Vergleich zur krustalen Zusammensetzung (Kennedy et al., 1990) ein leicht erhöhtes Verhältnis von <sup>20Ne/<sup>22Ne, was ein Hinweis auf Mantel-Neon sein könnte. Kalifeldspäte, Quarz und Karbonate enthalten dagegen nur Neon krustaler Zusammensetzung. Phlogopite haben sehr kleine Verhältnisse von <sup>20Ne/<sup>22Ne und <sup>21Ne/<sup>22Ne, zurückzuführen auf in-situ-Produktion von <sup>22Ne in Folge von U- und Th-Zerfallsprozessen. Wie unterschiedliche thermische Entgasungsmuster für <sup>40Ar und <sup>36Ar zeigen, ist <sup>36Ar in Fluideinschlüssen konzentriert. Das <sup>40Ar/<sup>36Ar-Isotopenverhältnis der Fluideinschlüsse von Lamproiten aus Kostamuksha ist antikorreliert mit der durch thermische Extraktion bestimmten Gesamtmenge an <sup>36Ar. Argon aus Fluideinschlüssen setzt sich daher aus zwei Komponenten zusammen: Einer Komponente mit atmosphärischer Argon-Isotopenzusammensetzung und einer krustalen Komponente mit einem Isotopenverhältnis <sup>40Ar/<sup>36Ar > 6000. Diffusion von radiogenem <sup>40Ar aus der Kristallmatrix in die Fluideinschlüsse spielt keine wesentliche Rolle. Kimberlite aus Poria Guba und Kandalaksha zeigen anhand der Helium- und z. T. auch der Neon-Isotopenzusammensetzung eine Mantelkomponente in den Fluideinschlüssen an. Bei einem angenommenen <sup>20Ne/<sup>22Ne-Isotopenverhältnis von 12,5 in der Mantelquelle ergibt sich ein <sup>21Ne/<sup>22Ne-Isotopenverhältnis von 0,073 ± 0,011 sowie ein <sup>3He/<sup>4He-Isotopenverhältnis, welches im Vergleich zum subkontinentalem Mantel (Dunai und Baur, 1995) stärker radiogen geprägt ist. Solche Isotopensignaturen sind mit höheren Konzentrationen an Uran und Thorium in der Mantelquelle der Kimberlite zu erklären. Rb-Sr- und Sm-Nd-Altersbestimmungen erfolgten von russischer Seite (Belyatskii et al., 1997; Nikitina et al., 1999) und ergeben ein Alter von 1,23 Ga für den Lamproitvulkanismus in Kostamuksha. Eigene K-Ar-Datierungen an Phlogopiten und Kalifeldspäten stimmen mit einem Alter von 1193 ± 20 Ma fast mit den Rb-Sr- und Sm-Nd-Altern überein. Die K-Ar-Datierung an einem Phlogopit aus Poria Guba, separiert aus dem Kimberlit PGK 12a, ergibt ein Alter von 396 Ma, ebenfalls in guter Übereinstimmung mit Rb-Sr-und Sm-Nd-Altern (ca. 400 Ma, Lokhov, pers. Mitteilung). K-Ar-Altersbestimmungen an Gesamtgestein aus Poria Guba erbrachten kein schlüssiges Alter. Die Rb-Sr- und Sm-Nd-Alter des Lamproitmagmatismus in Poria Guba betragen 1,72 Ga (Nikitina et al., 1999). Vergleiche von gemessenen mit berechneten Edelgaskonzentrationen aus in-situ-Produktion zeigen weiterhin, dass in Abhängigkeit vom Alter der Probe Diffusionsprozesse stattgefunden haben, die zu unterschiedlichen und z. T. erheblichen Verlusten an Helium und Neon führten. Diffusionsverluste an Argon sind dagegen kaum signifikant. Unterschiedliche Diffusionsverluste in Abhängigkeit von Alter und betrachtetem Edelgas zeigen auch die primordialen Edelgase.
Seit 1990 waren mehrere der großen Flussgebiete Mitteleuropas wiederholt von extremen Hochwassern betroffen. Da sowohl die Landoberfläche als auch die Flusssysteme weiter Teile Mitteleuropas in der Vergangenheit weitreichenden Eingriffen ausgesetzt gewesen sind, wird bei der Suche nach den Ursachen für diese Häufung von Extremereignissen auch die Frage nach der Verantwortung des Menschen hierfür diskutiert. Gewässerausbau, Flächenversiegelung, intensive landwirtschaftliche Bodenbearbeitung, Flurbereinigung und Waldschäden sind nur einige Beispiele und Folgen der anthropogenen Eingriffe in die Landschaft. Aufgrund der Vielfalt der beteiligten Prozesse und deren Wechselwirkungen gibt es allerdings bislang nur Schätzungen darüber, wie sehr sich die Hochwassersituation hierdurch verändert hat. Vorrangiges Ziel dieser Arbeit ist es, mit Hilfe eines hydrologischen Modells systematisch darzustellen, in welcher Weise, in welcher Größenordnung und unter welchen Umständen die Art der Landnutzung auf die Hochwasserentstehung Einfluss nimmt. Dies wird anhand exemplarischer Modellanwendungen in der hydrologischen Mesoskala untersucht. Zu diesem Zweck wurde das deterministische und flächendifferenzierte hydrologische Modell wasim-eth ausgewählt, das sich durch eine ausgewogene Mischung aus physikalisch begründeten und konzeptionellen Ansätzen auszeichnet. Das Modell wurde im Rahmen dieser Arbeit um verschiedene Aspekte erweitert, die für die Charakterisierung des Einflusses der Landnutzung auf die Hochwasserentstehung wichtig sind: (1) Bevorzugtes Fließen in Makroporen wird durch eine Zweiteilung des Bodens in Makroporen und Bodenmatrix dargestellt, die schnelle Infiltration und Perkolation jenseits der hydraulischen Leitfähigkeit der Bodenmatrix ermöglicht. (2) Verschlämmung äußert sich im Modell abhängig von Niederschlagsintensität und Vegetationsbedeckungsgrad als Verschlechterung der Infiltrationsbedingungen an der Bodenoberfläche. (3) Das heterogene Erscheinungsbild bebauter Flächen mit einer Mischung aus versiegelten Bereichen und Freiflächen wird berücksichtigt, indem jede Teilfläche je nach Versiegelungsgrad in einen unversiegelten Bereich und einen versiegelten Bereich mit Anschluss an die Kanalisation aufgeteilt wird. (4) Dezentraler Rückhalt von Niederschlagswasser kann sowohl für natürliche Mulden als auch für gezielt angelegte Versickerungsmulden mit definierten Infiltrationsbedingungen simuliert werden. Das erweiterte Modell wird exemplarisch auf drei mesoskalige Teileinzugsgebiete des Rheins angewandt. Diese drei Gebiete mit einer Fläche von zwischen 100 und 500 km² wurden im Hinblick darauf ausgewählt, dass jeweils eine der drei Hauptlandnutzungskategorien Bebauung, landwirtschaftliche Nutzung oder Wald dominiert. Für die drei Untersuchungsgebiete sind räumlich explizite Landnutzungs- und Landbedeckungsszenarien entworfen worden, deren Einfluss auf die Hochwasserentstehung mit Hilfe des erweiterten hydrologischen Modells simuliert wird. Im Einzelnen werden die Auswirkungen von Verstädterung, Maßnahmen zur Niederschlagsversickerung in Siedlungsgebieten, Stilllegung agrarisch genutzter Flächen, veränderter landwirtschaftlicher Bodenbearbeitung, Aufforstung sowie von Sturmschäden in Wäldern untersucht. Diese Eingriffe beeinflussen die Interzeption von Niederschlag, dessen Infiltration, die oberflächennahen unterirdischen Fließprozesse sowie, zum Beispiel im Fall der Kanalisation, auch die Abflusskonzentration. Die hydrologischen Simulationen demonstrieren, dass die Versiegelung einer Fläche den massivsten Eingriff in die natürlichen Verhältnisse darstellt und deshalb die stärksten (negativen) Veränderungen der Hochwassersituation hervorbringt. Außerdem wird deutlich, dass eine bloße Änderung des Interzeptionsvermögens zu keinen wesentlichen Veränderungen führt, da die Speicherkapazität der Pflanzenoberflächen im Verhältnis zum Volumen hochwasserauslösender Niederschläge eher klein ist. Stärkere Veränderungen ergeben sich hingegen aus einer Änderung der Infiltrationsbedingungen. Die Grenzen der entwickelten Methodik zeigen sich am deutlichsten bei der Simulation veränderter landwirtschaftlicher Bewirtschaftungsmethoden, deren mathematische Beschreibung und zahlenmäßige Charakterisierung aufgrund der Komplexität der beteiligten Prozesse mit großen Unsicherheiten behaftet ist. Die Modellierungsergebnisse belegen darüber hinaus, dass pauschale Aussagen zum Einfluss der Landnutzung auf die Hochwasserentstehung aufgrund der entscheidenden Bedeutung der klimatischen und physiographischen Randbedingungen unzulässig sind. Zu den klimatischen Randbedingungen zählen sowohl Niederschlagsintensität und -dauer als auch die Feuchtebedingungen vor einem hochwasserauslösenden Niederschlag. Die physiographischen Randbedingungen sind von der geomorphologischen und geologischen Ausstattung des Gebiets vorgegeben. Weiterhin muss der räumliche und zeitliche Maßstab, über den Aussagen getroffen werden, klar definiert sein, da sich mit steigender Einzugsgebietsgröße die relative Bedeutung sowohl der verschiedenen Niederschlagstypen als auch der physiographischen Eigenschaften verschiebt. Dies wird in der vorliegenden Arbeit im Gegensatz zu vielen anderen Untersuchungen konsequent berücksichtigt. In Abhängigkeit von Randbedingungen und räumlichen Maßstab sind aufgrund der gewonnen Erkenntnisse folgende Aussagen zum Einfluss von Landnutzungsänderungen auf die Hochwasserentstehung möglich: (1) Für intensive konvektive Niederschlagsereignisse mit tendenziell geringer Vorfeuchte ist der Einfluss der Landnutzung größer als für langanhaltende advektive Niederschläge geringer Intensität, da im ersten Fall veränderte Infiltrationsbedingungen stärker zum Tragen kommen als bei kleinen Niederschlagsintensitäten. (2) In kleinen Einzugsgebieten, wo kleinräumige Konvektivzellen zu Hochwassern führen können, ist der Einfluss der Landnutzung dementsprechend größer als in großen Flussgebieten wie dem Rheingebiet, wo vor allem langanhaltende advektive Ereignisse (unter Umständen verbunden mit Schneeschmelze) relevant sind. (3) In Gebieten mit guten Speichereigenschaften wie mächtigen, gut durchlässigen Böden und gut durchlässigem Gesteinsuntergrund ist der Einfluss der Landnutzung größer als in Gebieten mit geringmächtigen Böden und geringdurchlässigem Festgestein. Dies ist darin begründet, dass in Gebieten mit guten Speichereigenschaften bei einer Verschlechterung der Infiltrationsbedingungen mehr Speicherraum für Niederschlag verloren geht als in anderen Gebieten.
Die vorliegende Arbeit beschäftigt sich mit der Synthese und den Eigenschaften von linearen und verzweigten amphiphilen Polypeptid-Blockcopolymeren. Die Frage nach dem Einfluss der Topologie und Konformation der Blockcopolymere auf die supramolekularen und kolloidalen Eigenschaften bildete einen wichtigen Aspekt bei den Untersuchungen. Die Blockcopolymere wurden nach einem mehrstufigen Reaktionsschema durch Kombination von anionischer und ringöffnender Polymerisation von Aminosäuren-N-Carboxyanhydriden (NCA) synthetisiert. Die Untersuchung der Polypeptid-Blockcopolymere hinsichtlich ihres Aggregationsverhaltens in fester Phase sowie in verdünnter wässriger Lösung erfolgte mittels Streumethoden (SAXS, WAXS, DLS) sowie abbildender Methoden (TEM). Durch Einsatz der Blockcopolymere als polymere Stabilisatoren in der Emulsionspolymerisation wurden Oberflächen funktionalisierte Latizes erhalten. Als Beispiel für eine pharmazeutische Anwendung wurden bioverträgliche Polypeptid-Blockcopolymere als Wirkstoff-Trägersysteme in der Krebstherapie eingesetzt.
Eine Reihe 9,9-dialkylsubstituierter Polyfluorene mit linearen und verzweigtkettigen Alkylsubstituenten und einem Molekulargewicht von bis zu 200000 g/mol wurde synthetisiert und charakterisiert. Darüber hinaus wurden einige dieser Polymere mit einer geeigneten 'Lochtransport'-Funktionalität (Triphenylamin-Derivate) ausgestattet, um die Ladungstransporteigenschaften und das Molekulargewicht dieser Substanzen zu kontrollieren. Die thermische Orientierung dieser neuen Polymere auf geriebenen Polyimid-Schichten führte zu hoch anisotropen Filmen mit großen dichroischen Verhältnissen (Absorption parallel und senkrecht zur Reibungsrichtung gemessen). Ferner wurde eine Gruppe chiraler Polyfluorene synthetisiert und hinsichtlich ihrer chiroptischen Eigenschaften untersucht. Der mit diesen chiralen, konjugierten Polymeren erreichte Grad der Anisotropie in Absorption (CD), circular polarisierter Photolumineszenz (CPPL) und Elektrolumineszenz (CPEL) überstieg die bis dahin bekannten Werte um einen Faktor von 200.
Chemisch dotiertes Polypyrrol gilt als Modellsubstanz für leitfähige Polymere mit nichtdegeneriertem Grundzustand. Das elektrische Transportverhalten in dotiertem Polypyrrol wird durch lokalisierte Ladungsträger, Bipolaronen und Polaronen, bestimmt. Es besteht dabei eine enge gegenseitige Wechselwirkung zwischen der Struktur der Polymerkette und den Eigenschaften der Ladungsträger. Die in dieser Arbeit vorgestellte Kombination von Hochdruckmethodik und optischer Spektroskopie vertieft das Verständnis der Beziehung zwischen der molekularen und supramolekularen Struktur und den elektronischen und optischen Eigenschaften. Durch spezifische Synthesemethoden lassen sich unterschiedliche Strukturen in der polymeren Probe induzieren, die sich durch den Anteil an hochgeordneten Polymerketten unterscheiden. Die gezielte Veränderung dieser Strukturen durch Druckexperimente ermöglicht das Studium des Einflusses der Synthesemethoden auf die Ladungsträgereigenschaften. Für diese Studien wurden herkömmlich synthetisierte Polypyrrol-Filme und Filme, die sich aus Polypyrrol-Nanoröhren zusammensetzen (Synthese in Kernspur-membranen, "Template-Synthese") bei ansonsten gleichen Syntheseparametern untersucht. Raman- und Infrarotspektroskopie sowie UV-Vis-NIR-Absorptionsspektroskopie, die jeweils für die Hochdruckmethodik adaptiert wurden, dienten der Charakterisierung der Proben. Zusätzlich wurden temperatur- und druckabhängige Messungen des elektrischen Widerstands an den Template-Proben durchgeführt. Die Morphologie template-synthetisierter Polypyrrol-Nanoröhren und die filmbildenden Eigenschaften sowie der mögliche Aufbau von Schichtarchitekturen wurden mit transmissions- und rasterelektronenmikroskopischen Techniken untersucht. Die aus den Hochdruckexperimenten gewonnenen Daten werden in der Arbeit im Hinblick auf die Stabilität der Ladungsträger interpretiert. Im Ergebnis bewirkt die Druckerhöhung eine Dissoziation der Bipolaronen in den untersuchten Proben. Das Ladungsträger-gleichgewicht verschiebt sich dadurch mit steigendem Druck zu Zuständen mit höherem Anteil an polaronischen Ladungsträgern. Die Template-Synthese bewirkt gegenüber herkömmlich synthetisierten Proben einen höheren Anteil an Polaronen bereits bei Normaldruck, und eine Lage des Systems näher bei einem Isolator-Metall-Übergang. Die Dissoziationsrate der Bipolaronen ist für Template- und herkömmlich synthetisierte Proben vergleichbar groß und unabhängig vom Initialzustand nach der Synthese. Dieses Verhalten der Ladungsträger wird weitergehend im Rahmen eines Modells untersucht, bei dem der Einfluß benachbarter Polymerketten und der Dotandionen berücksichtigt wird. Dementsprechend können sich die Wellenfunktionen der Ladungsträger unter bestimmten Bedingungen auch auf benachbarte Ketten erstrecken (transversale Polaronen bzw. Bipolaronen). Eine solche Ausdehnung der Wellenfunktionen unter Mitwirkung der Dotandionen wurde in den untersuchten Proben nicht festgestellt. Die Wellenfunktionen der Ladungsträger besitzen demnach hauptsächlich Komponenten entlang der Polymerkette (longitudinale Polaronen bzw. Bipolaronen). Aus der Änderungsrate druckabhängiger spektraler Charakteristiken lassen sich Aussagen über den Ordnungszustand der Probe ableiten. Diese auf experimentellem Wege gefundenen Ergebnisse liefern somit Hinweise für die bisher kontrovers diskutierte Koexistenz der beiden Ladungsträgerarten Polaronen und Bipolaronen und die Größe ihrer jeweiligen Bindungsenergien. Druckerhöhung und Template-Synthese bewirken analoge Änderungen der Polymerstruktur. Sowohl höherer Druck wie auch die Template-Synthese lassen sich mit einem höheren Ordnungsgrad in den Template-Proben korrelieren. Der Ladungstransport in den Proben kann durch ein Mott Variable Range Hopping-Modell mit druckabhängiger charakteristischer Dimension beschrieben werden. Die Erhöhung des Drucks bewirkt einen Anstieg der Dimension, eine bessere Überlappung der Wellenfunktionen der Ladungsträger und eine Vergrößerung der Lokalisierungslänge der Ladungsträger. Die druckinduzierte Dissoziation der Bipolaronen beeinflußt den Ladungstransport zusätzlich durch Erhöhung der Anzahl unabhängiger Ladungsträger und verbessert diesen aufgrund stärkerer Überlappung der Wellenfunktionen. Template-Proben niedriger Synthesetemperatur zeigen bei Normaldruck eine höhere Dimension des Mott Variable Range Hoppings und eine größere Lokalisierungslänge gegenüber bei Raumtemperatur synthetisierten Proben. Kürzere Synthesezeiten bewirken einen Anstieg der Dimension bei Normaldruck und eine Verschiebung des Dimensionscrossovers zu niedrigeren Temperaturen. Template-Proben kurzer Synthesezeit zeigen geringere druckinduzierte Änderungen als solche mit langer Synthesezeit. Es wurde ein kontinuierliches Ordnungsmodell der Polypyrrol-Nanoröhren entwickelt, das dieses Verhalten beschreibt. Die Morphologie und die mechanischen Eigenschaften der Nanoröhren werden durch spezifische Syntheseparameter, wie Temperatur und Dauer, beeinflußt und können mit Transmissions- und Rasterelektronenmikroskopie beobachtet werden. Die filmbildenden Eigenschaften der Röhren hängen stark von diesen mechanischen Eigenschaften ab. Die Struktur der Filme kann dabei von einer unregelmäßigen Anordnung der Röhren bis zu nahezu parallel ausgerichteten Röhren variieren. Es wurden Möglichkeiten untersucht, die Röhren in den Filmen zu orientieren und aus diesen Filmen durch Schichtung makroskopische Architekturen mit einem hohen Grad an orientierten Röhren aufzubauen. Solche Architekturen können für verschiedene Anwendungen, z.B. in elektronischen Bauteilen oder mikroskopischen Bioreaktoren, von Interesse sein.
Was misst TIMSS?
(2001)
Bei der Erstellung und Interpretation mathematischer Leistungstests steht die Frage, was eine Aufgabe mißt. Der Artikel stellt mit der strukturalen oder objektiven Hermeneutik eine Methode vor, mit der die verschiedenen Dimensionen der von einer Aufgabe erfassten Fähigkeiten herausgearbeitet werden können. Dabei werden fachliche Anforderungen, Irritationsmomente und das durch die Aufgabe transportierte Bild vom jeweiligen Fach ebenso erfasst wie Momente, die man eher als Testfähigkeit bezeichnen würde.Am Beispiel einer TIMSS-Aufgabe wird diskutiert, dass das von den Testerstellern benutzte theoretische Konstrukt kaum geeignet ist, nachhaltig zu beschreiben, was eine Aufgabe misst.
Die Ausstattung der gastrointestinalen Mukosa des Menschen und der Ratte mit Sulfotransferasen wurde mit Hilfe von Immunodetektion und Enzymaktivitätsmessungen untersucht. In Proben aus Colon und Rektum von 39 Personen wurden die Formen h1A1, h1A3 und h1B1 identifiziert, wobei in einer weiteren Probe, die als einzige von einem an Colitis Ulcerosa erkrankten Patienten stammte, keine Sulfotransferasen nachgewiesen werden konnten. Bei der Immunblot-Analyse war das Expressionsmuster der einzelnen Formen in allen Proben ähnlich. In wenigen Proben waren die relativen Signalintensitäten der h1A1 und der h1B1 um die Hälfte erniedrigt. Der Gehalt von SULT an zytosolischem Protein zeigte einen bis zu 8 - 10fachen Unterschied, er betrug jedoch bei zwei Dritteln der Proben zwischen 0,15 und 0,3 (h1A1 und h1A3) bzw. 0,6 und 0,8 Promille (h1B1). Die Variation konnte nicht auf Alter, Geschlecht oder Krankheitsbild der Patienten zurückgeführt werden. Auch der für die allelischen Varianten der h1A1 beschriebene Effekt auf die Enzymaktiviät bzw. Stabilität konnte in der Menge an immunreaktivem Protein nicht in diesem Ausmaß detektiert werden. Die Allelhäufigkeit von h1A1*R und h1A1*H war gegenüber der gesunden Bevölkerung nicht verändert. In den sieben Proben aus dem Dünndarm (Coecum, viermal Ileum, Jejunum) konnten zusätzlich die Formen h1E1 und h2A1 identifiziert werden. Ein möglicherweise der Form h1C1 entsprechendes Protein wurde im Magen detektiert. Im Vergleich zum Menschen war die Expression in der Ratte stärker auf die Leber konzentriert. Während beim Menschen in allen untersuchten Abschnitten Sulfotransferasen in Mengen detektiert wurden, die in zwei Fällen (h1B1 und h1A3) sogar den Gehalt in der Leber überstiegen, beschränkte sich die Expression in der Ratte auf im Vergleich zur Leber geringe Mengen im Magen und Dickdarm. Nachgewiesen wurden die r1B1, r1A1 sowie eine nicht identifizierte Form von 35kD, bei der es sich vermutlich um die r1C2 handelt. Im Vergleich zur Leber enthielt der Dickdarm der Ratte 20 - 30 % an r1B1 und 3 % an r1A1, während im Dickdarm des Menschen die 3 - 5fache Menge an h1B1 und 25 - 50 % an h1A1 gefunden wurden. Die nicht identifizierte Form verhielt sich wie die r1B1. Die für die Leber der Ratte bekannte geschlechtsabhängige Expression wurde im Gastrointestinaltrakt nicht beobachtet. Die Verteilung der Sulfotransferasen im Colon und Ileum des Menschen wurde immunhistochemisch untersucht; für die Gewebe der Ratte war die Spezifität der zur Verfügung stehenden Antiseren nicht ausreichend. Im Colon traten h1B1-spezifische Färbungen in den differenzierten Enterozyten am oberen Ende der Krypten auf, im Dünndarm wurden die Epithelzellen der Zotten gefärbt. Die Färbung konzentrierte sich auf das Zytoplasma. Eine ähnliche Verteilung zeigte sich für h1A1 und h1A3, außer daß zusätzlich eine intensive Färbung der Endothelzellen der Kapillaren in der Submukosa des Ileums auftrat. Im Dickdarm war dies nur bei den Kapillaren in den Lymphfollikeln zu erkennen. Die h2A1 war lediglich im Zytoplasma der Epithelzellen der Zotten des Ileums nachzuweisen, während im Colon keine Farbreaktion auftrat. Durch die Verwendung der rekombinanten Indikatorstämme TA1538-h1A1, -h1A3 und -h1B1 und des Ausgangsstammes Salmonella typhimurium TA1538 im Ames-Test wurde gezeigt, daß verschiedene benzylische und allylische Alkohole durch im humanen Colon exprimierte Sulfotransferasen zu Mutagenen aktiviert werden. In den meisten Fällen erwies sich eine der drei Sulfotransferasen als besonders effizient in der Bioaktivierung, während durch die anderen Formen kein oder nur ein schwacher Effekt verursacht wurde. Die Bioaktivierung von Promutagenen durch Sulfotransferasen im Colon muß im Zusammenhang mit der Lokalisation diskutiert werden. Die Zellen im Darm, in denen immunhistochemisch Sulfotransferasen detektiert wurden, haben mit Ausnahme des Endothels je nach Abschnitt eine Lebensdauer von maximal fünf Tagen und machen keine weiteren Zellteilungen mehr durch. Daher sind DNA-Schäden in diesen Zellen ein sehr geringes Risiko für den Organismus. Soweit die reaktiven Metabolite in diesen Zellen gefangen bleiben, kann die Bioaktivierung in diesen Zellen und die Bildung von Addukten als protektiv betrachten werden, da letztere nach wenigen Tagen mit den toten Zellen in das Darmlumen abgegeben werden. Für den Vergleich der Bioaktiverung von Promutagenen durch die Form 1B1 des Menschen und der Ratte wurden aus V79 Lungenfibroblasten des Chinesischen Hamsters abgeleitete Zellinien hergestellt, die je eine der beiden Formen stabil exprimieren. Damit standen 1B1-profiziente Indikatorzellen für den HPRT-Genmutationstest zur Verfügung, und die 1B1-abhängige Bioaktivierung konnte in einem System untersucht werden, die dem eukaryontischen Organismus näher steht als die für die Ames-Tests verwendeten Bakterien. So war z.B. die Sulfotransferase wie im Gewebe im Zytoplasma lokalisiert. Als Modellsubstanzen wurden hierbei die bereits in TA1538-h1B1 mutagen wirkenden benzylischen Alkohole 6-Hydroxymethylbenzo[a]pyren und 4-Hydroxycyclopenta-[def]chrysen getestet. Da die Sensitivität einer Sulfotransferase-exprimierenden V79-Zellinie sowohl durch die Menge an Sulfotransferase als auch durch die Verfügbarkeit des Sulfodonors limitiert sein könnte, wurden die Mutagenitätsexperimente mit V79-r1B1-Zellinien durchgeführt, die sich in ihrer Enzymaktivität um das Zwanzigfache unterschieden: V79-r1B1/A und -/B. Eine starke Erhöhung der Mutantenfrequenz wurde nur in der hoch exprimierenden Zellinie V79-r1B1/A (1019 ± 224 pmol/mg/min) beobachtet, so daß eine gravierende Beeinträchtigung der Sensitivität durch einen Mangel an Kosubstrat ausgeschlossen wurde. In der niedriger exprimierenden Zellinie V79-r1B1/B (57 ± 9 pmol/mg/min) war nur mit 6-Hydroxymethylbenzo[a]pyren ein schwacher Anstieg der Mutantenfrequenz zu erkennen, der mit 0,3 µM bei einer in etwa 100fach höheren Konzentration begann als bei V79-r1B1/A. Die zytosolische Fraktion aus V79-r1B1/B-Zellen enthielt in etwa die dreifache Menge an r1B1-Protein wie die aus Colonmucosa der Ratte. Da zumindest für die humane Mukosa gezeigt wurde, daß die 1B1 nur im einschichtigen Epithel, nicht aber in allen Zellen der Mukosa exprimiert wird, repräsentiert die zytosolische Fraktion aus der Mukosa nur bedingt die Expression in den Epithelzellen und der Vergleich mit den V79-1B1-Zellen ist grob. Im Gegensatz zu V79-r1B1/B war die Zellinie V79-h1B1, die ebenfalls nur mit Darm und Leber vergleichbare Mengen an h1B1 exprimierte, in der Lage, beide benzylischen Alkohole zu aktivieren. Der Erhöhung der Mutantenfrequenz im Vergleich zur KontrollZellinie war ähnlich wie bei der stark exprimierenden Zellinie V79-r1B1/A, erforderte aber 10fach höhere Konzentrationen. Somit unterscheiden sich Mensch und Ratte nicht nur insgesamt in ihrer Ausstattung des Gastrointestinaltrakts mit Sulfotransferasen, auch bei Betrachtung einer einzelnen Form zeigten sich deutliche Unterschiede in der Aktivierung von zwei Promutagenen. Die Ratte ist daher ein ungeeignetes Modell, um die Rolle von Sulfotransferasen bei tumorinitiierenden Prozessen im Darm zu untersuchen. Dies unterstreicht die Bedeutung von rekombinanten in-vitro-Systemen für die Erfassung des humanen Metabolismus von Fremdstoffen. Insgesamt kennt man nur eine geringe Anzahl von Substanzen, die im Tierexperiment Colontumore erzeugen, und mit Ausnahme der heterozyklischen aromatischen Amine sind diese lediglich von experimenteller Bedeutung. Dies spricht für effiziente Schutzmechanismen der Darmmukosa gegenüber Mutagenen und läßt die Frage nach der hohen Inzidenz des Kolorektalkarzinoms offen.
Gasausströmungen, oft in der Form hoch kollimierter Jets, sind ein allgegenwärtiges Phänomen bei der Geburt neuer Sterne. Emission von stossangeregtem molekularem Wasserstoff bei Wellenlängen im nahen Infrarotbereich ist ein Merkmal ihrer Existenz und auch in eingebetteten, im Optischen obskurierten Ausströmungen generell gut zu beobachten. In dieser Arbeit werden die Resultate einer von Auswahleffekten freien, empfindlichen, grossflächigen Suche nach solchen Ausströmungen von Protosternen in der v=1-0 S(1) Linie molekularen Wasserstoffs bei einer Wellenlänge von 2.12 µm vorgestellt. Die Durchmusterung umfasst eine Fläche von etwa einem Quadratgrad in der Orion A Riesenmolekülwolke. Weitere Daten aus einem grossen Wellenlängenbereich werden benutzt, um die Quellen der Ausströmungen zu identifizieren. Das Ziel dieser Arbeit ist es, eine Stichprobe von Ausströmungen zu bekommen, die so weit wie möglich frei von Auswahleffekten ist, um die typischen Eigenschaften protostellarer Ausströmungen und deren Entwicklung festzustellen, sowie um die Rückwirkung der Ausströmungen auf die umgebende Wolke zu untersuchen. Das erste Ergebnis ist, dass Ausströmungen in Sternentstehungsgebieten tatsächlich sehr häufig sind: mehr als 70 Jet-Kandidaten werden identifiziert. Die meisten zeigen eine sehr irreguläre Morphologie anstelle regulärer oder symmetrischer Strukturen. Dies ist auf das turbulente, klumpige Medium zurückzuführen, in das sich die Jets hineinbewegen. Die Ausrichtung der Jets ist zufällig verteilt. Insbesondere gibt es keine bevorzugte Ausrichtung der Jets parallel zum grossräumigen Magnetfeld in der Wolke. Das legt nahe, dass die Rotations- und Symmetrieachse in einem protostellaren System durch zufällige, turbulente Bewegung in der Wolke bestimmt wird. Mögliche Ausströmungsquellen werden für 49 Jets identifiziert; für diese wird der Entwicklungsstand und die bolometrische Leuchtkraft abgeschätzt. Die Jetlänge und die H2 Leuchtkraft entwickeln sich gemeinsam mit der Ausströmungsquelle. Von null startend, dehnen sich die Jets schnell bis auf eine Länge von einigen Parsec aus und werden dann langsam wieder kürzer. Sie sind zuerst sehr leuchtkräftig, die H2 Helligkeit nimmt aber im Lauf der protostellaren Entwicklung ab. Die Längen- und H2 Leuchtkraftentwicklung lässt sich im Wesentlichen durch eine zuerst sehr hohe, dann niedriger werdende Massenausflussrate erklären, die auf eine zuerst sehr hohe, dann niedriger werdende Gasakkretionsrate auf den Protostern schliessen lässt (Akkretion und Ejektion sind eng verknüpft!). Die Längenabnahme der Jets erfordert eine ständig wirkende Abbremsung der Jets. Ein einfaches Modell einer simultanen Entwicklung eines Protosterns, seiner zirkumstellaren Umgebung und seiner Ausströmung (Smith 2000) kann die gemessenen H2- und bolometrischen Leuchtkräfte der Jets und ihrer Quellen reproduzieren, unter der Annahme, dass die starke Akkretionsaktivität zu Beginn der protostellaren Entwicklung mit einer überproportional hohen Massenausflussrate verbunden ist. Im Durchmusterungsgebiet sind 125 dichte Molekülwolkenkerne bekannt (Tatematsu et al. 1993). Jets (bzw. Sterne) entstehen in ruhigen Wolkenkernen, d.h. solchen mit einem niedrigen Verhältnis von interner kinetischer Energie zu gravitativer potentieller Energie; dies sind die Wolkenkerne höherer Masse. Die Wolkenkerne mit Jets haben im Mittel grössere Linienbreiten als die ohne Jets. Dies ist darauf zurückzuführen, dass sie bevorzugt in den massereicheren Wolkenkernen zu finden sind, welche generell eine grössere Linienbreite haben. Es gibt keinen Hinweis auf stärkere interne Bewegungen in Wolkenkernen mit Jets, die durch eine Wechselwirkung der Jets mit den Wolkenkernen erzeugt sein könnte. Es gibt, wie von der Theorie vorausgesagt, eine Beziehung zwischen der Linienbreite der Wolkenkerne und der H2 Leuchtkraft der Jets, wenn Jets von Klasse 0 und Klasse I Protosternen separat betrachtet werden; dabei sind Klasse 0 Jets leuchtkräftiger als Klasse I Jets, was ebenfalls auf eine zeitabhängige Akkretionsrate mit einer frühzeitigen Spitze und einem darauffolgenden Abklingen hinweist. Schliesslich wird die Rückwirkung der Jetpopulation auf eine Molekülwolke unter der Annahme strikter Vorwärtsimpulserhaltung betrachtet. Die Jets können auf der Skala einer ganzen Riesenmolekülwolke und auf den Skalen von Molekülwolkenkernen nicht genügend Impuls liefern, um die abklingende Turbulenz wieder anzuregen. Auf der mittleren Skala von molekularen Klumpen, mit einer Grösse von einigen parsec und Massen von einigen hundert Sonnenmassen liefern die Jets jedoch genügend Impuls in hinreichend kurzer Zeit, um die Turbulenz “am Leben zu erhalten” und können damit helfen, einen Klumpen gegen seinen Kollaps zu stabilisieren.
1. Die Deacetylierung von crabshell – Chitosan führte gleichzeitig zu einem drastischen Abfall der mittleren viscosimetrischen Molmasse ( Mv), insbesondere wenn die Temperatur und die Konzentration an NaOH erhöht werden. Diese Parameter beeinflussten jedoch nicht den Grad der Deacetylierung (DD). Wichtig ist jedoch die Quelle des Ausgangsmaterials: Chitin aus Pandalus borealis ist ein guter Rohstoff für die Herstellung von Chitosan mit niedrigem DD und gleichzeitig hoher mittlerer Mv, während Krill-Chitin (Euphausia superba) ein gutes Ausgangsmaterial zur Herstellung von Chitosan mit hohem DD und niedrigem Mv ist. Chitosan, das aus Insekten (Calliphora erythrocephala), unter milden Bedingungen (Temperatur: 100°C, NaOH-Konzentration: 40 %, Zeit: 1-2h ) hergestellt wurde, hatte die gleichen Eigenschaften hinsichtlich DD und Mv wie das aus Krill hergestellte Chitosan. Der Bedarf an Zeit, Energie und NaOH ist für die Herstellung von Insekten-Chitosan geringer als für crabshell-Chitosan vergleichbare Resultaten für DD und Mv. 2. Chitosan wurde durch den Schimmelpilz Aspergillus fumigatus zu Chitooligomeren fermentiert. Die Ausbeute beträgt 25%. Die Chitooligomere wurden mit Hilfe von HPLC und MALDI-TOF-Massenspektrmetrie identifiziert. Die Fermentationsmischung fördert die Immunität von Pflanzen gegen Bakterien und Virusinfektion. Die Zunahme der Immunität schwankt jedoch je nach System Pflanze-Pathogen. Die Fermentation von Chitosan durch Aspergillus fumigatus könnte eine schnelle und billige Methode zur Herstellung von Chitooligomeren mit guter Reinheit und Ausbeute sein. Eine partiell aufgereinigte Fermentationsmischung dieser Art könnte in der Landwirtschaft als Pathogeninhibitor genutzt werden. Durch kontrollierte Fermentation, die Chitooligomere in definierter Zusammensetzung (d.h. definierter Verteilung des Depolymerisationsgrades) liefert, könnte man zu Mischungen kommen, die für die jeweilige Anwendung eine optimale Bioaktivität besitzen. 3. Die aus Chitosan-Dispersionen hergestellten MCChB-Filme weisen bessere mechanische Eigenschaften (Bruchfestigkeit, Dehnung) und eine höhere Wasseraufnahmefähigkeit auf als Filme, die nach herkömmlichen Methoden aus sauerer Lösung hergestellt werden. Die Einführung von Proteinen ändert die mechanischen Eigenschaften der MCChB-Filme abhängig von der Art, der Proteine sowie des DD und der Mv des eingesetzte Chitosan. Die Zugabe von Protein beschleunigt den biologischen Abbau der MCChB-Filme. Aus den untersuchten MCChB-Filmen mit Proteinzusatz können leichte, reißfeste und dennoch elastische Materialen hergestellt werden. 4. Mit Hilfe von MCChB-Dispersion kann Papier modifiziert werden. Dadurch werden die mechanischen Eigenschaften verbessert und die Wasseraufnahme wird verringert. Die Zugabe von Proteinen verringert das Wasseraufnahmevermögen noch weiter. Ein geringes Wasseraufnahmevermögen ist der bedeutendste Faktor bei der Papierherstellung. Auch Papier, das mit einem MCChB-Protein-Komplexe modifiziert wurde, zeigt gute mechanische Eigenschaften. 5. Wird Chitosan durch unmittelbare Einführung von MCChB auf Cellulose-Fasern aufgebracht, so erhält man eine netzartige Struktur, während durch Ausfällung aufgebrachtes Chitosan eine dünne Schicht auf den Cellulose-Fasern bildet. Die netzartige Struktur erleichtert die Bioabbaubarkeit, während die Schichtstruktur diese erschwert. 6. Die guten mechanischen Eigenschaften, die geringe Wasseraufnahmefähigkeit und die mit Cellulose vergleichbare Bioabbaubarkeit von Papier, das mit MCChB modifiziert wurde, lassen MCChB für die Veredlung von Papier nützlich erscheinen.
In dieser Arbeit wird die Beschichtung von kolloidalen Templaten mit Hilfe der Layer-by-layer Technik beschrieben. Mit ihr ist es möglich, die Oberfläche der Template mit sehr dünnen und gut definierten Filmen zu versehen. Durch Auflösung der Template werden Kapseln hergestellt, die je nach Zusammensetzung der Beschichtung unterschiedliche Eigenschaften aufweisen.
In dieser Arbeit wurden zwei Themenbereiche bearbeitet: 1. Ellipsometrie an Adsorpionsschichten niedermolekularer Tenside an der Wasser/Luft-Grenzfläche (Ellipsometrie ist geeignet, adsorbierte Mengen von nicht- und zwitterionischen Tensiden zu messen, bei ionischen werden zusätzlich die Gegenionen mit erfaßt; Ellipsometrie mißt sich ändernde Gegenionenverteilung). 2. Ellipsometrische Untersuchung von endadsorbierten Polymerbürsten an der Wasser/Öl-Grenzfläche (Ellipsometrie ist nicht in der Lage, verschiedene Segmentkonzentrationsprofile innerhalb der Bürste aufzulösen, ist aber sehr wohl geeignet, Skalengesetze für Dicken und Drücke in Abhängigkeit von Ankerdichte und Kettenlänge der Polymere zu überprüfen; für in Heptan gequollene Poly-isobuten-Bürsten konnte gezeigt werden, daß sie sich entsprechend den theoretischen Vorhersagen für Bürsten in einem theta-Lösungsmittel verhalten)
Als Grundlage vieler statistischer Verfahren wird der Prozess der Entstehung von Daten modelliert, um dann weitere Schätz- und Testverfahren anzuwenden. Diese Arbeit befasst sich mit der Frage, wie diese Spezifikation für parametrische Modelle selbst getestet werden kann. In Erweiterung bestehender Verfahren werden Tests mit festem Kern eingeführt und ihre asymptotischen Eigenschaften werden analysiert. Es wird gezeigt, dass die Bestimmung der kritischen Werte mit mehreren Stichprobenwiederholungsverfahren möglich ist. Von diesen ist eine neue Monte-Carlo-Approximation besonders wichtig, da sie die Komplexität der Berechnung deutlich verringern kann. Ein bedingter Kleinste-Quadrate-Schätzer für nichtlineare parametrische Modelle wird definiert und seine wesentlichen asymptotischen Eigenschaften werden hergeleitet. Sämtliche Versionen der Tests und alle neuen Konzepte wurden in Simulationsstudien untersucht, deren wichtigste Resultate präsentiert werden. Die praktische Anwendbarkeit der Testverfahren wird an einem Datensatz zur Produktwahl dargelegt, der mit multinomialen Logit-Modellen analysiert werden soll.
Die Entstehung zeitlich veränderlicher kolloidaler Strukturen in wäßrigen Calciumphosphat-Dispersionen wurde abgebildet und einer Strukturanalyse unterzogen. Diese wurde durchgeführt unter Einsatz verschiedener bildgebenderund Streumethoden, deren Ergebnisse verglichen wurden. Ziel der Arbeit war es, aus biomineralisierenden Systemen bekannte Prozesse zu vereinfachen und im Experiment nachzustellen. Die gefundenen komplexen hierarchischen Strukturendes Calciumphosphates sind stark von Eigenschaften des Polymerzusatzes abhängig.
In einer Längsschnittstudie mit 215 Schülern der achten Klasse wurde der Zusammenhang zwischen selbstgesteuertem Lernen, motivationalen (Zielorientierungen, Selbstwirksamkeit, schulischer Affekt) und kognitiven Variablen (Intelligenz) sowie Leistungsindikatoren (Schulleistung, Noten) erhoben. Selbstgesteuertes Lernen wurde mit Hilfe eines strukturierten Interviews (Zimmerman, 1986) und eines Lernstrategie-Fragebogens erfasst. Zum einen zeigte sich, dass die Lernstrategie-Angaben im Interview und im Fragebogen in keiner bedeutsamen Beziehung zueinander standen. Zum anderen ergaben sich deutliche Unterschiede in der Vorhersage der Leistungsindikatoren. Die per Interview erfassten Lernstrategien besaßen sowohl Vorhersagekraft bezüglich Schulnoten und Schulleistung und zeigten signifikante Zusammenhänge zu den individuellen Zielorientierungen, dem schulischen Affekt und der Selbstwirksamkeit. Darüber hinaus konnten Leistungsveränderungen von der achten zur neunten Klasse vorhergesagt werden. Der parallel eingesetzte Lernstrategie-Fragebogen leistete im Vergleich dazu keine Erklärung der Leistungsvarianz. Implikationen für die Diagnostik selbstgesteuerten Lernens werden diskutiert.
Untersuchungsgebiet ist das heutige Bundesland Brandenburg. In diesem Raum werden von alters her germanische und slawische, seit dem Mittelalter a uch niederdeutsche (= plattdeutsche) und hochdeutsche Mundarten gesprochen. Mit der Industrialisierung im 19. Jahrhundert breitete sich die Stadtsprache Berlins als Umgangssprache auch in Brandenburg aus und trat vielerorts an die Stelle der alten Mundarten (= Dialekte). Dieser Vorgang dauert bis heute an. Das Forschungsprojekt soll seinen Stand Mitte der 90er Jahre erfassen und so Material für Vergleiche mit älteren und mit zukünftigen Erhebungen liefern. Untersuchungsmethode: Erhebung sprachlicher Daten und Ermittlung von Einstellungen zur Sprache mittels eines Fragebogens, der in einer Auflage von 8.000 Stück über Schulen, Pfarrämter, Heimatpfleger, freiwillige Helfer und Studierende der Universität Potsdam im ganzen Land Brandenburg verteilt wurde. Im Februar 1996 wurden zudem in ausgewählten Regionen insgesamt 20 Tonbandaufnahmen von Sprechern unterschiedlicher Mundarten und auch des Berlinischen als aktueller Umgangssprache aufgezeichnet. Erhebungszeitraum: Pilotstudie 1994, Erhebung 1995, Nacherhebung und Sprachaufnahmen 1996
Das nationale Recht wird mehr und mehr durch EG-Recht beeinflussst. In diesem Zusammenhang ergeben sich bei denjenigen EG-Rechtsakten, die anders als EG-Verordnungen nicht unmittelbar in den Mitgliedstaaten gelten, sondern von diesen in nationales Recht umgesetzt werden müssen, vielfältige Probleme. Diese Probleme behandelt der Verfasser aus der Sicht des Anwalts in einer Weise, dass diejenigen, die sich in der Praxis mit derartigen Umsetzungsfragen zu beschäftigen haben, wertvolle Hinweise für eine konkret zu lösende Umsetzungsproblematik erhalten. Ergänzt und damit noch transparenter werden seine Lösungsvorschläge dadurch, dass der Verfasser sie im zweiten Teil der Untersuchung auf die konkrete Fragestellung anwendet, inwieweit es zu einer Umsetzung bzw. ordnungsgemäßen Umsetzung der in den Jahren 1988 bis 2001 erlassenen Fleischhygienegebührenrechtsakte der EG gekommen ist. Diese Arbeit wurde betreut von Professor Dr. D.C. Umbach an der Universität Potsdam. Aus dem Inhalt: Abgrenzung der Umsetzungszuständigkeit zwischen Bund und Ländern. Anforderungen an das Vorliegen eines Umsetzungsaktes sowie an eine ordnungsgemäße Umsetzung. Rechtsfolgen bei Umsetzungsverstößen. Prozessuale Fragen.
Mit dem Übergang zum digitalen Medium haben sich die Bezugsstrukturen und das Angebot an elektronischer Fachinformation in den Bibliotheken nachhaltig verändert. In den vorliegenden Untersuchungen wird das Angebot elektronischer Zeitschriften und Datenbanken und die Nutzung elektronischer Zeitschriften in fünf ausgewählten Fachgebieten und in unterschiedlichen Bibliothekstypen dargelegt. Darüber hinaus werden die derzeitigen Bezugsstrukturen beschrieben sowie die Ergebnisse einer Befragung der Konsortien zu Zielsetzungen, Vertragsformen und Geschäftsmodellen dargestellt. Chancen und Risiken der konsortialen Bezugsform werden erörtert.
Die vorliegende Arbeit beschäftigt sich mit der Synthese und den Eigenschaften von doppelthydrophilen Blockcopolymeren und ihrer Anwendung in einem biomimetischen Mineralisationsprozeß von Calciumcarbonat und Bariumsulfat. Doppelthydrophile Blockcopolymere bestehen aus einem hydrophilen Block, der nicht mit Mineralien wechselwirkt und einem zweiten Polyelektrolyt-Block, der stark mit Mineraloberflächen wechselwirkt. Diese Blockcopolymere wurden durch ringöffnende Polymerisation von N-carboxyanhydriden (NCA′s) und a-methoxy-ω-amino[poly(ethylene glycol)] PEG-NH2 als Initiator hergestellt. Die hergestellten Blockcopolymere wurden als effektive Wachstumsmodifikatoren für die Kristallisation von Calciumcarbonat und Bariumsulfat Mineralien eingesetzt. Die so erhaltenen Mineralpartikel (Kugeln, Hantel, eiförmige Partikel) wurden durch Lichtmikroskopie in Lösung, SEM und TEM charakterisiert. Röntgenweitwinkelstreuung (WAXS) wurde verwendet, um die Modifikation von Calciumcarbonat zu ermitteln und die Größe der Calciumcarbonat- und Bariumsulfat-Nanopartikel zu ermitteln.
Gegenstand der Arbeit sind die protestantischen Landprediger der Kurmark Brandenburg in der zweiten Hälfte des 18. Jahrhunderts. Die Landprediger standen zu dieser Zeit in schlechtem Ruf, indem sie von der gebildeten Öffentlichkeit für "verbauert" gehalten wurden. Sie versuchten ihre Zugehörigkeit zum aufgeklärten Bürgertum unter Beweis zu stellen, nicht zuletzt indem sie "Volksaufklärung" betrieben. Auf der Grundlage breiten archivalischen Materials werden die kulturellen, sozialen und ökonomischen Umstände beleuchtet, unter denen die Landprediger als Träger der Volksaufklärung agierten. In Rede stehen die Einkünfte, die Ausbildung in der Schule und an der Universität zu Halle/Saale, Herkunft und Karrierewege, das Kirchenpatronat, das Verhältnis zum preußischen Staat, der Pfarrer in der Sicht der Dorfgemeinde, der Pfarrer als Volksaufklärer.
Im Mittelpunkt des Beitrags steht die Frage, wie sich der Allgemeine Europäische Referenzrahmen mit sechs Stufen und die vier Kompetenzniveaus des UNIcert-Systems aufeinander beziehen lassen. Der Beitrag möchte als ein Angebot an die zuständigen Institutionen des Europarats aufgefaßt werden, den Allgemeinen Europäischen Referenzrahmen unter Einbeziehung des hochschulspezifischen Fremdsprachenunterrichts weiterzuentwickeln. Es müssen Überlegungen zu Beschreibungsparametern, die eine angemessene Progression unter Vermeidung großer Sprünge gewährleisten, angestellt werden. Durch die Einbeziehung von UNIcert könnte die internationale Vergleichbarkeit von Fremdsprachenausbildung und -zertifizierung auch auf dem Hochschulsektor vorangetrieben werden. Für UNIcert würde dies einen wichtigen Schritt von der Transparenz und Kohärenz im nationalen Rahmen zu einer größeren Konvergenz des universitären Sprachenlernens auf europäischer Ebene bedeuten.
Das Forschungsprojekt 'Sach-, Methoden- und Sozialkompetenz von Schülerinnen und Schülern der Jahrgangsstufen 5 und 6 an Grundschulen in Brandenburg' stellt eine kooperative fachdidaktische Untersuchung der Fächer Arbeitslehre, Biologie, Deutsch, Mathematik und Kunst dar. Problem- und Fragestellungen richten sich auf eine IST-STANDS-FESTSTELLUNG von ausgewählten Teilleistungen der Schüler, die auf Kompetenz hinweisen. Die Ergebnisse weisen einerseits allgemeine Merkmale von Kompetenz in den Jahrgangsstufen 5 und 6 und differenzierte fachspezifische Hinweise auf Kompetenz zum Zeitpunkt der Erhebung aus.