Refine
Year of publication
Document Type
- Article (13976)
- Monograph/Edited Volume (4232)
- Doctoral Thesis (3275)
- Review (1599)
- Postprint (927)
- Part of a Book (788)
- Part of Periodical (459)
- Other (271)
- Master's Thesis (198)
- Working Paper (83)
Language
- German (26139) (remove)
Keywords
- Deutschland (127)
- Germany (98)
- Sprachtherapie (77)
- Logopädie (73)
- Patholinguistik (73)
- patholinguistics (73)
- Zeitschrift (72)
- Europäische Union (58)
- Nachhaltigkeit (58)
- European Union (57)
Institute
- Historisches Institut (2211)
- Wirtschaftswissenschaften (1775)
- Sozialwissenschaften (1434)
- Institut für Romanistik (1303)
- Institut für Germanistik (1270)
- Bürgerliches Recht (1260)
- Department Erziehungswissenschaft (1245)
- MenschenRechtsZentrum (1080)
- Öffentliches Recht (1031)
- Institut für Jüdische Studien und Religionswissenschaft (975)
Neue Einflüsse und Anwendungen von Mikrowellenstrahlung auf Miniemulsionen und ihre Kompositpolymere
(2004)
Miniemulsionen bestehen aus zwei miteinander nicht mischbaren Flüssigkeiten, von der die eine in Form kleiner Tröpfchen fein in der anderen verteilt (dispergiert) ist. Miniemulsionströpfchen sind mit Durchmessern von ungefähr 0,1 Mikrometer kleiner als herkömmliche Emulsionen und können u. a. als voneinander unabhängige Nanoreaktoren für chemische Reaktionen verwendet werden. Man unterteilt sie in direkte Miniemulsionen, in denen ein Öl in Wasser dispergiert ist, und inverse Miniemulsionen, in denen Wasser in Öl dispergiert wird. In dieser Arbeit wird das besondere chemische und physikalische Verhalten solcher Miniemulsionen unter dem Einfluß von Mikrowellenstrahlung untersucht. Dabei werden sowohl für Öl-in-Wasser als auch für Wasser-in-Öl-Miniemulsionen grundlagenwissenschaftliche Entdeckungen beschrieben und durch neue Modelle erklärt. Der praktische Nutzen dieser bislang unbeschriebenen Effekte wird durch ingenieurwissenschaftliche Anwendungsbeispiele im Bereich der Polymerchemie verdeutlicht. 1. Polymerisation mit "überlebenden Radikalen" (Surviving Radical Polymerization) Für die Herstellung von sog. Polymerlatizes (Kunststoffdispersionen, wie sie u. a. für Farben verwendet werden) aus direkten Styrol-in-Wasser Miniemulsionen werden die Styroltröpfchen als Nanoreaktoren verwendet: Sie werden mit Hilfe von Radikalen durch eine Kettenreaktion zu winzigen Polymerpartikeln umgesetzt, die im Wasser dispergiert sind. Ihre Materialeigenschaften hängen stark von der Kettenlänge der Polymermoleküle ab. In dieser Arbeit konnten durch den Einsatz von Mikrowellenstrahlung erstmals große Mengen an Radikalen erzeugt werden, die jeweils einzeln in Tröpfchen (Nanoreaktoren) auch noch lange Zeit nach dem Verlassen der Mikrowelle überleben und eine Polymerisationskettenreaktion ausführen können. Diese Methode ermöglicht nicht nur die Herstellung von Polymeren in technisch zuvor unerreichbaren Kettenlängen, mit ihr sind auch enorm hohe Umsätze nach sehr kurzen Verweilzeiten in der Mikrowelle möglich – denn die eigentliche Reaktion findet außerhalb statt. Es konnte gezeigt werden, dass durch Einsatz von Zusatzstoffen bei unvermindert hohem Umsatz die Polymerkettenlänge variiert werden kann. Die technischen Vorzüge dieses Verfahrens konnten in einer kontinuierlich betriebenen Pilotanlage nachgewiesen werden. 2. Aufheizverhalten inverser Miniemulsionen in Mikrowellenöfen Das Aufheizverhalen von Wasser-in-Öl Miniemulsionen mit kleinen Durchmessern durch Mikrowellen ist überaus träge, da sich nur das wenige Wasser in den Tröpfchen mit Mikrowellen aufheizen lässt, das Öl jedoch kaum. Solche Systeme verhalten sich gemäß der "Theorie des effektiven Mediums". Werden aber etwas größere Tröpfchen im Mikrometerbereich Mikrowellen ausgesetzt, so konnte eine wesentlich schnellere Aufheizung beobachtet werden, die auf eine Maxwell-Wagner-Grenzflächenpolarisation zurückgeführt werden kann. Die Größenabhängigkeit dieses Effekts wurde mit Hilfe der dielektrischen Spektroskopie quantifiziert und ist bislang in der Literatur nie beschrieben worden. Zur genauen Messung dieses Effekts und zu seiner technischen Nutzung wurde ein neuartiges Membranverfahren für die Herstellung von großen Miniemulsionströpfchen im Mikrometerbereich entwickelt. 3. Herstellung von Kompositpolymeren für Mikrowellenanwendungen Um die untersuchte Maxwell-Wagner-Grenzflächenpolarisation technisch nutzen zu können, wurden als dafür geeignete Materialien Kompositpolymere hergestellt. Das sind Kunststoffe, in denen winzige Wassertropfen oder Keramikpartikel eingeschlossen sind. Dazu wurden neuartige Synthesewege auf der Grundlage der Miniemulsionstechnik entwickelt. Ihr gemeinsames Ziel ist die Einschränkung der üblicherweise bei Polymerisation auftretenden Entmischung: In einem Verfahren wurde durch Gelierung die Beweglichkeit der emulgierten Wassertröpfchen eingeschränkt, in einem anderen wurde durch das Einschließen von Keramikpartikeln in Miniemulsionströpfchen die Entmischung auf deren Größe beschränkt. Anwendungen solcher Kompositpolymere könnten künstliche Muskeln, die Absorption von Radarstrahlung, z. B. für Tarnkappenflugzeuge, oder kratzfeste Lacke sein.Bei diesen Experimenten wurde beobachtet, daß sich u. U. in der Miniemulsion große Tröpfchen bilden. Ihr Ursprung wird mit einer neuen Modellvorstellung erklärt, die die Einflüsse auf die Stabilität von Miniemulsionen beschreibt.
Die Fusion von Membranen ist ein entscheidender Prozeß bei der Entwicklung von Zellen im Körper. Beispielsweise ist sie eine der Voraussetzungen bei der Befruchtung einer Eizelle durch ein Spermium oder für das Eindringen von Viren in eine Zelle. Membranfusion ist auch notwendig für den Stofftransport in die Zelle hinein oder aus ihr heraus. Die Membranfusion ist daher auch von praktischen Interesse auf den Gebieten der Pharmazeutik und des 'Bioengineering'. Oft muss eine Membran mit der infiziertin Zelle fusionieren, um ein Medikament an sein Zeil zu bringen. Deshalb ist ein Verständnis der Membranfusion von großem Interesse für die Entwicklung von gezielten und effizienten Methoden des 'drug delivery'. Dasselbe gilt für die gezielte Zufuhr von Genen bei der Gentherapie. Obwohl die Membranfusion schon vor nahezu 200 Jahren von dem deutschen Biologen und Mediziner Johannes Müller beobachtet wurde, liegt ein vollständiges Verständnis des Fusionsprozesses von Zellen und (Modell-) Membranen auch heute noch in weiter Ferne. Allerdings hat im letzten Jahrzehnt das Interesse für dieses Forschungsgebiet stark zugenommen. Wissenschaftler der unterschiedlichsten Disziplinen arbeiten daran, die Mechanismen der Membranfusion aufzudecken. Biologen untersuchen Proteine, die die Fusion auslösen, Chemiker entwickeln Moleküle, die die Fusion erleichtern, und Physiker versuchen die Antriebsmechanismen der Membranfusion zu verstehen. Neue Mikroskopietechniken und die hohe Rechenleistung moderner Computer helfen die molekulare und die makroskopische Welt der Membranfusion in einem Bild zusammenzufügen. Für unsere Untersuchungen haben wir Modellmembranen, die aus Lipiddoppelschichten bestehen, benutzt. Diese Membranen formen sogenannte Vesikel oder Liposomen, abgeschlossene Membrane, in denen eine bestimmte Menge an Flüssigkeit enthalten ist. Indem wir Rezeptoren in die Membran einbringen, schaffen wir funkionalisierte Vesikel, die sich differenzieren, kooperieren und selektiv reagieren können. Wir benutzen positiv geladene wasserlösliche Ionen, um Wechselwirkungen zwischen den Vesikeln zu vermitteln, und lassen die Rezeptoren und die Ionen den Fusionsprozess auslösen. Die Wechselwirkungen werden unter dem Mikroskop durch spezielle Mikromechanischn Gerätz Mikromechinerien kontrolliert. Mit Hilfe einer sehr schnellen digitale Bildaufnahmetechnik ist es uns gelungen, die Fusion unserer Modellmembranen aufzunehmen und in Echtzeit zu dokumentieren mit einer Auflösung von 50 µs. Unsere Messungen können vergleichen werden mit Computersimulationen des Fusionsprozesses. Diese Simulationen untersuchen Prozesse, die zwischen 0.1 und 1 Mikrosekunde dauern. Eine Herausforderung für die Zukunft wird es sein, die Lücke zwischen den in Experimenten (50µs) und den in Simulationen zugänglichen Zeitskalen von beiden Seiten her zu schließen.
Statistik Lernen im Rahmen des Psychologiestudiums wurde als Untersuchungsgegenstand zur empirischen Überprüfung der angenommenen Wirkung volitionaler Handlungsregulation herangezogen. Neben fähigkeitsbezogenen und motivationalen Faktoren sollten bei dieser von vielen Studierenden aversiv erlebten Tätigkeit die Aspekte der volitionalen Handlungsregulation entscheidend sein. Nur Personen, die sich trotz des aversiven Tätigkeitserlebens zum Statistik Lernen "zwingen" können, sollten erfolgreich sein. Auf dem Hintergrund des Prozessmodells der Lernmotivation wurden die angenommenen Wirkungen der volitionalen Faktoren denen der motivationalen Einflussgrößen zugeordnet und in einem längsschnittlichen Design an zwei aufeinander folgenden Wintersemestern an der Universität Potsdam und an der TU Berlin empirisch überprüft (N = 273). Die Annahmen zu den fähigkeits- und motivationsrelevanten Faktoren des analyseleitenden Prozessmodells der Lernmotivation konnten weitgehend bestätigt werden. Die Personenmerkmale (fähigkeitsbezogene Merkmale, Leistungsmotiv und Commitment für das Psychologiestudium) bedingen zu einem wesentlichen Teil die Aspekte der aktuellen Motivation für das Statistik Lernen. Letztere wurde durch die Komponenten des Erweiterten Kognitiven Motivationsmodells (EKM) und anhand der Lernintentionen erfasst. Dabei zeigt sich, dass die aktuelle Motivation für das Statistik Lernen insgesamt günstig ausgeprägt ist. Die Aspekte der aktuellen Motivation beeinflussen wiederum Prozessvariablen wie den Lernaufwand, das emotionale Erleben und den Funktionszustand während des Lernens. Der Lernaufwand und das Flow-Erleben (als Indikator für den Funktionszustand) sowie deren Interaktion sagen die Klausurleistung am Ende des Semesters vorher (dies auch, wenn fähigkeitsbezogene Merkmale mit berücksichtigt werden). Vor dem Hintergrund des insgesamt theoriekonsistenten Gesamtbildes ergeben sich dennoch einige Abweichungen von den theoretischen Annahmen. Diese werden eingehend diskutiert. Entgegen der zentralen Annahme, tragen die dem Prozessmodell der Lernmotivation zugeordneten volitionalen Faktoren insgesamt betrachtet kaum zu einem weitergehenden Verständnis des Lernprozesses bei. Die theoretischen Annahmen können weitgehend nicht bestätigt werden. So sagen die volitionalen Faktoren nicht, wie angenommen, bei hoher instrumenteller Handlungsveranlassung und gleichzeitig aversivem Tätigkeitserleben Prozessmerkmale des Lernens vorher. Ausführlich diskutiert wird, inwieweit dies auf falsche theoretische Annahmen oder auf eine mangelnde Operationalisierung und Auswertung zurück geht. Zusätzlich zum Prozessmodell der Lernmotivation wurden weitergehende Annahmen zur Wirkung des impliziten und expliziten Leistungsmotivs überprüft. Dabei zeigt sich erwartungsgemäß, dass sich das implizite Leistungsmotiv beim Statistik Lernen bei einer individuellen Bezugsnorm förderlich auswirkt. Die moderierende Wirkung der sozialen Bezugsnorm für das explizite Leistungsmotiv kann anhand der vorliegenden Daten nicht bestätigt werden. Für das implizite Leistungsmotiv zeigt sich über die Annahmen hinaus eine förderliche Wirkung auf die Klausurteilnahme. Für Personen mit einem hohen impliziten Leistungsmotiv findet sich eine höhere Wahrscheinlichkeit, die Klausur mitzuschreiben. Dieser Befund macht den in der Leistungsmotivationsforschung gefundenen Zusammenhang zwischen Leistungsmotiv und Karriereerfolg "im Kleinen" verständlich. Theoretische Arbeiten legen nahe, dass die volitionale Handlungssteuerung nicht eine unabhängige, sondern eine zum Teil von dem Zusammenwirken der impliziten und expliziten Motivsysteme abhängige Größe darstellt. Für das Leistungsmotiv konnte dies bestätigt werden. So wirkt sich eine hohe Ausprägung des expliziten Leistungsmotivs dann positiv auf die volitionale Handlungssteuerung aus, wenn das implizite Leistungsmotiv hoch ausgeprägt ist. Die Ergebnisse bei den Machtmotivsystemen zeigen, dass nicht immer eine Übereinstimmung der Motive förderlich ist. Eine funktionale Perspektive scheint hier angemessen und weiterführend. Die Arbeit schließt mit der Frage, welche Motivkonstellationen im Sinne einer volitionalen Handlungssteuerung ideal sind. Dabei wird postuliert, dass das Wissen über implizite Vorlieben einer Person helfen sollte, für sie passende Situationen aktiv aufzusuchen oder herzustellen und dadurch eine volitionale Handlungssteuerung besser gelingt sowie diese Art der Steuerung weniger nötig macht.
Zur Beherrschung großer Systeme, insbesondere zur Weitergabe und Nutzung von Erfahrungswissen in der frühen Entwurfs- und Planungsphase, benötigt man Abstraktionen für deren Strukturen. Trennt man Software- von Systemstrukturen, kann man mit letzteren Systeme auf ausreichend hohem Abstraktionsgrad beschreiben.Software-Patterns dienen dazu, Erfahrungswissen bezüglich programmierter Systeme strukturiert weiterzugeben. Dabei wird unterschieden zwischen Idiomen, die sich auf Lösungen mit einer bestimmten Programmiersprache beziehen, Design-Patterns, die nur einen kleinen Teil des Programms betreffen und Architektur-Patterns, deren Einfluss über einen größeren Teil oder gar das komplette Programm reicht. Eine Untersuchung von existierenden Patterns zeigt, dass deren Konzepte nützlich zum Finden von Systemstrukturen sind. Die grafische Darstellung dieser Patterns ist dagegen oft auf Software-Strukturen eingeschränkt und ist für die Vermittlung von Erfahrungen zum Finden von Systemstrukturen meist nicht geeignet. Daher wird die Kategorie der konzeptionellen Patterns mit einer darauf abgestimmten grafischen Darstellungsform vorgeschlagen, bei denen Problem und Lösungsvorschlag im Bereich der Systemstrukturen liegen. Sie betreffen informationelle Systeme, sind aber nicht auf Lösungen mit Software beschränkt. Die Systemstrukturen werden grafisch dargestellt, wobei dafür die Fundamental Modeling Concepts (FMC) verwendet werden, die zur Darstellung von Systemstrukturen entwickelt wurden.
Ziel der vorliegenden Arbeit war die Entwicklung einer SNP-Genotypisierungsmethode mit auf Mikroarrays immobilisierten PCR-Produkten. Für die Analyse wurde ein faseroptischer Affinitätssensor bzw. ein Durchfluss-Biochip-Scanner mit integrierter Fluoreszenzdetektion verwendet. An den immobilisierten Analyten (PCR-Produkten) wurde eine Fluoreszenzoligonukleotidsonde hybridisiert und anschließend die Dissoziation der Sonde im Fluss verfolgt. Die Diskriminierung von Wildtyp- und Mutanten-DNA erfolgte durch die kinetische Auswertung der Dissoziationskurven sowie durch die Analyse der Fluoreszenzintensität. Die Versuche am faseroptischen Affinitätssensor zeigten, dass DNA-DNA-Hybride sowohl von Oligonukleotiden als auch von PCR-Produkten ein typisches Dissoziationsverhalten aufweisen, wobei fehlgepaarte Hybride eine signifikant schnellere Dissoziation zeigen als perfekt passende Hybride. Dieser Geschwindigkeitsunterschied lässt sich durch den Vergleich der jeweiligen kinetischen Geschwindigkeitskonstanten kD quantitativ erfassen. Da die Kopplung des Analyten an der Chipoberfläche sowie die Hybridisierungs- und Dissoziationsparameter essentiell für die Methodenentwicklung war, wurden die Parameter für ein optimales Spotting und die Immobilisierung von PCR-Produkten ermittelt. Getestet wurden die affine Kopplung von biotinylierten PCR-Produkten an Streptavidin-, Avidin- und NeutrAvidin-Oberflächen sowie die kovalente Bindung von phosphorylierten Amplifikaten mit der EDC/Methylimidazol-Methode. Die besten Ergebnisse sowohl in Spotform und -homogenität als auch im Signal/Rausch-Verhältnis wurden an NeutrAvidin-Oberflächen erreicht. Für die Etablierung der Mikroarray-Genotypisierungsmethode durch kinetische Analyse nach einem Hybridisierungsexperiment wurden Sondenlänge, Puffersystem, Spotting-Konzentration des Analyten sowie Temperatur optimiert. Das Analysensystem erlaubte es, PCR-Produkte mit einer Konzentration von 250 ng/µl in einem HEPES-EDTA-NaCl-Puffer auf mit NeutrAvidin beschichtete Glasträger zu spotten. In den anschließenden Hybridisierungs- und Dissoziationsexperimenten bei 30 °C konnte die Diskriminierung von homocygoter Wildtyp- und homocygoter Mutanten- sowie heterocygoter DNA am Beispiel von Oligonukleotid-Hybriden erreicht werden. In einer Gruppe von 24 homocygoten Patienten wurde ein Polymorphismus im SULT1A1-Gen analysiert. Sowohl durch kinetische Auswertung als auch mit der Analyse der Fluoreszenzintensität wurde der Genotyp der Proben identifiziert. Die Ergebnisse wurden mit dem Referenzverfahren, der Restriktionschnittstellenanalyse (PCR-RFLP) validiert. Lediglich ein Genotyp wurde falsch bestimmt, die Genauigkeit lag bei 96%. In einer Gruppe von 44 Patienten wurde der Genotyp eines SNP in der Adiponectin-Promotor-Region untersucht. Nach Vergleich der Analysenergebnisse mit denen eines Referenzverfahrens konnten lediglich 14 der untersuchten Genotypen bestätigt werden. Ursache für die unzureichende Genauigkeit der Methode war vor allem das schlechte Signal/Rausch-Verhältnis. Zusammenfassend kann gesagt werden, dass das in dieser Arbeit entwickelte Analysesystem für die Genotypisierung von Einzelpunktmutationen geeignet ist, homocygote Patientenproben zuverlässig zu analysieren. Prinzipiell ist das auch bei heterocygoter DNA möglich. Da nach aktuellem Kenntnisstand eine SNP-Analysemethode an immobilisierten PCR-Produkten noch nicht veröffentlicht wurde, stellt das hier entwickelte Verfahren eine Alternative zu bisher bekannten Mikroarray-Verfahren dar. Als besonders vorteilhaft erweist sich der reverse Ansatz der Methode. Der hier vorgestellte Ansatz ist eine kostengünstigere und weniger hoch dimensionierte Lösung für Fragestellungen beispielsweise in der Ernährungswissenschaft, bei denen meist eine mittlere Anzahl Patienten auf nur einige wenige SNPs zu untersuchen ist. Wenn es gelingt, durch die Weiterentwicklung der Hardware bzw. weiterer Optimierung, eine Verbesserung des Signal/Rausch-Verhältnisses und damit die Diskriminierung von heterocygoter DNA zu erreichen, kann diese Methode zukünftig bei der Analyse von mittelgroßen Patientengruppen alternativ zu anderen Genotypisierungsmethoden verwendet werden.
Die vorliegende Arbeit 'Abflußentwicklung in Teileinzugsgebieten des Rheins - Simulationen für den Ist-Zustand und für Klimaszenarien' untersucht Auswirkungen möglicher zukünftiger Klimaänderungen auf das Abflußgeschehen in ausgewählten, durch Mittelgebirge geprägten Teileinzugsgebieten des Rheins: Mosel (bis Pegel Cochem); Sieg (bis Pegel Menden 1) und Main (bis Pegel Kemmern).In einem ersten Schritt werden unter Verwendung des hydrologischen Modells HBV-D wichtige Modellprozesse entsprechend der Einzugsgebietscharakteristik parametrisiert und ein Abbild der Gebietshydrologie erzeugt, das mit Zeitreihen gemessener Tageswerte (Temperatur, Niederschlag) eine Zeitreihe der Pegeldurchflüsse simulieren kann. Die Güte der Simulation des Ist-Zustandes (Standard-Meßzeitraum 1.1.1961-31.12.1999) ist für die Kalibrierungs- und Validierungszeiträume in allen Untersuchungsgebieten gut bis sehr gut.Zur Erleichterung der umfangreichen, zeitaufwendigen einzugsgebietsbezogenen Datenaufbereitung für das hydrologische Modell HBV-D wurde eine Arbeitsumgebung auf Basis von Programmerweiterungen des Geoinformationssystems ArcView und zusätzlichen Hilfsprogrammen entwickelt. Die Arbeitsumgebung HBV-Params enthält eine graphische Benutzeroberfläche und räumt sowohl erfahrenen Hydrologen als auch hydrologisch geschulten Anwendern, z.B. Studenten der Vertiefungsrichtung Hydrologie, Flexibilität und vollständige Kontrolle bei der Ableitung von Parameterwerten und der Editierung von Parameter- und Steuerdateien ein. Somit ist HBV-D im Gegensatz zu Vorläuferversionen mit rudimentären Arbeitsumgebungen auch außerhalb der Forschung für Lehr- und Übungszwecke einsetzbar.In einem zweiten Schritt werden Gebietsniederschlagssummen, Gebietstemperaturen und simulierte Mittelwerte des Durchflusses (MQ) des Ist-Zustandes mit den Zuständen zweier Klimaszenarien für den Szenarienzeitraum 100 Jahre später (2061-2099) verglichen. Die Klimaszenarien beruhen auf simulierten Zirkulationsmustern je eines Modellaufes zweier Globaler Zirkulationsmodelle (GCM), die mit einem statistischen Regionalisierungsverfahren in Tageswertszenarien (Temperatur, Niederschlag) an Meßstationen in den Untersuchungsgebieten überführt wurden und als Eingangsdaten des hydrologischen Modells verwendet werden.Für die zweite Hälfte des 21. Jahrhunderts weisen beide regionalisierten Klimaszenarien eine Zunahme der Jahresmittel der Gebietstemperatur sowie eine Zunahme der Jahressummen der Gebietsniederschläge auf, die mit einer hohen Variabilität einhergeht. Eine Betrachtung der saisonalen (monatlichen) Änderungsbeträge von Temperatur, Niederschlag und mittlerem Durchfluß zwischen Szenarienzeitraum (2061-2099) und Ist-Zustand ergibt in allen Untersuchungsgebieten eine Temperaturzunahme (höher im Sommer als im Winter) und eine generelle Zunahme der Niederschlagssummen (mit starken Schwankungen zwischen den Einzelmonaten), die bei der hydrologischen Simulation zu deutlich höheren mittleren Durchflüssen von November bis März und leicht erhöhten mittleren Durchflüssen in den restlichen Monaten führen. Die Stärke der Durchflußerhöhung ist nach den individuellen Klimaszenarien unterschiedlich und im Sommer- bzw. Winterhalbjahr gegenläufig ausgeprägt. Hauptursache für die simulierte starke Zunahme der mittleren Durchflüsse im Winterhalbjahr ist die trotz Temperaturerhöhung der Klimaszenarien winterlich niedrige Evapotranspiration, so daß erhöhte Niederschläge direkt in erhöhten Durchfluß transformiert werden können.Der Vergleich der Untersuchungsgebiete zeigt in Einzelmonaten von West nach Ost abnehmende Änderungsbeträge der Niederschlagssummen, die als Hinweis auf die Bedeutung der Kontinentalitätseinflüsse auch unter geänderten klimatischen Bedingungen in Südwestdeutschland aufgefaßt werden könnten.Aus den regionalisierten Klimaszenarien werden Änderungsbeträge für die Modulation gemessener Zeitreihen mittels synthetischer Szenarien abgeleitet, die mit einem geringen Rechenaufwand in hydrologische Modellantworten überführt werden können. Die direkte Ableitung synthetischer Szenarien aus GCM-Ergebniswerten (bodennahe Temperatur und Gesamtniederschlag) an einzelnen GCM-Gitterpunkten erbrachte unbefriedigende Ergebnisse.Ob, in welcher Höhe und zeitlichen Verteilung die in den (synthetischen) Szenarien verwendeten Niederschlags- und Temperaturänderungen eintreten werden, kann nur die Zukunft zeigen. Eine Abschätzung, wie sich die Abflußverhältnisse und insbesondere die mittleren Durchflüsse der Untersuchungsgebiete bei möglichen Änderungen entwickeln würden, kann jedoch heute schon vorgenommen werden. Simulationen auf Szenariogrundlagen sind ein Weg, unbekannte zukünftige Randbedingungen sowie regionale Auswirkungen möglicher Änderungen des Klimasystems ausschnittsweise abzuschätzen und entsprechende Risikominderungsstrategien zu entwickeln. Jegliche Modellierung und Simulation natürlicher Systeme ist jedoch mit beträchtlichen Unsicherheiten verknüpft. Vergleichsweise große Unsicherheiten sind mit der zukünftigen Entwicklung des sozioökonomischen Systems und der Komplexität des Klimasystems verbunden. Weiterhin haben Unsicherheiten der einzelnen Modellbausteine der Modellkette Emissionsszenarien/Gaszyklusmodelle - Globale Zirkulationsmodelle/Regionalisierung - hydrologisches Modell, die eine Kaskade der Unsicherheiten ergeben, neben Datenunsicherheiten bei der Erfassung hydrometeorologischer Meßgrößen einen erheblichen Einfluß auf die Vertrauenswürdigkeit der Simulationsergebnisse, die als ein dargestellter Wert eines Ergebnisbandes zu interpretieren sind.Der Einsatz (1) robuster hydrologischer Modelle, die insbesondere temperaturbeeinflußte Prozesse adäquat beschreiben,(2) die Verwendung langer Zeitreihen (wenigsten 30 Jahre) von Meßwerten und(3) die gleichzeitige vergleichende Betrachtung von Klimaszenarien, die auf unterschiedlichen GCMs beruhen (und wenn möglich, verschiedene Emissionsszenarien berücksichtigen),sollte aus Gründen der wissenschaftlichen Sorgfalt, aber auch der besseren Vergleichbarkeit der Ergebnisse von Regionalstudien im noch jungen Forschungsfeld der Klimafolgenforschung beachtet werden.
Identifikation des mitochondrialen Proteins Frataxin als stoffwechselmodulierenden Tumorsuppressor
(2004)
Die Krebsentstehung wurde vor rund 80 Jahren auf veränderten zellulären Energiestoffwechsel zurückgeführt. Diese Hypothese konnte bisher weder experimentell bewiesen noch widerlegt werden. Durch den Einsatz zweier Modellsysteme mit unterschiedlicher Expression des mitochondrialen Proteins Frataxin konnte in der vorliegenden Arbeit gezeigt werden, dass der mitochondriale Energiestoffwechsel einen Einfluss auf die Tumorentstehung zu besitzen scheint. Eine Reduktion des mitochondrialen Energiestoffwechsels wurde durch die hepatozytenspezifische Ausschaltung des mitochondrialen Proteins Frataxin in Mäusen erreicht. Der durch das Cre-/loxP-Rekombinasesystem erreichte organspezifische Knock-out wurde auf Transkriptions- und Translationsebene nachgewiesen. Anhand verminderter Aconitaseaktivität, geringeren Sauerstoffverbrauches und reduzierten ATP-Gehaltes im Lebergewebe wurde ein signifikant verminderter Energiestoffwechsel dargestellt. Zwar entsprach die Genotypenverteilung in den Versuchsgruppen der erwarteten Mendelschen Verteilung, dennoch war die mittlere Lebenserwartung der Knock-out-Tiere mit ca. 30 Wochen stark reduziert. Bereits in jungem Alter war bei diesen Tieren die Ausbildung von präneoplastischen Herden zu beobachten. Mit proteinbiochemischen Nachweistechniken konnte in Lebergewebe 4-8 Wochen alter Tiere eine verstärkte Aktivierung des Apoptosesignalweges (Cytochrom C im Zytosol, verstärkte Expression von Bax) sowie eine Modulation stressassoziierter Proteine (geringere Phosphorylierungsrate p38-MAPK, vermehrte Expression HSP-25, verminderte Expression HSP-70) aufgezeigt werden. Im inversen Ansatz wurde eine Steigerung des mitochondrialen Energiestoffwechsels durch stabile transgene Frataxinüberexpression in zwei Kolonkarzinomzelllinien erreicht. Diese Steigerung zeigte sich durch erhöhte Aconitaseaktivität, erhöhten Sauerstoffverbrauch, gesteigertes mitochondriales Membranpotenzial und erhöhten ATP-Gehalt in den Zellen. Die frataxinüberexprimierenden Zellen wuchsen signifikant langsamer als Kontrollzellen und zeigten im Soft-Agar-Assay und im Nacktmausmodell ein deutlich geringeres Potenzial zur Ausbildung von Kolonien bzw. Tumoren. Mittels Immunoblot war hier eine vermehrte Phosphorylierung der p38-MAPK festzustellen. Die zusammenfassende Betrachtung beider Modelle zeigt, dass ein reduzierter mitochondrialer Energiestoffwechsel durch Regulation der p38-MAPK und apoptotischer Signalwege ein erhöhtes Krebsrisiko zu verursachen vermag.
In Anlehnung an das Self-Regulated-Strategy-Development-Modell von Harris und Graham (1996) wurde das Selbstregulatorische Aufsatztraining (SAT) zur Förderung der Schreibkompetenz bei Grundschülern der 4. und 5. Klasse entwickelt. SAT integriert die Vermittlung von Schreibstrategien (hier: „Erzählendes Schreiben“) mit Merkmalen selbstgesteuerten Lernens (Zielsetzung, strategisches Planen, Selbstbewertung und Selbstkorrektur). Die Wirksamkeit des Trainings wurde in drei Studien untersucht: 1. Eine Pilotstudie diente der Überprüfung der prinzipiellen Eignung von SAT zur Förderung von Schreibleistungen bei Grundschülern der 5. Klassen (N = 42) und der Optimierung seiner Teilkomponenten und Vorgehensweisen. 2. In der Hauptuntersuchung wurden die Effektivität und Nachhaltigkeit des SAT-Programms bei Schülern der 4. Klasse (N = 154) im Vergleich zu zwei Bedingungen getestet: (a) der isolierten Einübung von Schreibstrategien (Aufsatztraining) und (b) konventionellem Aufsatzunterricht (Unterrichtskontrollgruppe). 3. In einer weiteren Studie wurde die Wirksamkeit des Trainings speziell bei Schülern mit ungünstigen Lernvoraussetzungen überprüft; die Studie diente zudem der Illustration des dabei gewählten Vorgehens am Einzelfall (N = 6). Die ermittelten Befunde sprechen übereinstimmend dafür, dass die Kombination aus strategischem plus selbstregulatorischem Training (SAT) die stärksten und nachhaltigsten Effekte auf die Schreibleistung erzielt. Der Trainingseffekt generalisiert zudem auf die Erinnerungsleistung bei der freien Wiedergabe einer Kurzgeschichte. Schüler mit schwachen Aufsatzleistungen und ungünstigen Lernvoraussetzungen profitieren von dem SAT-Programm in besonderem Maße. In der Diskussion werden Aufgaben für die zukünftige Forschung erörtert. Forschungsbedarf besteht u.a. hinsichtlich (a) einer stärkeren Verknüpfung von Schreibtrainings mit der kognitionspsychologischen Forschung; (b) der Dekomposition und gezielten Überprüfung der einzelnen Trainingskomponenten; (c) der Ausweitung des SAT-Programms auf andere Textgenre; (d) der Integration verfeinerter Revisionsstrategien in das Förderprogramm; und (e) dessen Implementierung in den Regelunterricht.
Die immunologische Kontrazeption mittels Zona pellucida (ZP) Proteinen gilt als vielversprechender Ansatz für die Reproduktionskontrolle verwilderter Haus- und Wildtierbestände. Da die Applikation von nativer ZP mit Nebenwirkungen verbunden ist, wird die Verwendung einzelner ZP Peptide als Bestandteil kontrazeptiver Vakzine als besonders aussichtsreich erachtet. Das Prinzip dieser nebenwirkungsfreien ZP Immunisierung ist die gezielte Trennung der Entzündungsreaktionen auslösenden T-Zell-Epitope der ZP von den kontrazeptiv wirkenden B-Zell-Epitopen. Niedermolekulare synthetische oder rekombinante Peptide allein sind gering immunogen und können somit keine ausreichende Immunantwort induzieren. Die Verwendung von Peptiden für die immunologische Kontrazeption erfordert daher ein „Vakzin-Design“, d. h. die gezielte Kombination der Peptide mit immunstimulierenden Substanzen (Liposomen, Carrierproteinen, Adjuvantien). Zielstellung der vorliegenden Arbeit war die Untersuchung des Potentials synthetischer Peptide für die Immunokontrazeption von verwilderten Hauskatzen (Felis catus). Dazu wurden zunächst relevante B-Zell-Epitope des felinen Zona pellucida Proteins, ZPB2, identifiziert und synthetisiert. Zwei der synthetischen Peptide (P3, P6) wurden zur Herstellung von Antikörpern an BSA konjugiert und zusammen mit Freundschem Adjuvans in Ratten verimpft. Die kontrazeptive Relevanz beider Peptide sowie der Ratten Anti-Peptid Antiseren wurde im in vitro Befruchtungssystem der Hauskatze geprüft. Zur Untersuchung der Immunogenität der Peptide in der Zielspezies Hauskatze erfolgte die Entwicklung von Vakzin-Prototypen für die einmalige Applikation. Neben der Eruierung der Stärke und Dauer der Immunantwort wurde durch Verpaarung der Tiere auch das kontrazeptive Potential in vivo abgeschätzt.
Gegenstand der Arbeit ist die lichtinduzierte Orientierung von multifunktionalen Polymeren, die u.a. für die Herstellung von optischen Schichten in Flüssigkristalldisplays verwendet werden können. Dafür wurden Polymere entwickelt, die wenigstens eine mesogene und eine lichtsensitive Gruppe enthalten. Diese Gruppen zeigen Eigenschaften, die für die Orientierung der kompletten Polymerfilme verantwortlich sind. Das Material wird dafür zunächst in einem ersten Schritt kurz mit linear polarisiertem Licht bestrahlt, wobei richtungsabhängig eine photochemische Reaktion an der lichtsensitiven Gruppe erfolgt und dadurch ein "Orientierungskeim" gelegt wird. Durch die thermische Ausrichtung der mesogenen Gruppen an den photochemisch generierten "Orientierungskeimen" erfolgt die komplette Orientierung des Filmes in einem zweiten Schritt. Dadurch wird eine hohe optische Anisotropie erhalten. Dieses Verfahren wurde als Zwei-Stufen-Bulk-Orientierungsprozess bezeichnet. In der vorliegenden Arbeit wurden die Photoreaktionen verschiedener lichtsensitiver Gruppen, wie z. B. Azobenzen, Stilben und Zimtsäureester und deren Orientierungsfähigkeit in flüssigkristallinen Polymeren untersucht. Der Orientierungsprozess wurde durch die Wahl geeigneter Bestrahlungsbedingungen optimiert. Die Effizienz der Orientierung wurde anhand der sich verändernden winkelabhängigen Absorptionseigenschaften und der Doppelbrechung des Materials analysiert. Es wurde gezeigt, dass eine effiziente lichtinduzierte Orientierung bei einer Vielzahl von flüssigkristallinen Polymeren realisierbar ist. So wurde z. B. erstmalig gefunden, dass durch eine Photo-Fries-Orientierung eine hohe optische Anisotropie erhalten werden kann. Außerdem wurde eine neue lichtsensitive Gruppe auf der Basis von Donor-Akzeptor-substituiertem Ethen entwickelt, die farbneutral ist und durch polarisiertes UV-Licht sowohl orientiert als auch re-orientiert werden kann. Es wurden weiterhin Polymere entwickelt, die zusätzlich zu den photosensitiven und flüssigkristallinen Einheiten, fluoreszierende Gruppen enthalten. Die Auswahl geeigneter Fluoreszenzverbindungen erfolgte aufgrund ihrer anisometrischen Form, ihrer Ordnungsparameter in einer niedermolekularen Flüssigkristallmischung und ihrer Photostabilität. Das Orientierungsverhalten von ausgewählten Fluorophoren wurde in sechs Ter- und zwei Copolymeren untersucht. Das Prinzip der Orientierung beruht auf einer kooperativen Ausrichtung der Seitengruppen. Aus diesem Grund kommt dem Nachweis der Kooperativität in der vorliegenden Arbeit eine besondere Stellung zu. Durch lichtinduzierte Bulk-Orientierung wurden Filme erhalten, welche durch eine richtungsabhängige Fluoreszenz und Absorption im sichtbaren- oder UV-Bereich charakterisiert sind. Die Fluoreszenz wird durch einige lichtsensitive Verbindungen komplett gelöscht. Die wahlweise erhaltenen anisotropen Filme von farbigen, fluoreszierenden oder farbneutralen Verbindungen, die zudem in kleinen Pixeln von wenigen Mikrometern orientiert werden können, eröffnen vielfältige Möglichkeiten für den Einsatz von multi-funktionalen Polymeren als optische Schichten in Flüssigkristalldisplays.
Ziel dieser Arbeit ist es, ein sequentielles Extraktionsverfahren zur Erfassung unterschiedlich stabiler Anteile der orgnischen Bodensubstanz (OBS) zu entwickeln und zu klären, ob ein Zusammenhang zwischen Löslichkeit und Stabilität besteht. Darüber hinaus sollen der Einfluss von Bewirtschaftungsmaßnahmen auf Menge und Zusammensetzung dieser OBS-Anteile und Zusammenhänge zwischen Fourier Transform Infrarot (FT-IR)-Spektroskopiedaten und der Kationenaustauschkapazität (KAK) der OBS analysiert werden. Für die Untersuchungen wurden Böden der Langzeitfeldexperimente (LFE) in Halle, Bad Lauchstädt und Rotthalmünster beprobt. Zur Erfassung unterschiedlicher OBS-Fraktionen wurden im ersten Schritt die wasserlöslichen OBS-Anteile (OBS(W)-Fraktion) aus den Böden isoliert. Im zweiten Schritt wurden aus den Extraktionsrückständen der Wasserextraktion OBS-Anteile mit einer Natrium (Na)-Pyrophosphatlösung extrahiert (OBS(PY)-Fraktion). Die Stabilität der OBS-Fraktionen wurde anhand von δ13C-Bestimmungen und 14C-Messungen untersucht. Die Charakterisierung der Zusammensetzung der OBS-Fraktionen erfolgte mittels FT-IR Spektroskopie. Generell wird mit der OBS(PY)-Fraktion ein größerer Anteil am organischen Kohlenstoffgehalt der Böden erfasst als mit der OBS(W)-Fraktion. Die δ13C- und 14C-Daten zeigen, dass die OBS(W)-Fraktion höhere Anteile jungen organischen Materials als die OBS(PY)-Fraktion enthält. Das entwickelte sequentielle Extraktionsverfahren ist also prinzipiell geeignet unterschiedlich stabile OBS-Anteile anhand ihrer Löslichkeit zu isolieren. Mittels FT-IR spektroskopischer Untersuchungen wird festgestellt, dass Bewirtschaftungsmaßnahmen, wie die Düngung, sowie Standorteigenschaften die Zusammensetzung der OBS-Fraktionen beeinflussen. Für die OBS(PY)-Fraktion ist dies stärker ausgeprägt als für die OBS(W)-Fraktion. Die KAK der OBS(PY)-Fraktion aus den Böden der LFE in Halle und Bad Lauchstädt ist positiv mit der Absorptionsintensität der C=O-Bande in den FT-IR Spektren dieser OBS-Fraktion korreliert.
Substanzen der pharmazeutischen und chemischen Industrie müssen nach internationalen Richtlinien auf deren Toxizität gegenüber Mensch und Umwelt geprüft werden. Dazu gehören u. a. Prüfungen zur Vorhersage des embryotoxischen Potentials, die am lebenden Organismus durchgeführt werden. Mit dem Ziel die Anzahl der Tierversuche zu verringern, die notwendig sind um das toxikologische Profil einer Prüfsubstanz zu bestimmen, wurde der Embryonale Stammzelltest (EST) entwickelt. Als Grundlage des EST dienen embryonale Stammzellen (ES-Zellen) einer Zelllinie. ES-Zellen sind Zellen, die sich in der frühen embryonalen Entwicklung in die Zellen der Keimblätter entwickeln können. Daraus wiederum differenzieren die vielen verschiedenen, unterschiedlich spezialisierten Zelltypen des komplexen Organismus. Im EST wird die Konzentration einer Prüfsubstanz bestimmt, bei der die Differenzierung von ES-Zellen zu Herzmuskelzellen zu 50 % inhibiert wird. Zusätzlich wird die Konzentration der Prüfsubstanz bestimm°t, bei der 50 % der ES-Zellen (IC50D3) bzw. Fibroblastenzellen (IC503T3) absterben. Die allgemeine Toxizität ist damit von der spezifischen Toxizität der Prüfsubstanz auf die ES-Zellen und deren Differenzierung unterscheidbar. Die Parameter fliessen in ein biostatistisches Modell zur Prädiktion des embryotoxischen Potentials der Prüfsubstanzen ein. Es wurde ein Versuchsprotokoll entwickelt, wonach die ES-Zellen sich verstärkt zu Endothelzellen differenzieren. Die Endothelzellen, die im lebenden Organismus die Wand der späteren Blutgefässe, wie Venen und Arterien bilden, wurden mittels molekularbiologischer Methoden auf der RNA- und der Protein-Ebene nachgewiesen und quantifiziert. Verschiedene Zellkulturmethoden, Wachstumsfaktoren, als auch Wachstumsfaktorkonzentrationen wurden auf deren Vermögen die Differenzierung der ES-Zellen zu Endothelzellen zu induzieren, untersucht. Nach der Etablierung des Differenzierungsprotokolls wurden sieben Substanzen auf deren Vermögen geprüft, die Differenzierung von ES-Zellen zu Endothelzellen zu inhibieren. Die Endothelzellen wurden dabei über die Expression der RNA von zwei endothelzellspezifischen Genen quantifiziert. Im Vergleich dazu wurden die IC50D3 und die IC503T3 der Prüfsubstanz bestimmt, um eine Abschätzung des embryotoxischen Potentials der Prüfsubstanz zu ermöglichen. Die Ergebnisse zeigten, dass eine Abschätzung des embryotoxischen Potentials der sieben Prüfsubstanzen in nicht-, schwach- oder stark embryotoxisch vorgenommen werden konnte. Es ist zu schlussfolgern, dass der weiterentwickelte in vitro Embryotoxizitätsassay sensitiv und reproduzierbar ist. Mit der Verwendung von verschiedenen Differenzierungsendpunkten kann die Prädiktionskraft des Assays deutlich verbessert, und die Anzahl von Tierversuchen verringert werden. Durch die Verwendung von molekularbiologischen Markern kann der Assay einem Hochdurchsatzscreening zugängig gemacht werden und damit die Anzahl von Prüfsubstanzen deutlich erhöht werden.
Die Hochwasserereignisse der letzten Jahre haben Mängel bei der schnellen Verfügbarkeit des klassischen Darstellungs-, Entscheidungs- und Analyseinstruments Karte offenbart. Die Erfahrungen von 1997 und 2002 verdeutlichen, dass eine homogene digitale Datengrundlage, die neben rein topographischen zusätzlich auch fachspezifische Informationen des Hochwasserschutzes enthält, für eine effektive Bekämpfung solcher Ereignisse notwendig ist. Mit den Daten des ,Amtlichen Topographisch-Kartographischen Informationssystems’ (ATKIS) liegen topographische Basisdaten in graphikfreier Form als digitales Landschaftsmodell (DLM) flächendeckend für die Bundesrepublik vor. Anhand der exemplarischen Ableitung von nutzerorientierten Kartenmodellen aus diesen graphikfreien Daten wurde deren Eignung für den besonderen Verwendungszweck im Rahmen eines Hochwasserschutz-Informationssystems überprüft. Als Anwendungsbeispiel wurde das Gebiet der Ziltendorfer Niederung, die während des Oder-Hochwassers 1997 überflutet wurde, gewählt. In Expertengesprächen wurden zunächst Inhalte identifiziert, die für einen wirksamen Hochwasserschutz Relevanz besitzen; diese Inhalte wurden anschließend analog zum ATKIS-Systemdesign strukturiert und als Objekte eines separaten Objektbereichs im digitalen Fachmodell (DFM) erfasst. Bei der Ableitung von (Bildschirm-) Karten aus den graphikfreien Daten wurden jeweils unterschiedliche Kriterien für die Basiskarte und die Fachinhalte berücksichtigt. Dabei wurden verschiedene kartographische Regeln und Gesetze mit dem Ziel der prägnanten Visualisierung und damit der eindeutigen Lesbarkeit der Karten angewendet. Beispielhaft sei hier die Schaffung einer visuellen Hierarchie zwischen Basiskarte und Fachinhalten genannt. Die besonderen Nutzungsbedingungen von Karten im Einsatzfall erfordern u.a., dass die Karten auch von Personen, die nur über geringe oder keine Erfahrung im Umgang mit Karten verfügen, schnell und einfach zu lesen sind, um so eine sichere Informationsvermittlung zu gewährleisten. Voraussetzung dafür ist einerseits die Beschränkung auf die Darstellung der wesentlichen Inhalte, andererseits die Verwendung leicht lesbarer Kartenzeichen. Aus diesem Grund wurden einheitliche Kartenzeichen zur Darstellung der Fachinhalte entwickelt, die entweder aus allgemein bekannten Symbolen, aus den im Katastrophenschutz üblicherweise verwendeten sog. taktischen Zeichen oder aus Fachzeichen des Hochwasserschutzes abgeleitet wurden. Die entwickelten Kartenmodelle wurden abschließend in qualitativen Experteninterviews in Bezug auf ihre Qualität und Verwendbarkeit im Hochwasserschutz geprüft. Die Auswertung der Interviews ergab eine insgesamt positive Beurteilung der Karten für den Einsatz in Hochwasserschutz-Informationssystemen. Damit leistet die vorliegende Arbeit einen Beitrag zur Entwicklung von (Bildschirm-) Karten zur Unterstützung bei der Entscheidungsfindung im Katastrophenmanagement.
In einer multiplen Einzelfallstudie mit zehn aphasischen Patienten wurde die Wirksamkeit eines semantischen und eines phonologischen Therapieansatzes zur Behandlung von Wortabrufstörungen verglichen. Detaillierte Einzelfalluntersuchungen ermöglichten die Diagnose der zugrundeliegenden funktionalen Störungen bei jedem Patienten. Auf diese Weise konnten die erzielten Therapieeffekte auf die individuellen kognitiv-neurolinguistischen Störungsmuster bezogen werden. Im Vordergrund der Therapie stand in beiden Ansätzen das mündliche Benennen von Objektabbildungen mit unterschiedlichen Arten von Hilfen. Während in der semantischen Therapie Teilaspekte des semantischen Zielkonzepts als Benennhilfen eingesetzt wurden, handelte es sich bei den phonologischen Hilfen um Teilinformationen der Zielwortform. Bei der Erhebung von spezifischen Therapieeffekten wurde zwischen itemspezifischen und itemübergreifenden Verbesserungen sowie kurz- und langfristigen Effekten auf die mündlichen Benennleistungen unterschieden. Dabei wurden neben den quantitativen Verbesserungen (% korrekt) auch die qualitativen Effekte (Fehlertypen) der beiden Ansätze berücksichtigt, und es wurden Transfereffekte in die Spontansprache der Patienten untersucht. Zusätzlich wurden auch die Soforteffekte der verschiedenen Benennhilfen in den Therapiesitzungen erhoben. Im Methodenvergleich zeigte sich, dass die phonologische Therapiephase kurzfristig bei der Mehrzahl der Patienten signifikante Verbesserungen beim Bildbenennen bewirkte, diese Effekte haben sich jedoch überwiegend als nicht stabil erwiesen. Im Gegensatz dazu erwies sich die semantische Therapiephase auch als langfristig effektiv. Im Unterschied dazu erwiesen sich die phonologischen Benennhilfen bei fast allen Patienten als unmittelbar effektiver als die semantischen Benennhilfen. Somit waren die Soforteffekte der Hilfetypen in den Therapiesitzungen kein sicherer Indikator für die Dauer der Gesamteffekte einer Therapiephase. Außerdem zeigte sich nicht bei allen Patienten ein direkter Zusammenhang zwischen der Art ihrer zugrundeliegenden funktionalen Störung und den erzielten Therapieeffekten. Einerseits profitierten Patienten mit erhaltenen semantischen Verarbeitungsleistungen von der semantischen Therapie, andererseits zeigten sich signifikante phonologische Therapieeffekte bei Patienten mit zentral-semantischen Störungen. Die Wirkmechanismen der beiden Therapieansätze werden unter Berücksichtigung unterschiedlicher kognitiv-neurolinguistischer Theorien zum mündlichen Wortabrufprozess beim Bildbenennen interpretiert.
Entsprechend der sogenannten Set-point-Theorie besitzt jeder Mensch eine individuell festgelegte Körpermasse, die über große Zeiträume konstant gehalten und gegen Abweichungen verteidigt wird. Es wird angenommen, dass der Körper auf noch unbekannte Weise Änderungen in der Körpermasse per se wahrnimmt und daraufhin Mechanismen aktiviert, die zur Regenerierung der ursprünglichen Masse führen. In dieser Arbeit wurde die Hypothese getestet, dass eine künstliche Erhöhung der Körpermasse zu einer kompensatorischen Reduktion in der Körpermasse führt, um das Ausgangsgewicht wieder zu regenerieren. Die Körpermasse von männlichen und weiblichen Mäusen wurde akut durch die Implantation von Gewichten mit einer Masse von 10% der aktuellen Körpermasse in die Bauchhöhle erhöht. Bei Gültigkeit der Set-point-Theorie sollte die Körpermassereduktion der Masse des zusätzlichen Gewichtsimplantats entsprechen. Die Mäuse reagierten auf die künstlich erhöhte Körpermasse geschlechtsspezifisch. Männchen zeigten eine partielle Reduktion in der Körpermasse. Weibchen zeigten langfristig jedoch keine Änderungen in der Körpermasse. Die Reduktion der Körpermasse erfolgte bei den Männchen durch eine Abnahme in der Fettmasse. Die fettfreie Masse war in beiden Geschlechtern nicht verändert. Änderungen in der Körpermasse wurden vor allem durch Änderungen in der Energieaufnahme hervorgerufen. Ein Einfluss des Energieumsatzes auf Änderungen in der Körpermasse konnte nicht nachgewiesen werden. Die Regulation der Körpermasse entsprechend eines massespezifischen Set-points konnte partiell für die Männchen gezeigt werden. Bei den Männchen könnte daher die Wahrnehmung der Körpermasse in die Regulation der Körpermasse teilweise integriert sein. Weibchen verminderten ihre Körpermasse dagegen trotz der künstlichen Körpermasseerhöhung nicht. Das führte zur Bewahrung der Energiereserven und spricht eher für die Regulation der Körpermasse entsprechend des notwendigen Energiebedarfs im Vergleich zu Änderungen in der Körpermasse per se. Diese Ergebnisse zeigen, dass die Regulation der Körpermasse geschlechtsspezifischen Mechanismen unterliegt. Dementsprechend sind auch geschlechtsspezifische Ansätze zur Therapie von Übergewicht und Adipositas notwendig.
Die Frage nach der Herkunft und der dynamischen Entwicklung langlebiger kosmischer Magnetfelder ist in vielen Details noch unbeantwortet. Es besteht zwar kein Zweifel daran, dass das Magnetfeld der Erde und anderer kosmischer Objekte durch den sogenannten Dynamoeffekt verursacht werden, der genaue Mechanismus als auch die notwendigen Voraussetzungen und Randbedingungen der zugrundeliegenden Strömungen sind aber weitgehend unbekannt. Die für einen Dynamo interessanten Strömungsmuster, die im Inneren von Himmelskörpern durch Konvektion und differentielle Rotation entstehen, sind Konvektionsrollen parallel zur Rotationsachse. Auf einer Strömung mit eben solcher Geometrie, der sogenannten Roberts-Strömung, basieren die in der vorliegenden Arbeit untersuchten Dynamomodelle. Mit Methoden der nichtlinearen Dynamik wird versucht, das Systemverhalten bei Änderung der Systemparamter genauer zu charakterisieren. Die numerischen Untersuchungen beginnen mit einer Analyse der Dynamoaktivität der Roberts-Strömung in Abhängigkeit von den zwei freien Parametern in den Modellgleichungen, der magnetischen Prandtl-Zahl und der Stärke des Energieinputs. Gefunden werden verschiedene Lösungstypen die von einem stationären Magnetfeld über periodische bis zu chaotischen Zuständen reichen. Die yugrundeliegenden Symmetrien werden beschrieben und die Bifurkationen, die zum Wechsel der Lösungstypen führen, charakterisiert. Zusätzlich gibt es Bereiche bei sehr kleinen Prandtl-Zahlen, in denen überhaupt kein Dynamo existiert. Dieses Verhalten wird in der Literatur auch für viele andere numerisch ausgewertete Modelle beschrieben. Im Übergangsbereich zwischen dynamoaktivem und dynamoinaktivem Bereich wird das Auftreten einer sogenannten Blowout-Bifurkation gefunden. Desweiteren beschäftigt sich die Arbeit mit der Frage, inwiefern Helizität, also eine schraubenförmige Bewegung, der Strömung den Dynamoeffekt beeinflusst. Dazu werden ähnliche Strömungstypen verglichen, die sich hauptsächlich in ihrem Helizitätswert unterscheiden. Es wird gefunden, dass ein bestimmter Wert der Helizität nicht unterschritten werden darf, um einen stabilen Roberts-Dynamo zu erhalten.
Gangschwärme nehmen eine bedeutende Stellung im Verständnis zur kontinentalen Fragmentierung ein. Einerseits markieren sie das Paläo-Spannungsfeld und helfen bei der Rekonstruktion der strukturellen Entwicklung der gedehnten Lithosphäre, andererseits gibt ihre petrologische Beschaffenheit Aufschluß über die Entstehung des Magmas, Aufstieg und Platznahme und schließlich erlaubt ihre Altersbestimmung die Rekonstruktion einer chronologischen Reihenfolge magmatischer und struktureller Ereignisse. Das Arbeitsgebiet im namibianischen Henties Bay-Outjo Dike swarm (HOD) war zur Zeit der Unterkreide einem Rifting mit intensiver Platznahme von überwiegend mafischen Gängen unterworfen. Geochemische Signaturen weisen die Gänge als erodierte Förderkanäle der Etendeka Plateaubasalte aus. Durch den Einsatz von hochauflösenden Aeromagnetik- und Satellitendaten war es möglich, die Geometrie des Gangschwarmes erstmals detailliert synoptisch zu erfassen. Viele zu den Schichten des Grundgebirges foliationsparallel verlaufende magnetische Anomalien können unaufgeschlossenen kretazischen Intrusionen zugeordnet werden. Bei der nach Norden propagierenden Südatlantiköffnung spielte die unterschiedliche strukturelle Vorzeichnung durch die neoproterozoischen Faltengürtel sowie Lithologie und Spannungsfeld des Angola Kratons eine bedeutende Rolle. Im küstennahen zentralen Bereich war dank der Vorzeichnung des Nordost streichenden Damara-Faltengürtels ein Rifting in Nordwest-Südost-Richtung dominierend, bis das Angola Kraton ein weiteres Fortscheiten nach Nordosten hemmte und die Vorzeichnung des Nordwest streichenden Kaoko-Faltengürtels an der Westgrenze den weiteren Riftverlauf und die letztendlich erfolgreiche Öffnung des Südatlantiks bestimmte. Aus diesem Grund kann das Gebiet des HOD als ein failed rift betrachtet werden. Die Entwicklung des Spannungsfeldes im HOD kann folgendermaßen skizziert werden: 1. Platznahme von Gängen bei gleichzeitig hoher Dehnungsrate und hohem Magmenfluß. 2. Platznahme von Zentralvulkanen entlang reaktivierter paläozoischer Lineamente bei Abnahme der Dehnungsrate und fortbestehendem hohen Magmenfluß. 3. Abnahme/Versiegen des Magmenflusses und neotektonische Bewegungen führen zur Bildung von Halbgräben.
Die vorliegende Arbeit beschreibt das Verhalten von Polypeptid-Blockcopolymeren in der festen Phase und in selektiven Lösungsmitteln. Blockcopolymere auf Basis von Poly(L-glutaminsäure-5-benzylester) (PBLGlu) oder Poly(Nε-benzoyloxycarbonyl-L-lysin) (PZLLys), die in dieser Arbeit eingesetzt wurden, besitzen wegen ihrer helikalen Sekundärstruktur eine sog. Stäbchen-Knäuel-Geometrie, wobei die Knäuelkomponente Polystyrol oder Polybutadien ist. Die Phasenbildung dieser Blockcopolymere ist durch die Packungseigenschaften des rigiden Blocks beeinflusst. Es wurden bevorzugt lamellare Strukturen gebildet, in denen die Stäbchen parallel angeordnet sind. Das Vorhandensein eines permanenten Dipolmomentes führt zur Wechselwirkung zwischen den Helices und zur Erhöhung des Ordnungsgrades in der Phase. Ein zusätzlicher Parameter, der die Morphologie der Phase beeinflußt, ist die Chiralität der Peptidhelix, durch die chirale Überstrukturen induziert werden. In dünnen Filmen (40 nm), wo die Geometrie begrenzt ist, führt es zu Frustrationen in der Phase. Die dadurch entstandene Spannung wurde durch einen zick-zack-artigen Lamellenverlauf abgebaut. In selektiven Lösungsmitteln für die synthetische Komponente (PS) bilden die Polypeptid-Blockcopolymere vesikuläre Strukturen, deren kugel- oder wurmförmige Geometrie von der Elastizität der Membran abhängig ist. Durch Entfernung der Z-Schutzgruppe kann PZLLys in eine wasserlösliche Form überführt werden, so dass die PB-PLLys Blockcopolymere unter Bildung von Vesikeln in Wasser löslich sind. Dabei ist die Konformation des Peptids vom pH-Wert des Mediums abhängig und kann von einem Knäuel zu einer Helix reversibel geschaltet werden. Beim Modifizieren der Sekundärstruktur wurde eine Änderung der Aggregationszahl beobachtet. Somit können diese Blockcopolymere für die Herstellung von schaltbaren Aggregaten eingesetzt werden.
Die Autoren untersuchten mit Hilfe einer Fragebogenstudie das Sexualverhalten von StudentenInnen und KrankenpflegeschülernInnen unter der Bedrohung durch AIDS(n = 593). Als Ergebnis lässt sich festhalten, dass unterschiedliche Personengruppen mit unterschiedlichen Einstellungen, mit unterschiedlichem Wissen über HIV und AIDS, mit unterschiedlichem Sexualverhalten sowie einem unterschiedlichen Grad von persönlicher Betroffenheit auf differenzierte Weise angesprochen und zur Prävention angeleitet werden müssen. Die berufliche Nähe zu HIV und AIDS hat keinen Einfluss auf die sexuellen Einstellungen und Verhaltensweisen. Nur durch eine Selbststeuerung kann einer Gefahrensituation, wie sie eine mögliche HIV-Infektion darstellt, begegnet werden. Von daher muss neben der persönlichen Betroffenheit auch die Einsicht gegeben sein, dass ich mich als Individuum eigenständig vor dieser Gefahr schützen kann. Ferner muss dieses Verhalten in die eigene Lebenswelt eingepasst und von der eigenen sozialen Umgebung getragen werden. Präventionsbemühungen müssen auf kompetenzsteigernde, ressourcenorientierte und differenzierte Maßnahmen setzen. Ansätze von Furchtappellen und Lustfeindlichkeit wirken kontraproduktiv. Eine Beschränkung der Prävention auf individuumzentrierte Maßnahmen ist wenig effektiv, sofern gesellschaftliche und strukturelle Bedingungen ausgeblendet werden. Ziel von Sexualpädagogik und AIDS-Präventionsarbeit muss es daher sein, eine von allen geteilte Kommunikationsstruktur für Intimität zu entwickeln.
Eine Nutzung der optischen Anisotropie dünner Schichten ist vor allem für die Displaytechnologie, die optische Datenspeicherung und für optische Sicherheitselemente von hoher Bedeutung. Diese Doktorarbeit befasst sich mit theoretischen und experimentellen Untersuchung von dreidimensionaler Anisotropie und dabei insbesondere mit der Untersuchung von lichtinduzierter dreidimensionaler Anisotropie in organischen dünnen Polymer-Schichten. Die gewonnenen Erkentnisse und entwickelten Methoden können wertvolle Beiträge für Optimierungsprozesse, wie bei der Kompensation der Blickwinkelabhängigkeit von Flüssigkristall-Displays, liefern. Die neue Methode der Immersions-Transmissions-Ellipsometrie (ITE) zur Untersuchung von dünneren Schichten wurde im Rahmen dieser Dissertation entwickelt. Diese Methode gestattet es, in Kombination mit konventioneller Reflexions- und Transmissionsellipsometrie, die absoluten dreidimensionalen Brechungsindices einer biaxialen Schicht zu bestimmen. Erstmals gelang es damit, das dreidimensionale Brechungsindexellipsoid von transparenten, dünneren (150 nm) Filmen hochgenau (drei Stellen hinter dem Komma) zu bestimmen. Die ITE-Methode hat demzufolge das Potential, auch bei noch dünneren Schichten mit Gewinn eingesetzt werden zu können. Die lichtinduzierte Generierung von dreidimensionaler Anisotropie wurde in dünnen Schichten von azobenzenhaltigen und zimtsäurehaltigen, amorphen und flüssig-kristallinen Homo- und Copolymeren untersucht. Erstmals wurden quantitative Untersuchungen zur Änderung von lichtinduzierten, dreidimensionalen Anisotropien in dünnen Schichten von azobenzenhaltigen und zimtsäurehaltigen Polymeren bei Tempern oberhalb der Glastemperatur durchgeführt. Bei vielen der untersuchten Polymere war die dreidimensionale Ordnung nach dem Bestrahlen mit polarisiertem Licht und anschließendem Tempern oberhalb der Glastemperatur scheinbar von der Schichtdicke abhängig. Die Ursache liegt wohl in der, mit der neuentwickelten ITE-Methode detektierten, planaren Ausgangsorientierung der aufgeschleuderten dünneren Schichten. Um Verkippungs-Gradienten in dickeren Polymerschichten in ihrem Verlauf zu bestimmen, wurde eine spezielle Methode unter Benutzung der Wellenleitermoden-Spektroskopie entwickelt. Quantenchemisch bestimmte, maximal induzierbare Doppelbrechungen in flüssig-kristallinen Polymeren wurden mit den experimentell gefundenen Ordnungen verglichen.