Refine
Has Fulltext
- yes (739) (remove)
Year of publication
Document Type
- Doctoral Thesis (739) (remove)
Language
- German (739) (remove)
Keywords
- language acquisition (9)
- Modellierung (8)
- Spracherwerb (8)
- taste (7)
- Geschmack (6)
- Nanopartikel (6)
- Polymer (6)
- Selen (6)
- Serotonin (6)
- education (6)
Institute
- Institut für Biochemie und Biologie (121)
- Institut für Chemie (109)
- Institut für Ernährungswissenschaft (63)
- Institut für Physik und Astronomie (55)
- Wirtschaftswissenschaften (53)
- Department Psychologie (38)
- Institut für Umweltwissenschaften und Geographie (37)
- Sozialwissenschaften (36)
- Department Erziehungswissenschaft (35)
- Department Sport- und Gesundheitswissenschaften (27)
Nikotin in den unterschiedlichsten Darreichungsformen verringert bei verschiedenen Spezies im räumlichen Hinweisreizparadigma die Kosten invalider Hinweisreize. Welcher Teilprozess genau durch Nikotin beeinflusst wird, ist bislang nicht untersucht worden. Die gängige Interpretation ist, daß Nikotin das Loslösen von Aufmerksamkeit von einem bisher beachteten Ort erleichtert. In fünf Studien, drei elektrophysiologischen und zwei behavioralen wurden drei mögliche Mechanismen der Nikotinwirkung an Nichtrauchern untersucht. Experiment 1 und 2 gingen der Frage nach, ob Nikotin eine Modulation sensorischer gain Kontrolle bewirkt. Dazu wurden ereigniskorrelierte Potentiale (EKP) im Posner-Paradigma erhoben und die Wirkung von Nikotin auf die aufmerksamkeitsassoziierten Komponenten P1 und N1 betrachtet. Nikotin verringerte die Kosten invalider Hinweisreize bei Aufmerksamkeitslenkung durch endogene Hinweisreize, nicht aber bei exogenen Hinweisreizen. Die P1 und N1 Komponenten zeigten sich unbeeinflusst von Nikotin, damit findet also die Annahme einer Wirkung auf sensorische Suppression keine Unterstützung. In Experiment 3 und 4 wurde untersucht, ob Nikotin einen Effekt auf kostenträchtige unwillkürliche Aufmerksamkeitsverschiebungen, Distraktionen, hat. In Experiment 3 wurden in einem räumlichen Daueraufmerksamkeitsparadigma Distraktionen durch deviante Stimulusmerkmale ausgelöst und die Wirkung von Nikotin auf eine distraktionsassoziierte Komponente des EKP, die P3a, betrachtet. In Experiment 4 wurde in einem Hinweisreizparadigma durch zusätzliche Stimuli eine Distraktion ausgelöst und die Nikotinwirkung auf die Reaktionszeitkosten untersucht. Nikotin zeigte keinen Einfluss auf Distraktionskosten in beiden Studien und auch keine Wirkung auf die P3a Komponente in Experiment 3. In Experiment 4 wurde zusätzlich die Wirkung von Nikotin auf das Loslösen von Aufmerksamkeit untersucht, indem die Schwierigkeit des Loslösens variiert wurde. Auch hier zeigte sich keine Nikotinwirkung. Allerdings konnte in beiden Studien weder die häufig berichtete generelle Reaktionszeitverkürzung noch die Verringerung der Kosten invalider Hinweisreize repliziert werden, so dass zum Einen keine Aussage über die Wirkung von Nikotin auf Distraktionen oder den Aufmerksamkeitsloslöseprozess gemacht werden können, zum Anderen sich die Frage stellte, unter welchen Bedingungen Nikotin einen differentiellen Effekt überhaupt zeigt. Im letzten Experiment wurde hierzu die Häufigkeit der Reaktionsanforderung einerseits und die zeitlichen Aspekte der Aufmerksamkeitslenkung andererseits variiert und der Effekt des Nikotins auf den Validitätseffekt, die Reaktionszeitdifferenz zwischen valide und invalide vorhergesagten Zielreizen, betrachtet. Nikotin verringerte bei Individuen, bei denen Aufmerksamkeitslenkung in allen Bedingungen evident war, in der Tendenz den Validitätseffekt in der ereignisärmsten Bedingung, wenn nur selten willentliche Aufmerksamkeitsausrichtung notwendig war. Dies könnte als Hinweis gedeutet werden, dass Nikotin unter Bedingungen, die große Anforderungen an die Vigilanz stellen, die top-down Zuweisung von Aufmerksamkeitsressourcen unterstützt.
Weltweit versuchen Wissenschaftler, künstliche Viren für den Gentransfer zu konstruieren, die nicht reproduktionsfähig sind. Diese sollen die Vorteile der natürlichen Viren besitzen (effizienter Transport von genetischem Material), jedoch keine Antigene auf ihrer Oberfläche tragen, die Immunreaktionen auslösen. Ziel dieses Projektes ist es, einen künstlichen Viruspartikel herzustellen, dessen Basis eine Polyelektrolytenhohlkugel bildet, die mit einer Lipiddoppelschicht bedeckt ist. Um intakte Doppelschichten zu erzeugen, muss die Wechselwirkung zwischen Lipid und Polyelektrolyt (z.B. DNA) verstanden und optimiert werden. Dazu ist es notwendig, die strukturelle Grundlage der Interaktion aufzuklären. Positiv geladene Lipide gehen zwar starke Wechselwirkungen mit der negativ geladenen DNA ein, sie wirken jedoch toxisch auf biologische Zellen. In der vorliegenden Arbeit wurde daher die durch zweiwertige Kationen vermittelte Kopplung von genomischer oder Plasmid-DNA an zwitterionische oder negativ geladene Phospholipide an zwei Modellsystemen untersucht. 1. Modellsystem: Lipidmonoschicht an der Wasser/Luft-Grenzfläche Methoden: Filmwaagentechnik in Kombination mit IR-Spektroskopie (IRRAS), Röntgenreflexion (XR), Röntgendiffraktion (GIXD), Brewsterwinkel-Mikroskopie (BAM), Röntgenfluoreszenz (XRF) und Oberflächenpotentialmessungen Resultate: A) Die Anwesenheit der zweiwertigen Kationen Ba2+, Mg2+, Ca2+ oder Mn2+ in der Subphase hat keinen nachweisbaren Einfluss auf die Struktur der zwitterionischen DMPE- (1,2-Dimyristoyl-phosphatidyl-ethanolamin) Monoschicht. B) In der Subphase gelöste DNA adsorbiert nur in Gegenwart dieser Kationen an der DMPE-Monoschicht. C) Sowohl die Adsorption genomischer Kalbsthymus-DNA als auch der Plasmid-DNA pGL3 bewirkt eine Reduktion des Neigungswinkels der Alkylketten, die auf einen veränderten Platzbedarf der Kopfgruppe zurückzuführen ist. Durch die Umorientierung der Kopfgruppe wird die elektrostatische Wechselwirkung zwischen den positiv geladenen Stickstoffatomen der Lipidkopfgruppen und den negativ geladenen DNA-Phosphaten erhöht. D) Die adsorbierte DNA weist eine geordnete Struktur auf, wenn sie durch Barium-, Magnesium-, Calcium- oder Manganionen komplexiert ist. Der Abstand zwischen parallelen DNA-Strängen hängt dabei von der Größe der DNA-Fragmente sowie von der Art des Kations ab. Die größten Abstände ergeben sich mit Bariumionen, gefolgt von Magnesium- und Calciumionen. Die kleinsten DNA-Abstände werden durch Komplexierung mit Manganionen erhalten. Diese Ionenreihenfolge stellt sich sowohl für genomische DNA als auch für Plasmid-DNA ein. E) Die DNA-Abstände werden durch die Kompression des Lipidfilms nicht beeinflusst. Zwischen der Lipidmonoschicht und der adsorbierten DNA besteht demnach nur eine schwache Wechselwirkung. Offensichtlich befindet sich die durch zweiwertige Kationen komplexierte DNA als weitgehend eigenständige Schicht unter dem Lipidfilm. 2. Modellsystem: Lipiddoppelschicht an der fest/flüssig-Grenzfläche Methoden: Neutronenreflexion (NR) und Quarzmikrowaage (QCM-D) Resultate: A) Das zwitterionische Phospholipid DMPC (1,2-Dimyristoyl-phosphatidylcholin) bildet keine Lipiddoppelschicht auf planaren Polyelektrolytmultischichten aus, deren letzte Lage das positiv geladene PAH (Polyallylamin) ist. B) Hingegen bildet DMPC auf dem negativ geladenen PSS (Polystyrolsulfonat) eine Doppelschicht aus, die jedoch Defekte aufweist. C) Eine Adsorption von genomischer Kalbsthymus-DNA auf dieser Lipidschicht findet nur in Gegenwart von Calciumionen statt. Andere zweiwertige Kationen wurden nicht untersucht. D) Das negativ geladene Phospholipid DLPA (1,2-Dilauryl-phosphatidsäure) bildet auf dem positiv geladenen PAH eine Lipiddoppelschicht aus, die Defekte aufweist. E) DNA adsorbiert ebenfalls erst in Anwesenheit von Calciumionen in der Lösung an die DLPA-Schicht. F) Durch die Zugabe von EDTA (Ethylendiamintetraessigsäure) werden die Calciumionen dem DLPA/DNA-Komplex entzogen, wodurch dieser dissoziiert. Demnach ist die calciuminduzierte Bildung dieser Komplexe reversibel.
Vor dem Hintergrund steigender psychischer Erkrankungen setzt sich die Arbeit damit auseinander, welche Möglichkeiten bestehen, um die psychische Gesundheit von Mitarbeitern zu fördern. Die Arbeit konzentriert sich auf das Erleben sozialer Unterstützung im Arbeitskontext. Zunächst wurde ein diagnostisches Instrument entwickelt, welches das Erleben sozialer Unterstützung im beruflichen Kontext reliabel und valide abzubilden vermag (N=936). Im Mittelpunkt der empirischen Untersuchung stand die Überprüfung der gesundheitsförderlichen Wirkung sozial unterstützenden Verhaltens bei Lehrern, Feuerwehrbediensteten, Krankenschwestern und Polizisten (N=1.041) unter differentiellem Aspekt. Hauptaugenmerk wurde dabei auf das personenbezogene Merkmal des individuellen Bewältigungsmusters im Beruf gelegt. Auf der Grundlage der gewonnenen Ergebnisse wurde ein Interventionsprogramm für Lehrer zum Zwecke der Gesundheitsförderung abgeleitet (N=207), in dem sowohl personen- als auch bedingungsbezogene Elemente kombiniert wurden und welches das berufliche Unterstützungserleben von Schulleitern und Lehrern fokussierte. Es war Ziel der Intervention, das Unterstützungserleben im beruflichen Kontext zu stärken und nachhaltige Veränderungen zu initiieren. Ebenso wie in anderen Untersuchungen konnte bestätigt werden, dass dem Unterstützungserleben im Arbeitskontext eine wichtige Pufferfunktion zukommt. Personen, die sich insbesondere vom Vorgesetzten unterstützt fühlen, weisen in den Gesundheitsindikatoren günstigere Werte auf als jene, die aus ihrem beruflichen Umfeld kaum Unterstützung wahrnehmen. Durch die Berücksichtigung des individuellen Bewältigungsmusters als personales Merkmal kann zusätzliche Kriteriumsvarianz aufgeklärt werden. Die Intervention belegt, dass die sinnvolle Kombination von verhältnis- und personbezogenen Elementen Schulen dabei hilft, aus eigener Kraft Ressourcen zu stärken und Belastungen abzubauen.
Das proinflammatorische Zytokin Interleukin-1 (IL-1) spielt eine zentrale Rolle bei Entzündungen und Infektionen. Die zellulären Antworten von IL-1 werden über den IL-1-Rezeptor Typ I (IL-1RI) vermittelt. Adapterproteine und die IL-1RI-assoziierte Kinase IRAK werden nach Ligandenbindung an den Rezeptor rekrutiert. Nach ihrer Phosphorylierung dissoziiert die IRAK vom IL-1RI-Komplex und aktiviert weitere Kinasen, was letztendlich zur Aktivierung von NF-κB und zur Induktion der Transkription von Genen führt. Für eine adäquate Immunantwort ist ein intrazellulärer reduzierter Status von Proteinthiolen essentiell. Vorausgegangene Untersuchungen an der murinen Thymomzelllinie EL-4 zeigten, dass die IL-1-Signalkaskade durch thiolmodifizierende Substanzen wie Menadion (MD) oder Phenylarsinoxid (PAO) gehemmt wird. Eine IL-1-abhängige Aktivierung von IL-1RI-assoziierte Kinasen oder NF-κB fand nicht mehr statt. Ziele dieser Arbeit waren: (i) mögliche Proteine, die für den Angriff von thiolmodifizierenden Agenzien ein Ziel sein könnten, zu identifizieren und (ii) den Einfluss nahrungsrelevanter und redoxaktiver Substanzen auf frühe Ereignisse der IL-1-Signaltransduktion wie der Bildung des IL-1RI-Komplexes zu untersuchen. Als Zellmodell wurden EL-4-Zellen mit stabil überexprimierter IRAK (EL-4<sup>IRAK) verwendet. Um die Bildung des IL-1RI-Komplexes, anschließende Phosphorylierungsereignisse und somit Kinase-Aktivitäten nachzuweisen, wurden Co-Präzipitations-Experimente und in vitro Kinase Tests durchgeführt. Die Markierung von Proteinthiolen erfolgte mit dem thiolspezifischen Reagenz Iodoacetyl-[<sup>125I]-Iodotyrosin ([<sup>125I]-IAIT). Die Vorbehandlung von EL-4<sup>IRAK-Zellen mit MD oder PAO führte zu einer Hemmung der Rekrutierung der IRAK an den IL-1RI und der anschließenden Phosphorylierungen. Zur Identifikation weiterer IL-1RI-assoziierter Proteine wurden IL-1RI-Immunpräzipitate zweidimensional aufgetrennt, Colloidal-Coomassie gefärbte Proteinspots ausgeschnitten und anschließend massenspektrometrisch mittels ESI-Q-TOF analysiert. Bei der Analyse wurden Proteine des Cytoskeletts wie z. B. Actin identifiziert. In Analogie zu den synthetischen Substanzen MD und PAO wurden nahrungsrelevante und redoxaktive Substanzen wie Curcumin (Gelbwurz) und Sulforaphan (Broccoli) eingesetzt, um zu untersuchen, ob sie bereits früh die IL-1-Signaltransduktion beeinflussen. Bislang sind antiinflammatorische Effekte dieser beiden Nahrungsinhaltsstoffe nur auf der Ebene der Zytokin-vermittelten Aktivierung von NF-κB beschrieben. Sowohl Curcumin als auch Sulforaphan blockierten konzentrationsabhängig die Assoziation der IRAK an den IL-1RI in EL-4<sup>IRAK-Zellen, wobei beide Substanzen unterschiedlich wirkten. Curcumin beeinflusste die IRAK-Aktivierung durch direkte Modifikation von Thiolen der IRAK ohne die Bindung von IL-1 mit dem IL-1RI zu beeinträchtigen. Sulforaphan hingegen induzierte auf mRNA- und Proteinebene die Expression von Tollip, welches durch PCR bzw. Western Blot nachgewiesen wurde. Tollip, ein negativer Regulator in TLR/IL-1RI-Signalkaskaden, könnte somit nach Induktion die IRAK-Aktivierung unterdrücken. Die Sulforaphan-abhängige Induktion der Tollip-Expression erfolgte jedoch nicht über Nrf2 und "antioxidant response element" (ARE)-regulierte Transkription, obwohl Sulforaphan ein bekannter Nrf2-Aktivator ist. Diese Ergebnisse veranschaulichen, dass die IRAK ein redoxsensitives Protein ist und für die Bildung des IL-1RI-Komplexes reduzierte Proteinthiole eine Voraussetzung sind. Der Angriffspunkt für die antiinflammatorische Wirkung der beiden Nahrungsbestandteile Curcumin und Sulforaphan ist die Bildung des IL-1RI-Komplexes als ein frühes Ereignis in der IL-1-Signalkaskade. Die Hemmung dieses Prozesses würde die in der Literatur beobachteten Inhibitionen der abwärts liegenden Signale wie die Aktivierung von NF-κB und die Induktion proinflammatorischer Proteine erklären.
Die Entwicklung von Dickdarmkrebs wird durch eine Reihe von Lebens- und Essgewohnheiten sowie Umweltfaktoren begünstigt. Den letzteren beiden sind Substanzen zuzurechnen, die bei der Zubereitung der Nahrung entstehen und mit ihr aufgenommen werden. Zu diesen Verbindungen gehört das 2-Amino-1-methyl-6-phenylimidazo[4,5-b]pyridin (PhIP) aus der Substanzklasse der heterozyklischen aromatischen Amine. Es entsteht bei der Erhitzung zahlreicher proteinhaltiger Nahrungsmittel und die Zielorgane in Nagerstudien stimmen mit der Häufung von Krebsinzidenzen in westlichen Industrienationen überein. Dieser Zusammenhang konnte jedoch bis heute nicht endgültig bewiesen werden. Fütterungsversuche mit Ratten wurden mit Konzentrationen der Substanz durchgeführt, die weit über der menschlichen Exposition liegen. Durch das Verfüttern einer humanrelevanten Dosis PhIP sollte geklärt werden, ob auch geringe Konzentrationen dickdarmkrebstypische Mutationen, präneoplastische Läsionen oder Tumore induzierten. Die mit humanrelevanten Dosen gefütterten Tiere wiesen weniger Läsionen als die Hoch-Dosis-PhIP-Gruppe auf, in der allerdings keinerlei maligne Tumoren des Dickdarms auftraten. Hinweise auf dickdarmkrebstypische Mutationen fanden sich ebenfalls in beiden Gruppen, wobei hier keine Dosisabhängigkeit beobachtet werden konnte. Die Sequenzierung ergab ein deutlich von Literaturdaten abweichendes Spektrum. In Bezug auf das verwendete Tiermodell wurden erhebliche Abweichungen in der Empfindlichkeit der Tiere gegenüber der Substanz im Vergleich zu ähnlichen Studien festgestellt. Beide Fütterungsgruppen zeigten deutlich weniger Läsionen; als mögliche Gründe wurden Unterschiede in der Futterzusammensetzung und –zubereitung sowie in der Tierhaltung und –herkunft ausgemacht. Es konnte erstmalig ein Zusammenhang zwischen PhIP in niedrigen Dosen in der Nahrung und der Induktion von Entzündungen gezeigt werden. Diese waren sowohl makroskopisch als auch histologisch sichtbar, der genaue Mechanismus ihrer Entstehung ist jedoch unbekannt. Die zusammenfassende Betrachtung aller Ergebnisse lässt vermuten, dass PhIP allein über lange Zeiträume aber in geringen Dosen verabreicht nicht für die hohe Zahl an Krebserkrankungen in westlichen Industrienationen ursächlich ist.
Hauptanliegen der Dissertation ist es, einen Entwurf einer praktischen Ästhetik zu lancieren, der an der Schnittstelle zwischen philosophischer Ästhetik und Kunst – genauer Performancekunst - im Zeichen der Bezugsgrösse der Verletzbarkeit steht. In jüngeren Ästhetikansätzen hat sich eine Auffassung herauskristallisiert, die nicht über, sondern mit Kunst reflektiert. Die Pointe im ‚Mit’ liegt darin, dass diese Ästhetiken die Kunst nicht erklären, sie bestimmen und damit ihre Bedeutung festlegen, sondern dass diese entlang der Kunst die Brüche, Widerstände und Zäsuren zwischen Wahrnehmen und Denken markieren und diese als produktiv bewerten. Diese Lesart etabliert ein Denken, das nicht aus der Distanz auf etwas schaut (theoria), sondern ästhetisch-reflektierend (zurückwendend, auch selbstkritisch) mit der Kunst denkt. Die Disziplin der Ästhetik - als aisthesis: Lehre der sinnlichen Wahrnehmung - nimmt innerhalb der Philosophie eine besondere Stellung ein, weil sie auf ebendiese Differenz verweist und deshalb sinnliche und nicht nur logisch-argumentatorische Denkfiguren stärkt. Als eine Möglichkeit, die Kluft, das Nicht-Einholbare, die brüchige Unzulänglichkeit des begrifflich Denkenden gegenüber ästhetischer Erfahrung zu stärken, schlage ich die Bezugsgrösse der Verletzbarkeit vor. Eine solche Ästhetik besteht aus dem Kreieren verletzbarer Orte, wobei diese auf zweierlei Weisen umkreist werden: Zum einen aus der Kunstpraxis heraus anhand der ästhetischen Figur des verletzbaren Körpes, wie er sich in der zeitgenössischen Performance zeigt. Zum anderen als ein Kreieren von Begriffen im Bewusstsein ihrer Verletzbarkeit. Ausgangspunkte sind die Denkentwürfe von Gilles Deleuze und Hans Blumenberg: Die Ästhetik von Gilles Deleuze entwirft eine konkrete Überschneidungsmöglichkeit von Kunst und Philosophie, aus der sich meine These des Mit-Kunst-Denkens entwickeln lässt. Sie kann aus der Grundvoraussetzung des Deleuzeschen Denkens heraus begründet werden, die besagt, dass nicht nur die Kunst, sondern auch die Philosophie eine schöpferische Tätigkeit ist. Beide Disziplinen beruhen auf dem Prinzip der creatio continua, durch welche die Kunst Empfindungen und die Philosophie Begriffe schöpft, wobei eben genau dieser schöpferische Prozess Kunst und Philosophie in ein produktives Verhältnis zueinander treten lässt. Wie Deleuze seine Begriffsarbeit entlang künstlerischer Praxis entwickelt, wird anhand der Analyse des bis heute wenig rezipierten Textes Ein Manifest weniger in Bezug auf das Theater von Carmelo Bene analysiert. Eine ganz anderen Zugang zum Entwurf einer praktischen Ästhetik liefert Hans Blumenberg, der eine Theorie der Unbegrifflichkeit in Aussicht stellt. Im Anschluss an seine Forderung, die Metapher wieder vermehrt in die philosophische Denkpraxis zu integrieren, radikalisiert er seine Forderung, auch das Nichtanschauliche zu berücksichtigen, indem er das gänzlich Unbegriffliche an die Seite des Begrifflichen stellt. Definitorische Schwäche zeigt sich als wahrhaftige Stärke, die in der Unbegrifflichkeit ihren Zenit erreicht. Der Schiffbruch wird von mir als zentrale Metapher – gewissermassen als Metapher der Metapher – verstanden, die das Auf-Grund-Laufen des Allwissenden veranschaulicht. Im Schiffbruch wird die produktive Kollision von Theorie und Praxis deutlich. Deleuze und Blumenberg zeigen über ‚creatio continua’ und ‚Unbegrifflichkeit’ die Grenzen des Begreifens, indem sie betonen, dass sich Ästhetik nicht nur auf künstlerische Erfahrungen bezieht, sondern selber in das Gegenwärtigmachen von Erfahrungen involviert ist. Daraus folgt, dass ästhetische Reflexion nicht nur begrifflich agieren muss. Die praktische Ästhetik animiert dazu, andere darstellerische Formen (Bilder, Töne, Körper) als differente und ebenbürtige reflexive Modi anzuerkennen und sie als verletzbarmachende Formate der Sprache an die Seite zu stellen. Diese Lesart betont den gestalterischen Aspekt der Ästhetik selber. Zur Verdeutlichung dieser Kluft zwischen (Körper-)Bild und Begriff ist der von mir mitgestaltete Film Augen blickeN der Dissertation als Kapitel beigefügt. Dieser Film zeigt Performer und Performerinnen, die sich bewusst entschieden haben, ihren ‚abweichenden’ Körper auf der Bühne zu präsentieren. Das Wort Verletzbarkeit verweist auf die paradoxe Situation, etwas Brüchiges tragfähig zu machen und dadurch auch auf eine besondere Beziehungsform und auf ein existenzielles Aufeinander-Verwiesensein der Menschen. Verletzbarkeit geht alle an, und stiftet deshalb eine Gemeinsamkeit besonderer Art. In diesem Sinne sind verletzbare Orte nicht nur ästhetische, sondern auch ethische Orte, womit die politische Dimension des Vorhabens betont wird.
Der Adhäsionsprozess an Cellulosefasern sollte bis hin zur molekularen Ebene aufgeklärt werden. Zuerst wurde eine definierte Celluloseoberfläche durch Aufschleudern hergestellt und eingehend charakterisiert wurde. Die Beschaffenheit der Oberfläche ist stark abhängig von der Konzentration Celluloselösung, die für das Aufschleudern benutzt wurde. Für geringe Konzentrationen bildete sich ein Netzwerk von Cellulosefibrillen über die Siliziumoberfläche aus. In einem mittleren Bereich wurden geschlossene Filme mit Dicken zwischen 1,5 und ca. 10 nm erhalten. Diese Filme wiesen eine Rauhigkeit unter 2 nm auf, was der Größe eines Cellulosemoleküls entspräche. Mit höheren Konzentrationen wurden die Filme dicker und auch rauer. Die molekular glatten Cellulosefilme wurden zur Untersuchung der Adhäsionseigenschaften zwischen Celluloseoberflächen und ihrer Modifikation durch den Einfluss von Haftvermittlern (Polyelektrolyte) eingesetzt. Dafür wurde das Haftungsvermögen von Celluloseperlen auf der glatten Celluloseoberfläche analysiert. Die Adhäsion der Celluloseperlen hängt dabei von der Menge und von der Art des adsorbierten Polyelektrolyts ab. Geringe Polyelektrolytkonzentrationen ermöglichen wegen der teilweisen Bedeckung der Celluloseoberflächen eine Verstärkung der Haftvermittlung (Adhäsion). Höhere Konzentrationen an Polyelektrolyten bedecken die Celluloseoberfläche komplett, so dass die Symmetrie der Polyelektrolytadsorption entscheidend wird. Wenn Celluloseperlen und glatte Celluloseoberfläche gleichzeitig mit Polyelektrolyten beschichtet werden verringert sich bei hohen Konzentrationen die Adhäsion erheblich. Ein hohes Maß an Adhäsion wird dagegen erreicht, wenn nur eine der beiden gegenüberliegende Celluloseoberflächen separat beschichtet und dann in Kontakt mit der anderen gebracht Oberfläche wurde. Der Einfluss einer äußeren Kraft auf die haftenden Celluloseperlen wurde untersucht, um eine Aussage über die auftretenden Adhäsionskräfte machen zu können. Dafür wurde eine spezielle Strömungszelle entwickelt, mit der die Bewegung von Celluloseperlen beobachtet werden kann. Je nach Ausrichtung der Strömungszelle bewegten sich die Celluloseperlen unterschiedlich schnell. War die Strömungszelle horizontal ausgerichtet, wirkte zusätzlich zur Adhäsionskraft noch die Gravitation auf die Oberfläche, so dass hier eine wesentlich langsamere Durchschnittsgeschwindigkeit ermittelt wurde als für die Messungen in vertikaler Ausrichtung. Die Zugabe von verschiedenen Polyelektrolyten bei den Messungen mit der Strömungszelle hatte einen erheblichen Einfluss auf die Beweglichkeit der haftenden Celluloseperlen. Bei geringen Polyelektrolytkonzentrationen wurde das Potential der einzelnen Polyelektrolyten zur effektiven Haftvermittlung durch eine signifikant geringere Durchschnittsgeschwindigkeit der rollenden Celluloseperlen sichtbar. Aus der kritischen Anfangsgeschwindigkeit der rollenden Celluloseperlen wurde die Adhäsionsarbeit errechnet, die für die Bewegung nötig ist.
Die Honigbiene Apis mellifera gilt seit langem als Modell-Organismus zur Untersuchung von Lern- und Gedächtnisvorgängen sowie zum Studium des Sozialverhaltens und der Arbeitsteilung. Bei der Steuerung und Regulation dieser Verhaltensweisen spielt das Indolalkylamin Serotonin eine wesentliche Rolle. Serotonin entfaltet seine Wirkung durch die Bindung an G-Protein-gekoppelte Rezeptoren (GPCRs). In der vorliegenden Arbeit wird der erste Serotonin-Rezeptor aus der Honigbiene molekular charakterisiert. Durch die Anwendung zwei verschiedener Klonierungsstrategien konnten drei cDNA-Sequenzen isoliert werden, die für potentielle Serotonin-Rezeptoren kodieren. Die Sequenzen weisen die größte Ähnlichkeit zu dem 5-HT7- und 5-HT2-Rezeptor von Drosophila melanogaster bzw. dem 5-HT1-Rezeptor von Panulirus interruptus auf. Die isolierten Serotonin-Rezeptoren der Honigbiene wurden dementsprechend Am(Apis mellifera)5-HT1, Am5-HT2 und Am5-HT7 benannt. Das Hydropathieprofil des Am5-HT1-, Am5-HT2- und Am5-HT7-Rezeptors deutet auf das Vorhandensein des charakteristischen heptahelikalen Aufbaus G-Protein-gekoppelter Rezeptoren hin. Die abgeleiteten Aminosäuresequenzen zeigen typische Merkmale biogener Amin-Rezeptoren. Aminosäuren, die eine Bedeutung bei der Bildung der Liganden-Bindungstasche, der Rezeptor-Aktivierung und der Kopplung eines G-Proteins an den Rezeptor haben, sind in allen drei Rezeptoren konserviert. Interessanterweise ist jedoch das in den meisten biogenen Amin-Rezeptoren vorhandene DRY-Motiv in dem Am5-HT2- und Am5-HT7-Rezeptor nicht konserviert. Das Vorhandensein einer PDZ-Domäne in dem Am5-HT1- und Am5-HT7-Rezeptor lässt vermuten, dass diese Rezeptoren als Adapterproteine fungieren, die Signalmoleküle zu einem Signaltransduktionskomplex vereinigen. RT-PCR-Experimente zeigen die Expression der Rezeptoren in verschiedenen Geweben der Honigbiene. Auffallend ist die hohe Expression im Zentralgehirn. Des Weiteren konnte die Expression der Serotonin-Rezeptoren in den optischen Loben, Antennalloben sowie in der Peripherie, d.h. in der Flugmuskulatur und den Malpighischen Gefäßen nachgewiesen werden. Durch in situ Hybridisierungen wurde die Expression in Gefrierschnitten von Gehirnen adulter Sammlerinnen im Detail untersucht. Transkripte der Rezeptoren sind in den Somata von intrinsischen Pilzkörperzellen, Neuronen der optischen Loben und Neuronen der Antennalloben vorhanden. In einem heterologen Expressionssystem wurde der intrazelluläre Signalweg des Am5-HT7-Rezeptors untersucht. Die Aktivierung des stabil exprimierten Rezeptors durch Serotonin führt zur Bildung von cAMP. Der 5-HT7-Rezeptor spezifische Agonist 5-CT zeigt eine mit Serotonin vergleichbare Fähigkeit, die intrazelluläre cAMP-Konzentration zu erhöhen. Am5-HT7 gehört daher funktionell zu der Gruppe der 5-HT7-Rezeptoren. Der EC50-Wert von 1,06~nM (5-HT), ist im Vergleich zu anderen 5-HT7-Rezeptoren äußert niedrig. Des Weiteren wurde gezeigt, dass das basale cAMP-Niveau in den transfizierten Zellen im Vergleich zu nicht transfizierten Zellen deutlich erhöht ist. Das heißt, dass der Rezeptor auch in der Abwesenheit eines Liganden aktiv ist. Diese konstitutive Aktivität ist auch von anderen biogenen Amin-Rezeptoren bekannt. Methiothepin wurde als wirksamer inverser Agonist des Am5-HT7-Rezeptors identifiziert, da es in der Lage ist, der konstitutiven Aktivität entgegenzuwirken. Die Ergebnisse der vorliegenden Arbeit deuten darauf hin, dass die Serotonin-Rezeptoren in verschiedenen Regionen des ZNS der Honigbiene an der Informationsverarbeitung beteiligt sind. Es kann eine Beeinflussung von Lern- und Gedächtnisprozessen sowie des olfaktorischen und visuellen Systems durch diese Rezeptoren vermutet werden. Mit der Klonierung und funktionellen Charakterisierung des ersten Serotonin-Rezeptors der Honigbiene ist eine Grundlage für die Untersuchung der molekularen Mechanismen der serotonergen Signaltransduktion geschaffen worden.
Moderne Softwaresysteme sind komplexe Gebilde, welche häufig im Verbund mit anderen technischen und betriebswirtschaftlichen Systemen eingesetzt werden. Für die Hersteller solcher Systeme stellt es oft eine große Herausforderung dar, den oft weit reichenden Anforderungen bezüglich der Anpassbarkeit solcher Systeme gerecht zu werden. Zur Erfüllung dieser Anforderungen hat es sich vielfach bewährt, eine virtuelle Maschine in das betreffende System zu integrieren. Die Dissertation richtet sich insbesondere an Personen, die vor der Aufgabe der Integration virtueller Maschinen in bestehende Systeme stehen und zielt darauf ab, solche für die Entscheidung über Integrationsfragen wichtigen Zusammenhänge klar darzustellen. Typischerweise treten bei der Integration einer virtuellen Maschine in ein System eine Reihe unterschiedlicher Problemstellungen auf. Da diese Problemstellungen oft eng miteinander verzahnt sind, ist eine isolierte Betrachtung meist nicht sinnvoll. Daher werden die Problemstellungen anhand eines zentral gewählten, sehr umfangreichen Beispiels aus der industriellen Praxis eingeführt. Dieses Beispiel hat die Integration der "Java Virtual Machine" in den SAP R/3 Application Server zum Gegenstand. Im Anschluss an dieses Praxisbeispiel wird die Diskussion der Integrationsproblematik unter Bezug auf eine Auswahl weiterer, in der Literatur beschriebener Integrationsbeispiele vertieft. Das Hauptproblem bei der Behandlung der Integrationsproblematik bestand darin, dass die vorgefundenen Beschreibungen, der als Beispiel herangezogenen Systeme, nur bedingt als Basis für die Auseinandersetzung mit der Integrationsproblematik geeignet waren. Zur Schaffung einer verwertbaren Diskussionsgrundlage war es daher erforderlich, eine homogene, durchgängige Modellierung dieser Systeme vorzunehmen. Die Modellierung der Systeme erfolgte dabei unter Verwendung der "Fundamental Modeling Concepts (FMC)". Die erstellten Modelle sowie die auf Basis dieser Modelle durchgeführte Gegenüberstellung der unterschiedlichen Ansätze zur LÖsung typischer Integrationsprobleme bilden den Hauptbeitrag der Dissertation. Im Zusammenhang mit der Integration virtueller Maschinen in bestehende Systeme besteht häufig der Bedarf, zeitgleich mehrere "Programme" durch die integrierte virtuelle Maschine ausführen zu lassen. Angesichts der Konstruktionsmerkmale vieler heute verbreiteter virtueller Maschinen stellt die Realisierung eines "betriebsmittelschonenden Mehrprogrammbetriebs" eine große Herausforderung dar. Die Darstellung des Spektrums an Maßnahmen zur Realisierung eines "betriebsmittelschonenden Mehrprogrammbetriebs" bildet einen zweiten wesentlichen Beitrag der Dissertation.
Die Beeinflussung optischer Eigenschaften durch Bestrahlung stellt eine Grundlage für die Herstellung anisotroper optischer Komponenten dar. In dünnen Schichten von Azobenzen-Polymeren kann optische Anisotropie durch linear polarisierte Bestrahlung induziert oder modifiziert werden. Ziel der Arbeit war es, wesentliche Struktur-Eigenschafts-Beziehungen zum Prozess der Photoorientierung zu erarbeiten, um so eine Optimierung der Materialien für verschiedene Anwendungen ermöglichen. In isotropen Schichten flüssigkristalliner und amorpher Azobenzen-Polymeren wird das Ausmaß der induzierten optischen Anisotropie günstig durch eine Donor/Akzeptor-Substitution in 4,4'-Position beeinflusst. Die Induktionsgeschwindigkeit ist in Schichten flüssigkristalliner Polymeren deutlich geringer, jedoch lassen sich höhere Werte der Doppelbrechung und des Dichroismus erreichen. In Copolymeren bewirkt die Photoorientierung der Azobenzen-Seitengruppen eine kooperative Orientierung von formanisotropen Seitengruppen. Die Mesogenität der nicht-photochromen Seitengruppen erhöht das Ausmaß der induzierten optischen Anisotropie. Die Stabilität der induzierten Doppelbrechung und des Dichroismus wird durch diese Gruppen gesteigert. In Schichten flüssigkristalliner Polymeren wird die induzierte optische Anisotropie beim Tempern im Bereich der Mesophasen erheblich verstärkt. Dabei reicht ein geringes Maß an induzierter Anisotropie aus, um Doppelbrechungs- und Dichroismuswerte zu erzielen, wie sie für LC-Domänen typisch sind. In orientierten Schichten von Azobenzen-Polymeren wird das Resultat der linear polarisierten Bestrahlung durch die Stärke der anisotropen Wechselwirkungen in den flüssigkristallinen Domänen oder den LB-Multilayern bestimmt. Eine lichtinduzierte Reorientierung kann nur erreicht werden, wenn diese Wechselwirkungen überwunden werden können. Erfolgt eine Photoreorientierung in den orientierten Polymerschichten, werden in Copolymeren formanisotrope Seitengruppen ebenfalls kooperativ reorientiert. Eine vorgelagerte UV-Bestrahlung kann durch Erzeugung eines hohen Anteils an nicht-mesogenen Z-Isomeren die anisotropen Wechselwirkungen stark schwächen und so die Seitengruppen entkoppeln. Aus diesem Zustand erfolgt die Photoreorientierung mit einer der Photoorientierung in isotropen Schichten vergleichbaren Effizienz. Die erarbeiteten Struktur-Eigenschafts-Beziehungen liefern einen Beitrag zur Optimierung derartiger Materialien für Anwendungen in den Bereichen optischer Funktionsschichten, holographischer Datenspeicherung oder der Generierung von Oberflächenreliefgittern.
Das Borna Disease Virus (BDV, Bornavirus) besitzt ein einzelsträngiges RNA-Genom negativer Polarität und ist innerhalb der Ordnung Mononegavirales der Prototyp einer eigenen Virusfamilie, die der Bornaviridae. Eine außergewöhnliche Eigenschaft des Virus ist seine nukleäre Transkription und Replikation, eine weitere besteht in seiner Fähigkeit, als neurotropes Virus sowohl in vivo als auch in vitro persistente Infektionen zu etablieren. Die zugrunde liegenden Mechanismen sowohl der Replikation als auch der Persistenz sind derzeit noch unzureichend verstanden, auch deshalb, weil das Virus noch relativ „jung“ ist: Erste komplette Sequenzen des RNA-Genoms wurden 1994 publiziert und erst vor einigen Monaten gelang die Generierung rekombinanter Viren auf der Basis klonierter cDNA. Im Mittelpunkt dieser Arbeit standen das p10 Protein und das Phosphoprotein (P), die von der gemeinsamen Transkriptionseinheit II in überlappenden Leserahmen kodiert werden. Als im Kern der Wirtszelle replizierendes Virus ist das Bornavirus auf zelluläre Importmechanismen angewiesen, um den Kernimport aller an der Replikation beteiligten viralen Proteine zu gewährleisten. Das p10 Protein ist ein negativer Regulator der viralen RNA-abhängigen RNA-Polymerase (L). In vitro Importexperimente zeigten, dass p10 über den klassischen Importin alpha/beta abhängigen Kernimportweg in den Nukleus transportiert wird. Dies war unerwartet, da p10 kein vorhersagbares klassisches Kernlokalisierungssignal (NLS) besitzt und weist darauf hin, dass der zelluläre Importapparat offensichtlich flexibler ist als allgemein angenommen. Die ersten 20 N-terminalen AS vermitteln sowohl Kernimport als auch die Bindung an den Importrezeptor Importin alpha. Durch Di-Alanin-Austauschmutagenese wurden die für diesen Transportprozess essentiellen AS identifiziert und die Bedeutung hydrophober und polarer AS-Reste demonstriert. Die Fähigkeit des Bornavirus, persistente Infektionen zu etablieren, wirft die Frage auf, wie das Virus die zellulären antiviralen Abwehrmechanismen, insbesondere das Typ I Interferon (IFN)-System, unterwandert. Das virale P Protein wurde in dieser Arbeit als potenter Antagonist der IFN-Induktion charakterisiert. Es verhindert die Phosphorylierung des zentralen Transkriptionsfaktors IRF3 durch die zelluläre Kinase TBK1 und somit dessen Aktivierung. Der Befund, dass P mit TBK1 Komplexe bildet und zudem auch als Substrat für die zelluläre Kinase fungiert, erlaubt es, erstmalig einen Mechanismus zu postulieren, in dem ein virales Protein (BDV-P) als putatives TBK1-Pseudosubstrat die IRF3-Aktivierung kompetitiv hemmt.
Die Tailspike Proteine (TSP) der Bakteriophagen P22, Sf6 und HK620 dienen der Erkennung von Kohlenhydratstrukturen auf ihren gram-negativen Wirtsbakterien und zeigen, von den ersten 110 Aminosäuren des N-Terminus abgesehen, keine Sequenzübereinstimmung. Mit Röntgenkristallstrukturanalyse konnte gezeigt werden, dass HK620TSP und Sf6TSP ebenfalls zu einer parallelen, rechtsgängigen beta-Helix falten, wie dies schon für P22TSP bekannt war. Die Kohlenhydratbindestelle ist bei Sf6TSP im Vergleich zu P22TSP zwischen die Untereinheiten verschoben.
Bestimmung von Ozonabbauraten über der Arktis und Antarktis mittels Ozonsonden- und Satellitendaten
(2005)
Diese Arbeit beschäftigt sich mit der chemischen Ozonzerstörung im arktischen und antarktischen stratosphärischen Polarwirbel. Diese wird durch Abbauprodukte von anthropogen emittierten Fluorchlorkohlenwasserstoffen und Halonen, Chlor- und Bromradikale, verursacht. Studien in denen der gemessene und modellierte Ozonabbau verglichen wird zeigen, dass die Prozeße bekannt sind, der quantitative Verlauf allerdings nicht vollständig verstanden ist. Die Prozesse, die zur Ozonzerstörung führen sind in beiden Polarwirbeln ähnlich. Allerdings fällt als Konsequenz unterschiedlicher meteorologischer Bedingungen der chemische Ozonabbau im arktischen Polarwirbel weniger drastisch aus als über der Antarktis. Der arktische Polarwirbel ist im Mittel stärker dynamisch gestört als der antarktische und weist eine stärkere Jahr-zu-Jahr Variabilität auf. Das erschwert die Messung des chemischen Ozonabbaus. Zur Trennung des chemischen Ozonabbaus von der dynamischen Umverteilung des Ozons im arktischen Polarwirbel wurde die Matchmethode entwickelt. Bei dieser Methode werden Luftpakete innerhalb des Polarwirbels mehrfach beprobt, um den chemischen Anteil der Ozonänderung zu quantifizieren. Zur Identifizierung von doppelt beprobten Luftpaketen werden Trajektorien aus Windfeldern berechnet. Können zwei Messungen im Rahmen bestimmter Qualitätskriterien durch eine Trajektorie verbunden werden, kann die Ozondifferenz zwischen beiden Sondierungen berechnet und als chemischer Ozonabbau interpretiert werden. Eine solche Koinzidenz wird Match genannt. Der Matchmethode liegt ein statistischer Ansatz zugrunde, so dass eine Vielzahl solcher doppelt beprobter Luftmassen vorliegen muss, um gesicherte Aussagen über die Ozonzerstörung gewinnen zu können. So erhält man die Ozonzerstörung in einem bestimmten Zeitintervall, also Ozonabbauraten. Um die Anzahl an doppelt beprobten Luftpackten zu erhöhen wurde eine aktive Koordinierung der Ozonsondenaufstiege entwickelt. Im Rahmen dieser Arbeit wurden Matchkampagnen während des arktischen Winters 2002/2003 und zum ersten Mal während eines antarktischen Winter (2003) durchgeführt. Aus den gewonnenen Daten wurden Ozonabbauraten in beiden Polarwirbeln bestimmt. Diese Abbauraten dienen zum einen der Evaluierung von Modellen, ermöglichen aber auch den direkten Vergleich von Ozonabbauraten in beiden Polarwirbeln. Der Winter 2002/2003 war zu Beginn durch sehr tiefe Temperaturen in der mittleren und unteren Stratosphäre charakterisiert, so dass die Matchkampagne Ende November gestartet wurde. Ab Januar war der Polarwirbel zeitweise stark dynamisch gestört. Die Kampagne ging bis Mitte März. Für den Höhenbereich von 400 bis 550 K potentieller Temperatur (15-23 km) konnten Ozonabbauraten und der Verlust in der Gesamtsäule berechnet werden. Die Ozonabbauraten wurden in verschiedenen Tests auf ihre Stabilität überprüft. Der antarktische Polarwirbel war vom Beginn des Winters bis Mitte Oktober 2003 sehr kalt und stellte Ende September kurzzeitig den Rekord für die größte bisher aufgetretene Ozonloch-Fläche ein. Es konnten für den Kampagnenzeitraum, Anfang Juni bis Anfang Oktober, Ozonabbauraten im Höhenbereich von 400 bis 550 K potentieller Temperatur ermittelt werden. Der zeitliche Verlauf des Ozonabbaus war dabei auf fast allen Höhenniveaus identisch. Die Zunahme des Sonnenlichtes im Polarwirbel mit der Zeit führt zu einem starken Anwachsen der Ozonabbauraten. Ab Mitte September gingen die Ozonabbauraten auf Null zurück, da bis zu diesem Zeitpunkt das gesamte Ozon zwischen ca. 14 und 21 km zerstört wurde. Im letzten Teil der Arbeit wird ein neuer Algorithmus auf Basis der multivariaten Regression vorgestellt, mit dem Ozonabbauraten aus Ozonprofilen verschiedener Sensoren gleichzeitig berechnet werden können. Dabei können neben der Ozonabbaurate die systematischen Fehler zwischen den einzelnen Sensoren bestimmt werden. Dies wurde exemplarisch am antarktischen Winter 2003 für das 475 K potentielle Temperatur Niveau gezeigt. Neben den Ozonprofilen der Sonden wurden Daten von zwei Satellitenexperimenten verwendet. Die mit der multivariaten Matchtechnik berechneten Ozonabbauraten stimmen gut mit den Ozonabbauraten der Einzelsensor-Matchansätze überein.
Am Beispiel der Orgelpfeife wurde der Einfluss der Wandungsgeometrie des akustischen Wellenleiters auf die Schallabstrahlung untersucht. Für verschiedene Metalllegierungen wurden unterschiedliche Profile der Orgelpfeifenwandung verglichen: ein konisches Wandungsprofil mit zur Mündung hin abnehmender Wandungsstärke und ein paralleles Wandungsprofil mit konstanter Wandungsstärke. Für eine hohe statistische Sicherheit der Ergebnisse wurden sämtliche Untersuchungen an vier mal zehn Testpfeifen durchgeführt. Mit Ausnahme der beschriebenen Unterschiede sind die Pfeifen von gleichen Abmessungen und auf gleichen Klang intoniert. Die Überprüfung der Wandungseinflüsse auf den Klang besteht aus drei verschiedenen Untersuchungen: Erstens, einer subjektiven Hinterfragung der Wahrnehmbarkeit in einem Hörtest. Zweitens wurde der abgestrahlte Luftschall objektiv gemessen und das Spektrum der Pfeifen in seinen Komponenten (Teiltöne, Grundfrequenz) verglichen. Drittens wurde mit einer neuartigen Messtechnik die Oszillation des Pfeifenkörpers (ein einem akustischen Monopol entsprechendes "Atmen" des Querschnitts) untersucht. Die Ergebnisse belegen die Wahrnehmbarkeit unterschiedlicher Wandungsprofile als auch klare objektive Differenzen zwischen den emittierten Schallspektren. Ein Atmen mit guter Korrelation zur inneren Druckanregung bestätigt den Einfluss wandungsprofilabhängiger Oszillationen auf den Klang der Orgelpfeife. Schließlich wurde die Interaktion zweier in Abstand und Grundfrequenz nah beieinander liegender Orgelpfeifen überprüft. Als Ursache des dabei wahrnehmbaren Oktavsprung des Orgeltons konnte eine gegenphasiger Oszillation des Grundtons beider Pfeifen nachgewiesen werden.
Im Rahmen dieser Arbeit wurde ein besseres Verständnis der Kopplung der Troposphäre und der Stratosphäre in den mittleren und polaren Breiten der Nordhemisphäre (NH) auf Monatszeitskalen erzielt, die auf die Ausbreitung von quasi-stationären Wellen zurückzuführen ist. Der Schwerpunkt lag dabei auf den dynamisch aktiven Wintermonaten, welche die grösste Variabilität aufweisen. Die troposphärische Variabilität wird zum Grossteil durch bevorzugte Zirkulationsstrukturen, den Telekonnexionsmustern, bestimmt. Mittels einer rotierten EOF-Analyse der geopotenziellen Höhe in 500 hPa wurden die wichtigsten regionalen troposphärischen Telekonnexionsmuster der Nordhemisphäre berechnet. Diese lassen sich drei grossen geografischen Regionen zuordnen; dem nordatlantisch-europäischen Raum, Eurasien und dem pazifisch-nordamerikanischen Raum. Da es sich um die stärksten troposphärischen Variabilitätsmuster handelt, wurden sie als grundlegende troposphärische Grössen herangezogen, um dynamische Zusammenhänge zwischen der troposphärischen und der stratosphärischen Zirkulation zu untersuchen. Dabei wurde anhand von instantanen und zeitverzögerten Korrelationsanalysen der troposphärischen Muster mit stratosphärischen Variablen erstmalig gezeigt, dass unterschiedliche regionale troposphärische Telekonnexionsmuster unterschiedliche Auswirkungen auf die stratosphärische Zirkulation haben. Es ergaben sich für die pazifisch-nordamerikanischen Muster signifikante instantane Korrelationen mit quasi-barotropen Musterstrukturen und für die nordatlantisch-europäischen Muster zonalsymmetrische Ringstrukturen ab 1978 mit signifikanten Korrelationswerten über tropischen und subtropischen Breiten und inversen Korrelationswerten über polaren Gebieten. Bei einer Untersuchung des Einflusses der stratosphärischen Variabilität wurde gezeigt, dass sich die stärkste Kopplung von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation bei einem in Richtung Europa verschobenen Polarwirbel ergibt, wodurch die signifikanten Korrelationen ab 1978 erklärt werden können. Eine zonal gemittelte und vor allem lokale Untersuchung der Wellenausbreitungsbedingungen während dieser stratosphärischen Situation zeigt, dass es zu schwächeren Windgeschwindigkeiten in der Stratosphäre im Bereich von Nordamerika und des westlichen Nordatlantiks kommt und sich dadurch die Wellenausbreitungsbedingungen in diesem geografischen Bereich für planetare Wellen verbessern. Durch die stärkere Wellenausbreitung kommt es zu einer stärkeren Wechselwirkung mit dem Polarjet, wobei dieser abgebremst wird. Diese Abbremsung führt zu einer Verstärkung der meridionalen Residualzirkulation. D. h., wenn es zu einer verstärkten Wellenanregung im Nordatlantik und über Europa kommt, ist die Reaktion der Residualzirkulation bei einem nach Europa verschobenem Polarwirbel besonders stark. Die quasi-barotropen Korrelationsstrukturen, die sich bei den pazifisch-nordamerikanischen Mustern zeigen, weisen aufgrund von abnehmenden Störungsamplituden mit zunehmender Höhe, keiner Westwärtsneigung und einem negativen Brechungsindex im Pazifik auf verschwindende Wellen hin, die als Lösung der Wellengleichung bei negativem Brechungsindex auftreten. Dies wird durch den Polarjet, der im Bereich des Pazifiks stets sehr weit in Richtung Norden verlagert ist, verursacht. Abschliessend wurde in dieser Arbeit untersucht, ob die gefundenen Zusammenhänge von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation auch von einem Atmosphärenmodell wiedergegeben werden können. Dazu wurde ein transienter 40-Jahre-Klimalauf des ECHAM4.L39(DLR)/CHEM Modells mit möglichst realistischen Antrieben erstmalig auf die Kopplung der Troposphäre und der Stratosphäre analysiert. Dabei konnten sowohl die troposphärischen, als auch die stratosphärischen Variabilitätsmuster vom Modell simuliert werden. Allerdings zeigen sich in den stratosphärischen Mustern Phasenverschiebungen in den Wellenzahl-1-Strukturen und ihre Zeitreihen weisen keinen signifikanten Trend ab 1978 auf. Die Kopplung der nordatlantisch-europäischen Telekonnexionsmuster mit der stratosphärischen Zirkulation zeigt eine wesentlich schwächere Reaktion der meridionalen Residualzirkulation. Somit stellte sich heraus, dass insbesondere die stratosphärische Zirkulation im Modell starke Diskrepanzen zu den Beobachtungen zeigt, die wiederum Einfluss auf die Wellenausbreitungsbedingungen haben. Es wird damit deutlich, dass für eine richtige Wiedergabe der Wellenausbreitung und somit der Kopplung der Troposphäre und Stratosphäre die stratosphärische Zirkulation eine wichtige Rolle spielt.
Durch die Stilllegung der Kali-Gewinnung und -Produktion zwischen 1990 und 1993 sowie die begonnene Rekultivierung der Kali-Rückstandshalden haben sich die Salzfrachteintragsbedingungen für die Fließgwewässer im "Südharz-Kalirevier" in Thüringen zum Teil deutlich verändert. Aufgrund erheblich geringerer Salzeinträge in die Vorfluter Wipper und Bode ist es möglich geworden, zu einer ökologisch verträglichen Salzfrachtsteuerung überzugehen. Die Komplexität der zugrunde liegenden Stofftransportprozesse im Einzugsgebiet der Wipper macht es jedoch unumgänglich, den Steuerungsvorgang nicht nur durch reine Bilanzierungsvorgänge auf der betrachteten Steuerstrecke zu erfassen (so wie bisher praktiziert), sondern auch die Abflussdynamik im Fließgewässer und den Wasserhaushalt im Gebiet mit einzubeziehen. Die Ergebnisse dieser Arbeit dienen zum einen einer Vertiefung der Prozessverständnisse und der Interaktion von Wasserhaushalt, Abflussbildung sowie Stofftransport in bergbaubeeinflussten Einzugsgebieten am Beispiel der Unstrut bzw. ihrer relevanten Nebenflüsse. Zum anderen sollen sie zur Analyse und Bewertung eines Bewirtschaftungsplanes für die genannten Fließgewässer herangezogen werden können. Ziel dieser Arbeit ist die Erstellung eines prognosetauglichen Steuerungsinstrumentes, das für die Bewirtschaftung von Flusseinzugsgebieten unterschiedlicher Größe genutzt und unter den Rahmenbedingungen der bergbaubedingten salinaren Einträge effektiv zur Steuerung der anthropogenen Frachten eingesetzt werden kann. Die Quellen der anthropogen eingeleiteten Salzfracht sind vor allem die Rückstandshalden der stillgelegten Kaliwerke. Durch Niederschläge entstehen salzhaltige Haldenabwässer, die zum Teil ungesteuert über oberflächennahe Ausbreitungsvorgänge direkt in die Vorfluter gelangen, ein anderer Teil wird über die Speichereinrichtungen gefasst und gezielt abgestoßen. Durch Undichtigkeiten des Laugenstapelbeckens in Wipperdorf gelangen ebenfalls ungesteuerte Frachteinträge in die Wipper. Ein weiterer Eintragspfad ist zudem die geogene Belastung. Mit Hilfe detaillierter Angaben zu den oben genannten Eintragspfaden konnten Modellrechnungen im Zeitraum von 1992 bis 2003 durchgeführt werden. Durch die Ausarbeitung eines neuartigen Steuerungskonzeptes für das Laugenstapelbecken Wipperdorf, war es nun möglich, die gefasste Haldenlauge entsprechend der aktuellen Abflusssituation gezielt abstoßen zu können. Neben der modelltechnischen Erfassung der aktuellen hydrologischen Situation und der Vorgabe eines Chlorid-Konzentrationssteuerzieles für den Pegel Hachelbich, mussten dabei weitere Randbedingungen (Beckenkapazität, Beckenfüllstand, Mindestfüllstand, Kapazität des Ableitungskanals, usw.) berücksichtigt werden. Es zeigte sich, dass unter Anwendung des Steuerungskonzeptes die Schwankungsbreite der Chloridkonzentration insgesamt gesehen deutlich verringert werden konnte. Die Überschreitungshäufigkeiten bezüglich eines Grenzwertes von 2 g Chlorid/l am Pegel Hachelbich fielen deutlich, und auch die maximale Dauer einer solchen Periode konnte stark verkürzt werden. Kritische Situationen bei der modelltechnischen Frachtzusteuerung traten nur dann auf, wenn Niedrigwasserverhältnisse durch die Simulationsberechnungen noch unterschätzt wurden. Dies hatte deutliche Überschreitungen der Zielvorgaben für den Pegel Hachelbich zur Folge. Mit Hilfe des Steuerungsalgorithmus konnten desweiteren auch Szenarienberechnungen durchgeführt werden, um die Auswirkungen zukünftig zu erwartender Salzfrachten näher spezifizieren zu können. Dabei konnte festgestellt werden, dass Abdichtungsmaßnahmen der Haldenkörper sich direkt positiv auf die Entwicklung der Konzentration in Hachelbich auswirkten. Durch zusätzlich durchgeführte Langzeitszenarien konnte darüber hinaus nachgewiesen werden, dass langfristig eine Grenzwertfestlegung auf 1,5 g Chlorid/l in Hachelbich möglich ist, und die Stapelkapazitäten dazu ausreichend bemessen sind.
Aufgrund des großen Verhältnisses von Oberfläche zu Volumen zeigen Nanopartikel interessante, größenabhängige Eigenschaften, die man im ausgedehnten Festkörper nicht beobachtet. Sie sind daher von großem wissenschaftlichem und technologischem Interesse. Die Herstellung kleinster Partikel ist aus diesem Grund überaus wünschenswert. Dieses Ziel kann mit Hilfe von Mikroemulsionen als Templatphasen bei der Herstellung von Nanopartikeln erreicht werden. Mikroemulsionen sind thermodynamisch stabile, transparente und isotrope Mischungen von Wasser und Öl, die durch einen Emulgator stabilisiert sind. Sie können eine Vielzahl verschiedener Mikrostrukturen bilden. Die Kenntnis der einer Mikroemulsion zugrunde liegenden Struktur und Dynamik ist daher von außerordentlicher Bedeutung, um ein gewähltes System potentiell als Templatphase zur Nanopartikelherstellung einsetzen zu können. In der vorliegenden Arbeit wurden komplexe Mehrkomponentensysteme auf der Basis einer natürlich vorkommenden Sojabohnenlecithin-Mischung, eines gereinigten Lecithins und eines Sulfobetains als Emulgatoren mit Hilfe der diffusionsgewichteten 1H-NMR-Spektroskopie unter Verwendung gepulster Feldgradienten (PFG) in Abhängigkeit des Zusatzes des Polykations Poly-(diallyl-dimethyl-ammoniumchlorid) (PDADMAC) untersucht. Der zentrale Gegenstand dieser Untersuchungen war die strukturelle und dynamische Charakterisierung der verwendeten Mikroemulsionen hinsichtlich ihrer potentiellen Anwendbarkeit als Templatphasen für die Herstellung möglichst kleiner Nanopartikel. Die konzentrations- und zeit-abhängige NMR-Diffusionsmessung stellte sich dabei als hervorragend geeignete und genaue Methode zur Untersuchung der Mikrostruktur und Dynamik in den vorliegenden Systemen heraus. Die beobachtete geschlossene Wasser-in-Öl- (W/O-) Mikrostruktur der Mikroemulsionen zeigt deutlich deren potentielle Anwendbarkeit in der Nanopartikelsynthese. Das Gesamtdiffusionsverhalten des Tensides wird durch variierende Anteile aus der Verschiebung gesamter Aggregate, der Monomerdiffusion im Medium bzw. der medium-vermittelten Oberflächendiffusion bestimmt. Dies resultierte in einigen Fällen in einer anormalen Diffusionscharakteristik. In allen Systemen liegen hydrodynamische und direkte Wechselwirkungen zwischen den Tensidaggregaten vor. Der Zusatz von PDADMAC zu den Mikroemulsionen resultiert in einer Stabilisierung der flüssigen Grenzfläche der Tensidaggregate aufgrund der Adsorption des Polykations auf den entgegengesetzt geladenen Tensidfilm und kann potentiell zu Nanopartikeln mit kleineren Dimensionen und schmaleren Größenverteilungen führen.
In den letzten 20 Jahren hat sich der Maiszünsler (Ostrinia nubilalis HÜBNER), aus der Schmetterlingsfamilie der Pyralidae oder Zünsler, zum bedeutendsten tierischen Schädling des Maises (Zea mays) entwickelt. Eine Möglichkeit den Befall des Maiszünslers abzuwenden, bietet der Anbau von Bacillus thuringiensis-Mais (Bt-Mais). Mit Hilfe der Gentechnik wurden Gene des Bakteriums Bacillus thuringiensis übertragen, die einen für Fraßinsekten giftigen Wirkstoff bilden, wodurch die Pflanzen während der kompletten Vegetation vor den Larven des Maiszünslers geschützt sind. Ziel des vorliegenden Projektes war es, in einer 3-jährigen Studie die Auswirkungen des großflächigen Anbaus von Bt-Mais auf die ökologische Situation und den Handlungsrahmen des integrierten Pflanzenschutzes komplex zu untersuchen. Dazu wurden in Betrieben im Oderbruch, das als permanentes Befallsgebiet des Maiszünslers gilt, in den Jahren 2002 bis 2004 jährlich zwei Felder mit jeweils einer Bt-Sorte und einer konventionellen Sorte angelegt. Zusätzlich wurden biologische und chemische Maiszünsler-Bekämpfungsvarianten geprüft. Durch verschiedene Methoden wie Bonituren, Ganzpflanzenernten, Bodenfallenfänge und Beobachtungen des Wahlverhaltens von (Flug-)insekten konnten Aussagen zum Vorkommen von Insekten und Spinnentieren getroffen werden, wobei hierfür Daten aus Untersuchungen der Jahre 2000 und 2001 im Oderbruch ergänzend herangezogen werden konnten. Durch Ertragsmessungen, Energie- und Qualitätsermittlungen, sowie Fusarium- und Mykotoxinanalysen konnte der Anbau von Bt-Mais als neue Alternative zur Bekämpfung des Maiszünslers bewertet werden. Bezüglich des Auftretens von Insekten und Spinnentieren wurden im Mittel der fünfjährigen Datenerhebung beim Vergleich der Bt-Sorte zur konventionellen Sorte, mit Ausnahme der fast 100 %igen Bekämpfung des Maiszünslers, keine signifikanten Unterschiede festgestellt. Hierfür wurde ein besonderes Augenmerk auf Thripse, Wanzen, Blattläuse und deren Fraßfeinde, sowie mittels Bodenfallenfängen auf Laufkäfer und Spinnen gerichtet. Die erwarteten ökonomischen Vorteile wie etwa Ertragsplus oder bessere Nährstoff- und Energiegehalte durch geringeren Schaden beim Anbau von Bt-Mais als Silomais blieben in den Untersuchungsjahren aus. Allerdings zeigten Fusarium- und Mykotoxinanalysen eine geringere Belastung des Bt-Maises, was möglicherweise auf den geringeren Schaden zurückzuführen ist, da beschädigte Pflanzen für Fusarium und Mykotoxine anfälliger sind. Desweiteren konnten erste methodische Ansätze für ein auf EU-Ebene gefordertes, den Anbau von Bt-Mais begleitendes Monitoring, erarbeitet werden. So konnten Vorschläge für geeignete Methoden, deren Umfang sowie des Zeitpunktes der Durchführungen gemacht werden.
Homocystein (tHcy) gilt als unabhängiger kardiovaskulärer Risikofaktor und korreliert eng mit einer endothelialen Dysfunktion, welche nichtinvasiv mittels der flussinduzierten Vasodilatation (FMD) messbar ist. Experimentelle Hyperhomocysteinämie ist mit einer reduzierten Bioverfügbarkeit von endothelialen Stickstoffmonoxid (NO) bei gleichzeitig erhöhten Spiegeln des kompetetiven Inhibitors der NO-Biosynthese asymmetrisches Dimethylarginin (ADMA) assoziiert. In-vivo senkt eine Östrogenbehandlung neben tHcy auch die ADMA-Spiegel und verbessert signifikant die Endothelfunktion. Hinsichtlich ihrer Wirkung als selektive Östrogenrezeptormodulatoren wird angenommen, dass Phytoöstrogene, speziell Sojaisoflavone, ähnliche Effekte hervorrufen. Innerhalb einer europäischen, multizentrischen, doppelblinden Interventionsstudie an 89 gesunden, postmenopausalen Frauen wurde der Einfluss von Sojaisoflavonen auf den Homocysteinmetabolismus, den Blutdruck und die in-vivo Endothelfunktion untersucht. Die cross-over Studie umfasste zwei achtwöchige Interventionsperioden, die von einer gleichlangen Wash-out-Phase unterbrochen waren. Die Zuteilung zum Isoflavon- (50 mg/d) oder Plazeboregime für die erste Interventionsphase erfolgte randomisiert. Endpunkterhebungen fanden jeweils in den Wochen 0 und 8 der Interventionsperioden statt. Die renale Ausscheidung von Genistein, Daidzein und Equol war während der Isoflavonintervention signifikant erhöht (P>0,001). Die Phyoöstrogene hatten weder einen Effekt auf die tHcy-Konzentration (P=0,286), noch auf ADMA, Erythrozytenfolat und Vitamin B-12 (P>0,05) im Plasma. Während die Summe aus Nitrat und Nitrit (NOx), welche die NO-Bioverfügbarkeit reflektiert, im Verlaufe der Plazebobehandlung abfiel, wurde ein leichter Anstieg bei der Isoflavonsupplementation beobachtet (Delta Wo8-Wo0: -2,60 [-8,75; 2,25] vs. 1,00 [-6,65; 7,85] µmol/L P<0,001), was zu einem signifikanten Behandlungseffekt führte. Weiterhin wurde eine positive Korrelation zwischen ADMA und Vitamin B-12 gefunden (R=0,252; P=0,018). Die flussinduzierte Vasodilatation (P=0,716), ein Maß für die Endothelfunktion, blieb durch die Isoflavonbehandlung unbeeinflusst, obwohl sich diese über die Zeit insgesamt verbesserte (P>0,001). Bis auf einen marginalen Anstieg des systolischen Wertes (P=0,032) im Vergleich zur Plazebobehandlung blieb der Blutdruck während der Isoflavonintervention unverändert. Im Gegensatz zu Östrogen übten Sojaisoflavone weder einen Einfluss auf die in-vivo Endothelfunktion noch auf die traditionellen und neuen kardiovaskulären Risikofaktoren den Blutdruck, tHcy und ADMA aus. Demzufolge ist der gesundheitliche Nutzen isolierter Isoflavone hinsichtlich einer Prävention hormonmangelbedingter Erkrankungen in gesunden postmenopausalen Frauen fraglich.
Polymere sind zweifelsohne der Werkstoff in unserer Zeit. Ein bedeutender Anteil der heute industriell produzierten Polymere wird durch Emulsionspolymerisation hergestellt. Obwohl die Emulsionspolymerisation breite Anwendung findet, sind die involvierten Mechanismen von Teilchenbildung und -wachstum noch heute Gegenstand heftiger Kontroversen. Ein Spezialfall der Emulsionspolymerisation ist die emulgatorfreie Emulsionspolymerisation. Hierbei handelt es sich um ein scheinbar einfacheres System der Emulsionspolymerisation, weil diese Methode ohne Zusatz von Emulgatoren auskommt. Die Teilchenbildung ist ein fundamentaler Vorgang im Verlauf der Emulsionspolymerisation, da sie zur Ausbildung der polymeren Latexphase führt. Detaillierte Kenntnisse zum Mechanismus der Nukleierung ermöglichen eine bessere Kontrolle des Reaktionsverlaufes und damit der Eigenschaften des Endproduktes der Emulsionspolymerisation, dem Polymer-Latex. Wie bereits vorangegangene Arbeiten auf dem Gebiet der emulgatorfreien Emulsionspolymerisation von Styrol sowie Methylmethacrylat und Vinylacetat zeigen konnten, verläuft die Teilchenbildung in diesen Systemen über den Mechanismus der aggregativen Nukleierung. Im Zusammenhang mit den Ergebnissen der genannten Arbeiten tauchte dabei immer wieder ein interessanter Effekt im Bereich der Partikelnukleierung auf. Dieses als JUMBO-Effekt bezeichnete Phänomen zeigte sich reproduzierbar in einem Anstieg der Transmission im Bereich der Teilchenbildung von emulgatorfreien Emulsionspolymerisationen von Styrol, MMA und VAc. Nach der Initiierung der Polymerisation in einer wässrigen Monomerlösung durch Kaliumperoxodisulfat steigt die Durchlässigkeit bei 546 nm auf über 100 % an. Für diese „Abnahme der optischen Dichte“ wurden verschiedene Erklärungsmöglichkeiten vorgeschlagen, jedoch blieb ein Nachweis der Ursache für den JUMBO-Effekt bisher aus. Dieser Mangel an Aufklärung eines offenbar grundlegenden Phänomens in der emulgatorfreien Emulsionspolymerisation bildet den „Nukleus“ für die vorlie¬gende Arbeit. Durch die vorliegende Dissertation konnte das Verständnis für Phänomene der Teilchenbildung in der emulgatorfreien Emulsionspolymerisation von Styrol mit KPS erweitert werden. In diesem Rahmen wurde das Online-Monitoring des Polymerisationsvorganges verbessert und um verschiedene Methoden erweitert: Zur simultanen Erfassung von Trübungsdaten bei verschiedenen Wellenlängen konnte ein modernes Spektrometer in Kombination mit einer Lichtleitersonde in die Reaktionsapparatur integriert werden. Es wurde ein verbesserter Algorithmus zur Datenbearbeitung für die Partikelgrößenbestimmung mittels faseroptischer dynamischer Lichtstreuung entwickelt. Es wurden Online-Partikelgrößenanalysen mittels statischer Vielwinkellichtstreuung bei Polymerisationen direkt in entsprechenden Lichtstreuküvetten durchgeführt. Diese zur Beschreibung des untersuchten Systems eingeführten Methoden sowie ein zeitlich vollständiges Monitoring des gesamten Polymerisationsverlaufes, beginnend mit der Zugabe von Monomer zu Wasser, führten zu neuen Erkenntnissen zur emulgatorfreien Emulsionspolymerisation. Es wurden große Monomeraggregate, die sog. Nanotröpfchen, in wässriger Lösung (emulgatorfrei) nachgewiesen. Diese Aggregate bilden sich spontan und treten verstärkt in entgastem Wasser auf. Die Existenz von Nanotröpfchen in Verbindung mit Trübungs- und gaschromatografischen Messungen lässt auf eine molekular gelöste „Wirkkonzentration“ von Styrol in Wasser schließen, die bedeutend geringer ist als die absolute Sättigungskonzentration. Es konnten Hinweise auf eine Reaktion höherer Ordnung im System Wasser/Styrol/KPS gefunden werden. Es konnte gezeigt werden, dass eine präzise Einstellung der Nukleierungsdauer über die Zeit der Equilibrierung von Wasser mit Styrol möglich ist. Der JUMBO-Effekt, dem in dieser Arbeit ein besonderes Interesse galt, konnte in gewisser Weise entmystifiziert werden. Es konnte gezeigt werden, dass die Durchlässigkeit der Reaktionsmischung bereits beim Lösen von Styrol in Wasser durch Bildung von Styrolaggregaten abnimmt. Der darauf folgende kurzzeitige Transmissionsanstieg im Zusammenhang mit der Nukleierung erreicht dabei nicht mehr 100 % des Referenzwertes von reinem Wasser. Alle experimentellen Daten sprechen für die Nanotröpfchen als Ursache des JUMBO-Effekts. Wie die Ergebnisse dieser Arbeit zeigen, ist selbst das relativ „einfache“ System der emulgatorfreien Emulsionspolymerisation komplizierter als angenommen. Die Existenz von großen Styrolaggregaten in wässriger Lösung erfordert eine neue Betrachtungsweise des Reaktionssystems, in die auch der Lösungszustand des Monomers mit einbezogen werden muss.
Thema dieser Arbeit sind echtzeitfähige 3D-Renderingverfahren, die 3D-Geometrie mit über der Standarddarstellung hinausgehenden Qualitäts- und Gestaltungsmerkmalen rendern können. Beispiele sind Verfahren zur Darstellung von Schatten, Reflexionen oder Transparenz. Mit heutigen computergraphischen Software-Basissystemen ist ihre Integration in 3D-Anwendungssysteme sehr aufwändig: Dies liegt einerseits an der technischen, algorithmischen Komplexität der Einzelverfahren, andererseits an Ressourcenkonflikten und Seiteneffekten bei der Kombination mehrerer Verfahren. Szenengraphsysteme, intendiert als computergraphische Softwareschicht zur Abstraktion von der Graphikhardware, stellen derzeit keine Mechanismen zur Nutzung dieser Renderingverfahren zur Verfügung. Ziel dieser Arbeit ist es, eine Software-Architektur für ein Szenengraphsystem zu konzipieren und umzusetzen, die echtzeitfähige 3D-Renderingverfahren als Komponenten modelliert und es damit erlaubt, diese Verfahren innerhalb des Szenengraphsystems für die Anwendungsentwicklung effektiv zu nutzen. Ein Entwickler, der ein solches Szenengraphsystem nutzt, steuert diese Komponenten durch Elemente in der Szenenbeschreibung an, die die sichtbare Wirkung eines Renderingverfahrens auf die Geometrie in der Szene angeben, aber keine Hinweise auf die algorithmische Implementierung des Verfahrens enthalten. Damit werden Renderingverfahren in 3D-Anwendungssystemen nutzbar, ohne dass ein Entwickler detaillierte Kenntnisse über sie benötigt, so dass der Aufwand für ihre Entwicklung drastisch reduziert wird. Ein besonderer Augenmerk der Arbeit liegt darauf, auf diese Weise auch verschiedene Renderingverfahren in einer Szene kombiniert einsetzen zu können. Hierzu ist eine Unterteilung der Renderingverfahren in mehrere Kategorien erforderlich, die mit Hilfe unterschiedlicher Ansätze ausgewertet werden. Dies erlaubt die Abstimmung verschiedener Komponenten für Renderingverfahren und ihrer verwendeten Ressourcen. Die Zusammenarbeit mehrerer Renderingverfahren hat dort ihre Grenzen, wo die Kombination von Renderingverfahren graphisch nicht sinnvoll ist oder fundamentale technische Beschränkungen der Verfahren eine gleichzeitige Verwendung unmöglich machen. Die in dieser Arbeit vorgestellte Software-Architektur kann diese Grenzen nicht verschieben, aber sie ermöglicht den gleichzeitigen Einsatz vieler Verfahren, bei denen eine Kombination aufgrund der hohen Komplexität der Implementierung bislang nicht erreicht wurde. Das Vermögen zur Zusammenarbeit ist dabei allerdings von der Art eines Einzelverfahrens abhängig: Verfahren zur Darstellung transparenter Geometrie beispielsweise erfordern bei der Kombination mit anderen Verfahren in der Regel vollständig neuentwickelte Renderingverfahren; entsprechende Komponenten für das Szenengraphsystem können daher nur eingeschränkt mit Komponenten für andere Renderingverfahren verwendet werden. Das in dieser Arbeit entwickelte System integriert und kombiniert Verfahren zur Darstellung von Bumpmapping, verschiedene Schatten- und Reflexionsverfahren sowie bildbasiertes CSG-Rendering. Damit stehen wesentliche Renderingverfahren in einem Szenengraphsystem erstmalig komponentenbasiert und auf einem hohen Abstraktionsniveau zur Verfügung. Das System ist trotz des zusätzlichen Verwaltungsaufwandes in der Lage, die Renderingverfahren einzeln und in Kombination grundsätzlich in Echtzeit auszuführen.
Die effektive Erzeugung von Wissen ist eine der zentralen Herausforderungen des 21. Jahrhunderts. Informations- und Kommunikationstechnologien, wie die Neuen Medien, durchdringen alle Bereiche des täglichen Lebens. Sie ermöglichen den Zugriff auf gigantische Datenmengen, die die Grundvoraussetzung für die Generierung von Wissen darstellen, aber gleichzeitig eine Datenflut bedeuten, der wir ohnmächtig gegenüberstehen. Innerhalb der raumwissenschaftlichen Fachdisziplinen spielen die Neuen Medien für die Kommunikation von Sachinformation eine wichtige Rolle. Die internetbasierte Distribution von Karten, angereichert mit zusätzlichen Informationen in Form von Audiosequenzen oder Filmausschnitten, spiegelt diese Entwicklung wieder. Vor diesem Hintergrund erfolgt die Untersuchung der Frage, ob Neue Medien dazu genutzt werden können, raumwissenschaftliche Fachinhalte zu vermitteln. Von besonderem Interesse ist dabei die Frage, ob durch den Einsatz Neuer Medien in der Lehre ein Mehrwert für die Benutzer entsteht. Der Ausgangspunkt dieser Forschungsfrage besteht in der herausragenden Bedeutung von Visualisierung zur leicht verständlichen Darstellung komplexer Sachverhalte, sowie der entsprechenden Werkzeug- und Methodenkompetenz für die Nutzung Neuer Medien in den raumwissen-schaftlichen Disziplinen. Die Grundlage für die Entwicklung von mehrwertigen Lernangeboten ist die Betrachtung von Lernen als Kommunikationsprozess zur Konstruktion von Wissen, was bedeutet, dass der Entwickler derartiger Angebote über Möglichkeiten zur Optimierung dieses Kommunikationsprozesses verfügt. Auf dieser Basis erfolgt eine Erweiterung des in den raumwissenschaftlichen Disziplinen verwendeten Kommunikationsbegriffs um den Aspekt der Lehre von Fachinhalten. Als relevante Ansatzpunkte für die Optimierung der Kommunikation von Fachinhalten werden die didaktische und die mediale Aufbereitung identifiziert. Diese können zum einen die Motivation der Lernenden positiv beeinflussen und zum anderen durch Wirkung auf die Wahrnehmung der Lernenden zu einem vereinfachten Verständnis beitragen. Im Mittelpunkt der didaktischen Aufbereitung steht die problemorientierte Vermittlung der Inhalte, d.h. sie werden anhand konkreter Problemsituationen aus der Praxis vermittelt und gelten deshalb als besonders anschaulich und anwendungsorientiert. Bei der medialen Aufbereitung steht die Verwendung einer Kombination aus Text und Graphik/Animation im Mittelpunkt, die darauf abzielt, das Verstehen komplexer Sachverhalte zu erleichtern. Zur Überprüfung der Forschungsfrage haben Studierende raumwissenschaftlicher Studiengänge der Universität Potsdam das Lernangebot ausprobiert und anhand eines Fragebogens verschiedene Aspekte bewertet. Themenschwerpunkt dieser Evaluation waren die Akzeptanz, die Bedienbarkeit, die didak-tische und mediale Aufbereitung der Inhalte, die Auswahl und Verständlichkeit der Inhalte sowie die Praxistauglichkeit. Ein Großteil der Befragten hat dem Lernangebot einen Mehrwert gegenüber konventionellen Bildungsangeboten bescheinigt. Als Aspekte dieses Mehrwertes haben sich vor allem die Praxisnähe, die Unabhängigkeit von Zeit und Ort bei der Nutzung und die Vermittlung der Inhalte auf der Grundlage einer Kombination aus Text und interaktiven Animationen herauskristallisiert.
Mit zunehmender Komplexität technischer Softwaresysteme ist die Nachfrage an produktiveren Methoden und Werkzeugen auch im sicherheitskritischen Umfeld gewachsen. Da insbesondere objektorientierte und modellbasierte Ansätze und Methoden ausgezeichnete Eigenschaften zur Entwicklung großer und komplexer Systeme besitzen, ist zu erwarten, dass diese in naher Zukunft selbst bis in sicherheitskritische Bereiche der Softwareentwicklung vordringen. Mit der Unified Modeling Language Real-Time (UML-RT) wird eine Softwareentwicklungsmethode für technische Systeme durch die Object Management Group (OMG) propagiert. Für den praktischen Einsatz im technischen und sicherheitskritischen Umfeld muss diese Methode nicht nur bestimmte technische Eigenschaften, beispielsweise temporale Analysierbarkeit, besitzen, sondern auch in einen bestehenden Qualitätssicherungsprozess integrierbar sein. Ein wichtiger Aspekt der Integration der UML-RT in ein qualitätsorientiertes Prozessmodell, beispielsweise in das V-Modell, ist die Verfügbarkeit von ausgereiften Konzepten und Methoden für einen systematischen Modultest. Der Modultest dient als erste Qualititätssicherungsphase nach der Implementierung der Fehlerfindung und dem Qualitätsnachweis für jede separat prüfbare Softwarekomponente eines Systems. Während dieser Phase stellt die Durchführung von systematischen Tests die wichtigste Qualitätssicherungsmaßnahme dar. Während zum jetzigen Zeitpunkt zwar ausgereifte Methoden und Werkzeuge für die modellbasierte Softwareentwicklung zur Verfügung stehen, existieren nur wenig überzeugende Lösungen für eine systematische modellbasierte Modulprüfung. Die durchgängige Verwendung ausführbarer Modelle und Codegenerierung stellen wesentliche Konzepte der modellbasierten Softwareentwicklung dar. Sie dienen der konstruktiven Fehlerreduktion durch Automatisierung ansonsten fehlerträchtiger, manueller Vorgänge. Im Rahmen einer modellbasierten Qualitätssicherung sollten diese Konzepte konsequenterweise in die späteren Qualitätssicherungsphasen transportiert werden. Daher ist eine wesentliche Forderung an ein Verfahren zur modellbasierten Modulprüfung ein möglichst hoher Grad an Automatisierung. In aktuellen Entwicklungen hat sich für die Generierung von Testfällen auf Basis von Zustandsautomaten die Verwendung von Model Checking als effiziente und an die vielfältigsten Testprobleme anpassbare Methode bewährt. Der Ansatz des Model Checking stammt ursprünglich aus dem Entwurf von Kommunikationsprotokollen und wurde bereits erfolgreich auf verschiedene Probleme der Modellierung technischer Software angewendet. Insbesondere in der Gegenwart ausführbarer, automatenbasierter Modelle erscheint die Verwendung von Model Checking sinnvoll, das die Existenz einer formalen, zustandsbasierten Spezifikation voraussetzt. Ein ausführbares, zustandsbasiertes Modell erfüllt diese Anforderungen in der Regel. Aus diesen Gründen ist die Wahl eines Model Checking Ansatzes für die Generierung von Testfällen im Rahmen eines modellbasierten Modultestverfahrens eine logische Konsequenz. Obwohl in der aktuellen Spezifikation der UML-RT keine eindeutigen Aussagen über den zur Verhaltensbeschreibung zu verwendenden Formalismus gemacht werden, ist es wahrscheinlich, dass es sich bei der UML-RT um eine zu Real-Time Object-Oriented Modeling (ROOM) kompatible Methode handelt. Alle in dieser Arbeit präsentierten Methoden und Ergebnisse sind somit auf die kommende UML-RT übertragbar und von sehr aktueller Bedeutung. Aus den genannten Gründen verfolgt diese Arbeit das Ziel, die analytische Qualitätssicherung in der modellbasierten Softwareentwicklung mittels einer modellbasierten Methode für den Modultest zu verbessern. Zu diesem Zweck wird eine neuartige Testmethode präsentiert, die auf automatenbasierten Verhaltensmodellen und CTL Model Checking basiert. Die Testfallgenerierung kann weitgehend automatisch erfolgen, um Fehler durch menschlichen Einfluss auszuschließen. Das entwickelte Modultestverfahren ist in die technischen Konzepte Model Driven Architecture und ROOM, beziehungsweise UML-RT, sowie in die organisatorischen Konzepte eines qualitätsorientierten Prozessmodells, beispielsweise das V-Modell, integrierbar.
Unter atmosphärischen Zirkulationsregimen versteht man bevorzugte quasi-stationäre Zustände der atmosphärischen Zirkulation auf der planetaren Skala, die für eine bis mehrere Wochen persistieren können. Klimaänderungen, ob natürlich entstanden oder anthropogen verursacht, äußern sich in erster Linie durch Änderungen der Auftrittswahrscheinlichkeiten der natürlichen Regime. In der vorliegenden Arbeit wurden dynamische Mechanismen des Regimeverhaltens und der dekadischen Klimavariabilität der Atmosphäre bei Abwesenheit zeitlich veränderlicher externer Einflussfaktoren untersucht. Das Hauptwerkzeug dafür war ein quasi-geostrophisches Dreischichtenmodell der winterlichen atmosphärischen Zirkulation auf der Nordhemisphäre, das eine spektrale T21-Auflösung, einen orographischen und einen zeitlich konstanten thermischen Antrieb mit nicht-zonalen Anteilen besitzt. Ein solches Modell vermag großskalige atmosphärische Strömungsvorgänge außerhalb der Tropen mit einiger Genauigkeit zu simulieren. Nicht berücksichtigt werden Feuchteprozesse, die Wechselwirkung der Atmosphäre mit anderen Teilen des Klimasystems sowie anthropogene Einflüsse. Für das Dreischichtenmodell wurde ein automatisiertes, iteratives Verfahren zur Anpassung des thermischen Modellantriebs neu entwickelt. Jede Iteration des Verfahrens besteht aus einer Testintegration des Modells, ihrer Auswertung, dem Vergleich der Ergebnisse mit den NCEP-NCAR-Reanalysedaten aus den Wintermonaten Dezember, Januar und Februar sowie einer auf diesem Vergleich basierenden Antriebskorrektur. Nach Konvergenz des Verfahrens stimmt das Modell sowohl bezüglich des zonal gemittelten Klimazustandes als auch bezüglich der zeitgemittelten nicht-zonalen außertropischen diabatischen Erwärmung nahezu perfekt mit den wintergemittelten Reanalysedaten überein. In einer 1000-jährigen Simulation wurden die beobachtete mittlere Zirkulation im Winter sowie ihre Variabilität realitätsnah reproduziert, insbesondere die Arktische Oszillation (AO) und ihre vertikale Ausdehnung. Der AO-Index des Modells weist deutliche dekadische Schwankungen auf, die allein durch die interne Modelldynamik bedingt sind. Darüber hinaus zeigt das Modell ein Regimeverhalten, das gut mit den Beobachtungsdaten übereintimmt. Es besitzt ein Regime, das in etwa der negativen Phase der Nordatlantischen Oszillation (NAO) entspricht und eines, das der positiven Phase der AO ähnelt. Eine weit verbreitete Hypothese ist die näherungsweise Übereinstimmung zwischen Regimen und stationären Lösungen der Bewegungsgleichungen. In der vorliegenden Arbeit wurde diese Hypothese für das Dreischichtenmodell überprüft, mit negativem Resultat. Es wurden mittels eines Funktionalminimierungsverfahrens sechs verschiedene stationäre Zustände gefunden. Diese sind allesamt durch eine äußerst unrealistische Zirkulation gekennzeichnet und sind daher weit vom Modellattraktor entfernt. Fünf der sechs Zustände zeichnen sich durch einen extrem starken subtropischen Jet in der mittleren und obereren Modellschicht aus. Da die Ursache des Regimeverhaltens des Dreischichtenmodells nach wie vor unklar war, wurde auf ein einfacheres Modell, nämlich ein barotropes Modell mit T21-Auflösung zurückgegriffen. Für die Anpassung des Oberflächenantriebs wurde eine modifizierte Form der iterativen Prozedur verwendet. Die zeitgemittelte Zirkulation des barotropen Modells stimmt sehr gut mit der zeitlich und vertikal gemittelten Zirkulation des Dreischichtenmodells überein. Das dominierende räumliche Muster der Variabilität besitzt eine AO-ähnliche Struktur. Zudem besitzt das barotrope Modell zwei Regime, die näherungsweise der positiven und negativen Phase der AO entsprechen und somit auch den Regimen des Dreischichtenmodells ähneln. Im Verlauf der Justierung des Oberflächenantriebs konnte beobachtet werden, dass die zwei Regime des barotropen Modells durch die Vereinigung zweier koexistierender Attraktoren entstanden. Der wahrscheinliche Mechanismus der Attraktorvereinigung ist eine Randkrise eines der beiden Attraktoren, gefolgt von einer explosiven Bifurkation des anderen Attraktors. Es wird die Hypothese aufgestellt, dass der beim barotropen Modell vorgefundene Mechanismus der Regimeentstehung für atmosphärische Zirkulationsmodelle mit realitätsnahem Regimeverhalten Allgemeingültigkeit besitzt. Gestützt wird die Hypothese durch vier Experimente mit dem Dreischichtenmodell, bei denen jeweils der Parameter der Bodenreibung verringert und die Antriebsanpassung wiederholt wurde. Bei diesen Experimenten erhöhte sich die Persistenz und die Separiertheit der Regime bei abnehmender Reibung drastisch und damit auch der Anteil dekadischer Zeitskalen an der Variabilität. Die Zunahme der Persistenz der Regime ist charakteristisch für die Annäherung an eine inverse innere Krise, deren Existenz aber nicht nachgewiesen werden konnte.
In einer Zeit, in der eine Zunahme von ernährungsbedingten Erkrankungen in steigendem Maße zu beobachten ist, wird dem Getreide als Grundlage der menschlichen Ernährung erhöhte Aufmerksamkeit gewidmet. Ein hoher Verzehr von Ballaststoffen ist ein wesentlicher Aspekt in der präventiv-medizinischen Ernährung. Die von der Deutschen Gesellschaft für Ernährung vorgeschlagene tägliche Ballaststoffzufuhr liegt bei 30 g. Die Aufnahme von Ballaststoffen ist jedoch in Deutschland deutlich unterhalb dieser empfohlenen Menge. Getreideprodukte, besonders vom Vollkorntyp, sind die wichtigste Quelle für Ballaststoffe. Deshalb sollten im Rahmen dieser Arbeit direkt verzehrsfähige, Ballaststoff-angereicherte Haferprodukte (vorwiegend Extrudate) mit hohen Gehalten an b-Glucanen und resistenter Stärke hergestellt, analysiert und nachfolgend auf relevante ernährungsphysiologische Wirkungen geprüft werden. Als Basis für die Produkte wurden Hafermehl und Haferkleie eingesetzt. Der erste Teil der Arbeit beschäftigte sich mit der Analyse der Haferprodukte. Diese wiesen eine hohe Wasserbindungskapazität auf. Bei den Untersuchungen am Tiermodell wurde gezeigt, dass im Dünndarm eine größere Menge an Wasser durch die Haferprodukte gebunden wurde, was zu einem höheren Feuchtigkeitsanteil der gastrointestinalen Inhalte der Tiere führte, die ballaststoffreiches Futter erhielten. Trotz der hydrothermischen Behandlung während der Extrusion wurden Produkte gewonnen, deren β-Glucane im hochmolekularen Zustand erhalten blieben und somit eine hohe Viskosität in wässrigen Lösungen beibehielten. In rheologischen Untersuchungen wurde bestätigt, dass die aus Haferprodukten isolierten β-Glucane ein pseudoplastisches Fließverhalten besitzen. Demgegenüber führte ein Autoklavieren der Produkte zu einer starken Depolymerisation der b-Glucane, was sich in einer Änderung der funktionellen Eigenschaften der b-Glucane widerspiegelte. Im Mittelpunkt der Untersuchungen standen ernährungsphysiologische In-vitro- und In-vivo-Experimente mit Extrudaten und Proben auf der Basis von Hafer, die einen erhöhten Anteil an Ballaststoffen, speziell an b-Glucan und an resistenter Stärke, besaßen und die direkt verzehrbar sind. Diese Haferprodukte zeigten eine Reihe von ernährungsphysiologisch vorteilhaften und protektiven Wirkungen in In-vitro-Experimenten. So traten sie mit Gallensäuren unter den Bedingungen des Dünndarms in Wechselwirkung und waren gut mit Faecesflora vom Menschen fermentierbar. Die In-vitro-Verdauung von Maisstärke durch Pankreatin, wurde durch die ballaststoffreichen Haferprodukte partiell gehemmt. Dieser Befund lässt eine Abschwächung des postprandialen Glukoseanstieges erwarten. In einem sechswöchigen Fütterungsversuch erhielten Ratten Diäten, die zu 50 % aus ballaststoffreichen Haferprodukten bestanden. Diese Haferprodukte bewirkten einen erhöhten Transport von Gallensäuren und neutralen Sterolen in den unteren Intestinaltrakt sowie deren verstärkte Ausscheidung. Durch den Verzehr der ballaststoffreichen Haferprodukte kam es zu Veränderungen in der Mikroflora, wobei sich besonders die coliformen Keime verminderten und die Keimzahlen der Lactobacillen sowie die Bifidobakterien erhöhten. Die Fermentation der Ballaststoffe führte zur erhöhten Bildung von kurzkettigen Fettsäuren einschließlich von Butyrat. Die Bildung der kurzkettigen Fettsäuren geht mit einer pH-Wert-Absenkung im Caecum und Colon einher, die wiederum für eine geringere Bildung von sekundären Gallensäuren verantwortlich ist. Die Ergebnisse des Fütterungsversuchs an Ratten wurden prinzipiell durch eine vierwöchige Pilotstudie am Menschen, in der Probanden täglich 100 g Haferextrudat erhielten, bestätigt. Das Extrudat wurde von den Probanden gut akzeptiert. In der 4. Woche wurden eine geringe Abnahme der Cholesterolfraktionen im Serum, höhere Keimzahlen für Lactobacillen, Bifidobacterien und Bacteroides, geringere pH-Werte und Trockenmassegehalte in den Faeces, eine Zunahme der individuellen und Gesamt-SCFA sowie des Butyratanteils in den Faeces, eine erhöhte Ausscheidung an Steroiden, eine Zunahme der primären Gallensäuren und eine Abnahme des prozentualen Anteils an sekundären Gallensäuren sowie der Cholesterol-Metaboliten gefunden. Diese Parameter gingen 2 Wochen nach Beendigung der Intervention mit dem Haferextrudat wieder in Richtung der Ausgangswerte (0. Woche) zurück. Die untersuchten Haferprodukte erwiesen sich als gut fermentierbare Substrate für die intestinale Mikroflora und können deshalb als ein Präbiotikum mit Ballaststoffcharakter eingeschätzt werden. Diese Produkte, die mit einem erhöhten Anteil an resistenter Stärke und wertvollen Haferballaststoffen hergestellt wurden, können dazu beitragen, die Ballaststofflücke in unserer Ernährung zu schließen und positive ernährungsphysiologische Effekte zu bewirken.
Als Resultat überhöhter Energieaufnahme und zu geringen Energieverbrauchs beobachten wir eine über das normale Maß hinausgehende Akkumulation von Fettgewebe, die sich als Adipositas manifestiert. Sie gilt als einer der Hauptrisikofaktoren für Krankheiten des metabolischen Syndroms. Im Rahmen von Prävention, Diagnose und Therapie der Adipositas, muss ihr wesentliches Charakteristikum; der individuelle Körperfettanteil; einer Messung zugänglich gemacht werden. Eine direkte Bestimmung der Körperzusammensetzung erlauben die Neutronenaktivierungsanalyse und die chemische Analyse. Beide Verfahren sind sehr genau, aber aufwendig und kostenintensiv und darüber hinaus die chemische Analyse nur am menschlichen Cadaver praktizierbar. Um dennoch die Körperzusammensetzung hinreichend genau bestimmen zu können, wurden zahlreiche indirekte Messverfahren entwickelt. Man kann sie in Labor- und Feldmethoden untergliedern. Die Labormethoden bestechen durch hohe Genauigkeit und Reproduzierbarkeit, sind aber zumeist aufwendig und teuer. Feldmethoden sind im Gegensatz dazu leicht anwendbar, transportabel und preiswert, weisen aber eine weniger hohe Genauigkeit und Reproduzierbarkeit auf. In der vorgestellten Arbeit wird über eine jüngere Entwicklung, die das Prinzip der unterschiedlichen Leitfähigkeit für den elektrischen Strom durch die verschiedenen Gewebe des Körpers nutzt, berichtet. Der Prototyp eines Gerätes wurde innerhalb eines von der EU geförderten multizentrischen Projekts entwickelt und auf seine Einsatzfähigkeit und Qualität hin geprüft. Der Schwerpunkt der Arbeit liegt auf der Einschätzung der Körperzusammensetzung normal- und übergewichtiger Probanden mit der neu entwickelten Technik. Das vorliegende Studiendesign diente nicht nur der Beurteilung der neuen Technik die Körperzusammensetzung und Veränderungen dieser zu erfassen, sondern darüber hinaus, etablierte Methoden hinsichtlich ihrer Genauigkeit zu bewerten. Bezüglich ihrer Anwendbarkeit und Reproduzierbarkeit hat die neue Methode Hoffnung geweckt, sich als eine Feldmethode zu etablieren. Auf der anderen Seite zeigte sich in Abhängigkeit der Gesamtkörperfettmasse eine Überschätzung der Zielgröße im Vergleich zur Referenzmethode (dual energy x ray absorptiometry (DXA)). Die Abweichungen waren dabei gerade für das einzelne Individuum sehr groß. Technische Verbesserungen und die Entwicklung spezifischer Regressionsgleichungen könnten in Zukunft zu einer wesentlichen Verbesserung der neuen Methode beitragen. Die Labormethode "Air Displacement Plethysmography" konnte durch die guten Übereinstimmungen der Ergebnisse mit denen der Referenzmethode DXA und die einfache Anwendung überzeugen. Sie stellt eine durchaus konkurrenzfähige Alternative zur Hydrodensitometrie dar, die noch heute als "goldener Standard" zur Erfassung der Körperzusammensetzung akzeptiert wird. Im Verlauf der durchgeführten Studie stellte sich heraus, dass die Hydrodensitometrie sehr hohe Anforderungen an den Probanden stellt. Das Untertauchen des gesamten Körpers unter Wasser in Kombination mit einer maximalen Ausatmung erwies sich als sehr problematisch. Die dabei auftretenden Fehler schlugen sich in der Berechnung der Gesamtkörperfettmasse des einzelnen Individuums wieder und führten zu zum Teil erheblichen Abweichungen der Ergebnisse von denen der Referenzmethode. Die Feldmethoden bioelektrische Impedanzanalyse und Hautfaltendickenmessung erwiesen sich als kostengünstige und leicht anwendbare Methoden. Die Ergebnisse beider Methoden stimmten im Mittel gut mit den Ergebnissen der Referenzmethoden überein. Dennoch zeigte die BIA größere Abstriche in der Beurteilung der Gesamtkörperfettmasse des einzelnen Individuums und bei der Dokumentation von Veränderungen der Gesamtkörperfettmasse. Die Hautfaltendickenmessung stellt – wendet man sie korrekt an – eine Methode dar, die sowohl die Gesamtkörperfettmasse als auch Veränderungen dieser gut erfassen kann. In Abhängigkeit der geforderten Genauigkeit kann diese Methode für die Erfassung der Körperzusammensetzung empfohlen werden. Demnach bleibt die Frage unbeantwortet, inwieweit die indirekten Methoden in der Lage sind, die "wahre" Körperzusammensetzung adäquat zu erfassen. Jede neu entwickelte Methode – die möglichst viele Vorteile in sich vereint – wird wieder vor dem Problem stehen: eine geeignete und dabei praktikable Referenzmethode zu finden, die die wahre Körperzusammensetzung zu bestimmen in der Lage ist. Daher sollte neben dem Streben nach der Entwicklung einer Methode, die genau und leicht anwendbar ist, das Hauptaugenmerk auf die Überarbeitung der zugrunde liegenden Modellvorstellungen und die Verbesserung von Regressionsgleichungen gelegt werden.
Die Ausprägung der Lateralität der Körperextremitäten steht in engem Zusammenhang mit der Hemisphärenspezialisierung des menschlichen Gehirns. Die Lateralität und die Dominanz einer Hemisphäre mit ihren Auswirkungen auf die Leistungsfähigkeit ist ein bislang unvollständig untersuchtes Phänomen im Sport. In der vorliegenden Arbeit soll daher die Bedeutung der Seitigkeitsausprägung im Rahmen sportlicher Bewegungsabläufe geprüft werden. Sowohl bei Messungen im "Freiwasser", als auch in der "Kanu–Gegenstromanlage" im Bereich des Kanurennsportes werden seit einigen Jahren sich in Qualität und Quantität unterscheidende Kraft–Zeit–Funktionen der linken und rechten Körperseite beobachtet, die zwar dokumentiert, aber bislang ungeprüft in ihrer Bedeutung als leistungsbeeinflussend angenommen werden. Im Zeitraum von Oktober 1997 bis Oktober 2000 wurden 275 Kajakfahrer und Canadierfahrer im Alter zwischen 11 und 20 Jahren zweimal jährlich (März und Oktober) mit einem umfangreichen trainings- und bewegungswissenschaftlichen sowie biomechanischen Instrumentarium untersucht. Die Athleten gehören zum Nachwuchs- und Anschlusskader des LKV Brandenburg. Schwerpunkt der Fragestellung ist der Zusammenhang von auftretenden Kraftdifferenzen zwischen der linken und rechten oberen Extremität und sportartspezifischen Leistungen unter Laborbedingungen und Feldbedingungen. Es wurden objektive Daten zu ausgewählten Kraftfähigkeiten der oberen Arm–Beuge–Schlinge an einem Kraftdiagnosegerät, Kraftverläufe am Messpaddel während Leistungsüberprüfungen im "Kanu–Gegenstromkanal" und im "Freiwasser" über 250 m und 2.000 m im Jahresverlauf erhoben. Die Ergebnisse zeigen einen Trend der im Altersverlauf ansteigenden Differenz der Mittelwertunterschiede in der Maximalkraft zwischen dem linken und rechten Arm. Bei bestehenden Maximalkraftdifferenzen zwischen linker und rechter oberer Extremität in der Längsschnittgruppe liegen die Leistungen mit dem rechten Arm deutlich über den Kraftleistungen des linken Arms und sind nicht zufällig. Mit steigendem Maximalkraftniveau nimmt überraschenderweise auch die Differenz der Maximalkraft zwischen der linken und rechten oberen Extremität trotz bilateralen Trainings zu. Die Ergebnisse der EMG–Analyse bestätigen, dass die Maximalkraft leistungsbestimmend für die Bootsleistungen ist. In den EMG–Signalverläufen werden die unterschiedlichen Belastungen der Labor– und Feldbedingungen mit individuellen Charakteristika nachgezeichnet. Deutlich unterscheiden sich die Kraftverläufe im "Freiwasser" gegenüber den Kraftverläufen in der "Kanu–Gegenstromanlage". Bei der vorliegenden Untersuchung handelt es sich um eine erste empirische Arbeit zur Auswirkung von Seitigkeitsunterschieden in zyklischen Sportarten auf der Expertiseebene. In der Untersuchung wurden methodische Verfahren eingesetzt, die dem derzeitigen Forschungsstand in der Trainings- und Bewegungswissenschaft entsprechen. Neben varianzanalytischen Verfahren der Auswertung zur Darstellung von Mittelwertunterschieden und Zusammenhänge prüfenden Verfahren wurden ebenso explorative EMG–Analysen angewandt. Die Ergebnisse aus dem Längsschnitt belegen bei ausschließlich rechtshändigen Probanden, dass die Schlussfolgerung von bevorzugter Extremität auf ein höheres Kraftniveau nicht eineindeutig ist. Zwischen den oberen Extremitäten bei Kanurennsportlern bestehen nicht nur zufällige Kraftunterschiede, trotz des bilateralen Trainings. Kontrovers diskutiert wird die Beziehung von bevorzugter Extremität und der Höhe der Kraftentfaltung. Im Alltagsverständnis wird häufig angenommen, dass ein höheres Maximalkraftniveau in der Extremität vorliegen muss, die auch die bevorzugte (z.B. Schreibhand) ist (WIRTH & LIPHARDT, 1999). Diese Eindeutigkeit konnte in der durchgeführten Untersuchung nicht bestätigt werden. Wie die Ergebnisse dieser Untersuchung deutlich zeigen, nimmt mit der höheren Maximalkraft aber auch die Differenz der Kraftleistungen zwischen dem linken und rechten Arm bei bilateral ausgerichtetem Training zu. FISCHER (1988; 1992) wies nach, dass sich ein Training auf der subdominanten Seite in einem kontralateralen Leistungstransfer auf der dominanten Seite positiv auswirkte. Erkenntnisse von KUHN (1986) und HOLLMANN & HETTINGER (2000) unterstützen nachhaltig die Ergebnisse. Die EMG–Ergebnisse zeigen die individuelle Reaktion auf die Belastungsanforderungen. Die elektromyographischen Daten beziehen sich auf den neuromuskulären Komplex. Somit sprechen hohe Amplitudenwerte einerseits für eine hohe Innervation der beteiligten motorischen Einheiten an der Bewegungsausführung und andererseits für einsetzende Ermüdungserscheinungen im Muskel. In Bezug auf die Ermüdung der oberen Extremitätenmuskeln der rechten und linken Seite beschreiben WILLIAMS, SHARMA & BILODEAU (2002) keine signifikanten Unterschiede zwischen der dominanten und nichtdominanten Handseite.
In der vorliegenden Arbeit werden die Eigenschaften geschlossener fluider Membranen, sogenannter Vesikeln, bei endlichen Temperaturen untersucht. Dies beinhaltet Betrachtungen zur Form freier Vesikeln, eine Untersuchung des Adhäsionsverhaltens von Vesikeln an planaren Substraten sowie eine Untersuchung der Eigenschaften fluider Vesikeln in eingeschränkten Geometrien. Diese Untersuchungen fanden mit Hilfe von Monte-Carlo-Simulationen einer triangulierten Vesikeloberfläche statt. Die statistischen Eigenschaften der fluktuierenden fluiden Vesikeln wurden zum Teil mittels Freier-Energie-Profile analysiert. In diesem Zusammenhang wurde eine neuartige Histogrammethode entwickelt.<BR> Die Form für eine freie fluide Vesikel mit frei veränderlichem Volumen, die das Konfigurationsenergie-Funktional minimiert, ist im Falle verschwindender Temperatur eine Kugel. Mit Hilfe von Monte-Carlo-Simulationen sowie einem analytisch behandelbaren Modellsystem konnte gezeigt werden, daß sich dieses Ergebnis nicht auf endliche Temperaturen verallgemeinern lässt und statt dessen leicht prolate und oblate Vesikelformen gegenüber der Kugelgestalt überwiegen. Dabei ist die Wahrscheinlichkeit für eine prolate Form ein wenig gröoßer als für eine oblate. Diese spontane Asphärizität ist entropischen Ursprungs und tritt nicht bei zweidimensionalen Vesikeln auf. Durch osmotische Drücke in der Vesikel, die größer sind als in der umgebenden Flüssigkeit, lässt sich die Asphärizität reduzieren oder sogar kompensieren. Die Übergänge zwischen den beobachteten prolaten und oblaten Formen erfolgen im Bereich von Millisekunden in Abwesenheit osmotisch aktiver Partikel. Bei Vorhandensein derartiger Partikel ergeben sich Übergangszeiten im Bereich von Sekunden. Im Rahmen der Untersuchung des Adhäsionsverhaltens fluider Vesikeln an planaren, homogenen Substraten konnte mit Hilfe von Monte-Carlo-Simulationen festgestellt werden, dass die Eigenschaften der Kontaktfläche der Vesikeln stark davon abhängen, welche Kräfte den Kontakt bewirken. Für eine dominierende attraktive Wechselwirkung zwischen Substrat und Vesikelmembran sowie im Falle eines Massendichteunterschieds der Flüssigkeiten innerhalb und außerhalb der Vesikel, der die Vesikel auf das Substrat sinken lässt, fndet man innerhalb der Kontakt ache eine ortsunabhangige Verteilung des Abstands zwischen Vesikelmembran und Substrat. Drückt die Vesikel ohne Berücksichtigung osmotischer Effekte auf Grund einer Differenz der Massendichten der Membran und der umgebenden Flüssigkeit gegen das Substrat, so erhält man eine Abstandsverteilung zwischen Vesikelmembran und Substrat, die mit dem Abstand vom Rand der Kontaktfläche variiert. Dieser Effekt ist zudem temperaturabhängig. Ferner wurde die Adhäsion fluider Vesikeln an chemisch strukturierten planaren Substraten untersucht. Durch das Wechselspiel von entropischen Effekten und Konfigurationsenergien entsteht eine komplexe Abhängigkeit der Vesikelform von Biegesteifigkeit, osmotischen Bedingungen und der Geometrie der attraktiven Domänen. Für die Bestimmung der Biegesteifigkeit der Vesikelmembranen liefern die existierenden Verfahren stark voneinander abweichende Ergebnisse. In der vorliegenden Arbeit konnte mittels Monte-Carlo-Simulationen zur Bestimmung der Biegesteifigkeit anhand des Mikropipettenverfahrens von Evans gezeigt werden, dass dieses Verfahren die a priori für die Simulation vorgegebene Biegesteifigkeit im wesentlichen reproduzieren kann. Im Hinblick auf medizinisch-pharmazeutische Anwendungen ist der Durchgang fluider Vesikeln durch enge Poren relevant. In Monte-Carlo-Simulationen konnte gezeigt werden, dass ein spontaner Transport der Vesikel durch ein Konzentrationsgefälle osmotisch aktiver Substanzen, das den physiologischen Bedingungen entspricht, induziert werden kann. Es konnten die hierfür notwendigen osmotischen Bedingungen sowie die charakteristischen Zeitskalen abgeschätzt werden. Im realen Experiment sind Eindringzeiten in eine enge Pore im Bereich weniger Minuten zu erwarten. Ferner konnte beobachtet werden, dass bei Vesikeln mit einer homogenen, positiven spontanen Krümmung Deformationen hin zu prolaten Formen leichter erfolgen als bei Vesikeln ohne spontane Krümmung. Mit diesem Effekt ist eine Verringerung der Energiebarriere für das Eindringen in eine Pore verbunden, deren Radius nur wenig kleiner als der Vesikelradius ist.
Das Superoxidradikal kann mit fast allen Bestandteilen von Zellen reagieren und diese schädigen. Die medizinische Forschung stellte eine Beteiligung des Radikals an Krebs, Herzinfarkten und neuraler Degeneration fest. Ein empfindlicher Superoxidnachweis ist daher zum besseren Verständnis von Krankheitsverläufen wichtig. Dabei stellen die geringen typischen Konzentrationen und seine kurze Lebensdauer große Anforderungen. Ziel dieser Arbeit war es zum einen, zwei neuartige Proteinarchitekturen auf Metallelektroden zu entwickeln und deren elektrochemisches Ansprechverhalten zu charakterisieren. Zum anderen waren diese Elektroden zur empfindlichen quantitativen Superoxiddetektion einzusetzen. Im ersten Teil der Arbeit wurde eine Protein-Multischichtelektrode aus Cytochrom c und dem Polyelektrolyten Poly(anilinsulfonsäure) nach dem Layer-by-layer-Verfahren aufgebaut. Für zwei bis 15 Schichten an Protein wurde eine deutliche Zunahme an elektrodenaktivem Cytochrom c mit jedem zusätzlichen Aufbringungsschritt nachgewiesen. Die Zunahme verlief linear und ergab bei 15 Schichten eine Zunahme der redoxaktiven Proteinmenge um deutlich mehr als eine Größenordnung. Während das formale Potential im Multischichtsystem sich im Vergleich zur Monoschichtelektrode nicht veränderte, wurde für die Kinetik eine Abhängigkeit der Geschwindigkeit des Elektronentransfers von der Zahl der Proteinschichten beobachtet. Mit zunehmender Scangeschwindigkeit trat ein reversibler Kontaktverlust zu den äußeren Schichten auf. Die lineare Zunahme an elektroaktivem Protein mit steigender Zahl an Depositionsschritten unterscheidet sich deutlich von in der Literatur beschriebenen Protein/Polyelektrolyt-Multischichtelektroden, bei denen ab etwa 6-8 Schichten keine Zunahme an elektroaktivem Protein mehr festgestelltwurde. Auch ist bei diesen die Zunahme an kontaktierbaren Proteinmolekülen auf das Zwei- bis Fünffache limitiert. Diese Unterschiede des neu vorgestellten Systems zu bisherigen Multischichtassemblaten erklärt sich aus einem in dieser Arbeit für derartige Systeme erstmals beschriebenen Elektronentransfermechanismus. Der Transport von Elektronen zwischen der Elektrodenoberfläche und den Proteinmolekülen in den Schichten verläuft über einen Protein-Protein-Elektronenaustausch. Dieser Mechanismus beruht auf dem schnellen Selbstaustausch von Cytochrom c-Molekülen und einer verbleibenden Rotationsflexibilität des Proteins im Multischichtsystem. Die Reduzierung des Proteins durch das Superoxidradikal und eine anschließende Reoxidation durch die Elektrode konnten nachgewiesen werden. In einem amperometrischen Messansatz wurde das durch Superoxidradikale hervorgerufene elektrochemische Signal in Abhängigkeit von der Zahl an Proteinschichten gemessen. Ein maximales Ansprechverhalten auf das Radikal wurde mit 6-Schichtelektroden erzielt. Die Empfindlichkeit der 6-Schichtelektroden wurde im Vergleich zum Literaturwert der Monoschichtelektrode um Faktor 14, also mehr als eine Größenordnung, verbessert. Somit konnte eine Elektrode mit 6 Schichten aus Cytochrom c und Poly(anilinsulfonsäure) als neuartiger Superoxidsensor mit einer 14-fachen Verbesserung der Empfindlichkeit im Vergleich zum bislang benutzten System entwickelt werden. Der zweite Teil dieser Arbeit beschreibt die Auswahl, Gewinnung und Charakterisierung von Mutanten des Proteins Cu,Zn-Superoxiddismutase zur elektrochemischen Quantifizierung von Superoxidradikalen. Monomere Mutanten des humanen dimeren Enzyms wurden entworfen, die durch Austausch von Aminosäuren ein oder zwei zusätzliche Cysteinreste besaßen, mit welchem sie direkt auf der Goldelektrodenoberfläche chemisorbieren sollten. 6 derartige Mutanten konnten in ausreichender Menge und Reinheit in aktiver Form gewonnen werden. Die Bindung der Superoxiddismutase-Mutanten an Goldoberflächen konnte durch Oberflächen-plasmonresonanz und Impedanzspektroskopie nachgewiesen werden. Alle Mutanten wiesen einen quasi-reversiblen Elektronentransfer zwischen SOD und Elektrode auf. Durch Untersuchung von kupferfreien SOD-Mutanten sowie des Wildtyps konnte nachgewiesen werden, das die Mutanten über die eingefügten Cysteinreste auf der Elektrode chemisorptiv gebunden wurden und der Elektronentransfer zwischen der Elektrode und dem Kupfer im aktiven Zentrum der SOD erfolgte. Die Superoxiddismutase katalysiert die Zersetzung von Superoxidmolekülen durch Oxidation und durch Reduktion der Radikale. Somit sind beide Teilreaktionen von analytischem Interesse. Zyklovoltammetrisch konnte sowohl die Oxidation als auch die Reduktion des Radikals durch die immobilisierten Superoxiddismutase-Mutanten nachgewiesen werden. In amperometrischen Messanordnungen konnten beide Teilreaktionen zur analytischen Quantifizierung von Superoxidradikalen genutzt werden. Im positiven Potentialfenster wurde die Empfindlichkeit um einen Faktor von etwa 10 gegenüber der Cytochrom c–Monoschichtelektrode verbessert.
Die vorliegende Arbeit beschäftigte sich mit zwei Themengebieten. Es ging zum einen um die mechanischen Eigenschaften von Polyelektrolythohlkapseln und zum anderen um die Adhäsion von Polyelektrolythohlkapseln. Die mechanischen Eigenschaften wurden mit der AFM „colloidal probe” Technik untersucht. Dabei zeigte sich, dass die Kraftdeformationskurven für kleine Deformationen den nach der Schalentheorie vorhergesagten linearen Verlauf haben. Ebenso wurde die quadratische Abhängigkeit der Federkonstanten von der Dicke bestätigt. Für PAH/PSS findet man einen E-Modul von 0.25 GPa. Zusammen mit der Tatsache, dass die Deformationskurven unabhängig von der Geschwindigkeit sind und praktisch keine Hysterese zeigen, sowie der Möglichkeit die Kapseln plastisch zu deformieren, kann man schließen, dass das System in einem glasartigen Zustand vorliegt. <pt>Erwartungsgemäß zeigte der pH einen starken Einfluss auf die PEM. Während in einem pH-Bereich zwischen 2 und 11.5 keine morphologischen Änderungen festgestellt werden konnten, vergrößerte sich der Radius bei pH = 12 um bis zu 50 %. Diese Radienänderung war reversibel und ging einher mit einem sichtbaren Weicherwerden der Kapseln. Eine Abnahme des E-Moduls um mindestens drei Größenordungen wurde durch Kraftdeformationsmessungen bestätigt. Die Kraftdeformationskurven zeigen eine starke Hysterese. Das System befindet sich nun nicht mehr in einem glasartigen Zustand, sondern ist viskos bis gummiartig geworden. Messungen an Kapseln, die mit Glutardialdehyd behandelt wurden, zeigten, dass die Behandlung das pH-abhängige Verhalten verändert. Dies kann darauf zurückgeführt werden, dass das PAH durch den Glutardialdehyd quervernetzt wird. Bei einem hohen Quervernetzungsgrad, zeigen die Kapseln keine Änderung des mechanischen Verhaltens bei pH = 12. Schwach quervernetzte Kapseln werden immer noch signifikant weicher bei pH = 12, jedoch ändert sich der Radius nicht. Außerdem wurden Multilagenkapseln untersucht, deren Stabilität nicht auf elektrostatischen Wechselwirkungen sondern auf Wasserstoffbrückenbindungen beruhte. Diese Kapseln zeigten eine deutlich höhere Steifigkeit mit E-Modulen bis zu 1 GPa. Es wurde gefunden, dass auch dieses System für kleine Deformationen ein lineares Kraft-Deformationsverhalten zeigt, und dass die Federkonstante quadratisch von der Dicke abhängt. Die Kapseln lösen sich praktisch sofort bei pH = 6.5 auf. In der Nähe dieses pHs konnte das Abnehmen der Federkonstanten verfolgt werden. Außerdem wurde das Adhäsionsverhalten von PAH/PSS Kapseln auf mit PEI-beschichtetem Glas untersucht. Die Adhäsionsflächen waren zu einem großen Teil rund und ließen sich quantitativ auswerten. Der Adhäsionsradius nimmt mit dem Kapselradius zu und mit der Dicke ab. Das Verhalten konnte mit zwei Modellen, einem für die große und einem für die kleine Deformation beschrieben werden. Das große Deformationsmodell liefert um eine Größenordung niedrigere Adhäsionsenergien als das kleine Deformationsmodell, welches mit Werten von ‑0.2 mJ/m<sup>2 Werte in einem plausiblen Bereich liefert. Es wurde gefunden, dass bei einem Verhältnis von Dicke zu Deformation von etwa eins "buckling" auftritt. Dieser Punkt markierte zugleich den Übergang von der großen zur kleinen Deformation.
Das 1817 erstmals schriftlich erwähnte Selen galt lange Zeit nur als toxisch und sogar als procancerogen, bis es 1957 von Schwarz und Foltz als essentielles Spurenelement erkannt wurde, dessen biologische Funktionen in Säugern durch Selenoproteine vermittelt werden. Die Familie der Glutathionperoxidasen nimmt hierbei eine wichtige Stellung ein. Für diese sind konkrete Funktionen und die dazugehörigen molekularen Mechanismen, welche über die von ihnen katalysierte Hydroperoxidreduktion und damit verbundene antioxidative Kapazität hinausgehen, bislang nur unzureichend beschrieben worden. Die Funktion der gastrointestinalen Glutathionperoxidase (GI-GPx) wird als Barriere gegen eine Hydroperoxidabsorption im Gastrointestinaltrakt definiert. Neuen Erkenntnissen zufolge wird die GI-GPx aber auch in verschiedenen Tumoren verstärkt exprimiert, was weitere, bis dato unbekannte, Funktionen dieses Enzymes wahrscheinlich macht. Um mögliche neue Funktionen der GI-GPx, vor allem während der Cancerogenese, abzuleiten, wurde hier die transkriptionale Regulation der GI-GPx detaillierter untersucht. Die Sequenzanalyse des humanen GI-GPx-Promotors ergab das Vorhandensein von zwei möglichen "antioxidant response elements" (ARE), bei welchen es sich um Erkennungssequenzen des Transkriptionsfaktors Nrf2 handelt. Die meisten der bekannten Nrf2-Zielgene gehören in die Gruppe der Phase-II-Enzyme und verfügen über antioxidative und/oder detoxifizierende Eigenschaften. Sowohl auf Promotorebene als auch auf mRNA- und Proteinebene konnte die Expression der GI-GPx durch typische, in der Nahrung enthaltene, Nrf2-Aktivatoren wie z.B. Sulforaphan oder Curcumin induziert werden. Eine direkte Beteiligung von Nrf2 wurde durch Cotransfektion von Nrf2 selbst bzw. von Keap1, das Nrf2 im Cytoplasma festhält, demonstriert. Somit konnte die GI-GPx eindeutig als Nrf2-Zielgen identifiziert werden. Ob sich die GI-GPx in die Gruppe der antiinflammatorischen und anticancerogenen Phase-II-Enzyme einordnen lässt, bleibt noch zu untersuchen. Die Phospholipidhydroperoxid Glutathionperoxidase (PHGPx) nimmt aufgrund ihres breiten Substratspektrums, ihrer hohen Lipophilie und ihrer Fähigkeit, Thiole zu modifizieren, eine Sonderstellung innerhalb der Familie der Glutathionperoxidasen ein. Mit Hilfe eines PHGPx-überexprimierenden Zellmodells wurden deshalb Beeinflussungen des zellulären Redoxstatus und daraus resultierende Veränderungen in der Aktivität redoxsensitiver Transkriptionsfaktorsysteme und in der Expression atheroskleroserelevanter Adhäsionsmoleküle untersucht. Als Transkriptionsfaktoren wurden NF-kB und Nrf2 ausgewählt. Die Bindung von NF-kB an sein entsprechendes responsives Element in der DNA erfordert das Vorhandensein freier Thiole, wohingegen Nrf2 durch Thiolmodifikation von Keap1 freigesetzt wird und in den Kern transloziert. Eine erhöhte Aktivität der PHGPx resultierte in einer Erhöhung des Verhältnisses von GSH zu GSSG, andererseits aber in einer verminderten Markierbarkeit freier Proteinthiole. PHGPx-Überexpression reduzierte die IL-1-induzierte NF-kB-Aktivität, die sich in einer verminderten NF-kB-DNA-Bindefähigkeit und Transaktivierungsaktivität ausdrückte. Auch war die Proliferationsrate der Zellen vermindert. Die Expression des NF-kB-regulierten vaskulären Zelladhäsionsmoleküls, VCAM-1, war ebenfalls deutlich verringert. Umgekehrt war in PHGPx-überexprimierenden Zellen eine erhöhte Nrf2-Aktivität und Expression der Nrf2-abhängigen Hämoxygenase-1 zu verzeichnen. Letzte kann für die meisten der beobachteten Effekte verantwortlich gemacht werden. Die hier dargestellten Ergebnisse verdeutlichen, dass eine Modifizierung von Proteinthiolen als wichtige Determinante für die Regulation der Expression und Funktion von Glutathionperoxidasen angesehen werden kann. Entgegen früheren Vermutungen, welche oxidative Vorgänge generell mit pathologischen Veränderungen assoziierten, scheint ein moderater oxidativer Stress, bedingt durch eine transiente Thiolmodifikation, durchaus günstige Auswirkungen zu haben, da, wie hier dargelegt, verschiedene, miteinander interagierende, cytoprotektive Mechanismen ausgelöst werden. Hieran wird deutlich, dass sich "antioxidative Wirkung" oder "oxidativer Stress" keineswegs nur auf "gute" oder "schlechte" Vorgänge beschränken lassen, sondern im Zusammenhang mit den beeinflussten (patho)physiologischen Prozessen und dem Ausmaß der "Störung" des physiologischen Redoxgleichgewichtes betrachtet werden müssen.
Die trainingswissenschaftliche Diagnostik in den Kernbereichen Training, Wettkampf und Leistungsfähigkeit ist durch einen hohen Praxisbezug, eine ausgeprägte strukturelle Komplexität und vielseitige Wechselwirkungen der sportwissenschaftlichen Teilgebiete geprägt. Diese Eigenschaften haben in der Vergangenheit dazu geführt, dass zentrale Fragestellungen, wie beispielsweise die Maximierung der sportlichen Leistungsfähigkeit, eine ökonomische Trainingsgestaltung, eine effektive Talentauswahl und -sichtung oder die Modellbildung noch nicht vollständig gelöst werden konnten. Neben den bereits vorhandenen linearen Lösungsansätzen werden in dieser Arbeit Methoden aus dem Bereich der Neuronalen Netzwerke eingesetzt. Diese nichtlinearen Diagnoseverfahren sind besonders geeignet für die Analyse von Prozessabläufen, wie sie beispielsweise im Training vorliegen. Im theoretischen Teil werden zunächst Gemeinsamkeiten, Abhängigkeiten und Unterschiede in den Bereichen Training, Wettkampf und Leistungsfähigkeit untersucht sowie die Brücke zwischen trainingswissenschaftlicher Diagnostik und nichtlinearen Verfahren über die Begriffe der Interdisziplinarität und Integrativität geschlagen. Angelehnt an die Theorie der Neuronalen Netze werden anschließend die Grundlagenmodelle Perzeptron, Multilayer-Perzeptron und Selbstorganisierende Karten theoretisch erläutert. Im empirischen Teil stehen dann die nichtlineare Analyse von personalen Anforderungsstrukturen, Zustände der sportlichen Form und die Prognose sportlichen Talents - allesamt bei jugendlichen Leistungsschwimmerinnen und -schwimmern - im Mittelpunkt. Die nichtlinearen Methoden werden dabei einerseits auf ihre wissenschaftliche Aussagekraft überprüft, andererseits untereinander sowie mit linearen Verfahren verglichen.
Die Beschäftigung mit dem Thema Change Management erfordert die Auseinandersetzung mit einem heterogenen Feld von Ansätzen und fachlichen Perspektiven. Es besteht ein Mangel an systematischen empirischen Untersuchungen zu diesem Thema. Insbesondere fehlen Arbeiten, die mehr als eine "Schule" des Change Managements berücksichtigen. Unterschiede in den situativen Anforderungen werden zudem theoretisch und empirisch oft unzureichend berücksichtigt. Die Vermutung liegt nahe, dass das Scheitern von Veränderungsprozessen häufig durch die stereotype Anwendung generalisierender Empfehlungen gängiger Ansätze verursacht wird. Um diesen Defiziten zu begegnen, sollten in dieser Arbeit Kontingenzen von situativen Anforderungen und Change Management empirisch überprüft werden. Der Untersuchung liegt eine Konzeption zugrunde, die hinsichtlich des Projekterfolgs von der idealen Passung (Kontingenz) zwischen situativer Anforderung und Change Management ausgeht und damit einhergehende prozessbezogene Einflussfaktoren berücksichtigt. Erfolg wird im Sinne der Nachhaltigkeit als Wirkungen wirtschaftlicher, organisationsbezogener und qualifikatorischer Art definiert. In drei Teilstudien wurden Beratende und betriebliche Beteiligte jeweils projektbezogen schriftlich und mündlich zu betrieblicher Ausgangslage, Veränderungsprinzipien, Wirkungen und prozessbezogenen Einflussfaktoren befragt. Die erste Teilstudie umfasst vier Fallstudien. Hier wurden insgesamt 18 Projektbeteiligte, jeweils Beratende, betriebliche Projektleitende und –mitarbeitende, befragt. Die zweite Teilstudie umfasst die schriftliche und mündliche Befragung von 31 Beratenden verschiedener Schulen des Change Managements. In der dritten Teilstudie wurden 47 betriebliche Veränderungsverantwortliche schriftlich befragt. Die Projekte der zweiten und dritten Teilstudie liessen sich in jeweils zwei statistisch abgesicherte Erfolgsgruppen einteilen, wobei sich die Erfolgsgruppen nicht systematisch auf Merkmalen der betrieblichen Ausgangslage unterscheiden. Folgendes sind die wichtigsten Ergebnisse: Bei traditionell-bürokratischen Organisationsstrukturen geht ein langfristig-kontinuierliches, graduell-anpassendes, pragmatisch-lösungsorientiertes Vorgehen, in flexiblen Strukturen dagegen ein kurzfristiges, tiefgreifendes und integrativ-konzeptuelles Vorgehen mit Projekterfolg einher.In traditionell-hierarchischen Führungsstrukturen erweist sich ein wenig humanzentriertes und wenig selbstbeurteilendes Vorgehen mit standardisierter Vorgehensmethode, in flexiblen Führungsstrukturen ein stark humanzentriertes und ausgeprägt selbstbeurteilendes Vorgehen mit angepasster Vorgehensmethode als erfolgsversprechend.Bei grossem betrieblichem Veränderungswissen erweist sich ein selbstbeurteilendes Vorgehen, bei geringem Veränderungswissen ein wenig selbstbeurteilendes Vorgehen als erfolgsversprechend.Angesichts ökonomischer Anforderungen geht ein langfristig-kontinuierliches, schnelles und rollend geplantes Vorgehen mit einem tiefgreifenden und integrativ-konzeptuellen Ansatz, unter wenig Einbezug von Fremdbeurteilungen mit positiven Wirkungen einher.Bei technologischen Anforderungen ist ein langfristig-kontinuierliches, langsames und tiefgreifendes Vorgehen mit wenig Fremdbeurteilung erfolgsversprechend.Für soziokulturelle Anforderungen erweist sich ein langsames, selbstbeurteilendes, graduell anpassendes und pragmatisch-fokussiertes Vorgehen als erfolgreich. Angesichts politisch-rechtlicher Anforderungen geht ein linear geplantes, zielfokussiertes, fachberaterisches und wenig prozessorientiertes Vorgehen mit Erfolg einher.Bei Gesamtreorganisationen als innerorganisationale Anforderungen erweist sich ein linear geplantes, fach- und prozessberaterisches sowie tiefgreifendes Vorgehen als erfolgsversprechend.Bei innerorganisationalen Anforderungen durch Führungswechsel geht ein kurzfristig-temporäres, integrativ-konzeptuelles Vorgehen mit angepasster Vorgehensmethode mit Erfolg einher. Hinsichtlich prozessbezogener Einflussfaktoren erweisen sich situationsspezifisches Beratendenhandeln, unterstützendes Führungsverhalten, grosse Akzeptanz der/des Beratenden, umfassender Einbezug der Mitarbeitenden, aktive Beteiligung und Engagement der Mitarbeitenden, Verankerung des Projekts in der Organisation und hoher wahrgenommener Nutzen der Veränderung als wichtigste unterstützende Faktoren. Widerstände aus der Belegschaft, problematisches Führungsverhalten im Veränderungsprozess, fehlende/mangelhafte neben Tagesgeschäft bereitgestellte Ressourcen, behindernde organisationale (nicht projektbezogene) Entwicklungen, Angst/Verunsicherung der Belegschaft sind die wichtigsten hemmenden Faktoren.
Die vorliegende Arbeit wurde im Rahmen des multidisziplinären Deutsch-Russischen Verbundprojektes "Laptev See 2000" erstellt. Die dargestellten bodenkundlichen und mikro-biologischen Untersuchungen verfolgten das Ziel die mikrobielle Lebensgemeinschaft eines Permafrostbodens im sibirischen Lena Delta zu charakterisieren, wobei den methanogenen Archaea besondere Beachtung zukam. Die Probennahme wurde im August 2001 im zentralen Lenadelta, auf der Insel Samoylov durchgeführt. Das Delta liegt im Bereich des kontinuierlichen Permafrostes, was bedeutet, dass nur eine flache saisonale Auftauschicht während der Sommermonate auftaut. Das untersuchte Bodenprofil lag im Zentrum eines für die Landschaft repräsentativen Low Center Polygons. Zum Zeitpunkt der Beprobung betrug die Auftautiefe des untersuchten Bodens 45 cm.. Der Wasserstand lag zum Untersuchungszeitpunkt 18 cm unter der Geländeoberfläche, so dass alle tiefer liegenden Horizonte durch anaerobe Verhältnisse charakterisiert waren. Die Untersuchung der bodenkundlichen Parameter ergab unter anderem eine mit zunehmender Tiefe abnehmende Konzentration von Kohlenstoff und Stickstoff, sowie eine Abnahme von Temperatur und Wurzeldichte. Um die Auswirkungen der sich mit der Tiefe verändernden Bodeneigenschaften auf die Mikroorganismen zu ermitteln, wurden die Mikroorganismenpopulationen der verschiedenen Bodentiefen mit Hilfe der Fluoreszenz in situ Hybridisierung hinsichtlich ihrer Anzahl, Aktivität und Zusammensetzung beschrieben. Für die Charakterisierung des physiologischen Profils dieser Gemeinschaften, bezüglich der von ihr umsetzbaren Kohlenstoffverbindungen, wurden BIOLOG Mikrotiterplatten unter den in situ Bedingungen angepassten Bedingungen eingesetzt. Die sich im Profil verändernden Bodenparameter, vor allem die abnehmende Substratversorgung, die geringe Temperatur und die anaeroben Verhältnisse in den unteren Bodenschichten führten zu einer Veränderung der Mikroorganismenpopulation im Bodenprofil. So nahm von oben nach unten die Gesamtanzahl der ermittelten Mikroorganismen von 23,0 × 108 auf 1,2 × 108 Zellen g-1 ab. Gleichzeitig sank der Anteil der aktiven Zellen von 59% auf 33%. Das bedeutet, dass im Bereich von 0-5 cm 35mal mehr aktive Zellen g-1 als im Bereich von 40-45 cm gefunden wurden. Durch den Einsatz spezieller rRNS-Sonden konn-te zusätzlich eine Abnahme der Diversität mit zunehmender Bodentiefe nachgewiesen werden. Die geringere Aktivität der Population in den unteren Horizonten sowie die Unterschiede in der Zusammensetzung wirkten sich auf den Abbau der organischen Substanz aus. So wur-den die mit Hilfe der BIOLOG Mikrotiterplatten angebotenen Substanzen in größerer Tiefe langsamer und unvollständiger abgebaut. Insbesondere in den oberen 5 cm konnten einige der angebotenen Polymere und Kohlehydrate deutlich besser als im restlichen Profil umge-setzt werden. Das außerdem unter anaeroben Versuchsbedingungen diese Substrate deutlich schlechter umgesetzt wurden, kann so interpretiert werden, dass die konstant anaeroben Bedingungen in den unteren Horizonten ein Auftreten der Arten, die diese Substrate umset-zen, erschweren. Die in den oberen, aeroben Bodenabschnitten wesentlich höheren Zellzahlen und Aktivitäten und die dadurch schnellere C-Umsetzung führen auch zu einer besseren Substratversorgung der methanogenen Archaea in den makroskopisch aeroben Horizonten. Die erhöhte Substratverfügbarkeit erklärt die Tatsache, dass im Bereich von 0-5 cm die meisten methanogenen Archaea gefunden wurden, obwohl sich dieser Bereich zum Zeitpunkt der Probennahme oberhalb des wassergesättigten Bodenbereichs befand. Trotz der aeroben Bedingungen in, liegt im Bereich von 5 10 cm die für die methanogenen Archaea am besten geeignete Kombination aus Substratangebot und anaeroben Nischen vor. Hinzu kommt, dass in diesen Tiefen die Sommertemperaturen etwas höher liegen als in den tieferen Horizonten, was wiederum die Aktivität positiv beeinflusst. Bei zusammenfassender Betrachtung der Untersuchungsergebnisse von Anzahl, Aktivität, Zusammensetzung und Leistung der gesamten, aber im besonderen auch der methanogenen Mikroorganismenpopulation wird deutlich, dass in dem untersuchten Bodenprofil unter ökologischen Gesichtspunkten die oberen 15-20 cm den für den C-Umsatz relevantesten Bereich darstellen. Das Zusammenspiel wichtiger Bodenparameter wie Bodentemperatur, Wasserstand, Nährstoffversorgung und Durchwurzelung führt dazu, dass in dem untersuchten Tundraboden in den oberen 15-20 cm eine wesentlich größere und diversere Anzahl an Mikroorganismen existiert, die für einen schnelleren und umfassenderen Kohlenstoffumsatz in diesem Bereich des active layers sorgt.
Bei konventionellen Mikroarray-Experimenten zur Genexpressionsanalyse wird fluoreszenz- oder radioaktiv-markierte cDNA oder RNA mit immobilisierten Proben hybridisiert. Für ein gut detektierbares und auswertbares Ergebnis werden jedoch pro Array mindestens 15 - 20 µg Hybridisierungstarget benötigt. Dazu müssen entweder 15 - 20 µg RNA direkt durch Reverse Transkription in markierte cDNA umgeschrieben werden oder bei Vorhandensein von weniger Startmaterial die RNA amplifiziert werden (Standard- Affymetrix-Protokolle, Klur et al. 2004). Oft sind damit zeit- und kostenintensive Probenpräparationen verbunden und das Ergebnis ist nicht immer reproduzierbar. Obwohl es inzwischen einige Protokolle gibt, die dieses Problem zu lösen versuchen (Zhang et al. 2001, Iscove et al. 2002, McClintick et al. 2003, Stirewalt et al. 2004), eine optimale, leicht handbare und reproduzierbare Methode gibt es weiterhin nicht, weshalb in dieser Arbeit ein weiterer Lösungsansatz gesucht wurde. In der vorgestellten Arbeit werden zwei einfache Methoden beschrieben, mit denen Gene aus geringen RNA-Mengen nachgewiesen werden können: erstens die On Chip- RT-PCR mit cDNA als Matrize und zweitens diese Methode als One-Step-Reaktion mit RNA als Matrize. Beide Methoden beruhen auf dem Prinzip der PCR an immobilisierten Primern auf einer Chipoberfläche. Diese Möglichkeit der exponentiellen Amplifikation ist reproduzierbar und sensitiv. In Experimenten zur Etablierung des On-Chip-PCR-Systems wurden für die Immobilisierung der Primer verschiedene Kopplungsmethoden verwendet. Die affine Kopplung über Biotin- Streptavidin erwies sich als geeignet. Die On-Chip-Reaktion an kovalent gebundenen Primern wurde für amino-modifizierte Primer auf Epoxy-Oberflächen sowie für EDC-Kopplung auf silanisierten Oberflächen gezeigt. Für die letztgenannte Methode wurde die On-Chip-PCR optimiert, dass Spottingkonzentrationen der Primer von 5 - 10µM schon ausreichend sind. Der Einsatz von fluoreszenz-markierten Primern während der PCR ermöglicht eine unmittelbare Auswertung nach der Synthese ohne zusätzliche Detektionsschritte. In dieser Arbeit konnte außerdem mit der vorgestellten Methode der simultane Nachweis zweier Gene gezeigt werden. Die Methode kann noch als Multiplex-Analyse ausgebaut werden, um so mehrere Gene in gleichzeitig einem Ansatz nachweisen zu können. Die Ergebnisse der Versuche mit Matrizen aus unterschiedlichen Zelltypen deuten darauf hin, dass die On-Chip-RT-PCR eine weitere optimale Methode für den Nachweis von gering exprimierten Genen bietet.
Die Dissertation stellt eine neue Herangehensweise an die Lösung der Aufgabe der funktionalen Diagnostik digitaler Systeme vor. In dieser Arbeit wird eine neue Methode für die Fehlererkennung vorgeschlagen, basierend auf der Logischen Ergänzung und der Verwendung von Berger-Codes und dem 1-aus-3 Code. Die neue Fehlererkennungsmethode der Logischen Ergänzung gestattet einen hohen Optimierungsgrad der benötigten Realisationsfläche der konstruierten Fehlererkennungsschaltungen. Außerdem ist eins der wichtigen in dieser Dissertation gelösten Probleme die Synthese vollständig selbstprüfender Schaltungen.
Ziel dieser Arbeit war die Entwicklung neuer Substanzen für die Gentherapie. Diese beinhaltet die Behebung von erblich bedingten Krankheiten wie z.B. Mucoviscidose. Dabei werden im Zellkern defekte Gene durch normale, gesunde DNA-Sequenzen ersetzt. Zur Einschleusung des Genmaterials in die Zellen (Transfektion) werden geeignete Transport-Systeme bzw. Methoden benötigt, die dort die Freisetzung der neu einzubauenden Gene (Genexpression ausgedrückt in Transfektionseffizienzen) gestatten. Hierfür wurden neue Polykation-DNA-Komplexe (Vektoren) auf Basis kationischer Polymere wie Poly(ethylenimin) (PEI) hergestellt, charakterisiert und nachfolgend in Transfektionsversuchen an verschiedenen Zelllinien eingesetzt. Sowohl das kationische Ausgangspolymer PEI als auch das Pfropfcopolymer PEI-g-PEO (PEO-Seitenketten zur Erhöhung der Biokompatibilität) wurden mit Rezeptorliganden modifiziert, um eine verbesserte und spezifische Transfektion an ausgesuchten Zellen zu erreichen. Als Liganden wurden Folsäure (Transfektion an HeLa-Zellen), Triiod-L-thyronin (HepG2-Zellen) und die Uronsäuren der Galactose, Mannose, Glucose sowie die Lactobionsäure (HeLa-, HepG2- und 16HBE-Zellen) verwendet. Das PEI, die Pfropfcopolymere PEI-g-PEO und die Ligand-funktionalisierten Copolymere wurden hinsichtlich ihrer chemischen Zusammensetzung und molekularen Parameter charakterisiert. Die Molmassenuntersuchungen mittels Größenausschlusschromatographie zeigten, dass nach der Synthese unterschiedliche Polymerfraktionen mit nicht einheitlicher chemischer Zusammensetzung vorlagen. Die anschließenden Transfektionsversuche wurden mit Hilfe einer speziellen DNA (Luciferase) an den Zelllinien HepG2 (Leberkrebszellen), HeLa (Gebärmutterhalskrebszellen) und 16HBE (Atemwegsepithelzellen) durchgeführt. Die T3(Triiod-L-thyronin)-Vektoren zeigten in Abhängigkeit vom eingesetzten Komplexverhältnis Polykation/DNA ein Maximum in der Transfektion an HepG2-Zellen. Die Hypothese der rezeptorvermittelten Endozytose ließ sich durch entsprechende T3-Überschuss-Experimente und Fluoreszenzmikroskopie-Untersuchungen bestätigen. Dagegen konnte bei den Folsäure-Vektoren keine rezeptorvermittelte Endozytose beobachtet werden. Bei den Vektoren mit Mannuronsäure-Ligand (Man) konnte an allen drei Zelllinien (HepG2, HeLa, 16HBE) eine konstante, hohe Transfereffizienz nachgewiesen werden. Sie waren bei allen eingesetzten Polymer-DNA-Verhältnissen effizienter als der Vergleichsvektor PEI. Dieses Transfektionsverhalten ließ sich durch Blockierung der Zuckerstruktur unterbinden. In Transfektionsexperimenten mit einem Überschuss an freier Mannuronsäure und fluoreszenzmikroskopischen Untersuchungen konnte eine rezeptorvermittelte Endozytose der Man-Vektoren an den o.g. Zelllinien nachgewiesen werden. Die anderen Uronsäure-Konjugate zeigten keine signifikanten Abweichungen im Transfektionsverhalten im Vergleich zum PEI-Vektor.
Für ein tiefergehendes Verständnis von Entwicklung und Funktion der quergestreiften Muskulatur ist eine Betrachtung der am Aufbau der Myofibrillen, den kontraktilen Organellen, beteiligten Proteine essentiell. Die vorliegende Arbeit beschäftigt sich mit Myomesin, einem Protein der sarkomeren M-Bande. Zunächst wurde die cDNA des humanen Myomesins vollständig kloniert, sequenziert und nachfolgend die komplette Größe der aminoterminalen Kopfdomäne bestimmt. Es konnte gezeigt werden, daß Myomesin in vitro mit den Domänen 1 und 12 an Myosin bindet. Die muskelspezifische Isoform der Kreatinkinase bindet an die Domänen 7 und 8. Stimulations- und Inhibitionsexperimente belegen, daß Myomesin an Serin 618 in vivo durch die Proteinkinase A phosphoryliert wird und daß diese Phosphorylierung durch Aktivierung beta2-adrenerger Rezeptoren stimulierbar ist. In Muskelgewebeproben von Patienten, die an der Hypertrophen Kardiomyopathie, einer genetisch bedingten Herzmuskelkrankheit, erkrankt sind, konnte mit einem neu hergestellten phosphorylierungsabhängigen Antikörper eine Verminderung der Menge phosphorylierten Myomesins nachgewiesen werden. Mögliche Ursachen werden diskutiert. Myomesin bildet Dimere, wie durch hefegenetische und biochemische Experimente gezeigt werden konnte. Die Dimerisierung von Myomesin könnte eine zentrale Rolle für den Einbau der Myosinfilamente in die naszierende Myofibrille haben. Anhand der gewonnenen Daten wurde ein verbessertes Modell der zentralen M-Bande erstellt.
Ziel der vorliegenden Arbeit war es, mittels des Aufgabenwechselparadigmas, kognitive Prozesse nicht nur anhand von traditionellen Leistungsparametern, sondern zusätzlich durch elektro-physiologische Parameter zu untersuchen. Parameter ereigniskorrelierter Hirnpotentiale (EKP) wurden ebenfalls zur Einschätzung von altersbedingten Änderungen bei der Ausführung von Reaktionszeitaufgaben herangezogen. Nach Rubinstein et al. (2001) setzt sich die Reaktionszeit aus der Dauer seriell angeordneter Verarbeitungsstufen zusammen. Im Stufenmodell der exekutiven Kontrolle von Rubinstein et al. (2001) sind Prozesse der ausführenden Kontrolle nur an Wechseltrials beteiligt und können getrennt von den Aufgabenprozessen ablaufen. Mittels der Informationen zu den Reaktionszeiten ist es jedoch nicht möglich zu klären, auf welche kognitiven Verarbeitungsprozesse Reaktionszeitunterschiede unter den jeweiligen experimentellen Bedingungen zurückzuführen sind. Zur Analyse der kognitiven Prozesse wurden in dieser Untersuchung die CNV und P300 herangezogen. Es wurden zwei Altersgruppen (20-30 Jährige und 49-61 Jährige) untersucht. Den Probanden wurden Ziffern präsentiert, die entweder nach dem numerischen Wert oder der Schriftgröße mit dem Hinweisreiz, der Zahl 5, verglichen werden sollten. Die Stimuli wurden nach dem Alternating-Runs-Paradigma dargeboten (Rogers und Monsell, 1995). Erwartungsgemäß gab es Reaktionszeitunterschiede zwischen alt und jung mit längeren Reaktionszeiten für die älteren Probanden. Altersunterschiede in den Fehlerraten ließen sich nicht nachweisen. Möglicherweise erfolgte die Reaktionsauswahl bei den Älteren überlegter aus als bei den Jüngeren. Dies spiegelte sich in längeren aber fehlerfreien Reaktionen wider. Vermutlich bereiteten jedoch alle Probanden in dem Intervall zwischen Cue und Stimulus das jeweilige Aufgabenset komplett vor. Das könnte auch erklären, warum es bei einem Aufgabenwechsel nicht zu einem Anstieg der Reaktionszeit und der Fehlerrate kam. Entgegen der Erwartung zeigten sich keine Wechselkosten. Teilweise wurden inverse Wechselkosten nachgewiesen. In Bezug auf die Wechselkosten konnte das Stufenmodell der exekutiven Kontrolle (Rubinstein et al., 2001) nicht bestätigt werden. Der explizite Hinweisreiz scheint allerdings Einfluss auf die Wechselkosten zu haben. Verschiedene Erklärungsansätze werden diskutiert. Die Contingent Negative Variation ist wie erwartet vor einem Aufgabenwechsel größer als vor einer Aufgabenwiederholung. Durch den Hinweisreiz ist eine erhöhte Kapazität vorhanden. Entsprechend den Ergebnissen der CNV kann davon ausgegangen werden, dass ältere Erwachsene stärker von der Vorinformation zu profitieren scheinen als jüngere Erwachsene. Die älteren Erwachsenen beginnen im Gegensatz zu den jüngeren Erwachsenen offenbar eher mit der Vorbereitung. Zeitdruck und Aufgabenwechsel lösen eine stärkere P300 aus. Demzufolge scheinen Zeitdruck und Aufgabenwechsel einen erhöhten Kapazitätsbedarf zu erfordern. Im Sinne des Stufenmodells der exekutiven Kontrolle von Rubinstein et al. (2001) führt die Zielverschiebung bei einem Aufgabenwechsel zu einer größeren P300. Die Resultate der hier dargestellten Untersuchungen verdeutlichen, dass ältere Erwachsene einen höheren zeitlichen Aufwand in den Stufen der einzelnen exekutiven Prozesse benötigen. Dies spricht für die Hypothese der selektiven Verlangsamung. Ältere kompensieren dies durch einen höheren Aufwand in der Vorbereitung, was auf elektrokortikaler Ebene nachweisbar ist, sind aber nicht in der Lage, dies in den Reaktionszeiten umzusetzen. Die Ergebnisse dieser Untersuchung unterstützen die vereinfachte Annahme von Rubinstein et al. (2001), nach dem die Teilprozesse der Reaktionszeit seriell verarbeitet werden können. Die Resultate lassen allerdings den Schluss zu, dass die Wechselkosten im Hinblick auf die Reaktionszeiten nicht der geeignete Parameter für die Messung der exekutiven Kontrolle sind. Die vorgeschlagene Modifikation des Modells von Rubinstein et al. (2001) in der Vorbereitung auf eine Aufgabe gilt es in weiteren Untersuchungen zu bestätigen und die Möglichkeit der Anwendung auf alle Aspekte der exekutiven Kontrollprozesse zu prüfen.
In dieser Arbeit wird in mehreren Experimenten untersucht, wie gut junge und alte Erwachsene Sätze mit unterschiedlich komplexer syntaktischer Struktur verstehen können. Zentrales Thema dabei sind die Schwierigkeiten, die ältere Erwachsene mit der Objekt-vor-Subjekt-Wortstellung haben. Untersucht wird, inwiefern diese beobachteten Altersunterschiede durch eine reduzierte verbale Arbeitsgedächtniskapazität der älteren Erwachsenen erklärt werden können. Dabei stellt sich die Frage, ob die Defizite ein generelles verbales Arbeitsgedächtnis betreffen oder ob es ein eigenes Verarbeitungs-system für syntaktische Informationen gibt, dessen Kapazität mit dem Alter abnimmt. Es wurde versucht, die postulierte reduzierte Arbeitsgedächtniskapazität der älteren Erwachsenen an jungen Erwachsenen zu simulieren, indem deren Arbeitsgedächtniska-pazität durch eine Zusatzaufgabe künstlich eingeschränkt wurde. Weiterhin wurden die Altersunterschiede bei syntaktisch komplexen zentraleingebetteten Relativsätzen mit denen bei syntaktisch einfacheren koordinierten Hauptsätzen verglichen. Um die Studienteilnehmer mit den seltenen objektinitialen Strukturen zu konfrontieren und ihre Erfahrung mit solchen Sätzen zu verändern, wurden schließlich sowohl junge als auch alte Erwachsene mit Sätzen mit Objekt-vor-Subjekt-Wortstellung trainiert.
Im Kontext der Herausforderungen globalwirtschaftlich orientierter Entwicklungen in der Gesellschaft gestalten Schulen zunehmend ihren eigenen Handlungs- und Strukturrahmen. Dieser lässt sich auch im Bildungsbereich mit 'Profilbildung' umschreiben: Schulen geben sich eine eigene Identität, mit der sie sich - auch für Außenstehende erkennbar - von anderen Schulen abheben möchten. Ziel der Untersuchung zur musikalisch-ästhetischen Profilierung soll die Beantwortung der Grundsatzfrage sein, wie der subjektive und objektive Handlungs- und Strukturrahmen einer musikalisch-ästhetischen Profilbildung beschaffen sein muss, damit sie von einer Schule erfolgreich betrieben werden kann. Die Verfasserin hebt hervor, dass es keinen einheitlichen Weg für diese Profilbestrebung geben kann und wird. Rechtliche Wege eröffnen Chancen und Hilfen hinsichtlich einer musikalisch- ästhetischen Profilbildung. Sie ist nachhaltig und in ihrer Dimension sogar eine 'Selbsthilfe', damit Schule ihre eigene Rolle in der Bildungspolitik definiert.
Das Ziel dieser Arbeit ist die Untersuchung der Wasserhaushaltsprozesse und Stofftransportvorgänge innerhalb der grundwassergeprägten Talauenlandschaften von Tieflandeinzugsgebieten am Beispiel der im Nordostdeutschen Tiefland gelegenen Havel. Die Arbeiten in verschieden skaligen Teileinzugsgebieten der Havel beschäftigen sich dabei zum einen mit der experimentellen Untersuchung und vorrangig qualitativen Beschreibung der Wasserhaushaltsdynamik, zum anderen mit der Entwicklung eines zur quantitativen Analyse von Wasserhaushalts- und Stofftransportprozessen geeigneten Modells und der anschließenden Modellsimulation von Wasserhaushalt und Stickstoffmetabolik im Grundwasser sowie der Simulation von Landnutzungs- und Gewässerstrukturszenarien. Für die experimentelle Untersuchung der Abflussbildung und der Wasserhaushaltsprozesse in den Talauenlandschaften des Haveleinzugsgebiets wurde Einzugsgebiet der ”Unteren Havel Niederung“ ein umfangreiches Messnetz installiert. Dabei wurden an mehreren Messstationen und Pegeln meteorologische Parameter, Bodenfeuchte sowie Grundwasserstände und Abflüsse beobachtet. Die Analyse der Messergebnisse führte zu einem verbesserten Verständnis von Wasserhaushaltsprozessen in der durch das oberflächennahe Grundwasser und die Oberflächengewässerdynamik beeinflussten Talauenzone. Darüber hinaus konnten durch die Implementierung der Messergebnisse konsistente Anfangs- und Randbedingungen für die Wasserhaushalts- und Grundwassermodellierung im Modellkonzept IWAN realisiert werden. Mit dem Modell IWAN (Integrated Modelling of Water Balance and Nutrient Dynamics) wurde ein Werkzeug geschaffen, welches die Berücksichtigung spezifischer hydrologischer Eigenschaften von Tieflandauen, wie z. B. den Einfluss des oberflächennahen Grundwassers bzw. der Dynamik von Oberflächenwasserständen auf den Wasserhaushalt, ermöglicht. Es basiert auf der Kopplung des deterministischen distribuierten hydrologischen Modells WASIM-ETH mit dem dreidimensionalen Finite-Differenzen-basierten Grundwassermodel MODFLOW. Die Modellierung der Stickstoffmetabolik im Grundwasser erfolgt durch das mit Grundwassermodell gekoppelte Stofftransportmodel MT3D. Zur modellbasierten Simulation des Wasserhaushalts der Tieflandauenlandschaften wurde das Modellkonzept IWAN für verschieden skalige Teileinzugsgebiete an der Havel für Simulationszeiträume von 2 Wochen bis zu 13 Jahren angewandt. Dabei wurden die Teilmodelle für Wasserhaushalts- und Grundwassermodellierung in zwei unterschiedlichen Teileinzugsgebieten der ”Unteren Havel Niederung“ kalibriert. Die anschließende Validierung erfolgte für das gesamte Einzugsgebiet der ”Unteren Havel“. Die Unsicherheiten des Modellansatzes sowie die Anwendbarkeit des Modells im Untersuchungsraum wurden geprüft und die Limitierung der Übertragbarkeit auf andere grundwasserbeeinflusste Tieflandeinzugsgebiete analysiert. Die Ergebnisse der Wasserhaushaltssimulationen führen einerseits zum erweiterten Prozessverständnis des Wasserhaushalts in Flachlandeinzugsgebieten, andererseits ermöglichten sie durch die Quantifizierung einzelner Prozessgrößen die Beurteilung der Steuerungsfunktion einzelner Wasserhaushaltsprozesse. Auf der Basis lokaler Simulationsergebnisse sowie geomorphologischer und gewässermorphologischer Analysen wurde ein Algorithmus entwickelt, welcher die Abgrenzung des direkten Eigeneinzugsgebiets der Havel als Raum der direkten Interaktion zwischen Oberflächengewässer und umgebendem Einzugsgebiet beschreibt. Durch Simulation des Wasserhaushalts im Eigeneinzugsgebiet mit dem Modell IWAN konnten die Interaktionsprozesse zwischen Fluss und Talauenlandschaft quantitativ beschrieben werden. Dies ermöglichte eine Bewertung der Abflussanteile aus dem Eigeneinzugsgebiet sowie eine Quantifizierung der zeitlich variablen Retentionskapazität der Auenlandschaft während Hochwasserereignissen. Zur Abschätzung des Einflusses veränderter Landnutzung und angepassten Managements auf den Wasserhaushalt der Talaue wurden Szenarien entwickelt, welche Änderungen der Landnutzung sowie der Gewässergeometrie implizieren. Die Simulation des Wasserhaushalts unter jeweiligen Szenariobedingungen ermöglichte die detaillierte Analyse sich ändernder Randbedingungen auf den Gebietswasserhaushalt und auf die Austauschprozesse zwischen Grundwasser und Oberflächengewässer. Zur Untersuchung der Stickstoffmetabolik im Grundwasser der Talauenlandschaft wurde das im Modellkonzept IWAN integrierte Stofftransportmodell MT3D für das Eigeneinzugsgebiet der Havel angewandt. Dies ermöglichte eine Bilanzierung der aus dem Grundwasser des Eigeneinzugsgebiets stammenden Nitratfrachtanteile der Havel sowie von Nitratkonzentrationen im Grundwasser. Szenariensimulationen, welche verminderte Nitrateinträge aus der durchwurzelten Bodenzone annehmen, ermöglichten die Quantifizierung der Effizienz von Managementmaßnahmen und Landnutzungsänderungen in Hinblick auf die Minimierung von Einträgen in Grundwasser und Oberflächengewässer.
Interaktive System sind dynamische Systeme mit einem zumeist informationellen Kern, die über eine Benutzungsschnittstelle von einem oder mehreren Benutzern bedient werden können. Grundlage für die Benutzung interaktiver Systeme ist das Verständnis von Zweck und Funktionsweise. Allein aus Form und Gestalt der Benutzungsschnittstelle ergibt sich ein solches Verständnis nur in einfachen Fällen. Mit steigender Komplexität ist daher eine verständliche Beschreibung solcher Systeme für deren Entwicklung und Benutzung unverzichtbar. Abhängig von ihrem Zweck variieren die Formen vorgefundener Beschreibungen in der Literatur sehr stark. Ausschlaggebend für die Verständlichkeit einer Beschreibung ist jedoch primär die ihr zugrundeliegende Begriffswelt. Zur Beschreibung allgemeiner komplexer diskreter Systeme - aufbauend auf einer getrennten Betrachtung von Aufbau-, Ablauf- und Wertestrukturen - existiert eine bewährte Begriffswelt. Eine Spezialisierung dieser Begriffs- und Vorstellungswelt, die den unterschiedlichen Betrachtungsebenen interaktiver Systeme gerecht wird und die als Grundlage beliebiger Beschreibungsansätze interaktiver Systeme dienen kann, gibt es bisher nicht. Ziel dieser Arbeit ist die Bereitstellung einer solchen Begriffswelt zur effizienten Kommunikation der Strukturen interaktiver Systeme. Dadurch soll die Grundlage für eine sinnvolle Ergänzung bestehender Beschreibungs- und Entwicklungsansätze geschaffen werden. Prinzipien der Gestaltung von Benutzungsschnittstellen, Usability- oder Ergonomiebetrachtungen stehen nicht im Mittelpunkt der Arbeit. Ausgehend von der informationellen Komponente einer Benutzungsschnittstelle werden drei Modellebenen abgegrenzt, die bei der Betrachtung eines interaktiven Systems zu unterscheiden sind. Jede Modellebene ist durch eine typische Begriffswelt gekennzeichnet, die ihren Ursprung in einer aufbauverwurzelten Vorstellung hat. Der durchgängige Bezug auf eine Systemvorstellung unterscheidet diesen Ansatz von dem bereits bekannten Konzept der Abgrenzung unterschiedlicher Ebenen verschiedenartiger Entwurfsentscheidungen. Die Fundamental Modeling Concepts (FMC) bilden dabei die Grundlage für die Findung und die Darstellung von Systemstrukturen. Anhand bestehender Systembeschreibungen wird gezeigt, wie die vorgestellte Begriffswelt zur Modellfindung genutzt werden kann. Dazu wird eine repräsentative Auswahl vorgefundener Systembeschreibungen aus der einschlägigen Literatur daraufhin untersucht, in welchem Umfang durch sie die Vorstellungswelt dynamischer Systeme zum Ausdruck kommt. Defizite in der ursprünglichen Darstellung werden identifiziert. Anhand von Alternativmodellen zu den betrachteten Systemen wird der Nutzen der vorgestellten Begriffswelt und Darstellungsweise demonstriert.
Durch die anthropogene Nutzung sind viele Auen in Mitteleuropa verändert worden, wobei insbesondere die Retentionsflächen stark verringert wurden. Während Auen seit längerem im Fokus der wissenschaftlichen Bearbeitung stehen, gibt es bisher große Wissensdefizite in der Frage der Auenreaktivierungen. Zum einen sind derartige Projekte bisher kaum verwirklicht und zum anderen ist ein langfristiges Monitoring notwendig, um die Anpassung von Biozönosen an die veränderten Standortbedingungen beobachten zu können. Um die Folgen derartiger Eingriffe zu analysieren, bieten sich computergestützte Modellierungen der Landschaftsentwicklung an, wie sie in der vorliegenden Arbeit verwirklicht wurden. Ziel der Arbeit war, mit Hilfe eines Geografischen Informationssystems (GIS) das Entwicklungspotenzial der Landschaft bei verschiedenen Rückdeichungsvarianten auf der Ebene der Biotoptypen darzustellen. Dabei ging es nicht um die Erstellung eines allgemein gültigen Auenmodells sondern um die Erarbeitung eines Modells für einen konkreten Anwendungsfall. Der erarbeitete Ansatz sollte zudem für die landschaftsplanerische Praxis geeignet sein. Als Beispielgebiete wurden Flächen an der Mittleren Elbe bei Rogätz und Sandau, beide im nördlichen Teil von Sachsen-Anhalt, ausgewählt. Die vorliegende Arbeit gliedert sich in zwei Teile. Im ersten Teil werden Erhebungen und Auswertungen als Grundlage der Modellentwicklung dargestellt. Dazu wurden die Biotoptypen der Beispielgebiete flächendeckend erhoben und mit punktuellen Vegetationserhebungen ergänzt. Aus dem Forschungsprojekt "Rückgewinnung von Retentionsflächen und Altauenreaktivierung an der Mittleren Elbe in Sachsen-Anhalt" des Bundesministeriums für Bildung und Forschung (BMBF) standen standortökologische Daten der Hydrologie und Bodenkunde zur Verfügung. Ziel der Auswertung war, Schlüsselfaktoren für Hydrologie und Bodenbedingungen innerhalb der rezenten Aue zu identifizieren, die zur Ausprägung bestimmter Biotoptypen führen. Im zweiten Teil der Arbeit wurde ein Modell für Biotoptypenpotenziale auf den geplanten Rück–deichungsflächen entwickelt. Das Modell bearbeitet die Datenbank der verwendeten GIS-Dateien, die auf Daten zum Bestand beruht und um solche der Prognose der Standortökologie (Hydrologie und Boden) im Rückdeichungsfalle aus dem BMBF-Projekt erweitert wurde. Weitere Voraussetzung für die Modellierung war die Erarbeitung von Leitbildern, in denen unterschiedliche Nutzungsszenarios für die Landschaft nach Deichrückverlegung hypothetisch festgelegt wurden. Insbesondere die Nutzungsintensität wurde variiert, von einer Variante intensiver land- und forstwirtschaftlicher Nutzung über sogenannte integrierte Entwicklungsziele aus dem BMBF-Projekt bis hin zu einer Variante der Naturschutznutzung. Zusätzlich wurde eine zukünftige Potentielle Natürliche Vegetation modelliert. Eine Überprüfung des Modell fand für den Raum der rezenten Aue in der intensiven Nutzungsvariante statt, die der gegenwärtigen Nutzung am nächsten kommt. Werden Informationen des Bestandsbiotoptyps als Korrekturgröße in das Modell einbezogen, konnte für viele Biotoptypen eine Trefferquote von über 90 % erreicht werden. Bei flächenmäßig weniger bedeutenden Bio–toptypen lag dieser Wert aufgrund der schmaleren Datenbasis zwischen 20 und 40 %. Als Ergebnis liegt für unterschiedliche Deichvarianten und Leitbilder in den Beispielgebieten die Landschaftsentwicklung als Biotoppotenzial vor. Als eine vereinfachte Regionalisierung der punktuellen Vegetationsdaten wurde im Modell geprüft, inwieweit die modellierten Biotopflächen der Charakteristik der pflanzensoziologischen Aufnahmen aus der rezenten Aue entsprechen. In dem Falle wurde die Pflanzengesellschaft der jeweiligen ökologisch im Rahmen der Untersuchung einheitlichen Flächeneinheit zugeordnet. Anteilig lässt sich damit die Biotopprognosefläche pflanzensoziologisch konkretisieren. Die vorliegende Arbeit gehört zu den bisher wenigen Arbeiten, die sich mit den Folgen von Auenreaktivierung auf die Entwicklung der Landschaft auseinandersetzen. Sie zeigt eine Möglichkeit auf, Prognosemodelle für Biotoptypen und Vegetation anhand begrenzter Felduntersuchungen zu entwerfen. Derartige Modelle können zum Verständnis von Eingriffen in den Naturhaushalt, wie sie die Deichrückverlegungen darstellen, beitragen und eine Folgenabschätzung unterstützen.
Im Mittelpunkt dieser Arbeit standen Signaltransduktionsprozesse in den Strukturen der Kraftübertragung quergestreifter Muskelzellen, d. h. in den Costameren (Zell-Matrix-Kontakten) und den Glanzstreifen (Zell-Zell-Kontakten der Kardiomyozyten).Es ließ sich zeigen, dass sich die Morphologie der Zell-Matrix-Kontakte während der Differenzierung von Skelettmuskelzellen dramatisch ändert, was mit einer veränderten Proteinzusammensetzung einhergeht. Immunfluoreszenz-Analysen von Skelettmuskelzellen verschiedener Differenzierungsstadien implizieren, dass die Signalwege, welche die Dynamik der Fokalkontakte in Nichtmuskelzellen bestimmen, nur für frühe Stadien der Muskeldifferenzierung Relevanz haben können. Ausgehend von diesem Befund wurde begonnen, noch unbekannte Signalwege zu identifizieren, welche die Ausbildung von Costameren kontrollieren: In den Vorläuferstrukturen der Costamere gelang es, eine transiente Interaktion der Proteine Paxillin und Ponsin zu identifizieren. Biochemische Untersuchungen legen nahe, dass Ponsin über eine Skelettmuskel-spezifische Insertion im Carboxyterminus das Adapterprotein Nck2 in diesen Komplex rekrutiert. Es wird vorgeschlagen, dass die drei Proteine einen ternären Signalkomplex bilden, der die Umbauvorgänge der Zell-Matrix-Kontakte kontrolliert und dessen Aktivität von mitogen activated protein kinases (MAPK) reguliert wird.Die Anpassungsvorgänge der Strukturen der Kraftübertragung an pathologische Situtation (Kardiomyopathien) in der adulten quergestreiften Muskulatur wurden ausgehend von einem zweiten Protein, dem muscle LIM protein (MLP), untersucht. Es konnte gezeigt werden, dass ein mutiertes MLP-Protein, das im Menschen eine hypertrophe Kardiomyopathie (HCM) auslöst, strukturelle Defekte aufweist und weniger stabil ist. Weiterhin zeigte dieses mutierte Protein eine verringerte Bindungsfähigkeit an die beiden Liganden N-RAP und alpha-Actinin. Die molekulare Grundlage der HCM-verursachenden Mutationen im MLP-Gen könnte folglich eine Veränderung der Homöostase im ternären Komplex MLP – N-RAP – alpha-Actinin sein. Die Expressionsdaten eines neu generierten monoklonalen MLP-Antikörpers deuten darauf hin, dass die Funktionen des MLP nicht nur für die Integrität des Myokards, sondern auch für die der Skelettmuskulatur notwendig sind.
Für das Verständnis der Strukturbildung bei Proteinen ist es wichtig, allgemein geltende Prinzipien der Stabilität und Faltung zu verstehen. Bisher wurde viel Arbeit in die Erörterung von Gesetzmäßigkeiten zu den Faltungseigenschaften von globulären Proteinen investiert. Die große Proteinklasse der solenoiden Proteine, zu denen z. B. Leucine-Rich Repeat- (LRR-) oder Ankyrin-Proteine gehören, wurde dahingegen noch wenig untersucht. Die Proteine dieser Klasse sind durch einen stapelförmigen Aufbau von sich wiederholenden typischen Sequenzeinheiten gekennzeichnet, was in der Ausbildung einer elongierten Tertiärstruktur resultiert. In der vorliegenden Arbeit sollte versucht werden, die Stabilität und Faltung eines LRR-Proteins mittels verschiedener biophysikalischer Methoden zu charakterisieren. Als Untersuchungsobjekt diente die für die Infektion ausreichende zentrale LRR-Domäne des Invasionsproteins Internalin B (InlB241) des Bakteriums Listeria monocytogenes. Des weiteren sollten die Integrität und die Stabilitäts- und Faltungseigenschaften der sogenannten Internalin-Domäne (InlB321) untersucht werden. Hierbei handelt es sich um die bei allen Mitgliedern der Internalinfamilie vorkommende Domäne, welche aus einer direkten Fusion des C-terminalen Endes der LRR-Domäne mit einer Immunglobulin (Ig)-ähnlichen Domäne besteht. Von beiden Konstrukten konnte eine vollständige thermodynamische Charakterisierung, mit Hilfe von chemisch- bzw. thermisch-induzierten Faltungs- und Entfaltungsübergängen durchgeführt werden. Sowohl InlB241 als auch InlB321 zeigen einen reversiblen und kooperativen Verlauf der chemisch-induzierten Gleichgewichtsübergänge, was die Anwendung eines Zweizustandsmodells zur Beschreibung der Daten erlaubte. Die zusätzliche Ig-ähnliche Domäne im InlB321 resultierte im Vergleich zum InlB241 in einer Erhöhung der freien Enthalpie der Entfaltung (8.8 kcal/mol im Vergleich zu 4.7 kcal/mol). Diese Stabilitätszunahme äußerte sich sowohl in einer Verschiebung des Übergangsmittelpunktes zu höheren Guanidiniumchlorid-Konzentrationen als auch in einer Erhöhung der Kooperativität des Gleichgewichtsübergangs (9.7 kcal/mol/M im Vergleich zu 7.1 kcal/mol/M). Diese Beobachtungen zeigen dass die einzelnen Sequenzeinheiten der LRR-Domäne nicht unabhängig voneinander falten und dass die Ig-ähnliche Domäne, obwohl sie nicht direkt mit dem Wirtszellrezeptor während der Invasion interagiert, eine kritische Rolle für die <i style='mso-bidi-font-style:normal'>in vivo Stabilität des Internalin B spielt. Des weiteren spiegelt die Kooperativität des Übergangs die Integrität der Internalin-Domäne wieder und deutet darauf hin, dass bei beiden Proteinen keine Intermediate vorliegen. Kinetische Messungen über Tryptophanfluoreszenz und Fern-UV<span style='color:red'> </span>Circulardichroismus deuteten auf die Existenz eines relativ stabilen Intermediates auf dem Faltungsweg der LRR-Domäne hin. Faltungskinetiken aus einem in pH 2 denaturierten Zustand zeigten ein reversibles Verhalten und verliefen über ein Intermediat. Eine Erhöhung der Salzkonzentration des sauer-denaturierten Proteins führte zu einer Kompaktierung der entfalteten Struktur und resultierte im Übergang zu einem alternativ gefalteten Zustand. Bei der Internalin-Domäne deuteten kinetische Messungen des Fluoreszenz- und Fern-UV Circulardichroismus-Signals während der Entfaltung möglicherweise auf die Präsenz von zwei Prozessen hin. Der erste langsame Entfaltungsprozess kurz nach dem Übergangsmittelpunkt zeigte eine starke Abhängigkeit von der Temperatur, während der zweite schnellere Prozess der Entfaltung stärker von der Guanidiniumchlorid-Konzentration abhing. Renaturierungskinetiken zeigten das Auftreten von mindestens einem Faltungsintermediat. Kinetische Daten aus Doppelsprungexperimenten lieferten für die Erklärung der langsamen Faltungsphase zunächst keinen Hinweis auf dass Vorliegen einer Prolinisomerisierungsreaktion. Die vollständige Amplitude während der Renaturierung konnte nicht detektiert werden, weswegen von einer zweiten schnellen Phase im Submillisekundenbereich ausgegangen werden kann. Die Ergebnisse der Faltungskinetiken zeigen, dass die InlB-Konstrukte als Modelle für die Untersuchung der Faltung von Solenoidproteinen verwendet werden können.<span lang=EN-GB style='mso-ansi-language: EN-GB'><o:p></o:p></span>
Charakterisierung von ausgewählten Protein-Phosphatasen und MATE-Proteinen aus Arabidopsis thaliana
(2004)
Im ersten Teil der vorliegenden Arbeit wurde die Genexpression der Protein Phosphatase-gene TOPP1, TOPP2, TOPP5, STH1 und STH2 analysiert. Alle fünf ausgewählten Gene kodieren für PP des PP1/PP2A-Typs. Es wurde untersucht, ob homologen PP-Isoformen individuelle Expressionsmuster zugewiesen werden konnten. Besonderes Augenmerk richtete sich dabei auf die Expression von PP-Genen in den Schließzellen von A. thaliana. In mehreren Inhibitorstudien wurde beschrieben, dass PP1/PP2A-Proteine eine wichtige Rolle in der Signaltransduktion pflanzlicher Schließzellen spielen. Bisher konnte allerdings noch keine der entsprechenden katalytischen Untereinheiten auf molekularer Ebene identifiziert werden. Im Rahmen dieser Arbeit wurde zum ersten Mal nachgewiesen, dass mit TOPP1 ein Protein des PP1-Typs präferenziell in den Schließzellen von A. thaliana exprimiert wird. Ein Vergleich der Genexpression von TOPP1, TOPP2 und TOPP5 zeigte für die drei homologen Gene sehr Isoform-spezifische Expressionsmuster. Dies war ein deutlicher Hinweis, dass diese eng verwandten PP trotz großer Übereinstimmung auf Aminosäureebene vermutlich unterschiedliche Funktionen in planta haben. Die Untersuchung der Genexpression von STH1 und STH2 zeigte, dass die fast identischen Proteine zum Teil in unterschiedlichen Geweben vorkommen. Die Transkripte der beiden Gene, welche eine eigene Untergruppe von PP2A-verwandten Sequenzen bilden, konnten aus EF isoliert werden. Der in dieser Arbeit entwickelte Screeningansatz ermöglichte es, die sehr ähnlichen cDNA-Fragmente eindeutig voneinander zu unterscheiden. Die gefundenen Isoform-spezifischen Expressionsmuster waren ein deutlicher Hinweis auf unterschiedliche Funktionen in planta. Zur weiteren Untersuchung der PP-Funktionen in planta wurden Pflanzen mit veränderter Genaktivität von TOPP2 oder STH1 untersucht. In Pflanzen mit RNAi-vermittelter Reduktion des TOPP2-Transkriptgehalts ließ sich ein deutlich verändertes Blattwachstum beobachten. Die eingerollten oder asymmetrisch entwickelten Blätter waren vermutlich ein Hinweis, dass diese PP1-Isoform auch in A. thaliana eine Rolle bei der Zellteilung spielt. Für TOPP2-Expression in Hefen wurde diese Funktion schon nachgewiesen. Die Analyse von Insertions-mutanten mit T-DNA Insertionen in beiden STH1-Allelen waren neben den Expressions-studien ein weiterer Hinweis, dass sich STH1 nicht funktionell durch STH2 ersetzen lässt. Die Experimente in dieser Arbeit zeigten, dass das Fehlen der STH1-Genaktivität zu einem deutlichen Blattphänotyp mit gezahnten Blatträndern führte. Für STH2-Insertionsmutanten wurde dieses veränderte Wachstum nicht beschrieben. Im zweiten Teil dieser Arbeit wurde das Gen NIC1, welches für ein MATE-Membranprotein kodiert, identifiziert und charakterisiert. Die Sequenzierung des Genoms von A. thaliana hatte gezeigt, dass mindestens 56 MATE-Gene in dieser Pflanze vorhanden sind. Zum Zeitpunkt der Identifikation von NIC1 war keines dieser Gene charakterisiert. Außer für das MATE-Protein ERC1 aus S. cerevisiae gab es keine Studien zu eukaryotischen Mitgliedern dieser großen Familie von Membranproteinen. Anhand NIC1 wurden heterologe Expressionssysteme zur funktionellen Charakterisierung von MATE-Proteinen aus Pflanzen etabliert. Die cDNA von NIC1 wurde nach ihrer Klonierung in X. laevis Oozyten und S. cerevisiae exprimiert. In S. cerevisiae erhöhte die NIC1-Expression die Lithumtoleranz der Hefen und führte zu einer Verminderung der Natriumtoleranz. Parallele Versuche mit NIC2 und NIC4 (in den Diplomarbeiten von Blazej Dolniak und Mandy Kursawe) zeigten, dass auch diese beiden Proteine die Salztoleranz von S. cerevisiae beeinflussten. Während NIC2 die Lithium- und Natriumtoleranz erhöhte, führte NIC4-Expresion zu einer höheren Sensibilität gegenüber diesen beiden Kationen. Die unterschiedlichen Eigenschaften der drei homologen Proteine zeigten sich auch bei ihrer Expression in X. laevis Oozyten. NIC1 induzierte in den Oozyten auswärts gerichtete Chloridströme, die spannungsabhängig waren und durch mikromolare Konzentrationen der trivalenten Kationen Lanthan oder Gadolinium inhibiert werden konnten. NIC4 induzierte Barium-inhibierbare Kaliumströme, die spannungsunabhängig waren. Für NIC2 ließ sich in diesem Expressionssystem keine Aktivität detektieren. Zur Untersuchung der NIC1-Funktion in planta wurde die Genaktivität in transgenen Pflanzen lokalisiert und reduziert. Die NIC1-Genexpression war hauptsächlich in den vaskulären Geweben der Pflanze detektierbar und einer Verminderung des NIC1-Transkriptgehalts beeinflusste die Entwicklungsgeschwindigkeit der Pflanzen. Sie entwickelten sich deutlich langsamer als der parallel kultivierte Wildtyp. Der deutliche Phänotyp bei Veränderung der Genaktivität von nur einem der mindestens 56 vorhandenen MATE-Gene in A. thaliana zeigte, dass vermutlich keine weitere MATE-Isoform in der Lage ist, die Funktion von NIC1 zu übernehmen.
In dieser Arbeit wird ein chemisches Abgussverfahren für selbstorganisierte Strukturen in Lösung verwendet, das es ermöglicht definierte poröse Materialien mit Strukturierung auf der Nanometerskala herzustellen. Ähnlich wie beim Gussverfahren von Werkstücken wird die Vorlage durch ein geeignetes Material abgebildet. Durch Entfernen dieser Vorlage erhält man ein poröses (mit Hohlräumen durchsetztes) Negativ derselben. Die auf diese Weise erhaltenen Materialien sind in mehrerer Hinsicht interessant: So lassen sich aus ihrer Morphologie Rückschlüsse über die Natur der selbstorganisierten Strukturen erhalten, da der hier verwendete Abbildungsprozess selbst kleinste strukturelle Details erfasst. Die Hohlräume der synthetisierten porösen Stoffe hingegen können als winzige Reaktionsgefäße, sogenannte "Nano-Reaktoren" verwendet werden. Dies ermöglicht sowohl die Synthese von Nano-Partikeln, die auf anderem Wege nicht zugänglich sind, als auch die Möglichkeit Einflüsse der räumlichen Restriktion auf die Reaktion zu untersuchen. Besonders räumlich ausgedehnte Strukturen sollten hierbei Auffälligkeiten zeigen. Somit ist die Gliederung der Arbeit vorgegeben: - Die Herstellung und Charakterisierung von porösen Stoffen und selbstorganisierten Strukturen - Ihre Verwendung als "Nano-Reaktor"
Neue Einflüsse und Anwendungen von Mikrowellenstrahlung auf Miniemulsionen und ihre Kompositpolymere
(2004)
Miniemulsionen bestehen aus zwei miteinander nicht mischbaren Flüssigkeiten, von der die eine in Form kleiner Tröpfchen fein in der anderen verteilt (dispergiert) ist. Miniemulsionströpfchen sind mit Durchmessern von ungefähr 0,1 Mikrometer kleiner als herkömmliche Emulsionen und können u. a. als voneinander unabhängige Nanoreaktoren für chemische Reaktionen verwendet werden. Man unterteilt sie in direkte Miniemulsionen, in denen ein Öl in Wasser dispergiert ist, und inverse Miniemulsionen, in denen Wasser in Öl dispergiert wird. In dieser Arbeit wird das besondere chemische und physikalische Verhalten solcher Miniemulsionen unter dem Einfluß von Mikrowellenstrahlung untersucht. Dabei werden sowohl für Öl-in-Wasser als auch für Wasser-in-Öl-Miniemulsionen grundlagenwissenschaftliche Entdeckungen beschrieben und durch neue Modelle erklärt. Der praktische Nutzen dieser bislang unbeschriebenen Effekte wird durch ingenieurwissenschaftliche Anwendungsbeispiele im Bereich der Polymerchemie verdeutlicht. 1. Polymerisation mit "überlebenden Radikalen" (Surviving Radical Polymerization) Für die Herstellung von sog. Polymerlatizes (Kunststoffdispersionen, wie sie u. a. für Farben verwendet werden) aus direkten Styrol-in-Wasser Miniemulsionen werden die Styroltröpfchen als Nanoreaktoren verwendet: Sie werden mit Hilfe von Radikalen durch eine Kettenreaktion zu winzigen Polymerpartikeln umgesetzt, die im Wasser dispergiert sind. Ihre Materialeigenschaften hängen stark von der Kettenlänge der Polymermoleküle ab. In dieser Arbeit konnten durch den Einsatz von Mikrowellenstrahlung erstmals große Mengen an Radikalen erzeugt werden, die jeweils einzeln in Tröpfchen (Nanoreaktoren) auch noch lange Zeit nach dem Verlassen der Mikrowelle überleben und eine Polymerisationskettenreaktion ausführen können. Diese Methode ermöglicht nicht nur die Herstellung von Polymeren in technisch zuvor unerreichbaren Kettenlängen, mit ihr sind auch enorm hohe Umsätze nach sehr kurzen Verweilzeiten in der Mikrowelle möglich – denn die eigentliche Reaktion findet außerhalb statt. Es konnte gezeigt werden, dass durch Einsatz von Zusatzstoffen bei unvermindert hohem Umsatz die Polymerkettenlänge variiert werden kann. Die technischen Vorzüge dieses Verfahrens konnten in einer kontinuierlich betriebenen Pilotanlage nachgewiesen werden. 2. Aufheizverhalten inverser Miniemulsionen in Mikrowellenöfen Das Aufheizverhalen von Wasser-in-Öl Miniemulsionen mit kleinen Durchmessern durch Mikrowellen ist überaus träge, da sich nur das wenige Wasser in den Tröpfchen mit Mikrowellen aufheizen lässt, das Öl jedoch kaum. Solche Systeme verhalten sich gemäß der "Theorie des effektiven Mediums". Werden aber etwas größere Tröpfchen im Mikrometerbereich Mikrowellen ausgesetzt, so konnte eine wesentlich schnellere Aufheizung beobachtet werden, die auf eine Maxwell-Wagner-Grenzflächenpolarisation zurückgeführt werden kann. Die Größenabhängigkeit dieses Effekts wurde mit Hilfe der dielektrischen Spektroskopie quantifiziert und ist bislang in der Literatur nie beschrieben worden. Zur genauen Messung dieses Effekts und zu seiner technischen Nutzung wurde ein neuartiges Membranverfahren für die Herstellung von großen Miniemulsionströpfchen im Mikrometerbereich entwickelt. 3. Herstellung von Kompositpolymeren für Mikrowellenanwendungen Um die untersuchte Maxwell-Wagner-Grenzflächenpolarisation technisch nutzen zu können, wurden als dafür geeignete Materialien Kompositpolymere hergestellt. Das sind Kunststoffe, in denen winzige Wassertropfen oder Keramikpartikel eingeschlossen sind. Dazu wurden neuartige Synthesewege auf der Grundlage der Miniemulsionstechnik entwickelt. Ihr gemeinsames Ziel ist die Einschränkung der üblicherweise bei Polymerisation auftretenden Entmischung: In einem Verfahren wurde durch Gelierung die Beweglichkeit der emulgierten Wassertröpfchen eingeschränkt, in einem anderen wurde durch das Einschließen von Keramikpartikeln in Miniemulsionströpfchen die Entmischung auf deren Größe beschränkt. Anwendungen solcher Kompositpolymere könnten künstliche Muskeln, die Absorption von Radarstrahlung, z. B. für Tarnkappenflugzeuge, oder kratzfeste Lacke sein.Bei diesen Experimenten wurde beobachtet, daß sich u. U. in der Miniemulsion große Tröpfchen bilden. Ihr Ursprung wird mit einer neuen Modellvorstellung erklärt, die die Einflüsse auf die Stabilität von Miniemulsionen beschreibt.
Die Fusion von Membranen ist ein entscheidender Prozeß bei der Entwicklung von Zellen im Körper. Beispielsweise ist sie eine der Voraussetzungen bei der Befruchtung einer Eizelle durch ein Spermium oder für das Eindringen von Viren in eine Zelle. Membranfusion ist auch notwendig für den Stofftransport in die Zelle hinein oder aus ihr heraus. Die Membranfusion ist daher auch von praktischen Interesse auf den Gebieten der Pharmazeutik und des 'Bioengineering'. Oft muss eine Membran mit der infiziertin Zelle fusionieren, um ein Medikament an sein Zeil zu bringen. Deshalb ist ein Verständnis der Membranfusion von großem Interesse für die Entwicklung von gezielten und effizienten Methoden des 'drug delivery'. Dasselbe gilt für die gezielte Zufuhr von Genen bei der Gentherapie. Obwohl die Membranfusion schon vor nahezu 200 Jahren von dem deutschen Biologen und Mediziner Johannes Müller beobachtet wurde, liegt ein vollständiges Verständnis des Fusionsprozesses von Zellen und (Modell-) Membranen auch heute noch in weiter Ferne. Allerdings hat im letzten Jahrzehnt das Interesse für dieses Forschungsgebiet stark zugenommen. Wissenschaftler der unterschiedlichsten Disziplinen arbeiten daran, die Mechanismen der Membranfusion aufzudecken. Biologen untersuchen Proteine, die die Fusion auslösen, Chemiker entwickeln Moleküle, die die Fusion erleichtern, und Physiker versuchen die Antriebsmechanismen der Membranfusion zu verstehen. Neue Mikroskopietechniken und die hohe Rechenleistung moderner Computer helfen die molekulare und die makroskopische Welt der Membranfusion in einem Bild zusammenzufügen. Für unsere Untersuchungen haben wir Modellmembranen, die aus Lipiddoppelschichten bestehen, benutzt. Diese Membranen formen sogenannte Vesikel oder Liposomen, abgeschlossene Membrane, in denen eine bestimmte Menge an Flüssigkeit enthalten ist. Indem wir Rezeptoren in die Membran einbringen, schaffen wir funkionalisierte Vesikel, die sich differenzieren, kooperieren und selektiv reagieren können. Wir benutzen positiv geladene wasserlösliche Ionen, um Wechselwirkungen zwischen den Vesikeln zu vermitteln, und lassen die Rezeptoren und die Ionen den Fusionsprozess auslösen. Die Wechselwirkungen werden unter dem Mikroskop durch spezielle Mikromechanischn Gerätz Mikromechinerien kontrolliert. Mit Hilfe einer sehr schnellen digitale Bildaufnahmetechnik ist es uns gelungen, die Fusion unserer Modellmembranen aufzunehmen und in Echtzeit zu dokumentieren mit einer Auflösung von 50 µs. Unsere Messungen können vergleichen werden mit Computersimulationen des Fusionsprozesses. Diese Simulationen untersuchen Prozesse, die zwischen 0.1 und 1 Mikrosekunde dauern. Eine Herausforderung für die Zukunft wird es sein, die Lücke zwischen den in Experimenten (50µs) und den in Simulationen zugänglichen Zeitskalen von beiden Seiten her zu schließen.