Refine
Year of publication
Document Type
- Article (13975)
- Monograph/Edited Volume (4232)
- Doctoral Thesis (3275)
- Review (1599)
- Postprint (927)
- Part of a Book (788)
- Part of Periodical (459)
- Other (271)
- Master's Thesis (198)
- Working Paper (83)
Language
- German (26138) (remove)
Keywords
- Deutschland (127)
- Germany (98)
- Sprachtherapie (77)
- Logopädie (73)
- Patholinguistik (73)
- patholinguistics (73)
- Zeitschrift (72)
- Europäische Union (58)
- Nachhaltigkeit (58)
- European Union (57)
Institute
- Historisches Institut (2211)
- Wirtschaftswissenschaften (1775)
- Sozialwissenschaften (1434)
- Institut für Romanistik (1303)
- Institut für Germanistik (1270)
- Bürgerliches Recht (1260)
- Department Erziehungswissenschaft (1245)
- MenschenRechtsZentrum (1080)
- Öffentliches Recht (1031)
- Institut für Jüdische Studien und Religionswissenschaft (975)
Die Fusion von Membranen ist ein entscheidender Prozeß bei der Entwicklung von Zellen im Körper. Beispielsweise ist sie eine der Voraussetzungen bei der Befruchtung einer Eizelle durch ein Spermium oder für das Eindringen von Viren in eine Zelle. Membranfusion ist auch notwendig für den Stofftransport in die Zelle hinein oder aus ihr heraus. Die Membranfusion ist daher auch von praktischen Interesse auf den Gebieten der Pharmazeutik und des 'Bioengineering'. Oft muss eine Membran mit der infiziertin Zelle fusionieren, um ein Medikament an sein Zeil zu bringen. Deshalb ist ein Verständnis der Membranfusion von großem Interesse für die Entwicklung von gezielten und effizienten Methoden des 'drug delivery'. Dasselbe gilt für die gezielte Zufuhr von Genen bei der Gentherapie. Obwohl die Membranfusion schon vor nahezu 200 Jahren von dem deutschen Biologen und Mediziner Johannes Müller beobachtet wurde, liegt ein vollständiges Verständnis des Fusionsprozesses von Zellen und (Modell-) Membranen auch heute noch in weiter Ferne. Allerdings hat im letzten Jahrzehnt das Interesse für dieses Forschungsgebiet stark zugenommen. Wissenschaftler der unterschiedlichsten Disziplinen arbeiten daran, die Mechanismen der Membranfusion aufzudecken. Biologen untersuchen Proteine, die die Fusion auslösen, Chemiker entwickeln Moleküle, die die Fusion erleichtern, und Physiker versuchen die Antriebsmechanismen der Membranfusion zu verstehen. Neue Mikroskopietechniken und die hohe Rechenleistung moderner Computer helfen die molekulare und die makroskopische Welt der Membranfusion in einem Bild zusammenzufügen. Für unsere Untersuchungen haben wir Modellmembranen, die aus Lipiddoppelschichten bestehen, benutzt. Diese Membranen formen sogenannte Vesikel oder Liposomen, abgeschlossene Membrane, in denen eine bestimmte Menge an Flüssigkeit enthalten ist. Indem wir Rezeptoren in die Membran einbringen, schaffen wir funkionalisierte Vesikel, die sich differenzieren, kooperieren und selektiv reagieren können. Wir benutzen positiv geladene wasserlösliche Ionen, um Wechselwirkungen zwischen den Vesikeln zu vermitteln, und lassen die Rezeptoren und die Ionen den Fusionsprozess auslösen. Die Wechselwirkungen werden unter dem Mikroskop durch spezielle Mikromechanischn Gerätz Mikromechinerien kontrolliert. Mit Hilfe einer sehr schnellen digitale Bildaufnahmetechnik ist es uns gelungen, die Fusion unserer Modellmembranen aufzunehmen und in Echtzeit zu dokumentieren mit einer Auflösung von 50 µs. Unsere Messungen können vergleichen werden mit Computersimulationen des Fusionsprozesses. Diese Simulationen untersuchen Prozesse, die zwischen 0.1 und 1 Mikrosekunde dauern. Eine Herausforderung für die Zukunft wird es sein, die Lücke zwischen den in Experimenten (50µs) und den in Simulationen zugänglichen Zeitskalen von beiden Seiten her zu schließen.
Statistik Lernen im Rahmen des Psychologiestudiums wurde als Untersuchungsgegenstand zur empirischen Überprüfung der angenommenen Wirkung volitionaler Handlungsregulation herangezogen. Neben fähigkeitsbezogenen und motivationalen Faktoren sollten bei dieser von vielen Studierenden aversiv erlebten Tätigkeit die Aspekte der volitionalen Handlungsregulation entscheidend sein. Nur Personen, die sich trotz des aversiven Tätigkeitserlebens zum Statistik Lernen "zwingen" können, sollten erfolgreich sein. Auf dem Hintergrund des Prozessmodells der Lernmotivation wurden die angenommenen Wirkungen der volitionalen Faktoren denen der motivationalen Einflussgrößen zugeordnet und in einem längsschnittlichen Design an zwei aufeinander folgenden Wintersemestern an der Universität Potsdam und an der TU Berlin empirisch überprüft (N = 273). Die Annahmen zu den fähigkeits- und motivationsrelevanten Faktoren des analyseleitenden Prozessmodells der Lernmotivation konnten weitgehend bestätigt werden. Die Personenmerkmale (fähigkeitsbezogene Merkmale, Leistungsmotiv und Commitment für das Psychologiestudium) bedingen zu einem wesentlichen Teil die Aspekte der aktuellen Motivation für das Statistik Lernen. Letztere wurde durch die Komponenten des Erweiterten Kognitiven Motivationsmodells (EKM) und anhand der Lernintentionen erfasst. Dabei zeigt sich, dass die aktuelle Motivation für das Statistik Lernen insgesamt günstig ausgeprägt ist. Die Aspekte der aktuellen Motivation beeinflussen wiederum Prozessvariablen wie den Lernaufwand, das emotionale Erleben und den Funktionszustand während des Lernens. Der Lernaufwand und das Flow-Erleben (als Indikator für den Funktionszustand) sowie deren Interaktion sagen die Klausurleistung am Ende des Semesters vorher (dies auch, wenn fähigkeitsbezogene Merkmale mit berücksichtigt werden). Vor dem Hintergrund des insgesamt theoriekonsistenten Gesamtbildes ergeben sich dennoch einige Abweichungen von den theoretischen Annahmen. Diese werden eingehend diskutiert. Entgegen der zentralen Annahme, tragen die dem Prozessmodell der Lernmotivation zugeordneten volitionalen Faktoren insgesamt betrachtet kaum zu einem weitergehenden Verständnis des Lernprozesses bei. Die theoretischen Annahmen können weitgehend nicht bestätigt werden. So sagen die volitionalen Faktoren nicht, wie angenommen, bei hoher instrumenteller Handlungsveranlassung und gleichzeitig aversivem Tätigkeitserleben Prozessmerkmale des Lernens vorher. Ausführlich diskutiert wird, inwieweit dies auf falsche theoretische Annahmen oder auf eine mangelnde Operationalisierung und Auswertung zurück geht. Zusätzlich zum Prozessmodell der Lernmotivation wurden weitergehende Annahmen zur Wirkung des impliziten und expliziten Leistungsmotivs überprüft. Dabei zeigt sich erwartungsgemäß, dass sich das implizite Leistungsmotiv beim Statistik Lernen bei einer individuellen Bezugsnorm förderlich auswirkt. Die moderierende Wirkung der sozialen Bezugsnorm für das explizite Leistungsmotiv kann anhand der vorliegenden Daten nicht bestätigt werden. Für das implizite Leistungsmotiv zeigt sich über die Annahmen hinaus eine förderliche Wirkung auf die Klausurteilnahme. Für Personen mit einem hohen impliziten Leistungsmotiv findet sich eine höhere Wahrscheinlichkeit, die Klausur mitzuschreiben. Dieser Befund macht den in der Leistungsmotivationsforschung gefundenen Zusammenhang zwischen Leistungsmotiv und Karriereerfolg "im Kleinen" verständlich. Theoretische Arbeiten legen nahe, dass die volitionale Handlungssteuerung nicht eine unabhängige, sondern eine zum Teil von dem Zusammenwirken der impliziten und expliziten Motivsysteme abhängige Größe darstellt. Für das Leistungsmotiv konnte dies bestätigt werden. So wirkt sich eine hohe Ausprägung des expliziten Leistungsmotivs dann positiv auf die volitionale Handlungssteuerung aus, wenn das implizite Leistungsmotiv hoch ausgeprägt ist. Die Ergebnisse bei den Machtmotivsystemen zeigen, dass nicht immer eine Übereinstimmung der Motive förderlich ist. Eine funktionale Perspektive scheint hier angemessen und weiterführend. Die Arbeit schließt mit der Frage, welche Motivkonstellationen im Sinne einer volitionalen Handlungssteuerung ideal sind. Dabei wird postuliert, dass das Wissen über implizite Vorlieben einer Person helfen sollte, für sie passende Situationen aktiv aufzusuchen oder herzustellen und dadurch eine volitionale Handlungssteuerung besser gelingt sowie diese Art der Steuerung weniger nötig macht.
Zur Beherrschung großer Systeme, insbesondere zur Weitergabe und Nutzung von Erfahrungswissen in der frühen Entwurfs- und Planungsphase, benötigt man Abstraktionen für deren Strukturen. Trennt man Software- von Systemstrukturen, kann man mit letzteren Systeme auf ausreichend hohem Abstraktionsgrad beschreiben.Software-Patterns dienen dazu, Erfahrungswissen bezüglich programmierter Systeme strukturiert weiterzugeben. Dabei wird unterschieden zwischen Idiomen, die sich auf Lösungen mit einer bestimmten Programmiersprache beziehen, Design-Patterns, die nur einen kleinen Teil des Programms betreffen und Architektur-Patterns, deren Einfluss über einen größeren Teil oder gar das komplette Programm reicht. Eine Untersuchung von existierenden Patterns zeigt, dass deren Konzepte nützlich zum Finden von Systemstrukturen sind. Die grafische Darstellung dieser Patterns ist dagegen oft auf Software-Strukturen eingeschränkt und ist für die Vermittlung von Erfahrungen zum Finden von Systemstrukturen meist nicht geeignet. Daher wird die Kategorie der konzeptionellen Patterns mit einer darauf abgestimmten grafischen Darstellungsform vorgeschlagen, bei denen Problem und Lösungsvorschlag im Bereich der Systemstrukturen liegen. Sie betreffen informationelle Systeme, sind aber nicht auf Lösungen mit Software beschränkt. Die Systemstrukturen werden grafisch dargestellt, wobei dafür die Fundamental Modeling Concepts (FMC) verwendet werden, die zur Darstellung von Systemstrukturen entwickelt wurden.
Ziel der vorliegenden Arbeit war die Entwicklung einer SNP-Genotypisierungsmethode mit auf Mikroarrays immobilisierten PCR-Produkten. Für die Analyse wurde ein faseroptischer Affinitätssensor bzw. ein Durchfluss-Biochip-Scanner mit integrierter Fluoreszenzdetektion verwendet. An den immobilisierten Analyten (PCR-Produkten) wurde eine Fluoreszenzoligonukleotidsonde hybridisiert und anschließend die Dissoziation der Sonde im Fluss verfolgt. Die Diskriminierung von Wildtyp- und Mutanten-DNA erfolgte durch die kinetische Auswertung der Dissoziationskurven sowie durch die Analyse der Fluoreszenzintensität. Die Versuche am faseroptischen Affinitätssensor zeigten, dass DNA-DNA-Hybride sowohl von Oligonukleotiden als auch von PCR-Produkten ein typisches Dissoziationsverhalten aufweisen, wobei fehlgepaarte Hybride eine signifikant schnellere Dissoziation zeigen als perfekt passende Hybride. Dieser Geschwindigkeitsunterschied lässt sich durch den Vergleich der jeweiligen kinetischen Geschwindigkeitskonstanten kD quantitativ erfassen. Da die Kopplung des Analyten an der Chipoberfläche sowie die Hybridisierungs- und Dissoziationsparameter essentiell für die Methodenentwicklung war, wurden die Parameter für ein optimales Spotting und die Immobilisierung von PCR-Produkten ermittelt. Getestet wurden die affine Kopplung von biotinylierten PCR-Produkten an Streptavidin-, Avidin- und NeutrAvidin-Oberflächen sowie die kovalente Bindung von phosphorylierten Amplifikaten mit der EDC/Methylimidazol-Methode. Die besten Ergebnisse sowohl in Spotform und -homogenität als auch im Signal/Rausch-Verhältnis wurden an NeutrAvidin-Oberflächen erreicht. Für die Etablierung der Mikroarray-Genotypisierungsmethode durch kinetische Analyse nach einem Hybridisierungsexperiment wurden Sondenlänge, Puffersystem, Spotting-Konzentration des Analyten sowie Temperatur optimiert. Das Analysensystem erlaubte es, PCR-Produkte mit einer Konzentration von 250 ng/µl in einem HEPES-EDTA-NaCl-Puffer auf mit NeutrAvidin beschichtete Glasträger zu spotten. In den anschließenden Hybridisierungs- und Dissoziationsexperimenten bei 30 °C konnte die Diskriminierung von homocygoter Wildtyp- und homocygoter Mutanten- sowie heterocygoter DNA am Beispiel von Oligonukleotid-Hybriden erreicht werden. In einer Gruppe von 24 homocygoten Patienten wurde ein Polymorphismus im SULT1A1-Gen analysiert. Sowohl durch kinetische Auswertung als auch mit der Analyse der Fluoreszenzintensität wurde der Genotyp der Proben identifiziert. Die Ergebnisse wurden mit dem Referenzverfahren, der Restriktionschnittstellenanalyse (PCR-RFLP) validiert. Lediglich ein Genotyp wurde falsch bestimmt, die Genauigkeit lag bei 96%. In einer Gruppe von 44 Patienten wurde der Genotyp eines SNP in der Adiponectin-Promotor-Region untersucht. Nach Vergleich der Analysenergebnisse mit denen eines Referenzverfahrens konnten lediglich 14 der untersuchten Genotypen bestätigt werden. Ursache für die unzureichende Genauigkeit der Methode war vor allem das schlechte Signal/Rausch-Verhältnis. Zusammenfassend kann gesagt werden, dass das in dieser Arbeit entwickelte Analysesystem für die Genotypisierung von Einzelpunktmutationen geeignet ist, homocygote Patientenproben zuverlässig zu analysieren. Prinzipiell ist das auch bei heterocygoter DNA möglich. Da nach aktuellem Kenntnisstand eine SNP-Analysemethode an immobilisierten PCR-Produkten noch nicht veröffentlicht wurde, stellt das hier entwickelte Verfahren eine Alternative zu bisher bekannten Mikroarray-Verfahren dar. Als besonders vorteilhaft erweist sich der reverse Ansatz der Methode. Der hier vorgestellte Ansatz ist eine kostengünstigere und weniger hoch dimensionierte Lösung für Fragestellungen beispielsweise in der Ernährungswissenschaft, bei denen meist eine mittlere Anzahl Patienten auf nur einige wenige SNPs zu untersuchen ist. Wenn es gelingt, durch die Weiterentwicklung der Hardware bzw. weiterer Optimierung, eine Verbesserung des Signal/Rausch-Verhältnisses und damit die Diskriminierung von heterocygoter DNA zu erreichen, kann diese Methode zukünftig bei der Analyse von mittelgroßen Patientengruppen alternativ zu anderen Genotypisierungsmethoden verwendet werden.
Die vorliegende Arbeit 'Abflußentwicklung in Teileinzugsgebieten des Rheins - Simulationen für den Ist-Zustand und für Klimaszenarien' untersucht Auswirkungen möglicher zukünftiger Klimaänderungen auf das Abflußgeschehen in ausgewählten, durch Mittelgebirge geprägten Teileinzugsgebieten des Rheins: Mosel (bis Pegel Cochem); Sieg (bis Pegel Menden 1) und Main (bis Pegel Kemmern).In einem ersten Schritt werden unter Verwendung des hydrologischen Modells HBV-D wichtige Modellprozesse entsprechend der Einzugsgebietscharakteristik parametrisiert und ein Abbild der Gebietshydrologie erzeugt, das mit Zeitreihen gemessener Tageswerte (Temperatur, Niederschlag) eine Zeitreihe der Pegeldurchflüsse simulieren kann. Die Güte der Simulation des Ist-Zustandes (Standard-Meßzeitraum 1.1.1961-31.12.1999) ist für die Kalibrierungs- und Validierungszeiträume in allen Untersuchungsgebieten gut bis sehr gut.Zur Erleichterung der umfangreichen, zeitaufwendigen einzugsgebietsbezogenen Datenaufbereitung für das hydrologische Modell HBV-D wurde eine Arbeitsumgebung auf Basis von Programmerweiterungen des Geoinformationssystems ArcView und zusätzlichen Hilfsprogrammen entwickelt. Die Arbeitsumgebung HBV-Params enthält eine graphische Benutzeroberfläche und räumt sowohl erfahrenen Hydrologen als auch hydrologisch geschulten Anwendern, z.B. Studenten der Vertiefungsrichtung Hydrologie, Flexibilität und vollständige Kontrolle bei der Ableitung von Parameterwerten und der Editierung von Parameter- und Steuerdateien ein. Somit ist HBV-D im Gegensatz zu Vorläuferversionen mit rudimentären Arbeitsumgebungen auch außerhalb der Forschung für Lehr- und Übungszwecke einsetzbar.In einem zweiten Schritt werden Gebietsniederschlagssummen, Gebietstemperaturen und simulierte Mittelwerte des Durchflusses (MQ) des Ist-Zustandes mit den Zuständen zweier Klimaszenarien für den Szenarienzeitraum 100 Jahre später (2061-2099) verglichen. Die Klimaszenarien beruhen auf simulierten Zirkulationsmustern je eines Modellaufes zweier Globaler Zirkulationsmodelle (GCM), die mit einem statistischen Regionalisierungsverfahren in Tageswertszenarien (Temperatur, Niederschlag) an Meßstationen in den Untersuchungsgebieten überführt wurden und als Eingangsdaten des hydrologischen Modells verwendet werden.Für die zweite Hälfte des 21. Jahrhunderts weisen beide regionalisierten Klimaszenarien eine Zunahme der Jahresmittel der Gebietstemperatur sowie eine Zunahme der Jahressummen der Gebietsniederschläge auf, die mit einer hohen Variabilität einhergeht. Eine Betrachtung der saisonalen (monatlichen) Änderungsbeträge von Temperatur, Niederschlag und mittlerem Durchfluß zwischen Szenarienzeitraum (2061-2099) und Ist-Zustand ergibt in allen Untersuchungsgebieten eine Temperaturzunahme (höher im Sommer als im Winter) und eine generelle Zunahme der Niederschlagssummen (mit starken Schwankungen zwischen den Einzelmonaten), die bei der hydrologischen Simulation zu deutlich höheren mittleren Durchflüssen von November bis März und leicht erhöhten mittleren Durchflüssen in den restlichen Monaten führen. Die Stärke der Durchflußerhöhung ist nach den individuellen Klimaszenarien unterschiedlich und im Sommer- bzw. Winterhalbjahr gegenläufig ausgeprägt. Hauptursache für die simulierte starke Zunahme der mittleren Durchflüsse im Winterhalbjahr ist die trotz Temperaturerhöhung der Klimaszenarien winterlich niedrige Evapotranspiration, so daß erhöhte Niederschläge direkt in erhöhten Durchfluß transformiert werden können.Der Vergleich der Untersuchungsgebiete zeigt in Einzelmonaten von West nach Ost abnehmende Änderungsbeträge der Niederschlagssummen, die als Hinweis auf die Bedeutung der Kontinentalitätseinflüsse auch unter geänderten klimatischen Bedingungen in Südwestdeutschland aufgefaßt werden könnten.Aus den regionalisierten Klimaszenarien werden Änderungsbeträge für die Modulation gemessener Zeitreihen mittels synthetischer Szenarien abgeleitet, die mit einem geringen Rechenaufwand in hydrologische Modellantworten überführt werden können. Die direkte Ableitung synthetischer Szenarien aus GCM-Ergebniswerten (bodennahe Temperatur und Gesamtniederschlag) an einzelnen GCM-Gitterpunkten erbrachte unbefriedigende Ergebnisse.Ob, in welcher Höhe und zeitlichen Verteilung die in den (synthetischen) Szenarien verwendeten Niederschlags- und Temperaturänderungen eintreten werden, kann nur die Zukunft zeigen. Eine Abschätzung, wie sich die Abflußverhältnisse und insbesondere die mittleren Durchflüsse der Untersuchungsgebiete bei möglichen Änderungen entwickeln würden, kann jedoch heute schon vorgenommen werden. Simulationen auf Szenariogrundlagen sind ein Weg, unbekannte zukünftige Randbedingungen sowie regionale Auswirkungen möglicher Änderungen des Klimasystems ausschnittsweise abzuschätzen und entsprechende Risikominderungsstrategien zu entwickeln. Jegliche Modellierung und Simulation natürlicher Systeme ist jedoch mit beträchtlichen Unsicherheiten verknüpft. Vergleichsweise große Unsicherheiten sind mit der zukünftigen Entwicklung des sozioökonomischen Systems und der Komplexität des Klimasystems verbunden. Weiterhin haben Unsicherheiten der einzelnen Modellbausteine der Modellkette Emissionsszenarien/Gaszyklusmodelle - Globale Zirkulationsmodelle/Regionalisierung - hydrologisches Modell, die eine Kaskade der Unsicherheiten ergeben, neben Datenunsicherheiten bei der Erfassung hydrometeorologischer Meßgrößen einen erheblichen Einfluß auf die Vertrauenswürdigkeit der Simulationsergebnisse, die als ein dargestellter Wert eines Ergebnisbandes zu interpretieren sind.Der Einsatz (1) robuster hydrologischer Modelle, die insbesondere temperaturbeeinflußte Prozesse adäquat beschreiben,(2) die Verwendung langer Zeitreihen (wenigsten 30 Jahre) von Meßwerten und(3) die gleichzeitige vergleichende Betrachtung von Klimaszenarien, die auf unterschiedlichen GCMs beruhen (und wenn möglich, verschiedene Emissionsszenarien berücksichtigen),sollte aus Gründen der wissenschaftlichen Sorgfalt, aber auch der besseren Vergleichbarkeit der Ergebnisse von Regionalstudien im noch jungen Forschungsfeld der Klimafolgenforschung beachtet werden.
Identifikation des mitochondrialen Proteins Frataxin als stoffwechselmodulierenden Tumorsuppressor
(2004)
Die Krebsentstehung wurde vor rund 80 Jahren auf veränderten zellulären Energiestoffwechsel zurückgeführt. Diese Hypothese konnte bisher weder experimentell bewiesen noch widerlegt werden. Durch den Einsatz zweier Modellsysteme mit unterschiedlicher Expression des mitochondrialen Proteins Frataxin konnte in der vorliegenden Arbeit gezeigt werden, dass der mitochondriale Energiestoffwechsel einen Einfluss auf die Tumorentstehung zu besitzen scheint. Eine Reduktion des mitochondrialen Energiestoffwechsels wurde durch die hepatozytenspezifische Ausschaltung des mitochondrialen Proteins Frataxin in Mäusen erreicht. Der durch das Cre-/loxP-Rekombinasesystem erreichte organspezifische Knock-out wurde auf Transkriptions- und Translationsebene nachgewiesen. Anhand verminderter Aconitaseaktivität, geringeren Sauerstoffverbrauches und reduzierten ATP-Gehaltes im Lebergewebe wurde ein signifikant verminderter Energiestoffwechsel dargestellt. Zwar entsprach die Genotypenverteilung in den Versuchsgruppen der erwarteten Mendelschen Verteilung, dennoch war die mittlere Lebenserwartung der Knock-out-Tiere mit ca. 30 Wochen stark reduziert. Bereits in jungem Alter war bei diesen Tieren die Ausbildung von präneoplastischen Herden zu beobachten. Mit proteinbiochemischen Nachweistechniken konnte in Lebergewebe 4-8 Wochen alter Tiere eine verstärkte Aktivierung des Apoptosesignalweges (Cytochrom C im Zytosol, verstärkte Expression von Bax) sowie eine Modulation stressassoziierter Proteine (geringere Phosphorylierungsrate p38-MAPK, vermehrte Expression HSP-25, verminderte Expression HSP-70) aufgezeigt werden. Im inversen Ansatz wurde eine Steigerung des mitochondrialen Energiestoffwechsels durch stabile transgene Frataxinüberexpression in zwei Kolonkarzinomzelllinien erreicht. Diese Steigerung zeigte sich durch erhöhte Aconitaseaktivität, erhöhten Sauerstoffverbrauch, gesteigertes mitochondriales Membranpotenzial und erhöhten ATP-Gehalt in den Zellen. Die frataxinüberexprimierenden Zellen wuchsen signifikant langsamer als Kontrollzellen und zeigten im Soft-Agar-Assay und im Nacktmausmodell ein deutlich geringeres Potenzial zur Ausbildung von Kolonien bzw. Tumoren. Mittels Immunoblot war hier eine vermehrte Phosphorylierung der p38-MAPK festzustellen. Die zusammenfassende Betrachtung beider Modelle zeigt, dass ein reduzierter mitochondrialer Energiestoffwechsel durch Regulation der p38-MAPK und apoptotischer Signalwege ein erhöhtes Krebsrisiko zu verursachen vermag.
In Anlehnung an das Self-Regulated-Strategy-Development-Modell von Harris und Graham (1996) wurde das Selbstregulatorische Aufsatztraining (SAT) zur Förderung der Schreibkompetenz bei Grundschülern der 4. und 5. Klasse entwickelt. SAT integriert die Vermittlung von Schreibstrategien (hier: „Erzählendes Schreiben“) mit Merkmalen selbstgesteuerten Lernens (Zielsetzung, strategisches Planen, Selbstbewertung und Selbstkorrektur). Die Wirksamkeit des Trainings wurde in drei Studien untersucht: 1. Eine Pilotstudie diente der Überprüfung der prinzipiellen Eignung von SAT zur Förderung von Schreibleistungen bei Grundschülern der 5. Klassen (N = 42) und der Optimierung seiner Teilkomponenten und Vorgehensweisen. 2. In der Hauptuntersuchung wurden die Effektivität und Nachhaltigkeit des SAT-Programms bei Schülern der 4. Klasse (N = 154) im Vergleich zu zwei Bedingungen getestet: (a) der isolierten Einübung von Schreibstrategien (Aufsatztraining) und (b) konventionellem Aufsatzunterricht (Unterrichtskontrollgruppe). 3. In einer weiteren Studie wurde die Wirksamkeit des Trainings speziell bei Schülern mit ungünstigen Lernvoraussetzungen überprüft; die Studie diente zudem der Illustration des dabei gewählten Vorgehens am Einzelfall (N = 6). Die ermittelten Befunde sprechen übereinstimmend dafür, dass die Kombination aus strategischem plus selbstregulatorischem Training (SAT) die stärksten und nachhaltigsten Effekte auf die Schreibleistung erzielt. Der Trainingseffekt generalisiert zudem auf die Erinnerungsleistung bei der freien Wiedergabe einer Kurzgeschichte. Schüler mit schwachen Aufsatzleistungen und ungünstigen Lernvoraussetzungen profitieren von dem SAT-Programm in besonderem Maße. In der Diskussion werden Aufgaben für die zukünftige Forschung erörtert. Forschungsbedarf besteht u.a. hinsichtlich (a) einer stärkeren Verknüpfung von Schreibtrainings mit der kognitionspsychologischen Forschung; (b) der Dekomposition und gezielten Überprüfung der einzelnen Trainingskomponenten; (c) der Ausweitung des SAT-Programms auf andere Textgenre; (d) der Integration verfeinerter Revisionsstrategien in das Förderprogramm; und (e) dessen Implementierung in den Regelunterricht.
Die immunologische Kontrazeption mittels Zona pellucida (ZP) Proteinen gilt als vielversprechender Ansatz für die Reproduktionskontrolle verwilderter Haus- und Wildtierbestände. Da die Applikation von nativer ZP mit Nebenwirkungen verbunden ist, wird die Verwendung einzelner ZP Peptide als Bestandteil kontrazeptiver Vakzine als besonders aussichtsreich erachtet. Das Prinzip dieser nebenwirkungsfreien ZP Immunisierung ist die gezielte Trennung der Entzündungsreaktionen auslösenden T-Zell-Epitope der ZP von den kontrazeptiv wirkenden B-Zell-Epitopen. Niedermolekulare synthetische oder rekombinante Peptide allein sind gering immunogen und können somit keine ausreichende Immunantwort induzieren. Die Verwendung von Peptiden für die immunologische Kontrazeption erfordert daher ein „Vakzin-Design“, d. h. die gezielte Kombination der Peptide mit immunstimulierenden Substanzen (Liposomen, Carrierproteinen, Adjuvantien). Zielstellung der vorliegenden Arbeit war die Untersuchung des Potentials synthetischer Peptide für die Immunokontrazeption von verwilderten Hauskatzen (Felis catus). Dazu wurden zunächst relevante B-Zell-Epitope des felinen Zona pellucida Proteins, ZPB2, identifiziert und synthetisiert. Zwei der synthetischen Peptide (P3, P6) wurden zur Herstellung von Antikörpern an BSA konjugiert und zusammen mit Freundschem Adjuvans in Ratten verimpft. Die kontrazeptive Relevanz beider Peptide sowie der Ratten Anti-Peptid Antiseren wurde im in vitro Befruchtungssystem der Hauskatze geprüft. Zur Untersuchung der Immunogenität der Peptide in der Zielspezies Hauskatze erfolgte die Entwicklung von Vakzin-Prototypen für die einmalige Applikation. Neben der Eruierung der Stärke und Dauer der Immunantwort wurde durch Verpaarung der Tiere auch das kontrazeptive Potential in vivo abgeschätzt.
Gegenstand der Arbeit ist die lichtinduzierte Orientierung von multifunktionalen Polymeren, die u.a. für die Herstellung von optischen Schichten in Flüssigkristalldisplays verwendet werden können. Dafür wurden Polymere entwickelt, die wenigstens eine mesogene und eine lichtsensitive Gruppe enthalten. Diese Gruppen zeigen Eigenschaften, die für die Orientierung der kompletten Polymerfilme verantwortlich sind. Das Material wird dafür zunächst in einem ersten Schritt kurz mit linear polarisiertem Licht bestrahlt, wobei richtungsabhängig eine photochemische Reaktion an der lichtsensitiven Gruppe erfolgt und dadurch ein "Orientierungskeim" gelegt wird. Durch die thermische Ausrichtung der mesogenen Gruppen an den photochemisch generierten "Orientierungskeimen" erfolgt die komplette Orientierung des Filmes in einem zweiten Schritt. Dadurch wird eine hohe optische Anisotropie erhalten. Dieses Verfahren wurde als Zwei-Stufen-Bulk-Orientierungsprozess bezeichnet. In der vorliegenden Arbeit wurden die Photoreaktionen verschiedener lichtsensitiver Gruppen, wie z. B. Azobenzen, Stilben und Zimtsäureester und deren Orientierungsfähigkeit in flüssigkristallinen Polymeren untersucht. Der Orientierungsprozess wurde durch die Wahl geeigneter Bestrahlungsbedingungen optimiert. Die Effizienz der Orientierung wurde anhand der sich verändernden winkelabhängigen Absorptionseigenschaften und der Doppelbrechung des Materials analysiert. Es wurde gezeigt, dass eine effiziente lichtinduzierte Orientierung bei einer Vielzahl von flüssigkristallinen Polymeren realisierbar ist. So wurde z. B. erstmalig gefunden, dass durch eine Photo-Fries-Orientierung eine hohe optische Anisotropie erhalten werden kann. Außerdem wurde eine neue lichtsensitive Gruppe auf der Basis von Donor-Akzeptor-substituiertem Ethen entwickelt, die farbneutral ist und durch polarisiertes UV-Licht sowohl orientiert als auch re-orientiert werden kann. Es wurden weiterhin Polymere entwickelt, die zusätzlich zu den photosensitiven und flüssigkristallinen Einheiten, fluoreszierende Gruppen enthalten. Die Auswahl geeigneter Fluoreszenzverbindungen erfolgte aufgrund ihrer anisometrischen Form, ihrer Ordnungsparameter in einer niedermolekularen Flüssigkristallmischung und ihrer Photostabilität. Das Orientierungsverhalten von ausgewählten Fluorophoren wurde in sechs Ter- und zwei Copolymeren untersucht. Das Prinzip der Orientierung beruht auf einer kooperativen Ausrichtung der Seitengruppen. Aus diesem Grund kommt dem Nachweis der Kooperativität in der vorliegenden Arbeit eine besondere Stellung zu. Durch lichtinduzierte Bulk-Orientierung wurden Filme erhalten, welche durch eine richtungsabhängige Fluoreszenz und Absorption im sichtbaren- oder UV-Bereich charakterisiert sind. Die Fluoreszenz wird durch einige lichtsensitive Verbindungen komplett gelöscht. Die wahlweise erhaltenen anisotropen Filme von farbigen, fluoreszierenden oder farbneutralen Verbindungen, die zudem in kleinen Pixeln von wenigen Mikrometern orientiert werden können, eröffnen vielfältige Möglichkeiten für den Einsatz von multi-funktionalen Polymeren als optische Schichten in Flüssigkristalldisplays.
Ziel dieser Arbeit ist es, ein sequentielles Extraktionsverfahren zur Erfassung unterschiedlich stabiler Anteile der orgnischen Bodensubstanz (OBS) zu entwickeln und zu klären, ob ein Zusammenhang zwischen Löslichkeit und Stabilität besteht. Darüber hinaus sollen der Einfluss von Bewirtschaftungsmaßnahmen auf Menge und Zusammensetzung dieser OBS-Anteile und Zusammenhänge zwischen Fourier Transform Infrarot (FT-IR)-Spektroskopiedaten und der Kationenaustauschkapazität (KAK) der OBS analysiert werden. Für die Untersuchungen wurden Böden der Langzeitfeldexperimente (LFE) in Halle, Bad Lauchstädt und Rotthalmünster beprobt. Zur Erfassung unterschiedlicher OBS-Fraktionen wurden im ersten Schritt die wasserlöslichen OBS-Anteile (OBS(W)-Fraktion) aus den Böden isoliert. Im zweiten Schritt wurden aus den Extraktionsrückständen der Wasserextraktion OBS-Anteile mit einer Natrium (Na)-Pyrophosphatlösung extrahiert (OBS(PY)-Fraktion). Die Stabilität der OBS-Fraktionen wurde anhand von δ13C-Bestimmungen und 14C-Messungen untersucht. Die Charakterisierung der Zusammensetzung der OBS-Fraktionen erfolgte mittels FT-IR Spektroskopie. Generell wird mit der OBS(PY)-Fraktion ein größerer Anteil am organischen Kohlenstoffgehalt der Böden erfasst als mit der OBS(W)-Fraktion. Die δ13C- und 14C-Daten zeigen, dass die OBS(W)-Fraktion höhere Anteile jungen organischen Materials als die OBS(PY)-Fraktion enthält. Das entwickelte sequentielle Extraktionsverfahren ist also prinzipiell geeignet unterschiedlich stabile OBS-Anteile anhand ihrer Löslichkeit zu isolieren. Mittels FT-IR spektroskopischer Untersuchungen wird festgestellt, dass Bewirtschaftungsmaßnahmen, wie die Düngung, sowie Standorteigenschaften die Zusammensetzung der OBS-Fraktionen beeinflussen. Für die OBS(PY)-Fraktion ist dies stärker ausgeprägt als für die OBS(W)-Fraktion. Die KAK der OBS(PY)-Fraktion aus den Böden der LFE in Halle und Bad Lauchstädt ist positiv mit der Absorptionsintensität der C=O-Bande in den FT-IR Spektren dieser OBS-Fraktion korreliert.