Refine
Has Fulltext
- yes (24) (remove)
Year of publication
- 2003 (24) (remove)
Document Type
- Doctoral Thesis (24) (remove)
Language
- German (24) (remove)
Keywords
- AT1 receptor / preeclampsia / AT1-AAB / neonatal rat cardiomyocytes / autoantibody / angiotensin II (1)
- AT1-Rezeptor / Präeklampsie / AT1-AAK / neonatale Rattenkardiomyozyten / Autoantikörper / Angiotensin II (1)
- Abflußentwicklung (1)
- Acetylacetonat (1)
- AgCo (1)
- Aktivitätsmessung (1)
- Alltagsbedingungen (1)
- Anna Freiin von der (1837-1909) (1)
- Augenblicksutopie (1)
- Bahnhofsmission (1)
Institute
- Institut für Biochemie und Biologie (7)
- Department Psychologie (3)
- Institut für Ernährungswissenschaft (3)
- Institut für Umweltwissenschaften und Geographie (3)
- Institut für Physik und Astronomie (2)
- Department Erziehungswissenschaft (1)
- Department Linguistik (1)
- Historisches Institut (1)
- Institut für Chemie (1)
- Institut für Germanistik (1)
In der vorliegenden Arbeit habe ich wichtige Teilmechanismen der Erregungs-Sekretionskopplung in der Speicheldrüse der Schabe Periplaneta americana (L.) untersucht. Die Speicheldrüse ist von dopaminergen und serotonergen Fasern innerviert (Baumann et al., 2002). Beide Transmitter stimulieren eine unterschiedliche Reaktion der Drüse: Dopamin (DA) stimuliert die P-Zellen der Acini und die Ausführgangzellen, während Serotonin (5-HT) die P- und C-Zellen der Acini stimuliert, nicht jedoch die Ausführgangzellen. Der Endspeichel ist nach einer DA-Stimulierung proteinfrei. Dagegen enthält er nach einer 5-HT-Stimulierung Proteine, die von den C-Zellen sezerniert werden (Just & Walz, 1996). Im ersten Teil meiner Arbeit habe ich mittels Kapillarelektrophoretischer Analyse (CE-Analyse) die Elektrolytkonzentrationen im Endspeichel untersucht sowie die Raten der Flüssigkeitssekretion gemessen. Damit wollte ich klären, welche Transporter an der Sekretion des Primärspeichels und an dessen Modifikation beteiligt sind. Ausserdem wollte ich die Rolle der transportaktiven Epithelzellen der Ausführgänge für die Modifikation des Primärspeichels untersuchen. Dafür habe ich einen Vergleich der Elektrolytkonzentrationen im DA- und 5-HT-stimulierten Endspeichel durchgeführt. Der Elektrolytgehalt des DA- und 5-HT-stimulierten Endspeichels unterscheidet sich nicht signifikant voneinander. Er ist nach beiden Stimulierungen hypoosmotisch zum verwendeten Ringer. Die Ausführgangzellen werden durch DA stimuliert und modifizieren den Primärspeichel durch eine netto-Ionenreabsorption. Meine Versuche zeigen jedoch, dass auch die während einer 5-HT-Stimulierung der Drüse unstimulierten Ausführgangzellen den Primärspeichel modifizieren. In einer nachfolgenden Versuchsreihe habe ich den Einfluss von Ouabain, einem Hemmstoff der Na+-K+-ATPase, und Bumetanid, einem Hemmstoff des NKCC, auf die Raten der Flüssigkeitssekretion sowie den Elektrolytgehalt des Endspeichels untersucht. Ich habe gefunden, dass die Aktivität der Na+-K+-ATPase wichtig für die Modifikation des DA-stimulierten Primärspeichels ist. Im Gegensatz dazu ist sie für die Modifikation des 5-HT-stimulierten Primärspeichels nicht von Bedeutung. Bezüglich der Flüssigkeitssekretion habe ich keinen Einfluss der Na+-K+-ATPase-Aktivität auf die DA-stimulierten Sekretionsraten gefunden, dagegen ist die 5-HT-stimulierte Sekretionsrate in Anwesenheit von Ouabain gesteigert. Die Aktivität des NKCC ist für beide sekretorische Prozesse, die Ionen- und die Flüssigkeitssekretion, wichtig. Eine Hemmung des NKCC bewirkt eine signifikante Verringerung der Raten der Flüssigkeitssekretion nach DA- und 5-HT-Stimulierung sowie in beiden Fällen einen signifikanten Abfall der Ionenkonzentrationen im Endspeichel. Im zweiten Teil meiner Arbeit habe ich versucht, Änderungen der intrazellulären Ionenkonzentrationen in den Acinuszellen während einer DA- oder 5-HT-Stimulierung zu messen. Diese Experimente sollten mit der Methode des "ratiometric imaging" durchgeführt werden. Messungen mit dem Ca2+-sensitiven Fluoreszenzfarbstoff Fura-2 zeigten keinen globalen Anstieg in der intrazellulären Ca2+-Konzentration der P-Zellen. Aufgrund von Problemen mit einer schlechten Beladung der Zellen, einer starken und sich während der Stimulierung ändernden Autofluoreszenz der Zellen sowie Änderungen im Zellvolumen wurden keine Messungen mit Na+- und K+-sensitiven Fluoreszenzfarbstoffen durchgeführt. Im dritten Teil dieser Arbeit habe ich die intrazellulären Signalwege untersucht, die zwischen einer 5-HT-Stimulierung der Drüse und der Proteinsekretion vermitteln. Dazu wurde der Proteingehalt im Endspeichel biochemisch mittels eines modifizierten Bradford Assay gemessen. Eine erstellte Dosis-Wirkungskurve zeigt, dass die Rate der Proteinsekretion von der zur Stimulierung verwendeten 5-HT-Konzentration abhängt. In einer Serie von Experimenten habe ich die intrazellulären Konzentrationen von Ca2+, cAMP und / oder cGMP erhöht und anschließend den Proteingehalt im Endspeichel gemessen. Ein Anstieg der intrazellulären Ca2+-Konzentration aktiviert nur eine geringe Rate der Proteinsekretion. Dagegen kann die Steigerung der intrazellulären cAMP-Konzentration eine stärkere Proteinsekretion aktivieren, die sich nicht signifikant von der nach 5-HT-Stimulierung unterscheidet. Die cAMP-stimulierte Proteinsekretion kann durch gleichzeitige Erhöhung der intrazellulären Ca2+-Konzentration weiter gesteigert werden. Dagegen aktivierte eine Erhöhung der intrazellulären cGMP-Konzentration die Proteinsekretion nicht. Aufgrund dieser Ergebnisse postuliere ich die Existenz eines die Adenylatcyclase aktivierenden 5-HT-Rezeptors in der Basolateralmembran der C-Zellen.
Aromatische Amine und Amide (aAA) sind aufgrund ihrer starken Verbreitung in der menschlichen Umwelt und ihres kanzerogenen Potenzials von großer toxikologischer Bedeutung. Die Kanzerogenität der aAA wird durch die Mutagenität hochreaktiver Stoffwechselprodukte vermittelt, die in zwei sequenziellen katalytischen Reaktionen entstehen. Die erste ist meistens eine N-Hydroxylierung, die oft durch Cytochrom P450 1A2 (CYP1A2) katalysiert wird. Daran schließt sich eine O-Konjugation durch Sulfotransferasen (SULT) oder N-Acetyltransferasen (NAT) an. Die Bioaktivierung ist ein kritischer Parameter für die Übertragbarkeit von Ergebnissen aus Tiermodellen auf den Menschen. Rekombinante in vitro Systeme, die fremdstoffmetabolisierende Enzyme verschiedener Spezies exprimieren, ermöglichen die vergleichende Untersuchung der Bioaktivierung im Menschen und in Versuchstieren. Ziel des Projektes war die Aufklärung der Bioaktivierung der aAA durch humane Enzyme. Im Vordergrund stand die Untersuchung der Rolle humaner SULT in diesem Prozess. Es wurden rekombinante in vitro Systeme, konstruiert, die CYP1A2 und SULT des Menschen koexprimieren. SULT-cDNAs wurden in den Säugerzell Expressionsvektor pMPSV kloniert und in Standardindikatorzellen für Mutagenitätsuntersuchungen (V79 Zellen aus dem Chinesischen Hamster) transfiziert. Das Expressionsniveau von CYP1A2 und SULT wurde mittels Immunblotanalyse und radiometrischen Aktivitätsmessungen charakterisiert. In den rekombinanten Zellen wurden vier aAA als Modellsubstanzen (2-Acetylaminofluoren, 2-Aminoanthracen, 3′-Methyl-4-dimethylaminoazobenzol, 2,4-Diaminotoluol) auf ihre Mutagenität am hprt-Locus hin untersucht.Die aAA waren in Zellen, die keine rekombinanten Enzyme oder lediglich CYP1A2 exprimierten, nicht mutagen. In Zellen, die CYP1A2 und SULT der Subfamilie 1A koexprimierten, erzeugten sie bereits in geringen Konzentrationen klare mutagene Effekte (0,3 µM für 2-Acetylaminofluoren und 3′-Methyl-4-dimethylaminoazobenzol; 0,1 µM für 2-Aminoanthracen; 10 µM für 2,4-Diaminotoluol). Die stärkste Aktivierung von 2-Acetylaminofluoren und 3′-Methyl-4-dimethylaminoazobenzol erfolgte in der Zelllinie, die CYP1A2 und SULT1A2 koexprimierte; die stärkste Aktivierung von 2,4-Diaminotoluol und 2-Aminoanthracen erfolgte in der Zelllinie, die CYP1A2 und SULT1A1 koexprimierte. Sowohl SULT1A1 als auch SULT1A2 sind im Menschen genetisch polymorph. Ein unterschiedlich starkes Aktivierungspotenzial der Alloenzyme könnte eine individuell unterschiedliche Suszeptibilität für die durch aAA ausgelöste Kanzerogenese bedingen. In HPRT-Mutationsuntersuchungen mit rekombinanten Zellen zeigten die allelischen Varianten der SULT1A2 starke Unterschiede in ihrem Aktivierungpotenzial. Nur in der Zelllinie, die das Alloenzym SULT1A2*1 mit CYP1A2 koexprimierte, wurde 2-Acetylaminofluoren zum Mutagen aktiviert. Zur Aktivierung von 3′-Methyl-4-dimethylaminoazobenzol waren jedoch sowohl das Alloenzym SULT1A2*1 als auch das Alloenzym SULT1A2*2 in der Lage. Die Alloenzyme der SULT1A1 zeigten ein ähnlich gutes Aktivierungspotenzial für aAA. In früheren Studien wurde gezeigt, dass die SULT1C1 der Ratte eine wichtige Rolle bei der Aktivierung der aAA in dieser Spezies spielt. Dahingegen war die humane SULT1C1 nicht in der Lage die untersuchten aAA zu aktivieren. Die Kenntnis solcher Spezieunterschiede könnte wichtig sein um unterschiedliche Organotropismen aAA in Menschen und Tiermodellen zu erklären, da SULT mit starker Gewebespezifität exprimiert werden und das Expressionsmuster für die einzelnen SULT-Formen in Menschen und Ratten sich stark unterscheidet.
Der Buchfinkengesang wurde in Potsdam in zwei Hauptpopulationen über drei Jahre aufgenommen. Jedes Individuum wurde eindeutig am individuellen Strophentypenrepertoire identifiziert. Ein weiterer Punkt der die individuelle Wiedererkennung bestätigt ist die hohe Standorttreue der adulten Männchen. Die beschriebene Methode eignet sich für die Untersuchung von gesamten Populationen, um den Wandel des Gesangs von Populationen in Raum und Zeit zu beschreiben. Die Haupterkenntnisse der Arbeit sind: - Die Gesamtanzahl der Grundstrophentypen innerhalb einer Population bleibt über Jahre konstant. - Die relative Häufigkeit jedes einzelnen Strophentyps variiert von Jahr zu Jahr und von Population zu Population. - Gesangslernen erfolgt exakt mit einem Korrektheitsgrad von mindestens 96%. - Das Song-Sharing ist innerhalb der Population hoch. Die diskutierten Mechanismen für das Song-Sharing sind: Die Lebenserwartung, das Zugverhalten, das Lernverhalten, die Etabliertheit von Strophentypen, Weibchenpräferenzen und die Reaktionen der territorialen Männchen. - Weiterhin wurde ein Modell zur kulturellen Evolution des Buchfinkengesangs programmiert, um die Rolle der Einflussfaktoren, wie Fehlerquote, Abwanderungsrate und Laufzeit zu ermitteln. Der Wandel des Dialektes erfolgt graduell in Raum und Zeit. Daher sind keine scharfen Dialektgrenzen anzutreffen. Trotz dieser Tatsache markieren die etablierten Strophentypen die Population. 50 % der Juvenilen siedeln am Geburtsort, auf diese Weise bleibt der Dialekt erhalten und Inzest wird vermieden. -Analysiert man das Repertoire benachbarten Männchen bei isolierten Alleen, so entspricht die Gesangsangleichung in etwa dem Zufall. -Intraindividuelle Vergleiche der quantitativen Parameter des jeweiligen Strophentyps wurden saisonal und annuell durchgeführt. Saisonal konnten für einen Strophentyp ein Trend ermittelt werden. Bei jährlichen Vergleichen konnten intraindividuell ausschließlich nicht signifikante Ergebnisse ermittelt werden, wohingegen die interindividuelle Variation in zwei Fällen signifikant war. In einem Fall bestand ein Trend und in einem weiteren Fall war die Variationsunterschiede nicht signifikant. - Der Verlauf der Brutsaison lässt sich an der jährlichen Gesangsaktivität nachvollziehen.
In einer Längsschnittstudie mit 215 Schülern der achten Klasse wurde der Zusammenhang zwischen selbstgesteuertem Lernen, motivationalen (Zielorientierungen, Selbstwirksamkeit, schulischer Affekt) und kognitiven Variablen (Intelligenz) sowie Leistungsindikatoren (Schulleistung, Noten) erhoben. Selbstgesteuertes Lernen wurde mit Hilfe eines strukturierten Interviews (Zimmerman, 1986) und eines Lernstrategie-Fragebogens erfasst. Zum einen zeigte sich, dass die Lernstrategie-Angaben im Interview und im Fragebogen in keiner bedeutsamen Beziehung zueinander standen. Zum anderen ergaben sich deutliche Unterschiede in der Vorhersage der Leistungsindikatoren. Die per Interview erfassten Lernstrategien besaßen sowohl Vorhersagekraft bezüglich Schulnoten und Schulleistung und zeigten signifikante Zusammenhänge zu den individuellen Zielorientierungen, dem schulischen Affekt und der Selbstwirksamkeit. Darüber hinaus konnten Leistungsveränderungen von der achten zur neunten Klasse vorhergesagt werden. Der parallel eingesetzte Lernstrategie-Fragebogen leistete im Vergleich dazu keine Erklärung der Leistungsvarianz. Implikationen für die Diagnostik selbstgesteuerten Lernens werden diskutiert.
Die Präeklampsie ist eine schwangerschaftsspezifische Bluthochdruck-Erkrankung, die im Allgemeinen nach der 20. Schwangerschaftswoche auftritt. Neben der Hypertonie sind die Proteinurie und die Ödembildung charakteristische Symptome der Präeklampsie. Obwohl heute die Pathophysiologie der Präeklampsie zum großen Teil verstanden ist, ist die Ätiologie dieser Erkrankung noch unklar. 1999 konnten wir in den Seren von Präeklampsie-Patientinnen agonistische Autoantikörper, die gegen den Angiotensin II AT1-Rezeptor gerichtet sind (AT1-AAK), nachweisen. Diese AT1-AAK gehören zur Antikörpersubklasse IgG3. Die AT1-AAK führen in Kulturen neonataler Rattenkardiomyozyten AT1-Rezeptor spezifisch zu einem positiv chronotropen Effekt. Mittels Immunpräzipitation wurde gezeigt, dass AT1-AAK spezifisch den AT1-Rezeptor präzipitieren. Kontrollproben, aus denen die AT1-AAK entfernt wurden, führen zu keiner Präzipitation des AT1-Rezeptors. Die Präzipitation des AT1-Rezeptors bleibt ebenfalls aus, wenn die AT1-AAK mit einem Peptid, welches der Aminosäuresequenz des zweiten extrazellulären Loops des humanen AT1-Rezeptors entspricht, behandelt wurden. Eine Langzeitbehandlung der Kulturen neonataler Rattenherzzellen mit AT1-AAK vermindert die funktionelle Ansprechbarkeit der Zellen auf einen erneuten AT1-Rezeptor-Stimulus. Eine veränderte AT1-Rezeptorexpression wurde nicht nachgewiesen. In guter Übereinstimmung mit den in vitro-Expressionsdaten wurde gezeigt, dass die plazentare AT1-Rezeptorexpression bei Präeklampsie-Patientinnen nicht verschieden von der plazentaren AT1-Rezeptorexpression gesunder Schwangerer mit nicht pathogen verändertem Blutdruck ist. Im Zellsystem der neonatalen Rattenherzzellen führen die AT1-AAK zur Aktivierung von Gi-Proteinen und zu verringerten intrazellulären cAMP-Spiegeln. Des Weiteren wurde gezeigt, dass die AT1-AAK in Kulturen neonataler Rattenherzzellen die Transkriptionsfaktoren AP-1 und NFkB aktivieren. Die Aktivierung des Transkriptionsfaktors NFkB wurde vornehmlich in den Nicht-Myozyten der Rattenherzzellkultur nachgewiesen. Generell wurde festgestellt, dass sich die AT1-AAK pharmakologisch wie der natürliche Agonist des AT1-Rezeptors, Angiotensin II, verhalten. Erste Daten dieser Arbeit deuten auf einen eventuellen Einfluss der AT1-AAK auf die Expression von Komponenten der extrazellulären Matrix bzw. assoziierter Faktoren (Kollagen III, MMP-2, TIMP-2, Colligin) hin. In allen in dieser Arbeit untersuchten Seren von klinisch diagnostizierten Präeklampsie-Patientinnen wurden agonistische AT1-AAK nachgewiesen. Wir vermuten daher, dass die AT1-AAK möglicherweise bedeutend in der Pathogenese der Präeklampsie sind.
Menschen nehmen Tausende von Stoffen als bitter wahr. Die chemische Struktur der verschiedenen Bitterstoffe ist sehr vielfältig: Sie reicht von kleinen Molekülen wie Kaliumchlorid oder Harnstoff, bis zu sehr komplexen organischen Verbindungen. Die Größe der einzigen bekannten menschlichen Familie von Bitterrezeptoren (TAS2Rs) wurde auf nur ca. 80-120 Mitglieder geschätzt. In Anbetracht der hohen Zahl und Komplexität der Bitterstoffe erscheint die Zahl von Rezeptoren als sehr gering. Dies führt natürlich zu einer Reihe von Fragen: Wie viele Mitglieder hat die menschliche TAS2R-Genfamilie? Wie viele verschiedene Substanzen können denselben Rezeptor aktivieren? Scheint die Zahl der TAS2R-Rezeptoren ausreichend, alle Bitterstoffe wahrnehmen zu können oder muss es noch andere Bitterrezeptorfamilien geben? Diese Fragen zu beantworten, ist das Ziel der vorliegenden Arbeit. Hier durchgeführte Analysen des menschlichen Genomprojektes zeigen, dass Menschen ca. 25 TAS2R-Rezeptoren besitzt, die eine sehr divergente Aminosäurestruktur aufweisen. Diese Rezeptoren wurden in eine neu entwickelte Expressionskassette kloniert, die den Transport des Rezeptors an die Zelloberfläche ermöglicht. Um Liganden für die menschliche TAS2R-Rezeptoren zu identifizieren, wurden die Rezeptoren in HEK293 Zellen exprimiert und mit verschiedenen Bitterstoffen stimuliert. Der Nachweis der Rezeptoraktivierung erfolgte durch Calcium-Imaging. Es konnte gezeigt werden, dass hTAS2R16 der menschliche Rezeptor zur Wahrnehmung von Salicin und verwandten bitteren Pyranosiden ist. So wird hTAS2R16 in HEK293 Zellen durch Salicin und chemisch verwandte Substanzen aktiviert. Ein Vergleich der in diesem Messsystem erhaltenen Daten mit psychophysikalisch ermittelten Geschmackswahrnehmungen beim Menschen, ergab eine hohe Übereinstimmung. Die Ergebnisse deuten auch darauf hin, dass die Desensitiverung einzelner Rezeptoren die Ursache für die Adaption des Bittergeschmacks ist. Der Nachweis der Expression des Rezeptors in menschlichen Geschmackspapillen, sowie die festgestellte Assoziation des G/A Polymorpphismus an Position 665 des hTAS2R16 Gens mit einer reduzierten Salicinwahrnehmung, sind weitere unabhängige Beweise für diese These. Ein anderer menschlicher Rezeptor, hTAS2R10, wird durch die Bitterstoffe Strychnin, Brucin und Denatonium aktiviert. Dies sowie die Tatsache, dass die zur Aktivierung benutzten Konzentrationen eine sinnvolle Korrelation zu dem menschlichen Geschmacksschwellwert von Strychnin zeigen, sind starke Hinweise, dass hTAS2R10 der menschliche Rezeptor zur Wahrnehmung von Strychnin und verwandten Substanzen ist. Die vorliegenden Daten zeigen eindeutig, dass die TAS2R-Rezeptoren auch beim Menschen Bitterrezeptoren darstellen. Sowohl hTAS2R16, als auch hTAS2R10 werden durch ein Spektrum strukturell sehr unterschiedlicher Bitterstoffe aktiviert. Falls die anderen Mitglieder der TAS2R-Familie ebenfalls dieses Verhalten zeigen, wäre es möglich, dass die nur ca. 25 Mitglieder umfassende TAS2R-Rezeptorfamilie des Menschen tatsächlich zur Wahrnehmung aller Bitterstoffe ausreicht.
Im Rahmen dieser Arbeit wurden zwei humane Varianten des von Wang et al., 1999, erstmals beschriebenen muskelspezifischen Proteins Xin (Huhn und Maus) über Sequenzanalyse, Immunofluoreszenzmikroskopie, Transfektionsstudien und biochemischer Analyse näher charakterisiert. Die Proteine wurden mit human Xin related proteins 1 und 2 – hXirp1 und 2 –bezeichnet. Die Xin-Proteine enthielten bisher unbekannte, sowie spezifische, repetitive Motive, die aus jeweils mindestens 16 Aminosäuren bestanden. Ihre Aminosäuresequenz, mit einer Vielzahl weiterer putativer Motivsequenzen, verwies auf eine potentielle Funktion von hXirp als Adapterprotein in Muskelzellen. Das hier näher untersuchte hXirp1 lokalisierte an den Zell-Matrix-Verbindungen der Muskel-Sehnen-Übergangszone im Skelettmuskel, sowie an den Zell-Zell-Verbindungen der Glanzstreifen im Herzmuskel. Während der Muskelentwicklung zeigte hXirp1 eine sehr frühe Expression, zusammen mit einer prägnanten Lokalisation an den Prämyofibrillen und deren Verankerungsstrukturen, die auf eine Funktion des Proteins in der Myofibrillogenese deuten. Ektopische Expressionen von hXirp1 in einer Vielzahl von Nichtmuskel-Kulturzellen zeigten wiederum eine Lokalisation des Proteins an den Zell-Matrix-Kontakten dieser Zellen. Am Beispiel von hXirp1 und 2 wurde stellvertretend für die Familie der Xin-Proteine gezeigt, daß es sich bei den repetitiven Motiven um neuartige, F-Aktin bindende Sequenzmotive handelte. Die Xin-Proteine können somit als muskelspezifische, aktinbindende, potentielle Adapterproteine bezeichnet werden, denen eine strukturelle und funktionelle Beteiligung an der Verankerung der Myofibrillen im adulten Muskel, wie auch während der Myofibrillogenese zukommt.
Im Landschaftszustand und in der Landschaftsentwicklung kommen funktionale Beziehungen zwischen dem naturbedingten Energie-, Wasser- und Stoffhaushalt einerseits und den Auswirkungen der Landnutzung andererseits zum Ausdruck. Gegenwärtig verändert der globale Anstieg der bodennahen Temperaturen vielerorts den landschaftlichen Energie-, Wasser- und Stoffhaushalt, wobei besonders in Trockengebieten zu erwarten ist, dass dieser Trend in Verbindung mit einer unangepassten Landnutzung das Regenerationsvermögen der Vegetation einschränkt und zur Zerstörung der Bodendecke führt. Für die Mongolei und für benachbarte Gebiete Asiens sind in Szenarien zur globalen Erwärmung hohe Werte des Temperaturanstiegs prognostiziert worden. Eine globale Einschätzung der anthropogen induzierten Bodendegradation hat diese Region als stark oder extrem stark betroffen eingestuft. Vor diesem Hintergrund wurde im Uvs-Nuur-Becken, das im Nordwesten der Mongolei und damit in einer der trockensten Regionen des Landes gelegen ist, untersucht, wie sich der globale Temperaturanstieg auf der lokalen und regionalen Ebene widerspiegelt und wie der Landschaftshaushalt dabei verändert wird. Die Auswirkungen des sommerlichen Witterungsverlaufes auf den Landschaftszustand sind 1997 bis 1999 an einem Transsekt erfasst worden, das sich zwischen dem Kharkhiraa-Gebirge am Westrand des Beckens und dem See Uvs Nuur im Beckeninneren von den Polsterfluren und Matten der alpinen Stufe über die Gebirgswaldsteppe, die Trockensteppe bis zur Halbwüste erstreckt. An neun Messpunkten wurden witterungsklimatische Daten in Verbindung mit Merkmalen der Vegetation, des Bodens und der Bodenfeuchte aufgenommen. Die im Sommer 1998 gewonnenen Messwerte wurden mit Hilfe einer Clusteranalyse gebündelt und verdichtet. Auf dieser Grundlage konnten landschaftliche Zustandsformen inhaltlich gekennzeichnet, zeitlich eingeordnet und durch Zeit-Verhaltens-Modelle (Stacks) abgebildet werden. Aus den Zeit-Verhaltens-Modellen wird ersichtlich, dass man Zustandsformen, in denen die Hitze und die Trockenheit des Sommers 1998 besonders stark zum Ausdruck kommen, an allen Messpunkten beobachten kann, nimmt man die Station auf dem fast 3.000 m hohen Gipfel des Khukh Uul sowie die grundwasserbeeinflusste Station in unmittelbarer Seenähe aus. In ihrer extremen Form sind Trockenperioden jedoch nur im Beckeninneren und am Fuß der Randgebirge, also in der Halbwüste, in der Trockensteppe und in der Wiesensteppe aufgetreten. Im Bergwald sowie im Bereich der alpinen Matten und Polsterfluren fehlen sie. Am stärksten sind die grundwasserfreien Bereiche der Halbwüste von der Hitze und Niederschlagsarmut des Sommers 1998 betroffen. An vier Fünfteln der Tage des Beobachtungszeitraumes herrscht an diesem Messpunkt extreme Trockenheit. Es fällt entweder gar kein Niederschlag oder nur so wenig, dass der seit dem Frühjahr erschöpfte Bodenwasservorrat nicht aufgefüllt wird. Das Verhältnis zwischen Niederschlag und potenzieller Verdunstung liegt hier bei 1:12. In der Halbwüste zeichnet sich eine fortschreitende Desertifikation ab, zumal hier eine nichtangepasste Weidenutzung dominiert, in der Ziegen eine immer größere Rolle spielen. Dies gilt insbesondere für Bereiche in Siedlungsnähe. Örtlich ist auch der Bestand der Trockensteppe gefährdet, die sich an die Halbwüste zum Beckenrand hin anschließt. Hier ist nicht nur die Viehdichte am höchsten, sondern hier werden auch die meisten unbefestigten Fahrwege wild angelegt und die Bodendecke damit zerstört. Dies kann im Endeffekt zu einem Übergreifen von Prozessen der Desertifikation führen. Aus methodischer Sicht zeigt sich, dass die Kennzeichnung landschaftlicher Zustandsformen durch Zeit-Verhaltens-Modelle die Ermittlung der Auswirkungen von Witterung und Klima auf den Landschaftszustand erleichtert, da sie deren Aussage konzentriert. Zur Interpretation der Ergebnisse ist jedoch ein Rückgriff auf die beschreibende Darstellung der Messwerte notwendig. Die im westlichen Uvs-Nuur-Becken und seinen Randgebirgen angewandte Verfahrensweise ermöglicht es, globale Aussagen zur globalen Erwärmung der Kontinente regional oder lokal zu überprüfen und zu untersetzen."
Der "Leukocyte Receptor Complex" (LRC) ist ein DNA-Sequenzabschnitt auf dem Chromosom 19 des Menschen, der eine Länge von über 900.000 Basenpaaren umfaßt. In diesem Chromosomenabschnitt ist eine Vielzahl von Genen lokalisiert, die für die Funktion verschiedener weißer Blutzellen (Leukozyten) von entscheidender Bedeutung sind. Bei den aus diesen Genen synthetisierten Proteinen (Eiweißen) handelt es sich um Strukturen, die auf der Oberfläche dieser Zellen lokalisiert sind und zur Interaktion der Leukozyten mit ihrer Umgebung dienen. Diese auch als Rezeptoren bezeichneten Proteine können mit Oberflächenproteinen auf anderen Körperzellen wechselwirken und daraus resultierende Signale in das Innere der Blutzelle weiterleiten. In der vorliegenden Doktorarbeit wurde der LRC im Detail untersucht. Hierzu wurde zunächst der gesamte Chromosomenabschnitt aus kleineren, einander überlappenden DNA-Fragmenten rekonstruiert. Aufgrund der in diesen DNA-Fragmenten enthaltenen DNA-Sequenzen war es möglich, den gesamten Chromosomenabschnitt ähnlich einem Puzzle zusammenzusetzen. Die anschließende Analyse des LRC zeigte, daß sich dieser in drei Bereiche, sogenannte Cluster, unterteilen läßt. Diese Cluster sind dadurch gekennzeichnet, daß in ihnen jeweils nur Gene eines Rezeptortyps vorkommen. Hierbei handelt es sich um ‚immunoglobulin-like transcript′ -Gene (ILT) und ‚killer cell Ig-like receptor′-Gene (KIR). Die KIR- und ILT-Cluster werden von weiteren stammesgeschichtlich verwandten Genen unterbrochen und flankiert. Je nach Individuum können im LRC bis zu 31 solcher verwandten Rezeptorgene lokalisiert sein. Auf der Grundlage der Kartierungsdaten und von Daten des humanen Genomprojekts war es zudem möglich, evolutionäre Untersuchungen zur Entwicklung des LRC durchzuführen. Dabei wurde eine Hypothese zur Entstehung des LRC entworfen und zu anderen Spezies in Beziehung gesetzt. Im zweiten Teil der Arbeit habe ich aufbauend auf der sogenannten HRCA-Methode eine Technik entwickelt, die es erlaubt kleinste Unterschiede zwischen DNA-Sequenzen, sogenannte Einzelbasenpaaraustausche, nachzuweisen. Die entwickelte Methode kann verwendet werden, um sehr ähnliche DNA-Sequenzen, wie z.B. verschiedene KIR-Sequenzen, zu unterscheiden und ihre Menge zu bestimmen. Sie ist außerdem geeignet Mutationen, die mit bestimmten Krankheiten assoziiert sind, nachzuweisen und könnte somit in der Diagnostik Anwendung finden.
Zur Ermittlung der Akzeptanz und ihres prädiktiven Wertes für den Verzehr von Lebensmitteln bzw. Getränken, sind Beliebtheitsprüfungen mit Konsumenten unter standardisierten Bedingungen im Sensoriklabor üblich. Die prädiktive Aussagekraft dieser Laboruntersuchungen wird jedoch durch folgende Aspekte eingeschränkt: (1) Der situative Kontext wird ausgeschaltet, d.h. die Verzehrssituation, in der ein Produkt üblicherweise konsumiert wird, ist im Labor bewusst eliminiert und das zu bewertende Produkt wird nicht in einer kompletten Mahlzeit dargeboten (2) Der Produktkontakt im Labor ist im Gegensatz zu der anhaltenden Konfrontation unter alltäglichen Bedingungen nur kurzfristig, was Langzeitaussagen bzw. Dauerpräferenzen nicht zuläßt; (3) Im Labortest ist die freie Auswahl auf eine geringe Anzahl angebotener Produkte beschränkt. In dieser Arbeit soll daher die Frage beantwortet werden, welchen prädiktiven Wert sensorische Beliebtheitsuntersuchungen im Labor für Lebensmittelakzeptanz und -verzehr unter Alltagssituationen haben. Dies wird für verschiedene Altersgruppen gezeigt, die frei in ihrer Entscheidungsfindung sind. Dazu gaben 56 Studenten (23,1±3,7 Jahre) und zwei Seniorengruppen, zum einen aus einer Begegnungsstätte (20 Probanden; 75,6±8,1 Jahre) und zum anderen aus dem betreuten Wohnen (14 Probanden; 76,1±12,5 Jahre), in einer ersten Laboruntersuchung Beliebtheitsbewertungen (Akzeptanz und Rangordnungsprüfung) zu 6 Erfrischungsgetränken ab. Anschließend folgte ein mindestens vierwöchiger Zeitraum, in denen die Probanden aus einem speziell für die Studie konzipierten Automaten Getränke in Einrichtungen der Gemeinschaftsverpflegung entnehmen konnten. Die Entnahme war via Chipkarte ad libitum möglich. Computergestützt wurden dabei individuelle Getränkewahl, Menge und Entnahmezeit aufgezeichnet. Unmittelbar nach der Automatenphase wurde eine erneute Laboruntersuchung durchgeführt. In allen Untersuchungsphasen wurden dieselben Erfrischungsgetränke aus Konzentrat, variiert in Apfel- oder Orangensaftgeschmack, ohne oder mit Zusatz von Zucker (20g/l) und Kohlensäure (4 g/l CO2), angeboten. Eine Quntitativ Deskriptive Analyse bestätigte unterschiedliche Profile bei den Produkten, so dass von sensorisch wahrnehmbaren Unterschieden zwischen den Produkten ausgegangen werden konnte. Die Probanden bekamen zu keiner Zeit Informationen über die exakte Zusammensetzung der Getränke. Sowohl in der Laborbewertung als auch nach Getränkekonsum via Automat, fanden sich unterschiede zwischen den Altersgruppen. In der Akzeptanzprüfung bewerteten Studenten die Apfelvarianten besser als die Orangenvarianten. Senioren, die insgesamt höhere Akzeptanzwerte vergaben, bewerteten alle Getränke in fast allen Attributen gleichermaßen gut. Nach der 4-wöchigen Automatenphase hatte sich die Akzeptanz der sechs Getränke nicht wesentlich geändert. Auch in beiden Rangordnungsprüfungen waren bei den Studenten „Apfel“ und „Apfel mit Kohlensäure“ auf den ersten Plätzen, „Orange mit Zuckerzusatz“ auf dem letzten Platz. Nach Adjustierung auf die individuelle Trinkmenge (in Wenig-, Mittel- Vieltrinker) und wurde „Apfel mit Kohlensäure“ in der Automatenphase von den Studenten am meisten getrunken. In der Vieltrinkergruppe wurde „Orange mit Zuckerzusatz“ deutlich vernachlässigt. Der Automatenkonsum der Studenten bestätigte damit im Wesentlichen die Ergebnisse der Beliebtheitsprüfung im Labor. Bei den Senioren waren in der Rangordnungsprüfung, die eine Lieblingsreihenfolge erzwang, alle süßeren Getränke (mit Zuckerzusatz) auf den ersten Plätzen. In der Automatenphase wurden jedoch viele Getränke ohne Zuckerzusatz bevorzugt. Dies zeigte sich sowohl in der individuellen Präferenz, als auch im Gesamtkonsum. Aufgrund der Ergebnisse kann der prädiktive Wert von Laboruntersuchungen mit Senioren in Bezug auf die Auswahl und den Konsum unter alltäglichen Bedingungen als gering beurteilt werden. Die Getränke mit der individuell höchsten Laborpräferenz wurden unter Alltagsumgebung in der Gemeinschaftsverpflegung in deutlich geringeren Umfang als erwartet verzehrt. In der Vergleichsgruppe der Studenten ist die Übereinstimmung größer(p<0,05). In Häufigkeitsfragebögen vor und nach der Automatenphase wurde das Trinkverhalten speziell von kohlensäurehaltigen Getränken erfragt. Der Anteil von kohlensäurehaltigen Getränken ist sehr variabel, und kann tagesabhängig von einem geringen bis zum Hauptanteil ausmachen. Senioren tranken von den Automatengetränken weniger kohlensäurehaltige Getränke als Studenten(p<0,001). Trotzdem zeigte nur eine Minderheit einen völligen Verzicht, wie sich durch Fragebogen und auch Automatenkonsum ermitteln ließ. Die Verwendung eines computergestützten Getränkeautomaten bietet eine neue Möglichkeit, die Langzeitpräferenz und den tatsächlichen Konsum unter gewohnten Alltagsbedingungen und bei freier Produktauswahl zu ermitteln. Selbst bei Altersgruppen, die mit Laboruntersuchungen überfordert sind, können Vorlieben untersucht werden.
Ein Spezialgebiet der modernen Mikroelektronik ist die Miniaturisierung und Entwicklung von neuen nanostrukturierten und Komposit-Materialen aus 3d-Metallen. Durch geeignete Zusammensetzungen können diese sowohl mit einer hohen Sättigungsmagnetisierung und Koerzitivfeldstärke als mit besserer Oxidationsbeständigkeit im Vergleich zu den reinen Elementen erzielt werden. In der vorliegenden Arbeit werden neue Methoden für die Herstellung von bimetallischen kolloidalen Nanopartikeln vor allem mit einer Kern-Hülle-Struktur (Kern@Hülle) präsentiert. Bei der überwiegenden Zahl der vorgestellten Reaktionen handelt es sich um die thermische Zersetzung von metallorganischen Verbindungen wie Kobaltcarbonyl, Palladium- und Platinacetylacetonate oder die chemische Reduktion von Metallsalze mit langkettigem Alkohol in organischem Lösungsmittel. Daneben sind auch Kombinationen aus diesen beiden Verfahren beschrieben. Es wurden Kolloide aus einem reinen Edelmetall (Pt, Pd, Ag) in einem organischen Lösungsmittel synthetisiert und daraus neue, bisher in dieser Form nicht bekannte Ag@Co-, Pt@Co-, Pd@Co- und Pt@Pd@Co-Nanopartikel gewonnen. Der Kobaltgehalt der Ag@Co-, Teilchen konnte im Bereich von 5 bis 73 At. % beliebig eingestellt werden. Der mittlere Durchmesser der Ag@Co-Partikel wurde von 5 nm bis 15 nm variiert. Bei der Herstellung von Pt@Co-Teilchen wurde eine unterschiedlich dicke Kobalt-Hülle von ca. 1,0 bis 2,5 nm erzielt. Im Fall des Palladiums wurden sowohl monodispere als auch polydisperse Pd-Nanopartikel mit einer maximal 1,7-2,0nm dicken Kobalthülle synthetisiert. Ein großer Teil dieser Arbeit befasst sich mit den magnetischen Eigenschaften der kolloidalen Teilchen, wobei die SQUID-Magnetometrie und Röntgenzirkulardichroismus (XMCD) dafür eingesetzt wurden. Weil magnetische Messungen alleine nur indirekte Schlüsse über die untersuchten Systeme erlauben, wurde dabei besonderer Wert auf die möglichst genaue strukturelle Charakterisierung der Proben mittels moderner Untersuchungsmethoden gelegt. Röntgendiffraktometrie (XRD), Röntgenabsorptionsfeinstruktur- (EXAFS) und UV-Vis-Spektroskopie sowie Transmissionselektronenmikroskopie (TEM) in Kombination mit Elektronen Energieverlustspektroskopie (EELS) und energiedispersive Röntgenfluoreszensanalyse (EDX) wurden verwendet.
In der vorliegenden Untersuchung wurde ein arbeitspsychologisches Problem thematisiert, dass in Mensch-Maschine-Systemen auftritt. In Mensch-Maschine-Systemen werden Informationen in kodierter Form ausgetauscht. Diese inhaltlich verkürzte Informationsübertragung hat den Vorteil, keine lange Zustandsbeschreibung zu benötigen, so dass der Mensch auf die veränderten Zustände schnell und effizient reagieren kann. Dies wird aber nur dann ermöglicht, wenn der Mensch die kodierten Informationen (Kodes) vorher erlernten Bedeutungen zuordnen kann. Je nach Art der kodierten Informationen (visuelle, akustische oder alphanumerische Signale) wurden Gestaltungsempfehlungen für Kodealphabete entwickelt. Für Operateure resultiert die mentale Belastung durch Dekodierungsprozesse vor allem aus dem Umfang des Kodealphabetes (Anzahl von Kodezeichen), der wahrnehmungsmäßigen Gestaltung der Kodes und den Regeln über die Zuordnung von Bedeutungen zu Kodezeichen. Die Entscheidung über die Güte von Kodealphabeten geschieht in der Arbeitspsychologie in der Regel über Leistungsindikatoren. Dies sind üblicherweise die zur Dekodierung der Kodes benötigte Zeit und dabei auftretende Zuordnungsfehler. Psychophysiologische Daten werden oft nicht herangezogen. Fraglich ist allerdings, ob Zeiten und Fehler allein verlässliche Indikatoren für den kognitiven Aufwand bei Dekodierungsprozessen sind, da im hochgeübten Zustand bei gleichen Alphabetlängen, aber unterschiedlicher Kodezeichengestaltung sich häufig die mittleren Dekodierungszeiten zwischen Kodealphabeten nicht signifikant unterscheiden und Fehler überhaupt nicht auftreten. Die in der vorliegenden Arbeit postulierte Notwendigkeit der Ableitung von Biosignalen gründet sich auf die Annahme, dass mit ihrer Hilfe zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen gewonnen werden können, die mit der Erhebung von Leistungsdaten nicht erfasst werden. Denn gerade dann, wenn sich die Leistungsdaten zweier Kodealphabete nicht unterscheiden, können psychophysiologische Daten unterschiedliche Aspekte mentaler Beanspruchung erfassen, die mit Hilfe von Leistungsdaten nicht bestimmt werden können. Daher wird in Erweiterung des etablierten Untersuchungsansatzes vorgeschlagen, Biosignale als dritten Datenbereich, neben Leistungsdaten und subjektiven Daten mentaler Beanspruchung, abzuleiten, um zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen zu erhalten. Diese Annahme sollte mit Hilfe der Ableitung von Biosignalen überprüft werden. Der Begriff mentaler Beanspruchung wird in der bisherigen Literatur nur unzureichend definiert und differenziert. Daher wird zur Untersuchung dieses Konzepts, die wissenschaftliche Literatur berücksichtigend, ein erweitertes Modell mentaler Beanspruchung vorgestellt. Dabei wird die mentale Beanspruchung abgegrenzt von der emotionalen Beanspruchung. Mentale Beanspruchung wird weiterhin unterschieden in psychomotorische, perzeptive und kognitive Beanspruchung. Diese Aspekte mentaler Beanspruchung werden jeweils vom psychomotorischen, perzeptiven oder kognitiven Aufwand der zu bearbeitenden Aufgabe ausgelöst. In der vorliegenden Untersuchung wurden zwei zentrale Fragestellungen untersucht: Einerseits wurde die Analyse der anwendungsbezogenen Frage fokussiert, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung über die Leistungsdaten (Dekodierungszeiten und Fehleranzahl) hinaus, zusätzliche Informationen zur Bestimmung der Güte von Kodealphabeten liefern. Andererseits wurde der Forschungsaspekt untersucht, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung die zur Dekodierung notwendigen perzeptiven und kognitiven Aspekte mentaler Beanspruchung differenzieren können. Emotionale Beanspruchung war nicht Gegenstand der Analysen, weshalb in der Operationalisierung versucht wurde, sie weitgehend zu vermeiden. Psychomotorische Beanspruchung als dritter Aspekt mentaler Beanspruchung (neben perzeptiver und kognitiver Beanspruchung) wurde für beide Experimentalgruppen weitgehend konstant gehalten. In Lernexperimenten hatten zwei anhand eines Lern- und Gedächtnistests homogenisierte Stichproben jeweils die Bedeutung von 54 Kodes eines Kodealphabets zu erwerben. Dabei wurde jeder der zwei unahbhängigen Stichproben ein anderes Kodealphabet vorgelegt, wobei sich die Kodealphabete hinsichtlich Buchstabenanzahl (Kodelänge) und anzuwendender Zuordnungsregeln unterschieden. Damit differierten die Kodealphabete im perzeptiven und kognitiven Aspekt mentaler Beanspruchung. Die Kombination der Abkürzungen entsprach den in einer Feuerwehrleitzentrale verwendeten (Kurzbeschreibungen von Notfallsituationen). In der Lernphase wurden den Probanden zunächst die Kodealphabete geblockt mit ihren Bedeutungen präsentiert. Anschließend wurden die Kodes (ohne deren Bedeutung) in sechs aufeinanderfolgenden Prüfphasen randomisiert einzeln dargeboten, wobei die Probanden instruiert waren, die Bedeutung der jeweiligen Kodes in ein Mikrofon zu sprechen. Während des gesamten Experiments wurden, neben Leistungsdaten (Dekodierungszeiten und Fehleranzahl) und subjektiven Daten über die mentale Beanspruchung im Verlauf der Experimente, folgende zentralnervöse und peripherphysiologische Biosignale abgeleitet: Blutdruck, Herzrate, phasische und tonische elektrodermale Aktivität und Elektroenzephalogramm. Aus ihnen wurden zunächst 13 peripherphysiologische und 7 zentralnervöse Parameter berechnet, von denen 7 peripherphysiologische und 3 zentralnervöse Parameter die statistischen Voraussetzungen (Einschlusskriterien) soweit erfüllten, dass sie in die inferenzstatistische Datenanalyse einbezogen wurden. Leistungsdaten und subjektive Beanspruchungseinschätzungen der Versuchsdurchgänge wurden zu den psychophysiologischen Parametern in Beziehung gesetzt. Die Befunde zeigen, dass mittels der psychophysiologischen Daten zusätzliche Erkenntnisse über den kognitiven Aufwand gewonnen werden können. Als weitere Analyse wurden die Kodes post hoc in zwei neue Kodealphabete eingeteilt. Ziel dieser Analyse war es, die Unterschiede zwischen beiden Kodealphabeten zu erhöhen, um deutlichere reizbezogene psychophysiologische Unterschiede in den EEG-Daten zwischen den Kodealphabeten zu erhalten. Dazu wurde diejenigen, hinsichtlich ihrer Bedeutung, parallelen Kodes in beiden Kodealphabeten ausgewählt, die sich in der Dekodierungszeit maximal voneinander unterschieden. Eine erneute Analyse der EEG-Daten erbrachte jedoch keine Verbesserung der Ergebnisse. Drei Hauptergebnisse bezüglich der psychophysiologischen Parameter konnten festgestellt werden: Das erste Ergebnis ist für die psychophysiologische Methodik bedeutsam. Viele psychophysiologische Parameter unterschieden zwischen den Prüfphasen und zeigen damit eine hinreichende Sensitivität zur Untersuchung mentaler Beanspruchung bei Dekodierungsprozessen an. Dazu gehören die Anzahl der spontanen Hautleitwertsreaktionen, die Amplitude der Hautleitwertsreaktionen, das Hautleitwertsniveau, die Herzrate, die Herzratendifferenz und das Beta-2-Band des EEG. Diese Parameter zeigen einen ähnlichen Verlauf wie die Leistungsdaten. Dies zeigt, dass es möglich ist, die hier operationaliserte Art mentaler Beanspruchung in Form von Dekodierungsprozessen psychophysiologisch zu analysieren. Ein zweites Ergebnis betrifft die Möglichkeit, Unterschiede mentaler Beanspruchung zwischen beiden Gruppen psychophysiologisch abzubilden: Das Hautleitwertsniveau und das Theta-Frequenzband des Spontan-EEG zeigten Unterschiede zwischen beiden Stichproben von der ersten Prüfphase an. Diese Parameter indizieren unterschiedlichen kognitiven Aufwand in beiden Stichproben über alle Prüfphasen. Das wichtigste Ergebnis betrifft die Frage nach einem Informationsgewinn bei Einsatz psychophysiologischer Methoden zur Bewertung der Güte von Kodealphabeten: Einen tatsächlichen Informationsgewinn gegenüber den Leistungsdaten zeigte die Amplitude der elektrodermalen Aktivität und die Herzraten-Differenz an. Denn in den späteren Prüfphasen, wenn sich die Leistungsdaten beider Kodealphabete nicht mehr unterschieden, konnten unterschiedliche Ausprägungen dieser psychophysiologischen Parameter zwischen beiden Kodealphabeten verzeichnet werden. Damit konnten unterschiedliche Aspekte mentaler Beanspruchung in beiden Kodealphabeten in den späteren Prüfphasen erfasst werden, in denen sich die Leistungsdaten nicht mehr unterschieden. Alle drei Ergebnisse zeigen, dass es, trotz erheblichen technischen und methodischen Aufwands, sinnvoll erscheint, bei der Charakterisierung mentaler Belastungen und für die Gestaltung von Kodealphabeten auch psychophysiologische Daten heranzuziehen, da zusätzliche Informationen über den perzeptiven und kognitiven Dekodierungsaufwand gewonnen werden können.
Die vorliegende Arbeit 'Abflußentwicklung in Teileinzugsgebieten des Rheins - Simulationen für den Ist-Zustand und für Klimaszenarien' untersucht Auswirkungen möglicher zukünftiger Klimaänderungen auf das Abflußgeschehen in ausgewählten, durch Mittelgebirge geprägten Teileinzugsgebieten des Rheins: Mosel (bis Pegel Cochem); Sieg (bis Pegel Menden 1) und Main (bis Pegel Kemmern).In einem ersten Schritt werden unter Verwendung des hydrologischen Modells HBV-D wichtige Modellprozesse entsprechend der Einzugsgebietscharakteristik parametrisiert und ein Abbild der Gebietshydrologie erzeugt, das mit Zeitreihen gemessener Tageswerte (Temperatur, Niederschlag) eine Zeitreihe der Pegeldurchflüsse simulieren kann. Die Güte der Simulation des Ist-Zustandes (Standard-Meßzeitraum 1.1.1961-31.12.1999) ist für die Kalibrierungs- und Validierungszeiträume in allen Untersuchungsgebieten gut bis sehr gut.Zur Erleichterung der umfangreichen, zeitaufwendigen einzugsgebietsbezogenen Datenaufbereitung für das hydrologische Modell HBV-D wurde eine Arbeitsumgebung auf Basis von Programmerweiterungen des Geoinformationssystems ArcView und zusätzlichen Hilfsprogrammen entwickelt. Die Arbeitsumgebung HBV-Params enthält eine graphische Benutzeroberfläche und räumt sowohl erfahrenen Hydrologen als auch hydrologisch geschulten Anwendern, z.B. Studenten der Vertiefungsrichtung Hydrologie, Flexibilität und vollständige Kontrolle bei der Ableitung von Parameterwerten und der Editierung von Parameter- und Steuerdateien ein. Somit ist HBV-D im Gegensatz zu Vorläuferversionen mit rudimentären Arbeitsumgebungen auch außerhalb der Forschung für Lehr- und Übungszwecke einsetzbar.In einem zweiten Schritt werden Gebietsniederschlagssummen, Gebietstemperaturen und simulierte Mittelwerte des Durchflusses (MQ) des Ist-Zustandes mit den Zuständen zweier Klimaszenarien für den Szenarienzeitraum 100 Jahre später (2061-2099) verglichen. Die Klimaszenarien beruhen auf simulierten Zirkulationsmustern je eines Modellaufes zweier Globaler Zirkulationsmodelle (GCM), die mit einem statistischen Regionalisierungsverfahren in Tageswertszenarien (Temperatur, Niederschlag) an Meßstationen in den Untersuchungsgebieten überführt wurden und als Eingangsdaten des hydrologischen Modells verwendet werden.Für die zweite Hälfte des 21. Jahrhunderts weisen beide regionalisierten Klimaszenarien eine Zunahme der Jahresmittel der Gebietstemperatur sowie eine Zunahme der Jahressummen der Gebietsniederschläge auf, die mit einer hohen Variabilität einhergeht. Eine Betrachtung der saisonalen (monatlichen) Änderungsbeträge von Temperatur, Niederschlag und mittlerem Durchfluß zwischen Szenarienzeitraum (2061-2099) und Ist-Zustand ergibt in allen Untersuchungsgebieten eine Temperaturzunahme (höher im Sommer als im Winter) und eine generelle Zunahme der Niederschlagssummen (mit starken Schwankungen zwischen den Einzelmonaten), die bei der hydrologischen Simulation zu deutlich höheren mittleren Durchflüssen von November bis März und leicht erhöhten mittleren Durchflüssen in den restlichen Monaten führen. Die Stärke der Durchflußerhöhung ist nach den individuellen Klimaszenarien unterschiedlich und im Sommer- bzw. Winterhalbjahr gegenläufig ausgeprägt. Hauptursache für die simulierte starke Zunahme der mittleren Durchflüsse im Winterhalbjahr ist die trotz Temperaturerhöhung der Klimaszenarien winterlich niedrige Evapotranspiration, so daß erhöhte Niederschläge direkt in erhöhten Durchfluß transformiert werden können.Der Vergleich der Untersuchungsgebiete zeigt in Einzelmonaten von West nach Ost abnehmende Änderungsbeträge der Niederschlagssummen, die als Hinweis auf die Bedeutung der Kontinentalitätseinflüsse auch unter geänderten klimatischen Bedingungen in Südwestdeutschland aufgefaßt werden könnten.Aus den regionalisierten Klimaszenarien werden Änderungsbeträge für die Modulation gemessener Zeitreihen mittels synthetischer Szenarien abgeleitet, die mit einem geringen Rechenaufwand in hydrologische Modellantworten überführt werden können. Die direkte Ableitung synthetischer Szenarien aus GCM-Ergebniswerten (bodennahe Temperatur und Gesamtniederschlag) an einzelnen GCM-Gitterpunkten erbrachte unbefriedigende Ergebnisse.Ob, in welcher Höhe und zeitlichen Verteilung die in den (synthetischen) Szenarien verwendeten Niederschlags- und Temperaturänderungen eintreten werden, kann nur die Zukunft zeigen. Eine Abschätzung, wie sich die Abflußverhältnisse und insbesondere die mittleren Durchflüsse der Untersuchungsgebiete bei möglichen Änderungen entwickeln würden, kann jedoch heute schon vorgenommen werden. Simulationen auf Szenariogrundlagen sind ein Weg, unbekannte zukünftige Randbedingungen sowie regionale Auswirkungen möglicher Änderungen des Klimasystems ausschnittsweise abzuschätzen und entsprechende Risikominderungsstrategien zu entwickeln. Jegliche Modellierung und Simulation natürlicher Systeme ist jedoch mit beträchtlichen Unsicherheiten verknüpft. Vergleichsweise große Unsicherheiten sind mit der zukünftigen Entwicklung des sozioökonomischen Systems und der Komplexität des Klimasystems verbunden. Weiterhin haben Unsicherheiten der einzelnen Modellbausteine der Modellkette Emissionsszenarien/Gaszyklusmodelle - Globale Zirkulationsmodelle/Regionalisierung - hydrologisches Modell, die eine Kaskade der Unsicherheiten ergeben, neben Datenunsicherheiten bei der Erfassung hydrometeorologischer Meßgrößen einen erheblichen Einfluß auf die Vertrauenswürdigkeit der Simulationsergebnisse, die als ein dargestellter Wert eines Ergebnisbandes zu interpretieren sind.Der Einsatz (1) robuster hydrologischer Modelle, die insbesondere temperaturbeeinflußte Prozesse adäquat beschreiben,(2) die Verwendung langer Zeitreihen (wenigsten 30 Jahre) von Meßwerten und(3) die gleichzeitige vergleichende Betrachtung von Klimaszenarien, die auf unterschiedlichen GCMs beruhen (und wenn möglich, verschiedene Emissionsszenarien berücksichtigen),sollte aus Gründen der wissenschaftlichen Sorgfalt, aber auch der besseren Vergleichbarkeit der Ergebnisse von Regionalstudien im noch jungen Forschungsfeld der Klimafolgenforschung beachtet werden.
Mit der vorliegenden Arbeit sollten mit Hilfe elektronenmikroskopischer Methoden verschiedene Liposomen-DNA-Komplexe zum Gentransfer charakterisiert sowie die Aufnahme und Verteilung in der Zellkultur untersucht werden. Dabei waren vor allem solche Präparationen von besonderem Interesse, die in unserer Arbeitsgruppe 'Drug Targeting' getestet oder entwickelt und verwendet wurden, wie Sendai-Virus Liposomen (HVJ-Liposomen), Virosomen sowie DAC-Chol und DOCSPER-Liposomen als Vertreter der kationischen Lipide. Im ersten Teil der Arbeit wurden fusogene Liposomen und Virosomen charakterisiert. Bei diesen Untersuchungen wurden folgende Ergebnisse erzielt: ·Sendai-Viren fusionieren mit Liposomen unterschiedlicher Lipidzusammensetzung. ·Die daraus resultierenden HVJ-Liposomen sind mit elektronenmikroskopischen Methoden identifizierbar. ·Die Spikes auf den HVJ-Liposomen besitzen fusogene Eigenschaften. ·HVJ-Liposomen eignen sich auf Grund der geringen Ausbeute sowie der geringen Transfektionseffizienz nicht zum in vitro Gentransfer. ·Virosomen stellen einen weiteren Typ fusogener Gentransfervesikel dar. ·Ihre Größe und fusogenen Eigenschaften sind abhängig von der externen Zugabe einer optimierten Lipidmischung. ·Im Innenraum der Virosomen kann mit Poly-L-Lysin vorkomplexierte DNA verkapselt werden. ·Die fusogenen Eigenschaften der Virosomen wurden mit Hilfe immunelektronenmikroskopischer Techniken und monoklonaler Antikörper gegen Hämagglutinin/Neuraminidase und das Fusionsprotein sowie mit polyklonalen Antiseren gezeigt. ·An Hand goldmarkierter DNA sind Virosomen nach der Transfektion in der Zelle nachweisbar. Da in unserer Arbeitsgruppe bevorzugt kationische Liposomen zum Gentransfer verwendet werden, wurde auch die Struktur der Liposomen untersucht und folgende Ergebnisse dokumentiert: ·Die Struktur und die Größe kationischer Liposomen werden hauptsächlich durch die Lipidzusammensetzung bestimmt. ·Die Bildung von Liposomen-DNA-Komplexen ist mit einer Größenzunahme der Komplexe gekoppelt. ·Die Anzahl gebundener Plasmide steigt mit der Größe der Lipoplexe. ·Gentransferaktive Lipopolyplexe (mit Protaminsulfat komplexierte DNA und DAC-Chol- Liposomen) sind kleiner als Lipoplexe. Ihre Struktur wird von der Zusammensetzung bestimmt. Eine weitere wichtige Frage betrifft den Weg der Gencarrier in der Zelle. Kenntnisse über diese Vorgänge sind vorteilhaft, um die einzelnen Schritte zu verstehen und möglichst gezielt zu verbessern. Bei der Untersuchung der Partikel im Hinblick auf zelluläre Barrieren beim Gentransfer konnten folgende Ergebnisse erzielt werden: ·Die Bindung der Partikel an die Zellmembran und Aufnahme sind abhängig von den eingesetzten Zellen und Komplexen sowie derInkubationszeit. ·Die Aufnahme erfolgt über endozytotische Mechanismen, wobei Lipopolyplexe schneller als Lipoplexe in die Zellen gelangen. Nicht alle gebundenen Komplexe werden aufgenommen. ·Die aufgenommenen Partikel befinden sich in Endosomen und werden ins Innere der Zelle transportiert. ·Freisetzung der DNA und Eintritt in den Zellkern über Kernporen konnte nicht beobachtet werden. ·DNA-haltige Vesikel in Kernnähe deuten auf einen weiteren Mechanismus hin (Vesikeltransfer zum Zellkern).
In-situ Wachstumsuntersuchungen beim reaktiven Anlassen von Cu, In Schichten in elementarem Schwefel
(2003)
In dieser Arbeit wurde das reaktive Anlassen von dünnen Kupfer-Indium-Schichten in elementarem Schwefel mittels energiedispersiver Röntgenbeugung untersucht. Durch die simultane Aufnahme der Röntgenspektren und der Messung der diffusen Reflexion von Laserlicht der Wellenlänge 635 nm an der Oberfläche der Probe während des Schichtwachstums von CuInS<SUB>2</SUB> konnte eine Methode zur Prozesskontrolle für ein Herstellungsverfahren von CuInS<SUB>2</SUB> etabliert werden. Die Bildung von CuInS<SUB>2</SUB> aus Kupfer-Indium-Vorläuferschichten wird dominiert von Umwandlungen der intermetallischen Phasen. CuInS<SUB>2</SUB> wächst innerhalb der Aufheizperiode ab einer Temperatur von ca. 200°C aus der Phase Cu11In9. Jedoch zerfällt letztere metallische Phase in Cu16In9 und flüssiges Indium bei einer Temperatur von ca. 310°C. Das flüssige Indium reagiert im Falle von Kupferarmut mit dem Schwefel und führt zu einem zusätzlichen Reaktionspfad über InS zu CuIn5S8. Unter Präparationsbedingungen mit Kupferüberschuss wird das Indium in einer intermetallischen Phase gebunden.Erstmals konnte die Phase Digenite bei Temperaturen über 240°C beobachtet werden. Beim Abkühlen auf Raumtemperatur wandelt sich diese Phase unter dem Verbrauch von Schwefel in Covellite um.Für Proben mit Kupferüberschuss konnte eine Wachstumskinetik proportional zur Temperatur beobachtet werden. Dieses Verhalten wurde durch eine stress-induzierte Diffusion als dominierenden Reaktionsmechanismus interpretiert. Dabei werden während der Bildung von CuInS<SUB>2</SUB> durch unterschiedliche Ausdehnungen der metallischen und sulfidischen Schichten eine Spannung in der CuInS<SUB>2</SUB>-Schicht induziert, die nach Überschreiten einer Grenzspannung zu Rissen in der CuInS2-Schicht führt. Entlang dieser Risse findet ein schneller Transport der Metalle zur Oberfläche, wo diese mit dem Schwefel reagieren können, statt. Die Risse heilen durch die Bildung neuen Sulfids wieder aus.
Die Studie untersucht den Erwerb der frühen Verbmorphologie im Estnischen. Als Datengrundlage der Arbeit dienen Spontansprachaufnahmen von 10 estnischsprachigen Kindern im Alter zwischen 10 und 32 Monaten. Die Studie versucht eine detaillierte Analyse des Erwerbs des estnischsprachigen Verbmorphologie vorzunehmen. Dabei werden die aufeinander folgenden Entwicklungsstadien, ihre ungefähren Altersgrenzen, sowie Erwerbsreihenfolge dargestellt und mit typologisch unterschiedlichen Sprachen verglichen.
In der Person von Georg Potente, der von 1902 bis 1938 in Potsdam-Sanssouci tätig war, spiegelt sich eine Entwicklung vom königlichen Ober- und Hofgärtner zum staatlichen Gartendirektor, einem schöpferisch tätigen Gartendenkmalpfleger wider. Sein Schaffen in historischen Gärten ist charakterisiert durch ein zeittypisches Spannungsfeld von kaiserlichen Aufgaben zur Neuanlage und Modernisierung einzelner Parkteile bis zu komplizierten gartendenkmalpflegerischen Wiederherstellungsarbeiten ganzer Parkbereiche. Die dabei von Potente begründete und praktizierte Herangehensweise, nach der Erforschung der Entstehungsgeschichte und der Auswertung aller historischen Pläne und Beschreibungen der Gartenanlage durch eine plangrafische Überlagerung die verschiedenen zeitlichen Zustände zu gewichten und den wiederherzustellenden Zeitstil festzulegen, begründete in den 20er Jahren des 20. Jahrhunderts die wissenschaftliche Arbeitsweise der sich entwickelnden Gartendenkmalpflege.
Als ich anfing, ein Thema für meine Promotion zu erarbeiten, fand ich Massentests ziemlich beeindruckend. TIMSS: über 500000 Schüler getestet. PISA: 180000 Schüler getestet. Ich wollte diese Datenbasis nutzen, um Erkenntnisse für die Gestaltung von Unterricht zu gewinnen. Leider kam ich damit nicht weit. Je tiefer ich mich mit den Tests und den dahinterstehenden Theorien befasste, desto deutlicher schälte sich heraus, dass mit diesen Tests keine neue Erkenntnis generiert werden kann. Fast alle Schlussfolgerungen, die aus den Tests gezogen werden, konnten gar nicht aus den Tests selbst gewonnen werden. Ich konzentrierte mich zunehmend auf die Testaufgaben, weil die Geltung der Aussage eines Tests an der Aufgabe erzeugt wird: In der Aufgabe gerinnt das, was die Tester als „mathematische Leistungsfähigkeit“ konstruieren. Der Schüler wiederum hat nur die Aufgabe vor sich. Es gibt nur „gelöst“ (ein Punkt) und „ungelöst“ (kein Punkt). Damit der Schüler den Punkt bekommt, muss er an der richtigen Stelle ankreuzen, oder er muss etwas hinschrei-ben, wofür der Auswerter einen Punkt gibt. In der Dissertation wird untersucht, was die Aufgaben testen, was also alles in das Konstrukt von „mathematischer Leistungsfähigkeit“ einfließt, und ob es das ist, was der Test testen soll. Es stellte sich durchaus erstaunliches heraus: - Oftmals gibt es so viele Möglichkeiten, zur gewünschten Lösung (die nicht in jedem Fall die richtige Lösung ist) zu gelangen, dass man nicht benennen kann, welche Fähigkeit die Aufgabe eigentlich misst. Das Konstrukt „mathematische Leistungsfähigkeit“ wird damit zu einem zufälligen. - Es werden Komponenten von Testfähigkeit mitgemessen: Viele Aufgaben enthalten Irritationen, welche von testerfahrenen Schülern leichter überwunden werden können als von testunerfahrenen. Es gibt Aufgaben, die gelöst werden können, ohne dass man über die Fähigkeit verfügt, die getestet werden soll. Umgekehrt gibt es Aufgaben, die man eventuell nicht lösen kann, obwohl man über diese Fähigkeit verfügt. Als Kernkompetenz von Testfähigkeit stellt sich heraus, weder das gestellte mathematische Problem noch die angeblichen realen Proble-me ernst zu nehmen, sondern sich statt dessen auf das zu konzentrieren, was die Tester angekreuzt oder hinge-schrieben sehen wollen. Prinzipiell erweist es sich als günstig, mittelmäßig zu arbeiten, auf intellektuelle Tiefe in der Auseinandersetzung mit den Aufgaben also zu verzichten. - Man kann bei Multiple-Choice-Tests raten. Die PISA-Gruppe behauptet zwar, dieses Problem technisch über-winden zu können, dies erweist sich aber als Fehleinschätzung. - Sowohl bei TIMSS als auch bei PISA stellt sich heraus, dass die vorgeblich verwendeten didaktischen und psychologischen Theorien lediglich theoretische Mäntel für eine theoriearme Testerstellung sind. Am Beispiel der Theorie der mentalen Situationsmodelle (zur Bearbeitung von realitätsnahen Aufgaben) wird dies ausführlich exemplarisch ausgearbeitet. Das Problem reproduziert sich in anderen Theoriefeldern. Die Tests werden nicht durch Operationalisierungen von Messkonstrukten erstellt, sondern durch systematisches Zusammenstückeln von Aufgaben. - Bei PISA sollte „Mathematical Literacy“ getestet werden. Verkürzt sollte das die Fähigkeit sein, „die Rolle, die Mathematik in der Welt spielt, zu erkennen und zu verstehen, begründete mathematische Urteile abzugeben und sich auf eine Weise mit der Mathematik zu befassen, die den Anforderungen des gegenwärtigen und künftigen Lebens einer Person als eines konstruktiven, engagierten und reflektierten Bürgers entspricht“ (PISA-Eigendarstellung). Von all dem kann angesichts der Aufgaben keine Rede sein. - Bei der Untersuchung des PISA-Tests drängte sich ein mathematikdidaktischer Habitus auf, der eine separate Untersuchung erzwang. Ich habe ihn unter dem Stichwort der „Abkehr von der Sache“ zusammengefasst. Er ist geprägt von Zerstörungen des Mathematischen bei gleichzeitiger Überbetonung des Fachsprachlichen und durch Verwerfungen des Mathematischen und des Realen bei realitätsnahen Aufgaben. Letzteres gründet in der Nicht-beachtung der Authentizität sowohl des Realen als auch des Mathematischen. Die Arbeit versammelt neben den Untersuchungen zu TIMSS und PISA ein ausführliches Kapitel über das Prob-lem des Testens und eine Darstellung der Methodologie und Praxis der Objektiven Hermeneutik.
In den letzten Jahren wurden relativ komplexe Erosionsmodelle entwickelt, deren Teilprozesse immer mehr auf physikalisch begründeten Ansätzen beruhen. Damit verbunden ist eine höhere Anzahl aktueller Eingangsparameter, deren Bestimmung im Feld arbeits- und kostenaufwendig ist. Zudem werden die Parameter punktuell, also an bestimmten Stellen und nicht flächenhaft wie bei der Fernerkundung, erfasst. Im Rahmen dieser Arbeit wird gezeigt, wie Satellitendaten als relativ kostengünstige Ergänzung oder Alternative zur konventionellen Parametererhebung genutzt werden können. Dazu werden beispielhaft der Blattflächenindex (LAI) und der Bedeckungsgrad für das physikalisch begründete Erosionsmodell EROSION 3D abgeleitet. Im Mittelpunkt des Interesses steht dabei das Aufzeigen von existierenden Methoden, die die Basis für eine operationelle Bereitstellung solcher Größen nicht nur für Erosions- sondern allgemein für Prozessmodelle darstellen. Als Untersuchungsgebiet dient das primär landwirtschaftlich genutzte Einzugsgebiet des Mehltheuer Baches, das sich im Sächsischen Lößgefilde befindet und für das Simulationsrechnungen mit konventionell erhobenen Eingangsparametern für 29 Niederschlagsereignisse im Jahr 1999 vorliegen [MICHAEL et al. 2000]. Die Fernerkundungsdatengrundlage bilden Landsat-5-TM-Daten vom 13.03.1999, 30.04.1999 und 19.07.1999. Da die Vegetationsparameter für alle Niederschlagsereignisse vorliegen sollen, werden sie basierend auf der Entwicklung des LAI zeitlich interpoliert. Dazu erfolgt zunächst die Ableitung des LAI für alle vorhandenen Fruchtarten nach den semi-empirischen Modellen von CLEVERS [1986] und BARET & GUYOT [1991] mit aus der Literatur entnommenen Koeffizienten. Des Weiteren wird eine Methode untersucht, nach der die Koeffizienten für das Clevers-Modell aus den TM-Daten und einem vereinfachten Wachstumsmodell bestimmt werden. Der Bedeckungsgrad wird nach ROSS [1981] aus dem LAI ermittelt. Die zeitliche Interpolation des LAI wird durch die schlagbezogene Anpassung eines vereinfachten Wachstumsmodells umgesetzt, das dem hydrologischen Modell SWIM [KRYSANOVA et al. 1999] entstammt und in das durchschnittliche Tagestemperaturen eingehen. Mit den genannten Methoden bleiben abgestorbene Pflanzenteile unberücksichtigt. Im Vergleich zur konventionellen terrestrischen Parametererhebung ermöglichen sie eine differenziertere Abbildung räumlicher Variabilitäten und des zeitlichen Verlaufes der Vegetationsparameter. Die Simulationsrechnungen werden sowohl mit den direkten Bedeckungsgraden aus den TM-Daten (pixelbezogen) als auch mit den zeitlich interpolierten Bedeckungsgraden für alle Ereignisse (schlagbezogen) durchgeführt. Bei beiden Vorgehensweisen wird im Vergleich zur bisherigen Abschätzung eine Verbesserung der räumlichen Verteilung der Parameter und somit eine räumliche Umverteilung von Erosions- und Depositionsflächen erreicht. Für die im Untersuchungsgebiet vorliegende räumliche Heterogenität (z. B. Schlaggröße) bieten Landsat-TM-Daten eine ausreichend genaue räumliche Auflösung. Damit wird nachgewiesen, dass die satellitengestützte Fernerkundung im Rahmen dieser Untersuchungen sinnvoll einsetzbar ist. Für eine operationelle Bereitstellung der Parameter mit einem vertretbaren Aufwand ist es erforderlich, die Methoden weiter zu validieren und möglichst weitestgehend zu automatisieren.
Nach einem Rekurs über den Utopiebegriff wurden sowohl im diarischen Werk als auch in der veröffentlichten Prosa Brigitte Reimanns utopische Konzeptionen aufgespürt. Gesucht wurde das Utopische sowohl in den Beschreibungen einer konkreten Gesellschaftsutopie, als auch in den literarischen „Verfeinerungen“ einer kruden Ideologie, wie im kritischen Hinterfragen des „Noch-Nicht-Bewussten“ (Ernst Bloch). Als ästhetische Utopien wurden auch Wunschbilder des Alltags, Träume, Märchen und Mythen gedeutet. Ausführliche Untersuchungen beschäftigten sich mit der Gestaltung der weiblichen Figuren und ihrer Entwicklung von der ideologisch (auch männlich) indoktrinierten Protagonistin zur „freien“ Ich–Gestalterin. Nachgewiesen wurde sowohl im diarischen Werk, als auch in der veröffentlichten Prosa eine Wandlung des Utopieverständnisses von der Gesellschaftsutopie zur subjektiven „Augenblicksutopie“, die im Deutungshorizont der Literatur der Romantik auch als DDR-spezifische Innerlichkeit verstanden werden könnte, welche mit ihrem Rückzug ins Individuelle die ritualisierte DDR-Öffentlichkeit desavouierte.
Die Arbeit untersucht erstmals die evangelischen Vereine für weibliche Jugendliche, die so genannten Jungfrauenvereine, von ihrer Entstehung in den 1840er Jahren bis zum 1. Weltkrieg, sowie insbesondere den 1893 gegründeten Verband der evangelischen Jungfrauenvereine Deutschlands (später Evangelischer Verband zur Pflege der weiblichen Jugend Deutschlands, ab 1929 Evangelischer Reichsverband weiblicher Jugend). In der ersten Hälfte des 19. Jahrhundert begann ein Teil des protestantischen Bürgertums damit, für die hochmobilen Unterschichts-Jugendlichen, die im Zuge der Industrialisierung als Handwerksgesellen und Dienstmädchen, später als Fabrikarbeiter und -arbeiterinnen in die expandierenden Großstädten gingen, Herbergen und Vereine zu gründen. Damit trugen die Initiatoren wesentlich zur Entstehung eines öffentliches Bewusstsein für die prekäre Lebenssituation der Unterschichtsjugend und für die Notwendigkeit präventiver Jugendarbeit bei. Der Verband initiierte dann in den Jahren um 1900 zahlreiche innovative soziale Projekte in der weiblichen Jugendpflege und Jugendfürsorge. Die Arbeit untersucht drei Bereiche: 1. Vereine (sog. Abendheime) und Wohnheime für Fabrikarbeiterinnen; 2. die 1894 begonnene Bahnhofmission, die sich der mobilen weiblichen Jugendlichen direkt an die Bahnhöfen annahm; 3. Erholungshäuser für erwerbstätige Jugendliche. Bei allen Initiativen arbeitete der Verband eng mit seinem lokalen Partner, dem Berliner Verein zur Fürsorge für die weibliche Jugend zusammen, der neue Arbeitsbereiche in der Praxis testete. Neben der Verbandsgeschichte im engeren Sinne thematisiert die Untersuchung auch die Konzeption und die Inhalte der Vereinsarbeit. Orientiert an dem Konzept einer christlichen Persönlichkeitsbildung sollte die Vereinsarbeit möglichst viele Bereiche jugendlichen Lebens umfassen: Arbeit (inkl. Erholungsurlaub), Wohnen, Freizeit (Geselligkeit, Lektüre), Gesundheit und Bildung. Da jedoch aufgrund der Orientierung an einem konservativen Frauenbild der Bereich jugendlicher Sexualität bewusst ausgeklammert wurde, erreichte man mit diesem Konzept präventiver Jugendarbeit im wesentlichen nur die ohnehin wohlanständigen Jugendlichen. Die Spannung zwischen einem konservativen Frauenbild einerseits und den modernisierenden Impulsen einer Jugendarbeit mit weiblichen Jugendlichen andererseits zeigt sich auch daran, dass der Verband durch die Gründung eines Berufsverbandes für Sozialarbeiterinnen (Verband der Berufsarbeiterinnen der Inneren Mission) und der Einrichtung von Ausbildungsstätten wesentlichen Anteil an den modernisierenden Prozessen der Verberuflichung der sozialen Arbeit und der kirchlichen Jugendpflege zu Berufen bürgerlicher Frauen hatte.
Im Bereich der medizinischen Diagnostik spielen DNA-Chips eine immer wichtigere Rolle. Dabei werden Glas- oder Silikon-Oberflächen mit Tausenden von einzelsträngigen DNA-Fragmenten, sog. Sonden, bestückt, die mit den passenden DNA-Fragmenten in der zugefügten Patientenprobe verschmelzen. Die Auswertung solcher Messungen liefert die Diagnose für Krankheiten wie z.B. Krebs, Alzheimer oder für den Nachweis pathogener Erreger. Durch fortschreitende Miniaturisierung dieser Meßsysteme können bis zu 40.000 Genfragmente des Menschen in einer einzigen Messung analysiert werden. Neben den DNA-Fragmenten können Bio-Chips auch für andere biologische Komponenten wie Antikörper und Proteine eingesetzt werden, wobei bei letzteren neben der Bindung auch die Aktivität ein wichtiger Diagnoseparamter ist. Am Fraunhofer-Institut für medizinische Technik und am Lehrstuhl für Analytische Biochemie der Universität Potsdam wurden im Rahmen einer Doktorarbeit Methoden entwickelt, die es ermöglichen auf nukleinsäuremodifizierten Sensoroberflächen die Aktivität von Proteinen zu messen. Es wurden Nukleinsäuren auf Oberflächen optischer Sensoren verankert. Diese fungierten als Rezeptor für die Proteine sowie auch als Substrat für Restriktionsenzyme, die Nukleinsäuren schneiden und Polymerasen, die Nukleinsäuren synthetisieren und verlängern können. Seine Anwendung fand diese Messmethode in der Messung der Aktivität des Proteins Telomerase, das in 90% aller Tumore erhöhte Aktivität gegenüber gesunden Zellen aufweist. Die Vorteile dieses neuen Assays gegenüber älteren Methoden liegt im Verzicht auf radioaktiv-markierten Komponenten und einer deutlich verkürzten Analysezeit. Die Arbeit schliesst mit einem funktionsfähigen Nachweis der Telomeraseaktivität im Zellextrakt von gesunden und kranken Zellen. Der direkte Einfluß von Hemmstoffen auf die Aktivität konnte sichtbar gemacht werden, und steht daher bei der Entwicklung neuer Tumor-Diagnostika und Therapeutika zur Verfügung.
In der wissenschaftlichen Literatur, in der betrieblichen Praxis und in der gesellschaftlichen Diskussion wird wieder zunehmend mehr die Bedeutung der Beschäftigten für den Unternehmenserfolg hervorgehoben und diskutiert. Unternehmen, die zielgerichtet geeignete Managementstrategien mit Blick auf den Umgang mit ihren Beschäftigten einsetzen, werden in bezug auf ihre ökonomische Wertschöpfung als erfolgreicher charakterisiert. Besonders im Bereich Human Resources Management lassen sich erste Belege finden, die es ermöglichen, den ökonomischen Erfolg von Unternehmen kausal auf einzelne Personalmanagementstrategien zurückzuführen. Ziel eigener Untersuchungen in der IT- und Softwarebranche war es, Unternehmenserfolg auf der Grundlage ökonomischer Erfolgsmaße und des subjektiven Erlebens der Beschäftigten in kleinen und mittleren Softwareunternehmen unter besonderer Fokussierung des Human Resources Management und der Unternehmenskultur zu untersuchen.
Die heutige optische Informationsverarbeitung erfordert neue Materialien, die Licht effektiv verarbeiten, steuern und speichern können. Photorefraktive (PR) Materialien sind dafür sehr interessant. In diesen Materialien entsteht bei inhomogener Beleuchtung (z.B. mit einem Intererenzmuster) über Ladungsträgergenerierung und Einfang der Ladungsträger in Fallen ein Raumladungsfeld. Dieses wird über den elektrooptischen Effekt in eine räumliche Modulation des Brechungsindex umgesetzt. Letztendlich führt somit die inhomogene Beleuchtung eines PR-Materials zu einer räumlich variierenden Änderung des Brechungsindex. Vor ca. 10 Jahren wurde entdeckt, dass auch Polymere einen PR-Effekt aufweisen können. Die Ansprechzeit dieser Materialien wird dabei wesentlich durch die Dynamik der Ladungsträger (bestimmt durch Erzeugung, Transport, Einfang in Fallen etc.) begrenzt. Bis zu Beginn dieser Arbeit war es noch nicht gelungen, einen quantitativen Zusammenhang zwischen der Ladungsträgerdynamik und der Ansprechzeit des PR-Effekts experimentell nachzuweisen. In dieser Arbeit wird ein Weg aufgezeigt, durch photophysikalische Experimente unter verschiedenen Beleuchtungsbedingungen alle photophysikalischen Größen experimentell zu bestimmen, die den Aufbau des Raumladungsfelds in organischen photorefraktiven Materialien bestimmen. So konnte durch Experimente unter Beleuchtung mit kurzen Einzelpulsen sowohl die Beweglichkeit der freien Ladungsträger als auch die charakteristischen Parameter flacher Fallen ermittelt werden. Zur Bestimmung der Dichte tiefer Fallen wurde die Intensitätsabhängigkeit des stationären Photostroms untersucht. Durch die analytische Lösung des bestimmenden Gleichungssystems konnte gezeigt werden, dass die Sublinearität der Intensitätsabhängigkeit des Photostroms primär mit dem Verhältnis zwischen Entleerungs- und Einfangkoeffizienten tiefer Fallen korreliert. Zur unabhängigen Bestimmung des Entleerungskoeffizienten der tiefen Fallen wurden Doppelpulsexperimente mit variabler Verzögerungszeit zwischen den Pulsen verwendet. Mit den erhaltenen Parametern konnte dann das untere Limit der zum Aufbau des Raumladungsfelds notwendigen Zeit abgeschätzt werden. Diese Werte wurden mit den gemessenen photorefraktiven Ansprechzeiten verglichen. Es zeigt sich, dass weder die Photogeneration noch der Transport der Ladungsträger die Geschwindigkeit des Aufbaus des Raumladungsfeldes limitiert. Stattdessen konnte erstmals quantitativ nachgewiesen werden, dass die Dynamik des Raumladungsfelds in den hier untersuchten PR-Materialien durch das Füllen tiefer Fallen mit photogenerierten Ladungsträgern bestimmt wird. Dabei spielt das Verhältnis zwischen dem Einfang- und dem Rekombinationskoeffizienten eine wesentliche Rolle. Weiterhin wurde die Dynamik des Aufbaus des Raumladungsfelds bei unterschiedlichen Vorbeleuchtungsbedingungen quantitativ simuliert und mit den experimentellen PR-Transienten verglichen. Die gute Übereinstimmung zwischen den simulierten und gemessenen Transienten erlaubte es abschließend, die kritischen Parameter, die die Dynamik des PR-Effekts in den untersuchten Polymeren begrenzen, zu identifizieren.