Refine
Year of publication
- 2004 (112) (remove)
Document Type
- Doctoral Thesis (112) (remove)
Language
- German (112) (remove)
Is part of the Bibliography
- yes (112)
Keywords
- Anisotropie (2)
- Ellipsometrie (2)
- Energiestoffwechsel (2)
- FMC (2)
- Fluoreszenz (2)
- Modellierung (2)
- Phosphorylierung (2)
- Systemstruktur (2)
- anisotropy (2)
- azobenzene (2)
Institute
- Bürgerliches Recht (12)
- Institut für Physik und Astronomie (11)
- Wirtschaftswissenschaften (11)
- Öffentliches Recht (11)
- Institut für Biochemie und Biologie (8)
- Institut für Chemie (8)
- Department Psychologie (5)
- Institut für Ernährungswissenschaft (5)
- Strafrecht (5)
- Department Linguistik (4)
- Institut für Informatik und Computational Science (4)
- Institut für Umweltwissenschaften und Geographie (4)
- Sozialwissenschaften (4)
- Historisches Institut (3)
- Institut für Germanistik (3)
- Institut für Romanistik (3)
- Department Erziehungswissenschaft (2)
- Department Sport- und Gesundheitswissenschaften (2)
- Institut für Geowissenschaften (2)
- Institut für Jüdische Studien und Religionswissenschaft (2)
- Department Musik und Kunst (1)
- Extern (1)
- Institut für Slavistik (1)
Stereoselektive Synthese von asymmetrisch Benzyl-H-deuterierten Dibenzylbutyrolacton-Lignanzen
(2004)
Zur Bedeutung der urheberrechtlichen Vergütungspflicht von kultischer Kirchenmusik in Deutschland
(2004)
Quantitative Analysen magmatischer Gesteine mittels reflexionsspektroskopischer Infrarot-Messungen
(2004)
Zwischen 1990 und 1994 wurden rund 1000 Liegenschaften, die in der ehemaligen DDR von der Sowjetarmee und der NVA für militärische Übungen genutzt wurden, an Bund und Länder übergeben. Die größten Truppenübungsplätze liegen in Brandenburg und sind heute teilweise in Großschutzgebiete integriert, andere Plätze werden von der Bundeswehr weiterhin aktiv genutzt. Aufgrund des militärischen Betriebs sind die Böden dieser Truppenübungsplätze oft durch Blindgänger, Munitionsreste, Treibstoff- und Schmierölreste bis hin zu chemischen Kampfstoffen belastet. Allerdings existieren auf fast allen Liegenschaften neben diesen durch Munition und militärische Übungen belasteten Bereichen auch naturschutzfachlich wertvolle Flächen; gerade in den Offenlandbereichen kann dies durchaus mit einer Belastung durch Kampfmittel einhergehen. Charakteristisch für diese offenen Flächen, zu denen u.a. Zwergstrauchheiden, Trockenrasen, wüstenähnliche Sandflächen und andere nährstoffarme baumlose Lebensräume gehören, sind Großflächigkeit, Abgeschiedenheit sowie ihre besondere Nutzung und Bewirtschaftung, d.h. die Abwesenheit von land- und forstwirtschaftlichem Betrieb sowie von Siedlungsflächen. Diese Charakteristik war die Grundlage für die Entwicklung einer speziell angepassten Flora und Fauna. Nach Beendigung des Militärbetriebs setzte dann in weiten Teilen eine großflächige Sukzession – die allmähliche Veränderung der Zusammensetzung von Pflanzen- und Tiergesellschaften – ein, die diese offenen Bereiche teilweise bereits in Wald verwandelte und somit verschwinden ließ. Dies wiederum führte zum Verlust der an diese Offenlandflächen gebundenen Tier- und Pflanzenarten. Zur Erhaltung, Gestaltung und Entwicklung dieser offenen Flächen wurden daher von einer interdisziplinären Gruppe von Naturwissenschaftlern verschiedene Methoden und Konzepte auf ihre jeweilige Wirksamkeit untersucht. So konnten schließlich die für die jeweiligen Standortbedingungen geeigneten Maßnahmen eingeleitet werden. Voraussetzung für die Einleitung der Maßnahmen sind zum einen Kenntnisse zu diesen jeweiligen Standortbedingungen, d.h. zum Ist-Zustand, sowie zur Entwicklung der Flächen, d.h. zur Dynamik. So kann eine Abschätzung über die zukünftige Flächenentwicklung getroffen werden, damit ein effizienter Maßnahmeneinsatz stattfinden kann. Geoinformationssysteme (GIS) spielen dabei eine entscheidende Rolle zur digitalen Dokumentation der Biotop- und Nutzungstypen, da sie die Möglichkeit bieten, raum- und zeitbezogene Geometrie- und Sachdaten in großen Mengen zu verarbeiten. Daher wurde ein fachspezifisches GIS für Truppenübungsplätze entwickelt und implementiert. Die Aufgaben umfassten die Konzeption der Datenbank und des Objektmodells sowie fachspezifischer Modellierungs-, Analyse- und Präsentationsfunktionen. Für die Integration von Fachdaten in die GIS-Datenbank wurde zudem ein Metadatenkatalog entwickelt, der in Form eines zusätzlichen GIS-Tools verfügbar ist. Die Basisdaten für das GIS wurden aus Fernerkundungsdaten, topographischen Karten sowie Geländekartierungen gewonnen. Als Instrument für die Abschätzung der zukünftigen Entwicklung wurde das Simulationstool AST4D entwickelt, in dem sowohl die Nutzung der (Raster-)Daten des GIS als Ausgangsdaten für die Simulationen als auch die Nutzung der Simulationsergebnisse im GIS möglich ist. Zudem können die Daten in AST4D raumbezogen visualisiert werden. Das mathematische Konstrukt für das Tool war ein so genannter Zellulärer Automat, mit dem die Flächenentwicklung unter verschiedenen Voraussetzungen simuliert werden kann. So war die Bildung verschiedener Szenarien möglich, d.h. die Simulation der Flächenentwicklung mit verschiedenen (bekannten) Eingangsparametern und den daraus resultierenden unterschiedlichen (unbekannten) Endzuständen. Vor der Durchführung einer der drei in AST4D möglichen Simulationsstufen können angepasst an das jeweilige Untersuchungsgebiet benutzerspezifische Festlegungen getroffen werden.
Eine Nutzung der optischen Anisotropie dünner Schichten ist vor allem für die Displaytechnologie, die optische Datenspeicherung und für optische Sicherheitselemente von hoher Bedeutung. Diese Doktorarbeit befasst sich mit theoretischen und experimentellen Untersuchung von dreidimensionaler Anisotropie und dabei insbesondere mit der Untersuchung von lichtinduzierter dreidimensionaler Anisotropie in organischen dünnen Polymer-Schichten. Die gewonnenen Erkentnisse und entwickelten Methoden können wertvolle Beiträge für Optimierungsprozesse, wie bei der Kompensation der Blickwinkelabhängigkeit von Flüssigkristall-Displays, liefern. Die neue Methode der Immersions-Transmissions-Ellipsometrie (ITE) zur Untersuchung von dünneren Schichten wurde im Rahmen dieser Dissertation entwickelt. Diese Methode gestattet es, in Kombination mit konventioneller Reflexions- und Transmissionsellipsometrie, die absoluten dreidimensionalen Brechungsindices einer biaxialen Schicht zu bestimmen. Erstmals gelang es damit, das dreidimensionale Brechungsindexellipsoid von transparenten, dünneren (150 nm) Filmen hochgenau (drei Stellen hinter dem Komma) zu bestimmen. Die ITE-Methode hat demzufolge das Potential, auch bei noch dünneren Schichten mit Gewinn eingesetzt werden zu können. Die lichtinduzierte Generierung von dreidimensionaler Anisotropie wurde in dünnen Schichten von azobenzenhaltigen und zimtsäurehaltigen, amorphen und flüssig-kristallinen Homo- und Copolymeren untersucht. Erstmals wurden quantitative Untersuchungen zur Änderung von lichtinduzierten, dreidimensionalen Anisotropien in dünnen Schichten von azobenzenhaltigen und zimtsäurehaltigen Polymeren bei Tempern oberhalb der Glastemperatur durchgeführt. Bei vielen der untersuchten Polymere war die dreidimensionale Ordnung nach dem Bestrahlen mit polarisiertem Licht und anschließendem Tempern oberhalb der Glastemperatur scheinbar von der Schichtdicke abhängig. Die Ursache liegt wohl in der, mit der neuentwickelten ITE-Methode detektierten, planaren Ausgangsorientierung der aufgeschleuderten dünneren Schichten. Um Verkippungs-Gradienten in dickeren Polymerschichten in ihrem Verlauf zu bestimmen, wurde eine spezielle Methode unter Benutzung der Wellenleitermoden-Spektroskopie entwickelt. Quantenchemisch bestimmte, maximal induzierbare Doppelbrechungen in flüssig-kristallinen Polymeren wurden mit den experimentell gefundenen Ordnungen verglichen.
Die Hochwasserereignisse der letzten Jahre haben Mängel bei der schnellen Verfügbarkeit des klassischen Darstellungs-, Entscheidungs- und Analyseinstruments Karte offenbart. Die Erfahrungen von 1997 und 2002 verdeutlichen, dass eine homogene digitale Datengrundlage, die neben rein topographischen zusätzlich auch fachspezifische Informationen des Hochwasserschutzes enthält, für eine effektive Bekämpfung solcher Ereignisse notwendig ist. Mit den Daten des ,Amtlichen Topographisch-Kartographischen Informationssystems’ (ATKIS) liegen topographische Basisdaten in graphikfreier Form als digitales Landschaftsmodell (DLM) flächendeckend für die Bundesrepublik vor. Anhand der exemplarischen Ableitung von nutzerorientierten Kartenmodellen aus diesen graphikfreien Daten wurde deren Eignung für den besonderen Verwendungszweck im Rahmen eines Hochwasserschutz-Informationssystems überprüft. Als Anwendungsbeispiel wurde das Gebiet der Ziltendorfer Niederung, die während des Oder-Hochwassers 1997 überflutet wurde, gewählt. In Expertengesprächen wurden zunächst Inhalte identifiziert, die für einen wirksamen Hochwasserschutz Relevanz besitzen; diese Inhalte wurden anschließend analog zum ATKIS-Systemdesign strukturiert und als Objekte eines separaten Objektbereichs im digitalen Fachmodell (DFM) erfasst. Bei der Ableitung von (Bildschirm-) Karten aus den graphikfreien Daten wurden jeweils unterschiedliche Kriterien für die Basiskarte und die Fachinhalte berücksichtigt. Dabei wurden verschiedene kartographische Regeln und Gesetze mit dem Ziel der prägnanten Visualisierung und damit der eindeutigen Lesbarkeit der Karten angewendet. Beispielhaft sei hier die Schaffung einer visuellen Hierarchie zwischen Basiskarte und Fachinhalten genannt. Die besonderen Nutzungsbedingungen von Karten im Einsatzfall erfordern u.a., dass die Karten auch von Personen, die nur über geringe oder keine Erfahrung im Umgang mit Karten verfügen, schnell und einfach zu lesen sind, um so eine sichere Informationsvermittlung zu gewährleisten. Voraussetzung dafür ist einerseits die Beschränkung auf die Darstellung der wesentlichen Inhalte, andererseits die Verwendung leicht lesbarer Kartenzeichen. Aus diesem Grund wurden einheitliche Kartenzeichen zur Darstellung der Fachinhalte entwickelt, die entweder aus allgemein bekannten Symbolen, aus den im Katastrophenschutz üblicherweise verwendeten sog. taktischen Zeichen oder aus Fachzeichen des Hochwasserschutzes abgeleitet wurden. Die entwickelten Kartenmodelle wurden abschließend in qualitativen Experteninterviews in Bezug auf ihre Qualität und Verwendbarkeit im Hochwasserschutz geprüft. Die Auswertung der Interviews ergab eine insgesamt positive Beurteilung der Karten für den Einsatz in Hochwasserschutz-Informationssystemen. Damit leistet die vorliegende Arbeit einen Beitrag zur Entwicklung von (Bildschirm-) Karten zur Unterstützung bei der Entscheidungsfindung im Katastrophenmanagement.
Substanzen der pharmazeutischen und chemischen Industrie müssen nach internationalen Richtlinien auf deren Toxizität gegenüber Mensch und Umwelt geprüft werden. Dazu gehören u. a. Prüfungen zur Vorhersage des embryotoxischen Potentials, die am lebenden Organismus durchgeführt werden. Mit dem Ziel die Anzahl der Tierversuche zu verringern, die notwendig sind um das toxikologische Profil einer Prüfsubstanz zu bestimmen, wurde der Embryonale Stammzelltest (EST) entwickelt. Als Grundlage des EST dienen embryonale Stammzellen (ES-Zellen) einer Zelllinie. ES-Zellen sind Zellen, die sich in der frühen embryonalen Entwicklung in die Zellen der Keimblätter entwickeln können. Daraus wiederum differenzieren die vielen verschiedenen, unterschiedlich spezialisierten Zelltypen des komplexen Organismus. Im EST wird die Konzentration einer Prüfsubstanz bestimmt, bei der die Differenzierung von ES-Zellen zu Herzmuskelzellen zu 50 % inhibiert wird. Zusätzlich wird die Konzentration der Prüfsubstanz bestimm°t, bei der 50 % der ES-Zellen (IC50D3) bzw. Fibroblastenzellen (IC503T3) absterben. Die allgemeine Toxizität ist damit von der spezifischen Toxizität der Prüfsubstanz auf die ES-Zellen und deren Differenzierung unterscheidbar. Die Parameter fliessen in ein biostatistisches Modell zur Prädiktion des embryotoxischen Potentials der Prüfsubstanzen ein. Es wurde ein Versuchsprotokoll entwickelt, wonach die ES-Zellen sich verstärkt zu Endothelzellen differenzieren. Die Endothelzellen, die im lebenden Organismus die Wand der späteren Blutgefässe, wie Venen und Arterien bilden, wurden mittels molekularbiologischer Methoden auf der RNA- und der Protein-Ebene nachgewiesen und quantifiziert. Verschiedene Zellkulturmethoden, Wachstumsfaktoren, als auch Wachstumsfaktorkonzentrationen wurden auf deren Vermögen die Differenzierung der ES-Zellen zu Endothelzellen zu induzieren, untersucht. Nach der Etablierung des Differenzierungsprotokolls wurden sieben Substanzen auf deren Vermögen geprüft, die Differenzierung von ES-Zellen zu Endothelzellen zu inhibieren. Die Endothelzellen wurden dabei über die Expression der RNA von zwei endothelzellspezifischen Genen quantifiziert. Im Vergleich dazu wurden die IC50D3 und die IC503T3 der Prüfsubstanz bestimmt, um eine Abschätzung des embryotoxischen Potentials der Prüfsubstanz zu ermöglichen. Die Ergebnisse zeigten, dass eine Abschätzung des embryotoxischen Potentials der sieben Prüfsubstanzen in nicht-, schwach- oder stark embryotoxisch vorgenommen werden konnte. Es ist zu schlussfolgern, dass der weiterentwickelte in vitro Embryotoxizitätsassay sensitiv und reproduzierbar ist. Mit der Verwendung von verschiedenen Differenzierungsendpunkten kann die Prädiktionskraft des Assays deutlich verbessert, und die Anzahl von Tierversuchen verringert werden. Durch die Verwendung von molekularbiologischen Markern kann der Assay einem Hochdurchsatzscreening zugängig gemacht werden und damit die Anzahl von Prüfsubstanzen deutlich erhöht werden.
Die Autoren untersuchten mit Hilfe einer Fragebogenstudie das Sexualverhalten von StudentenInnen und KrankenpflegeschülernInnen unter der Bedrohung durch AIDS(n = 593). Als Ergebnis lässt sich festhalten, dass unterschiedliche Personengruppen mit unterschiedlichen Einstellungen, mit unterschiedlichem Wissen über HIV und AIDS, mit unterschiedlichem Sexualverhalten sowie einem unterschiedlichen Grad von persönlicher Betroffenheit auf differenzierte Weise angesprochen und zur Prävention angeleitet werden müssen. Die berufliche Nähe zu HIV und AIDS hat keinen Einfluss auf die sexuellen Einstellungen und Verhaltensweisen. Nur durch eine Selbststeuerung kann einer Gefahrensituation, wie sie eine mögliche HIV-Infektion darstellt, begegnet werden. Von daher muss neben der persönlichen Betroffenheit auch die Einsicht gegeben sein, dass ich mich als Individuum eigenständig vor dieser Gefahr schützen kann. Ferner muss dieses Verhalten in die eigene Lebenswelt eingepasst und von der eigenen sozialen Umgebung getragen werden. Präventionsbemühungen müssen auf kompetenzsteigernde, ressourcenorientierte und differenzierte Maßnahmen setzen. Ansätze von Furchtappellen und Lustfeindlichkeit wirken kontraproduktiv. Eine Beschränkung der Prävention auf individuumzentrierte Maßnahmen ist wenig effektiv, sofern gesellschaftliche und strukturelle Bedingungen ausgeblendet werden. Ziel von Sexualpädagogik und AIDS-Präventionsarbeit muss es daher sein, eine von allen geteilte Kommunikationsstruktur für Intimität zu entwickeln.
Die vorliegende Arbeit beschreibt das Verhalten von Polypeptid-Blockcopolymeren in der festen Phase und in selektiven Lösungsmitteln. Blockcopolymere auf Basis von Poly(L-glutaminsäure-5-benzylester) (PBLGlu) oder Poly(Nε-benzoyloxycarbonyl-L-lysin) (PZLLys), die in dieser Arbeit eingesetzt wurden, besitzen wegen ihrer helikalen Sekundärstruktur eine sog. Stäbchen-Knäuel-Geometrie, wobei die Knäuelkomponente Polystyrol oder Polybutadien ist. Die Phasenbildung dieser Blockcopolymere ist durch die Packungseigenschaften des rigiden Blocks beeinflusst. Es wurden bevorzugt lamellare Strukturen gebildet, in denen die Stäbchen parallel angeordnet sind. Das Vorhandensein eines permanenten Dipolmomentes führt zur Wechselwirkung zwischen den Helices und zur Erhöhung des Ordnungsgrades in der Phase. Ein zusätzlicher Parameter, der die Morphologie der Phase beeinflußt, ist die Chiralität der Peptidhelix, durch die chirale Überstrukturen induziert werden. In dünnen Filmen (40 nm), wo die Geometrie begrenzt ist, führt es zu Frustrationen in der Phase. Die dadurch entstandene Spannung wurde durch einen zick-zack-artigen Lamellenverlauf abgebaut. In selektiven Lösungsmitteln für die synthetische Komponente (PS) bilden die Polypeptid-Blockcopolymere vesikuläre Strukturen, deren kugel- oder wurmförmige Geometrie von der Elastizität der Membran abhängig ist. Durch Entfernung der Z-Schutzgruppe kann PZLLys in eine wasserlösliche Form überführt werden, so dass die PB-PLLys Blockcopolymere unter Bildung von Vesikeln in Wasser löslich sind. Dabei ist die Konformation des Peptids vom pH-Wert des Mediums abhängig und kann von einem Knäuel zu einer Helix reversibel geschaltet werden. Beim Modifizieren der Sekundärstruktur wurde eine Änderung der Aggregationszahl beobachtet. Somit können diese Blockcopolymere für die Herstellung von schaltbaren Aggregaten eingesetzt werden.
Gangschwärme nehmen eine bedeutende Stellung im Verständnis zur kontinentalen Fragmentierung ein. Einerseits markieren sie das Paläo-Spannungsfeld und helfen bei der Rekonstruktion der strukturellen Entwicklung der gedehnten Lithosphäre, andererseits gibt ihre petrologische Beschaffenheit Aufschluß über die Entstehung des Magmas, Aufstieg und Platznahme und schließlich erlaubt ihre Altersbestimmung die Rekonstruktion einer chronologischen Reihenfolge magmatischer und struktureller Ereignisse. Das Arbeitsgebiet im namibianischen Henties Bay-Outjo Dike swarm (HOD) war zur Zeit der Unterkreide einem Rifting mit intensiver Platznahme von überwiegend mafischen Gängen unterworfen. Geochemische Signaturen weisen die Gänge als erodierte Förderkanäle der Etendeka Plateaubasalte aus. Durch den Einsatz von hochauflösenden Aeromagnetik- und Satellitendaten war es möglich, die Geometrie des Gangschwarmes erstmals detailliert synoptisch zu erfassen. Viele zu den Schichten des Grundgebirges foliationsparallel verlaufende magnetische Anomalien können unaufgeschlossenen kretazischen Intrusionen zugeordnet werden. Bei der nach Norden propagierenden Südatlantiköffnung spielte die unterschiedliche strukturelle Vorzeichnung durch die neoproterozoischen Faltengürtel sowie Lithologie und Spannungsfeld des Angola Kratons eine bedeutende Rolle. Im küstennahen zentralen Bereich war dank der Vorzeichnung des Nordost streichenden Damara-Faltengürtels ein Rifting in Nordwest-Südost-Richtung dominierend, bis das Angola Kraton ein weiteres Fortscheiten nach Nordosten hemmte und die Vorzeichnung des Nordwest streichenden Kaoko-Faltengürtels an der Westgrenze den weiteren Riftverlauf und die letztendlich erfolgreiche Öffnung des Südatlantiks bestimmte. Aus diesem Grund kann das Gebiet des HOD als ein failed rift betrachtet werden. Die Entwicklung des Spannungsfeldes im HOD kann folgendermaßen skizziert werden: 1. Platznahme von Gängen bei gleichzeitig hoher Dehnungsrate und hohem Magmenfluß. 2. Platznahme von Zentralvulkanen entlang reaktivierter paläozoischer Lineamente bei Abnahme der Dehnungsrate und fortbestehendem hohen Magmenfluß. 3. Abnahme/Versiegen des Magmenflusses und neotektonische Bewegungen führen zur Bildung von Halbgräben.
In einer multiplen Einzelfallstudie mit zehn aphasischen Patienten wurde die Wirksamkeit eines semantischen und eines phonologischen Therapieansatzes zur Behandlung von Wortabrufstörungen verglichen. Detaillierte Einzelfalluntersuchungen ermöglichten die Diagnose der zugrundeliegenden funktionalen Störungen bei jedem Patienten. Auf diese Weise konnten die erzielten Therapieeffekte auf die individuellen kognitiv-neurolinguistischen Störungsmuster bezogen werden. Im Vordergrund der Therapie stand in beiden Ansätzen das mündliche Benennen von Objektabbildungen mit unterschiedlichen Arten von Hilfen. Während in der semantischen Therapie Teilaspekte des semantischen Zielkonzepts als Benennhilfen eingesetzt wurden, handelte es sich bei den phonologischen Hilfen um Teilinformationen der Zielwortform. Bei der Erhebung von spezifischen Therapieeffekten wurde zwischen itemspezifischen und itemübergreifenden Verbesserungen sowie kurz- und langfristigen Effekten auf die mündlichen Benennleistungen unterschieden. Dabei wurden neben den quantitativen Verbesserungen (% korrekt) auch die qualitativen Effekte (Fehlertypen) der beiden Ansätze berücksichtigt, und es wurden Transfereffekte in die Spontansprache der Patienten untersucht. Zusätzlich wurden auch die Soforteffekte der verschiedenen Benennhilfen in den Therapiesitzungen erhoben. Im Methodenvergleich zeigte sich, dass die phonologische Therapiephase kurzfristig bei der Mehrzahl der Patienten signifikante Verbesserungen beim Bildbenennen bewirkte, diese Effekte haben sich jedoch überwiegend als nicht stabil erwiesen. Im Gegensatz dazu erwies sich die semantische Therapiephase auch als langfristig effektiv. Im Unterschied dazu erwiesen sich die phonologischen Benennhilfen bei fast allen Patienten als unmittelbar effektiver als die semantischen Benennhilfen. Somit waren die Soforteffekte der Hilfetypen in den Therapiesitzungen kein sicherer Indikator für die Dauer der Gesamteffekte einer Therapiephase. Außerdem zeigte sich nicht bei allen Patienten ein direkter Zusammenhang zwischen der Art ihrer zugrundeliegenden funktionalen Störung und den erzielten Therapieeffekten. Einerseits profitierten Patienten mit erhaltenen semantischen Verarbeitungsleistungen von der semantischen Therapie, andererseits zeigten sich signifikante phonologische Therapieeffekte bei Patienten mit zentral-semantischen Störungen. Die Wirkmechanismen der beiden Therapieansätze werden unter Berücksichtigung unterschiedlicher kognitiv-neurolinguistischer Theorien zum mündlichen Wortabrufprozess beim Bildbenennen interpretiert.
Die Untersuchung mikrogelinster astronomischer Objekte ermöglicht es, Informationen über die Größe und Struktur dieser Objekte zu erhalten. Im ersten Teil dieser Arbeit werden die Spektren von drei gelinsten Quasare, die mit dem Potsdamer Multi Aperture Spectrophotometer (PMAS) erhalten wurden, auf Anzeichen für Mikrolensing untersucht. In den Spektren des Vierfachquasares HE 0435-1223 und des Doppelquasares HE 0047-1756 konnten Hinweise für Mikrolensing gefunden werden, während der Doppelquasar UM 673 (Q 0142--100) keine Anzeichen für Mikrolensing zeigt. Die Invertierung der Lichtkurve eines Mikrolensing-Kausik-Crossing-Ereignisses ermöglicht es, das eindimensionale Helligkeitsprofil der gelinsten Quelle zu rekonstruieren. Dies wird im zweiten Teil dieser Arbeit untersucht. Die mathematische Beschreibung dieser Aufgabe führt zu einer Volterra'schen Integralgleichung der ersten Art, deren Lösung ein schlecht gestelltes Problem ist. Zu ihrer Lösung wird in dieser Arbeit ein lokales Regularisierungsverfahren angewendet, das an die kausale Strukture der Volterra'schen Gleichung besser angepasst ist als die bisher verwendete Tikhonov-Phillips-Regularisierung. Es zeigt sich, dass mit dieser Methode eine bessere Rekonstruktion kleinerer Strukturen in der Quelle möglich ist. Weiterhin wird die Anwendbarkeit der Regularisierungsmethode auf realistische Lichtkurven mit irregulärem Sampling bzw. größeren Lücken in den Datenpunkten untersucht.
Ziel dieser Arbeit ist es, ein sequentielles Extraktionsverfahren zur Erfassung unterschiedlich stabiler Anteile der orgnischen Bodensubstanz (OBS) zu entwickeln und zu klären, ob ein Zusammenhang zwischen Löslichkeit und Stabilität besteht. Darüber hinaus sollen der Einfluss von Bewirtschaftungsmaßnahmen auf Menge und Zusammensetzung dieser OBS-Anteile und Zusammenhänge zwischen Fourier Transform Infrarot (FT-IR)-Spektroskopiedaten und der Kationenaustauschkapazität (KAK) der OBS analysiert werden. Für die Untersuchungen wurden Böden der Langzeitfeldexperimente (LFE) in Halle, Bad Lauchstädt und Rotthalmünster beprobt. Zur Erfassung unterschiedlicher OBS-Fraktionen wurden im ersten Schritt die wasserlöslichen OBS-Anteile (OBS(W)-Fraktion) aus den Böden isoliert. Im zweiten Schritt wurden aus den Extraktionsrückständen der Wasserextraktion OBS-Anteile mit einer Natrium (Na)-Pyrophosphatlösung extrahiert (OBS(PY)-Fraktion). Die Stabilität der OBS-Fraktionen wurde anhand von δ13C-Bestimmungen und 14C-Messungen untersucht. Die Charakterisierung der Zusammensetzung der OBS-Fraktionen erfolgte mittels FT-IR Spektroskopie. Generell wird mit der OBS(PY)-Fraktion ein größerer Anteil am organischen Kohlenstoffgehalt der Böden erfasst als mit der OBS(W)-Fraktion. Die δ13C- und 14C-Daten zeigen, dass die OBS(W)-Fraktion höhere Anteile jungen organischen Materials als die OBS(PY)-Fraktion enthält. Das entwickelte sequentielle Extraktionsverfahren ist also prinzipiell geeignet unterschiedlich stabile OBS-Anteile anhand ihrer Löslichkeit zu isolieren. Mittels FT-IR spektroskopischer Untersuchungen wird festgestellt, dass Bewirtschaftungsmaßnahmen, wie die Düngung, sowie Standorteigenschaften die Zusammensetzung der OBS-Fraktionen beeinflussen. Für die OBS(PY)-Fraktion ist dies stärker ausgeprägt als für die OBS(W)-Fraktion. Die KAK der OBS(PY)-Fraktion aus den Böden der LFE in Halle und Bad Lauchstädt ist positiv mit der Absorptionsintensität der C=O-Bande in den FT-IR Spektren dieser OBS-Fraktion korreliert.
Die immunologische Kontrazeption mittels Zona pellucida (ZP) Proteinen gilt als vielversprechender Ansatz für die Reproduktionskontrolle verwilderter Haus- und Wildtierbestände. Da die Applikation von nativer ZP mit Nebenwirkungen verbunden ist, wird die Verwendung einzelner ZP Peptide als Bestandteil kontrazeptiver Vakzine als besonders aussichtsreich erachtet. Das Prinzip dieser nebenwirkungsfreien ZP Immunisierung ist die gezielte Trennung der Entzündungsreaktionen auslösenden T-Zell-Epitope der ZP von den kontrazeptiv wirkenden B-Zell-Epitopen. Niedermolekulare synthetische oder rekombinante Peptide allein sind gering immunogen und können somit keine ausreichende Immunantwort induzieren. Die Verwendung von Peptiden für die immunologische Kontrazeption erfordert daher ein „Vakzin-Design“, d. h. die gezielte Kombination der Peptide mit immunstimulierenden Substanzen (Liposomen, Carrierproteinen, Adjuvantien). Zielstellung der vorliegenden Arbeit war die Untersuchung des Potentials synthetischer Peptide für die Immunokontrazeption von verwilderten Hauskatzen (Felis catus). Dazu wurden zunächst relevante B-Zell-Epitope des felinen Zona pellucida Proteins, ZPB2, identifiziert und synthetisiert. Zwei der synthetischen Peptide (P3, P6) wurden zur Herstellung von Antikörpern an BSA konjugiert und zusammen mit Freundschem Adjuvans in Ratten verimpft. Die kontrazeptive Relevanz beider Peptide sowie der Ratten Anti-Peptid Antiseren wurde im in vitro Befruchtungssystem der Hauskatze geprüft. Zur Untersuchung der Immunogenität der Peptide in der Zielspezies Hauskatze erfolgte die Entwicklung von Vakzin-Prototypen für die einmalige Applikation. Neben der Eruierung der Stärke und Dauer der Immunantwort wurde durch Verpaarung der Tiere auch das kontrazeptive Potential in vivo abgeschätzt.
Identifikation des mitochondrialen Proteins Frataxin als stoffwechselmodulierenden Tumorsuppressor
(2004)
Die Krebsentstehung wurde vor rund 80 Jahren auf veränderten zellulären Energiestoffwechsel zurückgeführt. Diese Hypothese konnte bisher weder experimentell bewiesen noch widerlegt werden. Durch den Einsatz zweier Modellsysteme mit unterschiedlicher Expression des mitochondrialen Proteins Frataxin konnte in der vorliegenden Arbeit gezeigt werden, dass der mitochondriale Energiestoffwechsel einen Einfluss auf die Tumorentstehung zu besitzen scheint. Eine Reduktion des mitochondrialen Energiestoffwechsels wurde durch die hepatozytenspezifische Ausschaltung des mitochondrialen Proteins Frataxin in Mäusen erreicht. Der durch das Cre-/loxP-Rekombinasesystem erreichte organspezifische Knock-out wurde auf Transkriptions- und Translationsebene nachgewiesen. Anhand verminderter Aconitaseaktivität, geringeren Sauerstoffverbrauches und reduzierten ATP-Gehaltes im Lebergewebe wurde ein signifikant verminderter Energiestoffwechsel dargestellt. Zwar entsprach die Genotypenverteilung in den Versuchsgruppen der erwarteten Mendelschen Verteilung, dennoch war die mittlere Lebenserwartung der Knock-out-Tiere mit ca. 30 Wochen stark reduziert. Bereits in jungem Alter war bei diesen Tieren die Ausbildung von präneoplastischen Herden zu beobachten. Mit proteinbiochemischen Nachweistechniken konnte in Lebergewebe 4-8 Wochen alter Tiere eine verstärkte Aktivierung des Apoptosesignalweges (Cytochrom C im Zytosol, verstärkte Expression von Bax) sowie eine Modulation stressassoziierter Proteine (geringere Phosphorylierungsrate p38-MAPK, vermehrte Expression HSP-25, verminderte Expression HSP-70) aufgezeigt werden. Im inversen Ansatz wurde eine Steigerung des mitochondrialen Energiestoffwechsels durch stabile transgene Frataxinüberexpression in zwei Kolonkarzinomzelllinien erreicht. Diese Steigerung zeigte sich durch erhöhte Aconitaseaktivität, erhöhten Sauerstoffverbrauch, gesteigertes mitochondriales Membranpotenzial und erhöhten ATP-Gehalt in den Zellen. Die frataxinüberexprimierenden Zellen wuchsen signifikant langsamer als Kontrollzellen und zeigten im Soft-Agar-Assay und im Nacktmausmodell ein deutlich geringeres Potenzial zur Ausbildung von Kolonien bzw. Tumoren. Mittels Immunoblot war hier eine vermehrte Phosphorylierung der p38-MAPK festzustellen. Die zusammenfassende Betrachtung beider Modelle zeigt, dass ein reduzierter mitochondrialer Energiestoffwechsel durch Regulation der p38-MAPK und apoptotischer Signalwege ein erhöhtes Krebsrisiko zu verursachen vermag.
Die Fusion von Membranen ist ein entscheidender Prozeß bei der Entwicklung von Zellen im Körper. Beispielsweise ist sie eine der Voraussetzungen bei der Befruchtung einer Eizelle durch ein Spermium oder für das Eindringen von Viren in eine Zelle. Membranfusion ist auch notwendig für den Stofftransport in die Zelle hinein oder aus ihr heraus. Die Membranfusion ist daher auch von praktischen Interesse auf den Gebieten der Pharmazeutik und des 'Bioengineering'. Oft muss eine Membran mit der infiziertin Zelle fusionieren, um ein Medikament an sein Zeil zu bringen. Deshalb ist ein Verständnis der Membranfusion von großem Interesse für die Entwicklung von gezielten und effizienten Methoden des 'drug delivery'. Dasselbe gilt für die gezielte Zufuhr von Genen bei der Gentherapie. Obwohl die Membranfusion schon vor nahezu 200 Jahren von dem deutschen Biologen und Mediziner Johannes Müller beobachtet wurde, liegt ein vollständiges Verständnis des Fusionsprozesses von Zellen und (Modell-) Membranen auch heute noch in weiter Ferne. Allerdings hat im letzten Jahrzehnt das Interesse für dieses Forschungsgebiet stark zugenommen. Wissenschaftler der unterschiedlichsten Disziplinen arbeiten daran, die Mechanismen der Membranfusion aufzudecken. Biologen untersuchen Proteine, die die Fusion auslösen, Chemiker entwickeln Moleküle, die die Fusion erleichtern, und Physiker versuchen die Antriebsmechanismen der Membranfusion zu verstehen. Neue Mikroskopietechniken und die hohe Rechenleistung moderner Computer helfen die molekulare und die makroskopische Welt der Membranfusion in einem Bild zusammenzufügen. Für unsere Untersuchungen haben wir Modellmembranen, die aus Lipiddoppelschichten bestehen, benutzt. Diese Membranen formen sogenannte Vesikel oder Liposomen, abgeschlossene Membrane, in denen eine bestimmte Menge an Flüssigkeit enthalten ist. Indem wir Rezeptoren in die Membran einbringen, schaffen wir funkionalisierte Vesikel, die sich differenzieren, kooperieren und selektiv reagieren können. Wir benutzen positiv geladene wasserlösliche Ionen, um Wechselwirkungen zwischen den Vesikeln zu vermitteln, und lassen die Rezeptoren und die Ionen den Fusionsprozess auslösen. Die Wechselwirkungen werden unter dem Mikroskop durch spezielle Mikromechanischn Gerätz Mikromechinerien kontrolliert. Mit Hilfe einer sehr schnellen digitale Bildaufnahmetechnik ist es uns gelungen, die Fusion unserer Modellmembranen aufzunehmen und in Echtzeit zu dokumentieren mit einer Auflösung von 50 µs. Unsere Messungen können vergleichen werden mit Computersimulationen des Fusionsprozesses. Diese Simulationen untersuchen Prozesse, die zwischen 0.1 und 1 Mikrosekunde dauern. Eine Herausforderung für die Zukunft wird es sein, die Lücke zwischen den in Experimenten (50µs) und den in Simulationen zugänglichen Zeitskalen von beiden Seiten her zu schließen.
Im Mittelpunkt dieser Arbeit standen Signaltransduktionsprozesse in den Strukturen der Kraftübertragung quergestreifter Muskelzellen, d. h. in den Costameren (Zell-Matrix-Kontakten) und den Glanzstreifen (Zell-Zell-Kontakten der Kardiomyozyten).Es ließ sich zeigen, dass sich die Morphologie der Zell-Matrix-Kontakte während der Differenzierung von Skelettmuskelzellen dramatisch ändert, was mit einer veränderten Proteinzusammensetzung einhergeht. Immunfluoreszenz-Analysen von Skelettmuskelzellen verschiedener Differenzierungsstadien implizieren, dass die Signalwege, welche die Dynamik der Fokalkontakte in Nichtmuskelzellen bestimmen, nur für frühe Stadien der Muskeldifferenzierung Relevanz haben können. Ausgehend von diesem Befund wurde begonnen, noch unbekannte Signalwege zu identifizieren, welche die Ausbildung von Costameren kontrollieren: In den Vorläuferstrukturen der Costamere gelang es, eine transiente Interaktion der Proteine Paxillin und Ponsin zu identifizieren. Biochemische Untersuchungen legen nahe, dass Ponsin über eine Skelettmuskel-spezifische Insertion im Carboxyterminus das Adapterprotein Nck2 in diesen Komplex rekrutiert. Es wird vorgeschlagen, dass die drei Proteine einen ternären Signalkomplex bilden, der die Umbauvorgänge der Zell-Matrix-Kontakte kontrolliert und dessen Aktivität von mitogen activated protein kinases (MAPK) reguliert wird.Die Anpassungsvorgänge der Strukturen der Kraftübertragung an pathologische Situtation (Kardiomyopathien) in der adulten quergestreiften Muskulatur wurden ausgehend von einem zweiten Protein, dem muscle LIM protein (MLP), untersucht. Es konnte gezeigt werden, dass ein mutiertes MLP-Protein, das im Menschen eine hypertrophe Kardiomyopathie (HCM) auslöst, strukturelle Defekte aufweist und weniger stabil ist. Weiterhin zeigte dieses mutierte Protein eine verringerte Bindungsfähigkeit an die beiden Liganden N-RAP und alpha-Actinin. Die molekulare Grundlage der HCM-verursachenden Mutationen im MLP-Gen könnte folglich eine Veränderung der Homöostase im ternären Komplex MLP – N-RAP – alpha-Actinin sein. Die Expressionsdaten eines neu generierten monoklonalen MLP-Antikörpers deuten darauf hin, dass die Funktionen des MLP nicht nur für die Integrität des Myokards, sondern auch für die der Skelettmuskulatur notwendig sind.
Gerade in den letzten Jahren erfuhr Open Source Software (OSS) eine zunehmende Verbreitung und Popularität und hat sich in verschiedenen Anwendungsdomänen etabliert. Die Prozesse, welche sich im Kontext der OSS-Entwicklung (auch: OSSD – Open Source Software-Development) evolutionär herausgebildet haben, weisen in den verschiedenen OSS-Entwicklungsprojekten z.T. ähnliche Eigenschaften und Strukturen auf und auch die involvierten Entitäten, wie z.B. Artefakte, Rollen oder Software-Werkzeuge sind weitgehend miteinander vergleichbar. Dies motiviert den Gedanken, ein verallgemeinerbares Modell zu entwickeln, welches die generalisierbaren Entwicklungsprozesse im Kontext von OSS zu einem übertragbaren Modell abstrahiert. Auch in der Wissenschaftsdisziplin des Software Engineering (SE) wurde bereits erkannt, dass sich der OSSD-Ansatz in verschiedenen Aspekten erheblich von klassischen (proprietären) Modellen des SE unterscheidet und daher diese Methoden einer eigenen wissenschaftlichen Betrachtung bedürfen. In verschiedenen Publikationen wurden zwar bereits einzelne Aspekte der OSS-Entwicklung analysiert und Theorien über die zugrundeliegenden Entwicklungsmethoden formuliert, aber es existiert noch keine umfassende Beschreibung der typischen Prozesse der OSSD-Methodik, die auf einer empirischen Untersuchung existierender OSS-Entwicklungsprojekte basiert. Da dies eine Voraussetzung für die weitere wissenschaftliche Auseinandersetzung mit OSSD-Prozessen darstellt, wird im Rahmen dieser Arbeit auf der Basis vergleichender Fallstudien ein deskriptives Modell der OSSD-Prozesse hergeleitet und mit Modellierungselementen der UML formalisiert beschrieben. Das Modell generalisiert die identifizierten Prozesse, Prozessentitäten und Software-Infrastrukturen der untersuchten OSSD-Projekte. Es basiert auf einem eigens entwickelten Metamodell, welches die zu analysierenden Entitäten identifiziert und die Modellierungssichten und -elemente beschreibt, die zur UML-basierten Beschreibung der Entwicklungsprozesse verwendet werden. In einem weiteren Arbeitsschritt wird eine weiterführende Analyse des identifizierten Modells durchgeführt, um Implikationen, und Optimierungspotentiale aufzuzeigen. Diese umfassen beispielsweise die ungenügende Plan- und Terminierbarkeit von Prozessen oder die beobachtete Tendenz von OSSD-Akteuren, verschiedene Aktivitäten mit unterschiedlicher Intensität entsprechend der subjektiv wahrgenommenen Anreize auszuüben, was zur Vernachlässigung einiger Prozesse führt. Anschließend werden Optimierungszielstellungen dargestellt, die diese Unzulänglichkeiten adressieren, und ein Optimierungsansatz zur Verbesserung des OSSD-Modells wird beschrieben. Dieser Ansatz umfasst die Erweiterung der identifizierten Rollen, die Einführung neuer oder die Erweiterung bereits identifizierter Prozesse und die Modifikation oder Erweiterung der Artefakte des generalisierten OSS-Entwicklungsmodells. Die vorgestellten Modellerweiterungen dienen vor allem einer gesteigerten Qualitätssicherung und der Kompensation von vernachlässigten Prozessen, um sowohl die entwickelte Software- als auch die Prozessqualität im OSSD-Kontext zu verbessern. Desweiteren werden Softwarefunktionalitäten beschrieben, welche die identifizierte bestehende Software-Infrastruktur erweitern und eine gesamtheitlichere, softwaretechnische Unterstützung der OSSD-Prozesse ermöglichen sollen. Abschließend werden verschiedene Anwendungsszenarien der Methoden des OSS-Entwicklungsmodells, u.a. auch im kommerziellen SE, identifiziert und ein Implementierungsansatz basierend auf der OSS GENESIS vorgestellt, der zur Implementierung und Unterstützung des OSSD-Modells verwendet werden kann.
Interaktive System sind dynamische Systeme mit einem zumeist informationellen Kern, die über eine Benutzungsschnittstelle von einem oder mehreren Benutzern bedient werden können. Grundlage für die Benutzung interaktiver Systeme ist das Verständnis von Zweck und Funktionsweise. Allein aus Form und Gestalt der Benutzungsschnittstelle ergibt sich ein solches Verständnis nur in einfachen Fällen. Mit steigender Komplexität ist daher eine verständliche Beschreibung solcher Systeme für deren Entwicklung und Benutzung unverzichtbar. Abhängig von ihrem Zweck variieren die Formen vorgefundener Beschreibungen in der Literatur sehr stark. Ausschlaggebend für die Verständlichkeit einer Beschreibung ist jedoch primär die ihr zugrundeliegende Begriffswelt. Zur Beschreibung allgemeiner komplexer diskreter Systeme - aufbauend auf einer getrennten Betrachtung von Aufbau-, Ablauf- und Wertestrukturen - existiert eine bewährte Begriffswelt. Eine Spezialisierung dieser Begriffs- und Vorstellungswelt, die den unterschiedlichen Betrachtungsebenen interaktiver Systeme gerecht wird und die als Grundlage beliebiger Beschreibungsansätze interaktiver Systeme dienen kann, gibt es bisher nicht. Ziel dieser Arbeit ist die Bereitstellung einer solchen Begriffswelt zur effizienten Kommunikation der Strukturen interaktiver Systeme. Dadurch soll die Grundlage für eine sinnvolle Ergänzung bestehender Beschreibungs- und Entwicklungsansätze geschaffen werden. Prinzipien der Gestaltung von Benutzungsschnittstellen, Usability- oder Ergonomiebetrachtungen stehen nicht im Mittelpunkt der Arbeit. Ausgehend von der informationellen Komponente einer Benutzungsschnittstelle werden drei Modellebenen abgegrenzt, die bei der Betrachtung eines interaktiven Systems zu unterscheiden sind. Jede Modellebene ist durch eine typische Begriffswelt gekennzeichnet, die ihren Ursprung in einer aufbauverwurzelten Vorstellung hat. Der durchgängige Bezug auf eine Systemvorstellung unterscheidet diesen Ansatz von dem bereits bekannten Konzept der Abgrenzung unterschiedlicher Ebenen verschiedenartiger Entwurfsentscheidungen. Die Fundamental Modeling Concepts (FMC) bilden dabei die Grundlage für die Findung und die Darstellung von Systemstrukturen. Anhand bestehender Systembeschreibungen wird gezeigt, wie die vorgestellte Begriffswelt zur Modellfindung genutzt werden kann. Dazu wird eine repräsentative Auswahl vorgefundener Systembeschreibungen aus der einschlägigen Literatur daraufhin untersucht, in welchem Umfang durch sie die Vorstellungswelt dynamischer Systeme zum Ausdruck kommt. Defizite in der ursprünglichen Darstellung werden identifiziert. Anhand von Alternativmodellen zu den betrachteten Systemen wird der Nutzen der vorgestellten Begriffswelt und Darstellungsweise demonstriert.
Ziel der vorliegenden Arbeit war es, mittels des Aufgabenwechselparadigmas, kognitive Prozesse nicht nur anhand von traditionellen Leistungsparametern, sondern zusätzlich durch elektro-physiologische Parameter zu untersuchen. Parameter ereigniskorrelierter Hirnpotentiale (EKP) wurden ebenfalls zur Einschätzung von altersbedingten Änderungen bei der Ausführung von Reaktionszeitaufgaben herangezogen. Nach Rubinstein et al. (2001) setzt sich die Reaktionszeit aus der Dauer seriell angeordneter Verarbeitungsstufen zusammen. Im Stufenmodell der exekutiven Kontrolle von Rubinstein et al. (2001) sind Prozesse der ausführenden Kontrolle nur an Wechseltrials beteiligt und können getrennt von den Aufgabenprozessen ablaufen. Mittels der Informationen zu den Reaktionszeiten ist es jedoch nicht möglich zu klären, auf welche kognitiven Verarbeitungsprozesse Reaktionszeitunterschiede unter den jeweiligen experimentellen Bedingungen zurückzuführen sind. Zur Analyse der kognitiven Prozesse wurden in dieser Untersuchung die CNV und P300 herangezogen. Es wurden zwei Altersgruppen (20-30 Jährige und 49-61 Jährige) untersucht. Den Probanden wurden Ziffern präsentiert, die entweder nach dem numerischen Wert oder der Schriftgröße mit dem Hinweisreiz, der Zahl 5, verglichen werden sollten. Die Stimuli wurden nach dem Alternating-Runs-Paradigma dargeboten (Rogers und Monsell, 1995). Erwartungsgemäß gab es Reaktionszeitunterschiede zwischen alt und jung mit längeren Reaktionszeiten für die älteren Probanden. Altersunterschiede in den Fehlerraten ließen sich nicht nachweisen. Möglicherweise erfolgte die Reaktionsauswahl bei den Älteren überlegter aus als bei den Jüngeren. Dies spiegelte sich in längeren aber fehlerfreien Reaktionen wider. Vermutlich bereiteten jedoch alle Probanden in dem Intervall zwischen Cue und Stimulus das jeweilige Aufgabenset komplett vor. Das könnte auch erklären, warum es bei einem Aufgabenwechsel nicht zu einem Anstieg der Reaktionszeit und der Fehlerrate kam. Entgegen der Erwartung zeigten sich keine Wechselkosten. Teilweise wurden inverse Wechselkosten nachgewiesen. In Bezug auf die Wechselkosten konnte das Stufenmodell der exekutiven Kontrolle (Rubinstein et al., 2001) nicht bestätigt werden. Der explizite Hinweisreiz scheint allerdings Einfluss auf die Wechselkosten zu haben. Verschiedene Erklärungsansätze werden diskutiert. Die Contingent Negative Variation ist wie erwartet vor einem Aufgabenwechsel größer als vor einer Aufgabenwiederholung. Durch den Hinweisreiz ist eine erhöhte Kapazität vorhanden. Entsprechend den Ergebnissen der CNV kann davon ausgegangen werden, dass ältere Erwachsene stärker von der Vorinformation zu profitieren scheinen als jüngere Erwachsene. Die älteren Erwachsenen beginnen im Gegensatz zu den jüngeren Erwachsenen offenbar eher mit der Vorbereitung. Zeitdruck und Aufgabenwechsel lösen eine stärkere P300 aus. Demzufolge scheinen Zeitdruck und Aufgabenwechsel einen erhöhten Kapazitätsbedarf zu erfordern. Im Sinne des Stufenmodells der exekutiven Kontrolle von Rubinstein et al. (2001) führt die Zielverschiebung bei einem Aufgabenwechsel zu einer größeren P300. Die Resultate der hier dargestellten Untersuchungen verdeutlichen, dass ältere Erwachsene einen höheren zeitlichen Aufwand in den Stufen der einzelnen exekutiven Prozesse benötigen. Dies spricht für die Hypothese der selektiven Verlangsamung. Ältere kompensieren dies durch einen höheren Aufwand in der Vorbereitung, was auf elektrokortikaler Ebene nachweisbar ist, sind aber nicht in der Lage, dies in den Reaktionszeiten umzusetzen. Die Ergebnisse dieser Untersuchung unterstützen die vereinfachte Annahme von Rubinstein et al. (2001), nach dem die Teilprozesse der Reaktionszeit seriell verarbeitet werden können. Die Resultate lassen allerdings den Schluss zu, dass die Wechselkosten im Hinblick auf die Reaktionszeiten nicht der geeignete Parameter für die Messung der exekutiven Kontrolle sind. Die vorgeschlagene Modifikation des Modells von Rubinstein et al. (2001) in der Vorbereitung auf eine Aufgabe gilt es in weiteren Untersuchungen zu bestätigen und die Möglichkeit der Anwendung auf alle Aspekte der exekutiven Kontrollprozesse zu prüfen.
Für ein tiefergehendes Verständnis von Entwicklung und Funktion der quergestreiften Muskulatur ist eine Betrachtung der am Aufbau der Myofibrillen, den kontraktilen Organellen, beteiligten Proteine essentiell. Die vorliegende Arbeit beschäftigt sich mit Myomesin, einem Protein der sarkomeren M-Bande. Zunächst wurde die cDNA des humanen Myomesins vollständig kloniert, sequenziert und nachfolgend die komplette Größe der aminoterminalen Kopfdomäne bestimmt. Es konnte gezeigt werden, daß Myomesin in vitro mit den Domänen 1 und 12 an Myosin bindet. Die muskelspezifische Isoform der Kreatinkinase bindet an die Domänen 7 und 8. Stimulations- und Inhibitionsexperimente belegen, daß Myomesin an Serin 618 in vivo durch die Proteinkinase A phosphoryliert wird und daß diese Phosphorylierung durch Aktivierung beta2-adrenerger Rezeptoren stimulierbar ist. In Muskelgewebeproben von Patienten, die an der Hypertrophen Kardiomyopathie, einer genetisch bedingten Herzmuskelkrankheit, erkrankt sind, konnte mit einem neu hergestellten phosphorylierungsabhängigen Antikörper eine Verminderung der Menge phosphorylierten Myomesins nachgewiesen werden. Mögliche Ursachen werden diskutiert. Myomesin bildet Dimere, wie durch hefegenetische und biochemische Experimente gezeigt werden konnte. Die Dimerisierung von Myomesin könnte eine zentrale Rolle für den Einbau der Myosinfilamente in die naszierende Myofibrille haben. Anhand der gewonnenen Daten wurde ein verbessertes Modell der zentralen M-Bande erstellt.
Zur Beherrschung großer Systeme, insbesondere zur Weitergabe und Nutzung von Erfahrungswissen in der frühen Entwurfs- und Planungsphase, benötigt man Abstraktionen für deren Strukturen. Trennt man Software- von Systemstrukturen, kann man mit letzteren Systeme auf ausreichend hohem Abstraktionsgrad beschreiben.Software-Patterns dienen dazu, Erfahrungswissen bezüglich programmierter Systeme strukturiert weiterzugeben. Dabei wird unterschieden zwischen Idiomen, die sich auf Lösungen mit einer bestimmten Programmiersprache beziehen, Design-Patterns, die nur einen kleinen Teil des Programms betreffen und Architektur-Patterns, deren Einfluss über einen größeren Teil oder gar das komplette Programm reicht. Eine Untersuchung von existierenden Patterns zeigt, dass deren Konzepte nützlich zum Finden von Systemstrukturen sind. Die grafische Darstellung dieser Patterns ist dagegen oft auf Software-Strukturen eingeschränkt und ist für die Vermittlung von Erfahrungen zum Finden von Systemstrukturen meist nicht geeignet. Daher wird die Kategorie der konzeptionellen Patterns mit einer darauf abgestimmten grafischen Darstellungsform vorgeschlagen, bei denen Problem und Lösungsvorschlag im Bereich der Systemstrukturen liegen. Sie betreffen informationelle Systeme, sind aber nicht auf Lösungen mit Software beschränkt. Die Systemstrukturen werden grafisch dargestellt, wobei dafür die Fundamental Modeling Concepts (FMC) verwendet werden, die zur Darstellung von Systemstrukturen entwickelt wurden.
Im Kontext der Herausforderungen globalwirtschaftlich orientierter Entwicklungen in der Gesellschaft gestalten Schulen zunehmend ihren eigenen Handlungs- und Strukturrahmen. Dieser lässt sich auch im Bildungsbereich mit 'Profilbildung' umschreiben: Schulen geben sich eine eigene Identität, mit der sie sich - auch für Außenstehende erkennbar - von anderen Schulen abheben möchten. Ziel der Untersuchung zur musikalisch-ästhetischen Profilierung soll die Beantwortung der Grundsatzfrage sein, wie der subjektive und objektive Handlungs- und Strukturrahmen einer musikalisch-ästhetischen Profilbildung beschaffen sein muss, damit sie von einer Schule erfolgreich betrieben werden kann. Die Verfasserin hebt hervor, dass es keinen einheitlichen Weg für diese Profilbestrebung geben kann und wird. Rechtliche Wege eröffnen Chancen und Hilfen hinsichtlich einer musikalisch- ästhetischen Profilbildung. Sie ist nachhaltig und in ihrer Dimension sogar eine 'Selbsthilfe', damit Schule ihre eigene Rolle in der Bildungspolitik definiert.
Entsprechend der sogenannten Set-point-Theorie besitzt jeder Mensch eine individuell festgelegte Körpermasse, die über große Zeiträume konstant gehalten und gegen Abweichungen verteidigt wird. Es wird angenommen, dass der Körper auf noch unbekannte Weise Änderungen in der Körpermasse per se wahrnimmt und daraufhin Mechanismen aktiviert, die zur Regenerierung der ursprünglichen Masse führen. In dieser Arbeit wurde die Hypothese getestet, dass eine künstliche Erhöhung der Körpermasse zu einer kompensatorischen Reduktion in der Körpermasse führt, um das Ausgangsgewicht wieder zu regenerieren. Die Körpermasse von männlichen und weiblichen Mäusen wurde akut durch die Implantation von Gewichten mit einer Masse von 10% der aktuellen Körpermasse in die Bauchhöhle erhöht. Bei Gültigkeit der Set-point-Theorie sollte die Körpermassereduktion der Masse des zusätzlichen Gewichtsimplantats entsprechen. Die Mäuse reagierten auf die künstlich erhöhte Körpermasse geschlechtsspezifisch. Männchen zeigten eine partielle Reduktion in der Körpermasse. Weibchen zeigten langfristig jedoch keine Änderungen in der Körpermasse. Die Reduktion der Körpermasse erfolgte bei den Männchen durch eine Abnahme in der Fettmasse. Die fettfreie Masse war in beiden Geschlechtern nicht verändert. Änderungen in der Körpermasse wurden vor allem durch Änderungen in der Energieaufnahme hervorgerufen. Ein Einfluss des Energieumsatzes auf Änderungen in der Körpermasse konnte nicht nachgewiesen werden. Die Regulation der Körpermasse entsprechend eines massespezifischen Set-points konnte partiell für die Männchen gezeigt werden. Bei den Männchen könnte daher die Wahrnehmung der Körpermasse in die Regulation der Körpermasse teilweise integriert sein. Weibchen verminderten ihre Körpermasse dagegen trotz der künstlichen Körpermasseerhöhung nicht. Das führte zur Bewahrung der Energiereserven und spricht eher für die Regulation der Körpermasse entsprechend des notwendigen Energiebedarfs im Vergleich zu Änderungen in der Körpermasse per se. Diese Ergebnisse zeigen, dass die Regulation der Körpermasse geschlechtsspezifischen Mechanismen unterliegt. Dementsprechend sind auch geschlechtsspezifische Ansätze zur Therapie von Übergewicht und Adipositas notwendig.
Ziel der vorliegenden Arbeit war die Entwicklung einer SNP-Genotypisierungsmethode mit auf Mikroarrays immobilisierten PCR-Produkten. Für die Analyse wurde ein faseroptischer Affinitätssensor bzw. ein Durchfluss-Biochip-Scanner mit integrierter Fluoreszenzdetektion verwendet. An den immobilisierten Analyten (PCR-Produkten) wurde eine Fluoreszenzoligonukleotidsonde hybridisiert und anschließend die Dissoziation der Sonde im Fluss verfolgt. Die Diskriminierung von Wildtyp- und Mutanten-DNA erfolgte durch die kinetische Auswertung der Dissoziationskurven sowie durch die Analyse der Fluoreszenzintensität. Die Versuche am faseroptischen Affinitätssensor zeigten, dass DNA-DNA-Hybride sowohl von Oligonukleotiden als auch von PCR-Produkten ein typisches Dissoziationsverhalten aufweisen, wobei fehlgepaarte Hybride eine signifikant schnellere Dissoziation zeigen als perfekt passende Hybride. Dieser Geschwindigkeitsunterschied lässt sich durch den Vergleich der jeweiligen kinetischen Geschwindigkeitskonstanten kD quantitativ erfassen. Da die Kopplung des Analyten an der Chipoberfläche sowie die Hybridisierungs- und Dissoziationsparameter essentiell für die Methodenentwicklung war, wurden die Parameter für ein optimales Spotting und die Immobilisierung von PCR-Produkten ermittelt. Getestet wurden die affine Kopplung von biotinylierten PCR-Produkten an Streptavidin-, Avidin- und NeutrAvidin-Oberflächen sowie die kovalente Bindung von phosphorylierten Amplifikaten mit der EDC/Methylimidazol-Methode. Die besten Ergebnisse sowohl in Spotform und -homogenität als auch im Signal/Rausch-Verhältnis wurden an NeutrAvidin-Oberflächen erreicht. Für die Etablierung der Mikroarray-Genotypisierungsmethode durch kinetische Analyse nach einem Hybridisierungsexperiment wurden Sondenlänge, Puffersystem, Spotting-Konzentration des Analyten sowie Temperatur optimiert. Das Analysensystem erlaubte es, PCR-Produkte mit einer Konzentration von 250 ng/µl in einem HEPES-EDTA-NaCl-Puffer auf mit NeutrAvidin beschichtete Glasträger zu spotten. In den anschließenden Hybridisierungs- und Dissoziationsexperimenten bei 30 °C konnte die Diskriminierung von homocygoter Wildtyp- und homocygoter Mutanten- sowie heterocygoter DNA am Beispiel von Oligonukleotid-Hybriden erreicht werden. In einer Gruppe von 24 homocygoten Patienten wurde ein Polymorphismus im SULT1A1-Gen analysiert. Sowohl durch kinetische Auswertung als auch mit der Analyse der Fluoreszenzintensität wurde der Genotyp der Proben identifiziert. Die Ergebnisse wurden mit dem Referenzverfahren, der Restriktionschnittstellenanalyse (PCR-RFLP) validiert. Lediglich ein Genotyp wurde falsch bestimmt, die Genauigkeit lag bei 96%. In einer Gruppe von 44 Patienten wurde der Genotyp eines SNP in der Adiponectin-Promotor-Region untersucht. Nach Vergleich der Analysenergebnisse mit denen eines Referenzverfahrens konnten lediglich 14 der untersuchten Genotypen bestätigt werden. Ursache für die unzureichende Genauigkeit der Methode war vor allem das schlechte Signal/Rausch-Verhältnis. Zusammenfassend kann gesagt werden, dass das in dieser Arbeit entwickelte Analysesystem für die Genotypisierung von Einzelpunktmutationen geeignet ist, homocygote Patientenproben zuverlässig zu analysieren. Prinzipiell ist das auch bei heterocygoter DNA möglich. Da nach aktuellem Kenntnisstand eine SNP-Analysemethode an immobilisierten PCR-Produkten noch nicht veröffentlicht wurde, stellt das hier entwickelte Verfahren eine Alternative zu bisher bekannten Mikroarray-Verfahren dar. Als besonders vorteilhaft erweist sich der reverse Ansatz der Methode. Der hier vorgestellte Ansatz ist eine kostengünstigere und weniger hoch dimensionierte Lösung für Fragestellungen beispielsweise in der Ernährungswissenschaft, bei denen meist eine mittlere Anzahl Patienten auf nur einige wenige SNPs zu untersuchen ist. Wenn es gelingt, durch die Weiterentwicklung der Hardware bzw. weiterer Optimierung, eine Verbesserung des Signal/Rausch-Verhältnisses und damit die Diskriminierung von heterocygoter DNA zu erreichen, kann diese Methode zukünftig bei der Analyse von mittelgroßen Patientengruppen alternativ zu anderen Genotypisierungsmethoden verwendet werden.
Wortartige Zwischenfälle
(2004)
Neue Einflüsse und Anwendungen von Mikrowellenstrahlung auf Miniemulsionen und ihre Kompositpolymere
(2004)
Miniemulsionen bestehen aus zwei miteinander nicht mischbaren Flüssigkeiten, von der die eine in Form kleiner Tröpfchen fein in der anderen verteilt (dispergiert) ist. Miniemulsionströpfchen sind mit Durchmessern von ungefähr 0,1 Mikrometer kleiner als herkömmliche Emulsionen und können u. a. als voneinander unabhängige Nanoreaktoren für chemische Reaktionen verwendet werden. Man unterteilt sie in direkte Miniemulsionen, in denen ein Öl in Wasser dispergiert ist, und inverse Miniemulsionen, in denen Wasser in Öl dispergiert wird. In dieser Arbeit wird das besondere chemische und physikalische Verhalten solcher Miniemulsionen unter dem Einfluß von Mikrowellenstrahlung untersucht. Dabei werden sowohl für Öl-in-Wasser als auch für Wasser-in-Öl-Miniemulsionen grundlagenwissenschaftliche Entdeckungen beschrieben und durch neue Modelle erklärt. Der praktische Nutzen dieser bislang unbeschriebenen Effekte wird durch ingenieurwissenschaftliche Anwendungsbeispiele im Bereich der Polymerchemie verdeutlicht. 1. Polymerisation mit "überlebenden Radikalen" (Surviving Radical Polymerization) Für die Herstellung von sog. Polymerlatizes (Kunststoffdispersionen, wie sie u. a. für Farben verwendet werden) aus direkten Styrol-in-Wasser Miniemulsionen werden die Styroltröpfchen als Nanoreaktoren verwendet: Sie werden mit Hilfe von Radikalen durch eine Kettenreaktion zu winzigen Polymerpartikeln umgesetzt, die im Wasser dispergiert sind. Ihre Materialeigenschaften hängen stark von der Kettenlänge der Polymermoleküle ab. In dieser Arbeit konnten durch den Einsatz von Mikrowellenstrahlung erstmals große Mengen an Radikalen erzeugt werden, die jeweils einzeln in Tröpfchen (Nanoreaktoren) auch noch lange Zeit nach dem Verlassen der Mikrowelle überleben und eine Polymerisationskettenreaktion ausführen können. Diese Methode ermöglicht nicht nur die Herstellung von Polymeren in technisch zuvor unerreichbaren Kettenlängen, mit ihr sind auch enorm hohe Umsätze nach sehr kurzen Verweilzeiten in der Mikrowelle möglich – denn die eigentliche Reaktion findet außerhalb statt. Es konnte gezeigt werden, dass durch Einsatz von Zusatzstoffen bei unvermindert hohem Umsatz die Polymerkettenlänge variiert werden kann. Die technischen Vorzüge dieses Verfahrens konnten in einer kontinuierlich betriebenen Pilotanlage nachgewiesen werden. 2. Aufheizverhalten inverser Miniemulsionen in Mikrowellenöfen Das Aufheizverhalen von Wasser-in-Öl Miniemulsionen mit kleinen Durchmessern durch Mikrowellen ist überaus träge, da sich nur das wenige Wasser in den Tröpfchen mit Mikrowellen aufheizen lässt, das Öl jedoch kaum. Solche Systeme verhalten sich gemäß der "Theorie des effektiven Mediums". Werden aber etwas größere Tröpfchen im Mikrometerbereich Mikrowellen ausgesetzt, so konnte eine wesentlich schnellere Aufheizung beobachtet werden, die auf eine Maxwell-Wagner-Grenzflächenpolarisation zurückgeführt werden kann. Die Größenabhängigkeit dieses Effekts wurde mit Hilfe der dielektrischen Spektroskopie quantifiziert und ist bislang in der Literatur nie beschrieben worden. Zur genauen Messung dieses Effekts und zu seiner technischen Nutzung wurde ein neuartiges Membranverfahren für die Herstellung von großen Miniemulsionströpfchen im Mikrometerbereich entwickelt. 3. Herstellung von Kompositpolymeren für Mikrowellenanwendungen Um die untersuchte Maxwell-Wagner-Grenzflächenpolarisation technisch nutzen zu können, wurden als dafür geeignete Materialien Kompositpolymere hergestellt. Das sind Kunststoffe, in denen winzige Wassertropfen oder Keramikpartikel eingeschlossen sind. Dazu wurden neuartige Synthesewege auf der Grundlage der Miniemulsionstechnik entwickelt. Ihr gemeinsames Ziel ist die Einschränkung der üblicherweise bei Polymerisation auftretenden Entmischung: In einem Verfahren wurde durch Gelierung die Beweglichkeit der emulgierten Wassertröpfchen eingeschränkt, in einem anderen wurde durch das Einschließen von Keramikpartikeln in Miniemulsionströpfchen die Entmischung auf deren Größe beschränkt. Anwendungen solcher Kompositpolymere könnten künstliche Muskeln, die Absorption von Radarstrahlung, z. B. für Tarnkappenflugzeuge, oder kratzfeste Lacke sein.Bei diesen Experimenten wurde beobachtet, daß sich u. U. in der Miniemulsion große Tröpfchen bilden. Ihr Ursprung wird mit einer neuen Modellvorstellung erklärt, die die Einflüsse auf die Stabilität von Miniemulsionen beschreibt.
In dieser Arbeit wird ein chemisches Abgussverfahren für selbstorganisierte Strukturen in Lösung verwendet, das es ermöglicht definierte poröse Materialien mit Strukturierung auf der Nanometerskala herzustellen. Ähnlich wie beim Gussverfahren von Werkstücken wird die Vorlage durch ein geeignetes Material abgebildet. Durch Entfernen dieser Vorlage erhält man ein poröses (mit Hohlräumen durchsetztes) Negativ derselben. Die auf diese Weise erhaltenen Materialien sind in mehrerer Hinsicht interessant: So lassen sich aus ihrer Morphologie Rückschlüsse über die Natur der selbstorganisierten Strukturen erhalten, da der hier verwendete Abbildungsprozess selbst kleinste strukturelle Details erfasst. Die Hohlräume der synthetisierten porösen Stoffe hingegen können als winzige Reaktionsgefäße, sogenannte "Nano-Reaktoren" verwendet werden. Dies ermöglicht sowohl die Synthese von Nano-Partikeln, die auf anderem Wege nicht zugänglich sind, als auch die Möglichkeit Einflüsse der räumlichen Restriktion auf die Reaktion zu untersuchen. Besonders räumlich ausgedehnte Strukturen sollten hierbei Auffälligkeiten zeigen. Somit ist die Gliederung der Arbeit vorgegeben: - Die Herstellung und Charakterisierung von porösen Stoffen und selbstorganisierten Strukturen - Ihre Verwendung als "Nano-Reaktor"
Ellipsometrische Lichtstreuung als neue Methode zur Charakterisierung der Grenzfläche von Kolloiden
(2004)
Die ellipsometrische Lichtstreuung wird als eine neue, leistungsfähige Methode zur Charakterisierung von Schichten um kolloidale Partikel vorgestellt. Theoretische Grundlage der Methode ist die Mie-Theorie der Lichtstreuung. Experimentell wurde die Polarisationsoptik eines Null-Ellipsometers in den Strahlengang eines Lichtstreuaufbaus eingebaut. Wie in der Reflexionsellipsometrie um den Brewsterwinkel herum erhält man in der ellipsometrischen Streuung einen Winkelbereich, in dem die Methode empfindlich auf Schichten an der Oberfläche der Partikel ist. An verschiedenen Systemen wurde die Tauglichkeit der ellipsometrischen Streuung zur Charakterisierung von Schichten auf Partikeln demonstriert. So wurden Dicke und Brechungsindex einer thermosensitiven Schicht von Poly(N-isopropylacrylamid) auf einem Poly(methylmethacrylat)-Kern bestimmt. Damit ist es möglich, experimentell den Schichtbrechungsindex und damit den Quellungsgrad zu bestimmen. Des Weiteren wurde der Einfluss der NaCl-Konzentration auf die Polyelektrolythülle von Poly(methylmethacrylat)-Poly(styrolsulfonat)-Blockcopolymer-Partikeln untersucht. Die Polyelektrolytketten liegen im hier untersuchten Beispiel nicht gestreckt vor. Als drittes wurde die Verteilung von niedermolekularen Ionen um elektrostatisch stabilisierte Poly(styrol)-Latexpartikel in Wasser untersucht. Hier wurde gezeigt, dass die beobachteten Schichtdicken und Schichtbrechungsindizes viel größer sind, als nach der klassischen Poisson-Boltzmann-Theorie zu erwarten ist. Des Weiteren wurde die Doppelbrechung von unilamellaren Lipidvesikeln bestimmt. Außerdem wurden Messungen der dynamische Lichtstreuung im Intensitätsminimum der Ellipsometrie durchgeführt. Dabei wird ein Prozess mit einer Korrelationszeit, die unabhängig vom Streuvektor, aber abhängig von der verwendeten Wellenlänge ist, sichtbar. Die Natur dieses Prozesses konnte hier nicht vollständig geklärt werden.