Refine
Has Fulltext
- yes (13391) (remove)
Year of publication
Document Type
- Article (4018)
- Postprint (3294)
- Doctoral Thesis (2552)
- Monograph/Edited Volume (973)
- Review (571)
- Part of Periodical (492)
- Preprint (446)
- Master's Thesis (266)
- Conference Proceeding (246)
- Working Paper (245)
Language
- German (7064)
- English (6027)
- Spanish (80)
- French (75)
- Multiple languages (62)
- Russian (62)
- Hebrew (9)
- Italian (6)
- Portuguese (2)
- Hungarian (1)
Keywords
- Germany (118)
- Deutschland (106)
- climate change (79)
- Sprachtherapie (77)
- Patholinguistik (73)
- patholinguistics (73)
- Logopädie (72)
- Zeitschrift (71)
- Nachhaltigkeit (61)
- European Union (59)
Institute
- Extern (1405)
- MenschenRechtsZentrum (943)
- Institut für Physik und Astronomie (718)
- Institut für Biochemie und Biologie (713)
- Wirtschaftswissenschaften (583)
- Institut für Chemie (556)
- Institut für Mathematik (521)
- Institut für Romanistik (514)
- Institut für Geowissenschaften (510)
- Mathematisch-Naturwissenschaftliche Fakultät (489)
100 Jahre NABU
(1999)
Zur Nahrungswahl der Schleiereule (Tyto alba guttata) im Landkreis Potsdam-Mittelmark (Brandenburg)
(1998)
Due to its relevance for global climate, the realistic representation of the Atlantic meridional overturning circulation (AMOC) in ocean models is a key task. In recent years, two paradigms have evolved around what are its driving mechanisms: diapycnal mixing and Southern Ocean winds. This work aims at clarifying what sets the strength of the Atlantic overturning components in an ocean general circulation model and discusses the role of spatially inhomogeneous mixing, numerical diffusion and winds. Furthermore, the relation of the AMOC with a key quantity, the meridional pressure difference is analyzed. Due to the application of a very low diffusive tracer advection scheme, a realistic Atlantic overturning circulation can be obtained that is purely wind driven. On top of the winddriven circulation, changes of density gradients are caused by increasing the parameterized eddy diffusion in the North Atlantic and Southern Ocean. The linear relation between the maximum of the Atlantic overturning and the meridional pressure difference found in previous studies is confirmed and it is shown to be due to one significant pressure gradient between the average pressure over high latitude deep water formation regions and a relatively uniform pressure between 30°N and 30°S, which can directly be related to a zonal flow through geostrophy. Under constant Southern Ocean windstress forcing, a South Atlantic outflow in the range of 6-16 Sv is obtained for a large variety of experiments. Overall, the circulation is winddriven but its strength not uniquely determined by the Southern Ocean windstress. The scaling of the Atlantic overturning components is linear with the background vertical diffusivity, not confirming the 2/3 power law for one-hemisphere models without wind forcing. The pycnocline depth is constant in the coarse resolution model with large vertical grid extends. It suggests the ocean model operates like the Stommel box model with a linear relation of the pressure difference and fixed vertical scale for the volume transport. However, this seems only valid for vertical diffusivities smaller 0.4 cm²/s, when the dominant upwelling within the Atlantic occurs along the boundaries. For larger vertical diffusivities, a significant amount of interior upwelling occurs. It is further shown that any localized vertical mixing in the deep to bottom ocean cannot drive an Atlantic overturning. However, enhanced boundary mixing at thermocline depths is potentially important. The numerical diffusion is shown to have a large impact on the representation of the Atlantic overturning in the model. While the horizontal numerical diffusion tends to destabilize the Atlantic overturning the verital numerical diffusion denotes an amplifying mechanism.
Vor- und nacheiszeitliche Großtierformen in Mitteleuropa und ihre Einpassung in das Ökosystem
(1997)
Durch die anthropogene Nutzung sind viele Auen in Mitteleuropa verändert worden, wobei insbesondere die Retentionsflächen stark verringert wurden. Während Auen seit längerem im Fokus der wissenschaftlichen Bearbeitung stehen, gibt es bisher große Wissensdefizite in der Frage der Auenreaktivierungen. Zum einen sind derartige Projekte bisher kaum verwirklicht und zum anderen ist ein langfristiges Monitoring notwendig, um die Anpassung von Biozönosen an die veränderten Standortbedingungen beobachten zu können. Um die Folgen derartiger Eingriffe zu analysieren, bieten sich computergestützte Modellierungen der Landschaftsentwicklung an, wie sie in der vorliegenden Arbeit verwirklicht wurden. Ziel der Arbeit war, mit Hilfe eines Geografischen Informationssystems (GIS) das Entwicklungspotenzial der Landschaft bei verschiedenen Rückdeichungsvarianten auf der Ebene der Biotoptypen darzustellen. Dabei ging es nicht um die Erstellung eines allgemein gültigen Auenmodells sondern um die Erarbeitung eines Modells für einen konkreten Anwendungsfall. Der erarbeitete Ansatz sollte zudem für die landschaftsplanerische Praxis geeignet sein. Als Beispielgebiete wurden Flächen an der Mittleren Elbe bei Rogätz und Sandau, beide im nördlichen Teil von Sachsen-Anhalt, ausgewählt. Die vorliegende Arbeit gliedert sich in zwei Teile. Im ersten Teil werden Erhebungen und Auswertungen als Grundlage der Modellentwicklung dargestellt. Dazu wurden die Biotoptypen der Beispielgebiete flächendeckend erhoben und mit punktuellen Vegetationserhebungen ergänzt. Aus dem Forschungsprojekt "Rückgewinnung von Retentionsflächen und Altauenreaktivierung an der Mittleren Elbe in Sachsen-Anhalt" des Bundesministeriums für Bildung und Forschung (BMBF) standen standortökologische Daten der Hydrologie und Bodenkunde zur Verfügung. Ziel der Auswertung war, Schlüsselfaktoren für Hydrologie und Bodenbedingungen innerhalb der rezenten Aue zu identifizieren, die zur Ausprägung bestimmter Biotoptypen führen. Im zweiten Teil der Arbeit wurde ein Modell für Biotoptypenpotenziale auf den geplanten Rück–deichungsflächen entwickelt. Das Modell bearbeitet die Datenbank der verwendeten GIS-Dateien, die auf Daten zum Bestand beruht und um solche der Prognose der Standortökologie (Hydrologie und Boden) im Rückdeichungsfalle aus dem BMBF-Projekt erweitert wurde. Weitere Voraussetzung für die Modellierung war die Erarbeitung von Leitbildern, in denen unterschiedliche Nutzungsszenarios für die Landschaft nach Deichrückverlegung hypothetisch festgelegt wurden. Insbesondere die Nutzungsintensität wurde variiert, von einer Variante intensiver land- und forstwirtschaftlicher Nutzung über sogenannte integrierte Entwicklungsziele aus dem BMBF-Projekt bis hin zu einer Variante der Naturschutznutzung. Zusätzlich wurde eine zukünftige Potentielle Natürliche Vegetation modelliert. Eine Überprüfung des Modell fand für den Raum der rezenten Aue in der intensiven Nutzungsvariante statt, die der gegenwärtigen Nutzung am nächsten kommt. Werden Informationen des Bestandsbiotoptyps als Korrekturgröße in das Modell einbezogen, konnte für viele Biotoptypen eine Trefferquote von über 90 % erreicht werden. Bei flächenmäßig weniger bedeutenden Bio–toptypen lag dieser Wert aufgrund der schmaleren Datenbasis zwischen 20 und 40 %. Als Ergebnis liegt für unterschiedliche Deichvarianten und Leitbilder in den Beispielgebieten die Landschaftsentwicklung als Biotoppotenzial vor. Als eine vereinfachte Regionalisierung der punktuellen Vegetationsdaten wurde im Modell geprüft, inwieweit die modellierten Biotopflächen der Charakteristik der pflanzensoziologischen Aufnahmen aus der rezenten Aue entsprechen. In dem Falle wurde die Pflanzengesellschaft der jeweiligen ökologisch im Rahmen der Untersuchung einheitlichen Flächeneinheit zugeordnet. Anteilig lässt sich damit die Biotopprognosefläche pflanzensoziologisch konkretisieren. Die vorliegende Arbeit gehört zu den bisher wenigen Arbeiten, die sich mit den Folgen von Auenreaktivierung auf die Entwicklung der Landschaft auseinandersetzen. Sie zeigt eine Möglichkeit auf, Prognosemodelle für Biotoptypen und Vegetation anhand begrenzter Felduntersuchungen zu entwerfen. Derartige Modelle können zum Verständnis von Eingriffen in den Naturhaushalt, wie sie die Deichrückverlegungen darstellen, beitragen und eine Folgenabschätzung unterstützen.
Im Mittelpunkt dieser Arbeit standen Signaltransduktionsprozesse in den Strukturen der Kraftübertragung quergestreifter Muskelzellen, d. h. in den Costameren (Zell-Matrix-Kontakten) und den Glanzstreifen (Zell-Zell-Kontakten der Kardiomyozyten).Es ließ sich zeigen, dass sich die Morphologie der Zell-Matrix-Kontakte während der Differenzierung von Skelettmuskelzellen dramatisch ändert, was mit einer veränderten Proteinzusammensetzung einhergeht. Immunfluoreszenz-Analysen von Skelettmuskelzellen verschiedener Differenzierungsstadien implizieren, dass die Signalwege, welche die Dynamik der Fokalkontakte in Nichtmuskelzellen bestimmen, nur für frühe Stadien der Muskeldifferenzierung Relevanz haben können. Ausgehend von diesem Befund wurde begonnen, noch unbekannte Signalwege zu identifizieren, welche die Ausbildung von Costameren kontrollieren: In den Vorläuferstrukturen der Costamere gelang es, eine transiente Interaktion der Proteine Paxillin und Ponsin zu identifizieren. Biochemische Untersuchungen legen nahe, dass Ponsin über eine Skelettmuskel-spezifische Insertion im Carboxyterminus das Adapterprotein Nck2 in diesen Komplex rekrutiert. Es wird vorgeschlagen, dass die drei Proteine einen ternären Signalkomplex bilden, der die Umbauvorgänge der Zell-Matrix-Kontakte kontrolliert und dessen Aktivität von mitogen activated protein kinases (MAPK) reguliert wird.Die Anpassungsvorgänge der Strukturen der Kraftübertragung an pathologische Situtation (Kardiomyopathien) in der adulten quergestreiften Muskulatur wurden ausgehend von einem zweiten Protein, dem muscle LIM protein (MLP), untersucht. Es konnte gezeigt werden, dass ein mutiertes MLP-Protein, das im Menschen eine hypertrophe Kardiomyopathie (HCM) auslöst, strukturelle Defekte aufweist und weniger stabil ist. Weiterhin zeigte dieses mutierte Protein eine verringerte Bindungsfähigkeit an die beiden Liganden N-RAP und alpha-Actinin. Die molekulare Grundlage der HCM-verursachenden Mutationen im MLP-Gen könnte folglich eine Veränderung der Homöostase im ternären Komplex MLP – N-RAP – alpha-Actinin sein. Die Expressionsdaten eines neu generierten monoklonalen MLP-Antikörpers deuten darauf hin, dass die Funktionen des MLP nicht nur für die Integrität des Myokards, sondern auch für die der Skelettmuskulatur notwendig sind.
Für das Verständnis der Strukturbildung bei Proteinen ist es wichtig, allgemein geltende Prinzipien der Stabilität und Faltung zu verstehen. Bisher wurde viel Arbeit in die Erörterung von Gesetzmäßigkeiten zu den Faltungseigenschaften von globulären Proteinen investiert. Die große Proteinklasse der solenoiden Proteine, zu denen z. B. Leucine-Rich Repeat- (LRR-) oder Ankyrin-Proteine gehören, wurde dahingegen noch wenig untersucht. Die Proteine dieser Klasse sind durch einen stapelförmigen Aufbau von sich wiederholenden typischen Sequenzeinheiten gekennzeichnet, was in der Ausbildung einer elongierten Tertiärstruktur resultiert. In der vorliegenden Arbeit sollte versucht werden, die Stabilität und Faltung eines LRR-Proteins mittels verschiedener biophysikalischer Methoden zu charakterisieren. Als Untersuchungsobjekt diente die für die Infektion ausreichende zentrale LRR-Domäne des Invasionsproteins Internalin B (InlB241) des Bakteriums Listeria monocytogenes. Des weiteren sollten die Integrität und die Stabilitäts- und Faltungseigenschaften der sogenannten Internalin-Domäne (InlB321) untersucht werden. Hierbei handelt es sich um die bei allen Mitgliedern der Internalinfamilie vorkommende Domäne, welche aus einer direkten Fusion des C-terminalen Endes der LRR-Domäne mit einer Immunglobulin (Ig)-ähnlichen Domäne besteht. Von beiden Konstrukten konnte eine vollständige thermodynamische Charakterisierung, mit Hilfe von chemisch- bzw. thermisch-induzierten Faltungs- und Entfaltungsübergängen durchgeführt werden. Sowohl InlB241 als auch InlB321 zeigen einen reversiblen und kooperativen Verlauf der chemisch-induzierten Gleichgewichtsübergänge, was die Anwendung eines Zweizustandsmodells zur Beschreibung der Daten erlaubte. Die zusätzliche Ig-ähnliche Domäne im InlB321 resultierte im Vergleich zum InlB241 in einer Erhöhung der freien Enthalpie der Entfaltung (8.8 kcal/mol im Vergleich zu 4.7 kcal/mol). Diese Stabilitätszunahme äußerte sich sowohl in einer Verschiebung des Übergangsmittelpunktes zu höheren Guanidiniumchlorid-Konzentrationen als auch in einer Erhöhung der Kooperativität des Gleichgewichtsübergangs (9.7 kcal/mol/M im Vergleich zu 7.1 kcal/mol/M). Diese Beobachtungen zeigen dass die einzelnen Sequenzeinheiten der LRR-Domäne nicht unabhängig voneinander falten und dass die Ig-ähnliche Domäne, obwohl sie nicht direkt mit dem Wirtszellrezeptor während der Invasion interagiert, eine kritische Rolle für die <i style='mso-bidi-font-style:normal'>in vivo Stabilität des Internalin B spielt. Des weiteren spiegelt die Kooperativität des Übergangs die Integrität der Internalin-Domäne wieder und deutet darauf hin, dass bei beiden Proteinen keine Intermediate vorliegen. Kinetische Messungen über Tryptophanfluoreszenz und Fern-UV<span style='color:red'> </span>Circulardichroismus deuteten auf die Existenz eines relativ stabilen Intermediates auf dem Faltungsweg der LRR-Domäne hin. Faltungskinetiken aus einem in pH 2 denaturierten Zustand zeigten ein reversibles Verhalten und verliefen über ein Intermediat. Eine Erhöhung der Salzkonzentration des sauer-denaturierten Proteins führte zu einer Kompaktierung der entfalteten Struktur und resultierte im Übergang zu einem alternativ gefalteten Zustand. Bei der Internalin-Domäne deuteten kinetische Messungen des Fluoreszenz- und Fern-UV Circulardichroismus-Signals während der Entfaltung möglicherweise auf die Präsenz von zwei Prozessen hin. Der erste langsame Entfaltungsprozess kurz nach dem Übergangsmittelpunkt zeigte eine starke Abhängigkeit von der Temperatur, während der zweite schnellere Prozess der Entfaltung stärker von der Guanidiniumchlorid-Konzentration abhing. Renaturierungskinetiken zeigten das Auftreten von mindestens einem Faltungsintermediat. Kinetische Daten aus Doppelsprungexperimenten lieferten für die Erklärung der langsamen Faltungsphase zunächst keinen Hinweis auf dass Vorliegen einer Prolinisomerisierungsreaktion. Die vollständige Amplitude während der Renaturierung konnte nicht detektiert werden, weswegen von einer zweiten schnellen Phase im Submillisekundenbereich ausgegangen werden kann. Die Ergebnisse der Faltungskinetiken zeigen, dass die InlB-Konstrukte als Modelle für die Untersuchung der Faltung von Solenoidproteinen verwendet werden können.<span lang=EN-GB style='mso-ansi-language: EN-GB'><o:p></o:p></span>
Charakterisierung von ausgewählten Protein-Phosphatasen und MATE-Proteinen aus Arabidopsis thaliana
(2004)
Im ersten Teil der vorliegenden Arbeit wurde die Genexpression der Protein Phosphatase-gene TOPP1, TOPP2, TOPP5, STH1 und STH2 analysiert. Alle fünf ausgewählten Gene kodieren für PP des PP1/PP2A-Typs. Es wurde untersucht, ob homologen PP-Isoformen individuelle Expressionsmuster zugewiesen werden konnten. Besonderes Augenmerk richtete sich dabei auf die Expression von PP-Genen in den Schließzellen von A. thaliana. In mehreren Inhibitorstudien wurde beschrieben, dass PP1/PP2A-Proteine eine wichtige Rolle in der Signaltransduktion pflanzlicher Schließzellen spielen. Bisher konnte allerdings noch keine der entsprechenden katalytischen Untereinheiten auf molekularer Ebene identifiziert werden. Im Rahmen dieser Arbeit wurde zum ersten Mal nachgewiesen, dass mit TOPP1 ein Protein des PP1-Typs präferenziell in den Schließzellen von A. thaliana exprimiert wird. Ein Vergleich der Genexpression von TOPP1, TOPP2 und TOPP5 zeigte für die drei homologen Gene sehr Isoform-spezifische Expressionsmuster. Dies war ein deutlicher Hinweis, dass diese eng verwandten PP trotz großer Übereinstimmung auf Aminosäureebene vermutlich unterschiedliche Funktionen in planta haben. Die Untersuchung der Genexpression von STH1 und STH2 zeigte, dass die fast identischen Proteine zum Teil in unterschiedlichen Geweben vorkommen. Die Transkripte der beiden Gene, welche eine eigene Untergruppe von PP2A-verwandten Sequenzen bilden, konnten aus EF isoliert werden. Der in dieser Arbeit entwickelte Screeningansatz ermöglichte es, die sehr ähnlichen cDNA-Fragmente eindeutig voneinander zu unterscheiden. Die gefundenen Isoform-spezifischen Expressionsmuster waren ein deutlicher Hinweis auf unterschiedliche Funktionen in planta. Zur weiteren Untersuchung der PP-Funktionen in planta wurden Pflanzen mit veränderter Genaktivität von TOPP2 oder STH1 untersucht. In Pflanzen mit RNAi-vermittelter Reduktion des TOPP2-Transkriptgehalts ließ sich ein deutlich verändertes Blattwachstum beobachten. Die eingerollten oder asymmetrisch entwickelten Blätter waren vermutlich ein Hinweis, dass diese PP1-Isoform auch in A. thaliana eine Rolle bei der Zellteilung spielt. Für TOPP2-Expression in Hefen wurde diese Funktion schon nachgewiesen. Die Analyse von Insertions-mutanten mit T-DNA Insertionen in beiden STH1-Allelen waren neben den Expressions-studien ein weiterer Hinweis, dass sich STH1 nicht funktionell durch STH2 ersetzen lässt. Die Experimente in dieser Arbeit zeigten, dass das Fehlen der STH1-Genaktivität zu einem deutlichen Blattphänotyp mit gezahnten Blatträndern führte. Für STH2-Insertionsmutanten wurde dieses veränderte Wachstum nicht beschrieben. Im zweiten Teil dieser Arbeit wurde das Gen NIC1, welches für ein MATE-Membranprotein kodiert, identifiziert und charakterisiert. Die Sequenzierung des Genoms von A. thaliana hatte gezeigt, dass mindestens 56 MATE-Gene in dieser Pflanze vorhanden sind. Zum Zeitpunkt der Identifikation von NIC1 war keines dieser Gene charakterisiert. Außer für das MATE-Protein ERC1 aus S. cerevisiae gab es keine Studien zu eukaryotischen Mitgliedern dieser großen Familie von Membranproteinen. Anhand NIC1 wurden heterologe Expressionssysteme zur funktionellen Charakterisierung von MATE-Proteinen aus Pflanzen etabliert. Die cDNA von NIC1 wurde nach ihrer Klonierung in X. laevis Oozyten und S. cerevisiae exprimiert. In S. cerevisiae erhöhte die NIC1-Expression die Lithumtoleranz der Hefen und führte zu einer Verminderung der Natriumtoleranz. Parallele Versuche mit NIC2 und NIC4 (in den Diplomarbeiten von Blazej Dolniak und Mandy Kursawe) zeigten, dass auch diese beiden Proteine die Salztoleranz von S. cerevisiae beeinflussten. Während NIC2 die Lithium- und Natriumtoleranz erhöhte, führte NIC4-Expresion zu einer höheren Sensibilität gegenüber diesen beiden Kationen. Die unterschiedlichen Eigenschaften der drei homologen Proteine zeigten sich auch bei ihrer Expression in X. laevis Oozyten. NIC1 induzierte in den Oozyten auswärts gerichtete Chloridströme, die spannungsabhängig waren und durch mikromolare Konzentrationen der trivalenten Kationen Lanthan oder Gadolinium inhibiert werden konnten. NIC4 induzierte Barium-inhibierbare Kaliumströme, die spannungsunabhängig waren. Für NIC2 ließ sich in diesem Expressionssystem keine Aktivität detektieren. Zur Untersuchung der NIC1-Funktion in planta wurde die Genaktivität in transgenen Pflanzen lokalisiert und reduziert. Die NIC1-Genexpression war hauptsächlich in den vaskulären Geweben der Pflanze detektierbar und einer Verminderung des NIC1-Transkriptgehalts beeinflusste die Entwicklungsgeschwindigkeit der Pflanzen. Sie entwickelten sich deutlich langsamer als der parallel kultivierte Wildtyp. Der deutliche Phänotyp bei Veränderung der Genaktivität von nur einem der mindestens 56 vorhandenen MATE-Gene in A. thaliana zeigte, dass vermutlich keine weitere MATE-Isoform in der Lage ist, die Funktion von NIC1 zu übernehmen.
In dieser Arbeit wird ein chemisches Abgussverfahren für selbstorganisierte Strukturen in Lösung verwendet, das es ermöglicht definierte poröse Materialien mit Strukturierung auf der Nanometerskala herzustellen. Ähnlich wie beim Gussverfahren von Werkstücken wird die Vorlage durch ein geeignetes Material abgebildet. Durch Entfernen dieser Vorlage erhält man ein poröses (mit Hohlräumen durchsetztes) Negativ derselben. Die auf diese Weise erhaltenen Materialien sind in mehrerer Hinsicht interessant: So lassen sich aus ihrer Morphologie Rückschlüsse über die Natur der selbstorganisierten Strukturen erhalten, da der hier verwendete Abbildungsprozess selbst kleinste strukturelle Details erfasst. Die Hohlräume der synthetisierten porösen Stoffe hingegen können als winzige Reaktionsgefäße, sogenannte "Nano-Reaktoren" verwendet werden. Dies ermöglicht sowohl die Synthese von Nano-Partikeln, die auf anderem Wege nicht zugänglich sind, als auch die Möglichkeit Einflüsse der räumlichen Restriktion auf die Reaktion zu untersuchen. Besonders räumlich ausgedehnte Strukturen sollten hierbei Auffälligkeiten zeigen. Somit ist die Gliederung der Arbeit vorgegeben: - Die Herstellung und Charakterisierung von porösen Stoffen und selbstorganisierten Strukturen - Ihre Verwendung als "Nano-Reaktor"
Neue Einflüsse und Anwendungen von Mikrowellenstrahlung auf Miniemulsionen und ihre Kompositpolymere
(2004)
Miniemulsionen bestehen aus zwei miteinander nicht mischbaren Flüssigkeiten, von der die eine in Form kleiner Tröpfchen fein in der anderen verteilt (dispergiert) ist. Miniemulsionströpfchen sind mit Durchmessern von ungefähr 0,1 Mikrometer kleiner als herkömmliche Emulsionen und können u. a. als voneinander unabhängige Nanoreaktoren für chemische Reaktionen verwendet werden. Man unterteilt sie in direkte Miniemulsionen, in denen ein Öl in Wasser dispergiert ist, und inverse Miniemulsionen, in denen Wasser in Öl dispergiert wird. In dieser Arbeit wird das besondere chemische und physikalische Verhalten solcher Miniemulsionen unter dem Einfluß von Mikrowellenstrahlung untersucht. Dabei werden sowohl für Öl-in-Wasser als auch für Wasser-in-Öl-Miniemulsionen grundlagenwissenschaftliche Entdeckungen beschrieben und durch neue Modelle erklärt. Der praktische Nutzen dieser bislang unbeschriebenen Effekte wird durch ingenieurwissenschaftliche Anwendungsbeispiele im Bereich der Polymerchemie verdeutlicht. 1. Polymerisation mit "überlebenden Radikalen" (Surviving Radical Polymerization) Für die Herstellung von sog. Polymerlatizes (Kunststoffdispersionen, wie sie u. a. für Farben verwendet werden) aus direkten Styrol-in-Wasser Miniemulsionen werden die Styroltröpfchen als Nanoreaktoren verwendet: Sie werden mit Hilfe von Radikalen durch eine Kettenreaktion zu winzigen Polymerpartikeln umgesetzt, die im Wasser dispergiert sind. Ihre Materialeigenschaften hängen stark von der Kettenlänge der Polymermoleküle ab. In dieser Arbeit konnten durch den Einsatz von Mikrowellenstrahlung erstmals große Mengen an Radikalen erzeugt werden, die jeweils einzeln in Tröpfchen (Nanoreaktoren) auch noch lange Zeit nach dem Verlassen der Mikrowelle überleben und eine Polymerisationskettenreaktion ausführen können. Diese Methode ermöglicht nicht nur die Herstellung von Polymeren in technisch zuvor unerreichbaren Kettenlängen, mit ihr sind auch enorm hohe Umsätze nach sehr kurzen Verweilzeiten in der Mikrowelle möglich – denn die eigentliche Reaktion findet außerhalb statt. Es konnte gezeigt werden, dass durch Einsatz von Zusatzstoffen bei unvermindert hohem Umsatz die Polymerkettenlänge variiert werden kann. Die technischen Vorzüge dieses Verfahrens konnten in einer kontinuierlich betriebenen Pilotanlage nachgewiesen werden. 2. Aufheizverhalten inverser Miniemulsionen in Mikrowellenöfen Das Aufheizverhalen von Wasser-in-Öl Miniemulsionen mit kleinen Durchmessern durch Mikrowellen ist überaus träge, da sich nur das wenige Wasser in den Tröpfchen mit Mikrowellen aufheizen lässt, das Öl jedoch kaum. Solche Systeme verhalten sich gemäß der "Theorie des effektiven Mediums". Werden aber etwas größere Tröpfchen im Mikrometerbereich Mikrowellen ausgesetzt, so konnte eine wesentlich schnellere Aufheizung beobachtet werden, die auf eine Maxwell-Wagner-Grenzflächenpolarisation zurückgeführt werden kann. Die Größenabhängigkeit dieses Effekts wurde mit Hilfe der dielektrischen Spektroskopie quantifiziert und ist bislang in der Literatur nie beschrieben worden. Zur genauen Messung dieses Effekts und zu seiner technischen Nutzung wurde ein neuartiges Membranverfahren für die Herstellung von großen Miniemulsionströpfchen im Mikrometerbereich entwickelt. 3. Herstellung von Kompositpolymeren für Mikrowellenanwendungen Um die untersuchte Maxwell-Wagner-Grenzflächenpolarisation technisch nutzen zu können, wurden als dafür geeignete Materialien Kompositpolymere hergestellt. Das sind Kunststoffe, in denen winzige Wassertropfen oder Keramikpartikel eingeschlossen sind. Dazu wurden neuartige Synthesewege auf der Grundlage der Miniemulsionstechnik entwickelt. Ihr gemeinsames Ziel ist die Einschränkung der üblicherweise bei Polymerisation auftretenden Entmischung: In einem Verfahren wurde durch Gelierung die Beweglichkeit der emulgierten Wassertröpfchen eingeschränkt, in einem anderen wurde durch das Einschließen von Keramikpartikeln in Miniemulsionströpfchen die Entmischung auf deren Größe beschränkt. Anwendungen solcher Kompositpolymere könnten künstliche Muskeln, die Absorption von Radarstrahlung, z. B. für Tarnkappenflugzeuge, oder kratzfeste Lacke sein.Bei diesen Experimenten wurde beobachtet, daß sich u. U. in der Miniemulsion große Tröpfchen bilden. Ihr Ursprung wird mit einer neuen Modellvorstellung erklärt, die die Einflüsse auf die Stabilität von Miniemulsionen beschreibt.
The past decades are characterized by various efforts to provide complete sequence information of genomes regarding various organisms. The availability of full genome data triggered the development of multiplex high-throughput assays allowing simultaneous measurement of transcripts, proteins and metabolites. With genome information and profiling technologies now in hand a highly parallel experimental biology is offering opportunities to explore and discover novel principles governing biological systems. Understanding biological complexity through modelling cellular systems represents the driving force which today allows shifting from a component-centric focus to integrative and systems level investigations. The emerging field of systems biology integrates discovery and hypothesis-driven science to provide comprehensive knowledge via computational models of biological systems. Within the context of evolving systems biology, investigations were made in large-scale computational analyses on transcript co-response data through selected prokaryotic and plant model organisms. CSB.DB - a comprehensive systems-biology database - (http://csbdb.mpimp-golm.mpg.de/) was initiated to provide public and open access to the results of biostatistical analyses in conjunction with additional biological knowledge. The database tool CSB.DB enables potential users to infer hypothesis about functional interrelation of genes of interest and may serve as future basis for more sophisticated means of elucidating gene function. The co-response concept and the CSB.DB database tool were successfully applied to predict operons in Escherichia coli by using the chromosomal distance and transcriptional co-responses. Moreover, examples were shown which indicate that transcriptional co-response analysis allows identification of differential promoter activities under different experimental conditions. The co-response concept was successfully transferred to complex organisms with the focus on the eukaryotic plant model organism Arabidopsis thaliana. The investigations made enabled the discovery of novel genes regarding particular physiological processes and beyond, allowed annotation of gene functions which cannot be accessed by sequence homology. GMD - the Golm Metabolome Database - was initiated and implemented in CSB.DB to integrated metabolite information and metabolite profiles. This novel module will allow addressing complex biological questions towards transcriptional interrelation and extent the recent systems level quest towards phenotyping.
Die Fusion von Membranen ist ein entscheidender Prozeß bei der Entwicklung von Zellen im Körper. Beispielsweise ist sie eine der Voraussetzungen bei der Befruchtung einer Eizelle durch ein Spermium oder für das Eindringen von Viren in eine Zelle. Membranfusion ist auch notwendig für den Stofftransport in die Zelle hinein oder aus ihr heraus. Die Membranfusion ist daher auch von praktischen Interesse auf den Gebieten der Pharmazeutik und des 'Bioengineering'. Oft muss eine Membran mit der infiziertin Zelle fusionieren, um ein Medikament an sein Zeil zu bringen. Deshalb ist ein Verständnis der Membranfusion von großem Interesse für die Entwicklung von gezielten und effizienten Methoden des 'drug delivery'. Dasselbe gilt für die gezielte Zufuhr von Genen bei der Gentherapie. Obwohl die Membranfusion schon vor nahezu 200 Jahren von dem deutschen Biologen und Mediziner Johannes Müller beobachtet wurde, liegt ein vollständiges Verständnis des Fusionsprozesses von Zellen und (Modell-) Membranen auch heute noch in weiter Ferne. Allerdings hat im letzten Jahrzehnt das Interesse für dieses Forschungsgebiet stark zugenommen. Wissenschaftler der unterschiedlichsten Disziplinen arbeiten daran, die Mechanismen der Membranfusion aufzudecken. Biologen untersuchen Proteine, die die Fusion auslösen, Chemiker entwickeln Moleküle, die die Fusion erleichtern, und Physiker versuchen die Antriebsmechanismen der Membranfusion zu verstehen. Neue Mikroskopietechniken und die hohe Rechenleistung moderner Computer helfen die molekulare und die makroskopische Welt der Membranfusion in einem Bild zusammenzufügen. Für unsere Untersuchungen haben wir Modellmembranen, die aus Lipiddoppelschichten bestehen, benutzt. Diese Membranen formen sogenannte Vesikel oder Liposomen, abgeschlossene Membrane, in denen eine bestimmte Menge an Flüssigkeit enthalten ist. Indem wir Rezeptoren in die Membran einbringen, schaffen wir funkionalisierte Vesikel, die sich differenzieren, kooperieren und selektiv reagieren können. Wir benutzen positiv geladene wasserlösliche Ionen, um Wechselwirkungen zwischen den Vesikeln zu vermitteln, und lassen die Rezeptoren und die Ionen den Fusionsprozess auslösen. Die Wechselwirkungen werden unter dem Mikroskop durch spezielle Mikromechanischn Gerätz Mikromechinerien kontrolliert. Mit Hilfe einer sehr schnellen digitale Bildaufnahmetechnik ist es uns gelungen, die Fusion unserer Modellmembranen aufzunehmen und in Echtzeit zu dokumentieren mit einer Auflösung von 50 µs. Unsere Messungen können vergleichen werden mit Computersimulationen des Fusionsprozesses. Diese Simulationen untersuchen Prozesse, die zwischen 0.1 und 1 Mikrosekunde dauern. Eine Herausforderung für die Zukunft wird es sein, die Lücke zwischen den in Experimenten (50µs) und den in Simulationen zugänglichen Zeitskalen von beiden Seiten her zu schließen.
Adverb positioning is guided by syntactic, semantic, and pragmatic considerations and is subject to cross-linguistic as well as language-specific variation. The goal of the thesis is to identify the factors that determine adverb placement in general (Part I) as well as in constructions in which the adverb's sister constituent is deprived of its phonetic material by movement or ellipsis (gap constructions, Part II) and to provide an Optimality Theoretic approach to the contrasts in the effects of these factors on the distribution of adverbs in English, French, and German. In Optimality Theory (Prince & Smolensky 1993), grammaticality is defined as optimal satisfaction of a hierarchy of violable constraints: for a given input, a set of output candidates are produced out of which that candidate is selected as grammatical output which optimally satisfies the constraint hierarchy. Since grammaticality crucially relies on the hierarchic relations of the constraints, cross-linguistic variation can be traced back to differences in the language-specific constraint rankings. Part I shows how diverse phenomena of adverb placement can be captured by corresponding constraints and their relative rankings: - contrasts in the linearization of adverbs and verbs/auxiliaries in English and French - verb placement in German and the filling of the prefield position - placement of focus-sensitive adverbs - fronting of topical arguments and adverbs Part II extends the analysis to a particular phenomenon of adverb positioning: the avoidance of adverb attachment to a phonetically empty constituent (gap). English and French are similar in that the acceptability of pre-gap adverb placement depends on the type of adverb, its scope, and the syntactic construction (English: wh-movement vs. topicalization / VP Fronting / VP Ellipsis, inverted vs. non-inverted clauses; French: CLLD vs. Cleft, simple vs. periphrastic tense). Yet, the two languages differ in which strategies a specific type of adverb may pursue to escape placement in front of a certain type of gap. In contrast to English and French, placement of an adverb in front of a gap never gives rise to ungrammaticality in German. Rather, word ordering has to obey the syntactic, semantic, and pragmatic principles discussed in Part I; whether or not it results in adverb attachment to a phonetically empty constituent seems to be irrelevant: though constraints are active in every language, the emergence of a visible effect of their requirements in a given language depends on their relative ranking. The complex interaction of the diverse factors as well as their divergent effects on adverb placement in the various languages are accounted for by the universal constraints and their language-specific hierarchic relations in the OT framework.
Fault planes of large earthquakes incorporate inhomogeneous structures. This can be observed in teleseismic studies through the spatial distribution of slip and seismic moment release caused by the mainshock. Both parameters are often concentrated on patches on the fault plane with much higher values for slip and moment release than their adjacent areas. These patches are called asperities which obviously have a strong influence on the mainshock rupture propagation. Condition and properties of structures in the fault plane area, which are responsible for the evolution of such asperities or their significance on damage distributions of future earthquakes, are still not well understood and subject to recent geo-scientific studies. In the presented thesis asperity structures are identified on the fault plane of the Mw=8.0 Antofagasta earthquake in northern Chile which occurred on 30th of July, 1995. It was a thrust-type event in the seismogenic zone between the subducting pacific Nazca plate and the overriding South American plate. In cooperation of the German Task Force for Earthquakes and the CINCA'95 project a network of up to 44 seismic stations was set up to record the aftershock sequence. The seaward extension of the network with 9 OBH stations increased significantly the precision of hypocenter determinations. They were distributed mainly on the fault plane itself around the city of Antofagasta and Mejillones Peninsula. The asperity structures were recognized here by the spatial variations of local seismological parameters; at first by the spatial distribution of the seismic b-value on the fault plane, derived from the magnitude-frequency relation of Gutenberg-Richter. The correlation of this b-value map with other parameters like the mainshock source time function, the gravity isostatic residual anomalies, the aftershock radiated seismic energy distribution and the vp/vs ratios from a local earthquake tomograhpy study revealed some ideas about the composition and asperity generating processes. The investigation of 295 aftershock focal mechanism solutions supported the resulting fault plane structure and proposed a 3D similar stress state in the area of the Antofagasta fault plane.
Environmental stresses such as drought, high salt and low temperature affect plant growth and decrease crop productivity extremely. It is important to improve stress tolerance of the crop plant to increase crop yield under stress conditions. The Arabidopsis thaliana salt tolerance 1 gene (AtSTO1) was originally identified by Lippuner et al., (1996). In this study around 27 members of STO-like proteins were identified in Arabidopsis thaliana, rice and other plant species. The STO proteins have two consensus motifs (CCADEAAL and FCV(L)EDRA). The STO family members can be regarded as a distinct class of C2C2 proteins considering their low sequence similarity to other GATA like proteins and poor conservation in the C-terminus. AtSTO1 was found to be induced by salt, cold and drought in leaves and roots of 4-week-old Arabidopsis thaliana wild-type plants. The expression of AtSTO1 under salt and cold stress was more pronounced in roots than in leaves. The data provided here revealed that the AtSTO1 protein is localized in the nucleus. The observation that AtSTO1 localizes in the nucleus is consistent with its proposed function as a transcription factor. AtSTO1-dependent phenotypes were observed when plant were grown at 50 mM NaCl on agar plates. Leaves of AtSTO1 overexpression lines were bigger with dark green coloration, whereas stunted growth and yellowish leaves were observed in wild-type and RNAi plants. Also, the AtSTO1 overexpression plants when exposed to long-term cold stress had a red leaf coloration which was much stronger than in wild-type and RNAi lines. Growth of AtSTO1 overexpression lines in long term under salt and cold stress was always associated with long roots which was more pronounced than in wild-type and RNAi lines. Proline accumulation increased more strongly in leaves and roots of AtSTO1 overexpression lines than in tissues of wild-type and RNAi lines when treated with 200 mM NaCl, exposed to cold stress or when watering was prevented for one day or two weeks. Also, soluble sugar content increased to higher levels under salt, cold and drought stress in AtSTO1 overexpression lines when compared to wild-type and RNAi lines. The increase in soluble sugar content was detected in AtSTO1 overexpression lines after long-term (2 weeks) growth of plants under these stresses. Anthocyanins accumulated in leaves of AtSTO1 overexpression lines when exposed to long term salt stress (200 mM NaCl for 2 weeks) or to 4°C for 6 and 8 weeks. Also, anthocyanin content was increased in flowers of AtSTO1 overexpression plants kept at 4°C for 8 weeks. Taken together these data indicate that overexpression of AtSTO1 enhances abiotic stress toleranc via a more pronounced accumulation of compatible solutes under stress.
Statistik Lernen im Rahmen des Psychologiestudiums wurde als Untersuchungsgegenstand zur empirischen Überprüfung der angenommenen Wirkung volitionaler Handlungsregulation herangezogen. Neben fähigkeitsbezogenen und motivationalen Faktoren sollten bei dieser von vielen Studierenden aversiv erlebten Tätigkeit die Aspekte der volitionalen Handlungsregulation entscheidend sein. Nur Personen, die sich trotz des aversiven Tätigkeitserlebens zum Statistik Lernen "zwingen" können, sollten erfolgreich sein. Auf dem Hintergrund des Prozessmodells der Lernmotivation wurden die angenommenen Wirkungen der volitionalen Faktoren denen der motivationalen Einflussgrößen zugeordnet und in einem längsschnittlichen Design an zwei aufeinander folgenden Wintersemestern an der Universität Potsdam und an der TU Berlin empirisch überprüft (N = 273). Die Annahmen zu den fähigkeits- und motivationsrelevanten Faktoren des analyseleitenden Prozessmodells der Lernmotivation konnten weitgehend bestätigt werden. Die Personenmerkmale (fähigkeitsbezogene Merkmale, Leistungsmotiv und Commitment für das Psychologiestudium) bedingen zu einem wesentlichen Teil die Aspekte der aktuellen Motivation für das Statistik Lernen. Letztere wurde durch die Komponenten des Erweiterten Kognitiven Motivationsmodells (EKM) und anhand der Lernintentionen erfasst. Dabei zeigt sich, dass die aktuelle Motivation für das Statistik Lernen insgesamt günstig ausgeprägt ist. Die Aspekte der aktuellen Motivation beeinflussen wiederum Prozessvariablen wie den Lernaufwand, das emotionale Erleben und den Funktionszustand während des Lernens. Der Lernaufwand und das Flow-Erleben (als Indikator für den Funktionszustand) sowie deren Interaktion sagen die Klausurleistung am Ende des Semesters vorher (dies auch, wenn fähigkeitsbezogene Merkmale mit berücksichtigt werden). Vor dem Hintergrund des insgesamt theoriekonsistenten Gesamtbildes ergeben sich dennoch einige Abweichungen von den theoretischen Annahmen. Diese werden eingehend diskutiert. Entgegen der zentralen Annahme, tragen die dem Prozessmodell der Lernmotivation zugeordneten volitionalen Faktoren insgesamt betrachtet kaum zu einem weitergehenden Verständnis des Lernprozesses bei. Die theoretischen Annahmen können weitgehend nicht bestätigt werden. So sagen die volitionalen Faktoren nicht, wie angenommen, bei hoher instrumenteller Handlungsveranlassung und gleichzeitig aversivem Tätigkeitserleben Prozessmerkmale des Lernens vorher. Ausführlich diskutiert wird, inwieweit dies auf falsche theoretische Annahmen oder auf eine mangelnde Operationalisierung und Auswertung zurück geht. Zusätzlich zum Prozessmodell der Lernmotivation wurden weitergehende Annahmen zur Wirkung des impliziten und expliziten Leistungsmotivs überprüft. Dabei zeigt sich erwartungsgemäß, dass sich das implizite Leistungsmotiv beim Statistik Lernen bei einer individuellen Bezugsnorm förderlich auswirkt. Die moderierende Wirkung der sozialen Bezugsnorm für das explizite Leistungsmotiv kann anhand der vorliegenden Daten nicht bestätigt werden. Für das implizite Leistungsmotiv zeigt sich über die Annahmen hinaus eine förderliche Wirkung auf die Klausurteilnahme. Für Personen mit einem hohen impliziten Leistungsmotiv findet sich eine höhere Wahrscheinlichkeit, die Klausur mitzuschreiben. Dieser Befund macht den in der Leistungsmotivationsforschung gefundenen Zusammenhang zwischen Leistungsmotiv und Karriereerfolg "im Kleinen" verständlich. Theoretische Arbeiten legen nahe, dass die volitionale Handlungssteuerung nicht eine unabhängige, sondern eine zum Teil von dem Zusammenwirken der impliziten und expliziten Motivsysteme abhängige Größe darstellt. Für das Leistungsmotiv konnte dies bestätigt werden. So wirkt sich eine hohe Ausprägung des expliziten Leistungsmotivs dann positiv auf die volitionale Handlungssteuerung aus, wenn das implizite Leistungsmotiv hoch ausgeprägt ist. Die Ergebnisse bei den Machtmotivsystemen zeigen, dass nicht immer eine Übereinstimmung der Motive förderlich ist. Eine funktionale Perspektive scheint hier angemessen und weiterführend. Die Arbeit schließt mit der Frage, welche Motivkonstellationen im Sinne einer volitionalen Handlungssteuerung ideal sind. Dabei wird postuliert, dass das Wissen über implizite Vorlieben einer Person helfen sollte, für sie passende Situationen aktiv aufzusuchen oder herzustellen und dadurch eine volitionale Handlungssteuerung besser gelingt sowie diese Art der Steuerung weniger nötig macht.
New chain transfer agents based on dithiobenzoate and trithiocarbonate for free radical polymerization via Reversible Addition-Fragmentation chain Transfer (RAFT) were synthesized. The new compounds bear permanently hydrophilic sulfonate moieties which provide solubility in water independent of the pH. One of them bears a fluorophore, enabling unsymmetrical double end group labelling as well as the preparation of fluorescent labeled polymers. Their stability against hydrolysis in water was studied, and compared with the most frequently employed water-soluble RAFT agent 4-cyano-4-thiobenzoylsulfanylpentanoic acid dithiobenzoate, using UV-Vis and 1H-NMR spectroscopy. An improved resistance to hydrolysis was found for the new RAFT agents, providing good stabilities in the pH range between 1 and 8, and up to temperatures of 70°C. Subsequently, a series of non-ionic, anionic and cationic water-soluble monomers were polymerized via RAFT in water. In these experiments, polymerizations were conducted either at 48°C or 55°C, that are lower than the conventionally employed temperatures (>60°C) for RAFT in organic solvents, in order to minimize hydrolysis of the active chain ends (e.g. dithioester and trithiocarbonate), and thus to obtain good control over the polymerization. Under these conditions, controlled polymerization in aqueous solution was possible with styrenic, acrylic and methacrylic monomers: molar masses increase with conversion, polydispersities are low, and the degree of end group functionalization is high. But polymerizations of methacrylamides were slow at temperatures below 60°C, and showed only moderate control. The RAFT process in water was also proved to be a powerful method to synthesize di- and triblock copolymers including the preparation of functional polymers with complex structure, such as amphiphilic and stimuli-sensitive block copolymers. These include polymers containing one or even two stimuli-sensitive hydrophilic blocks. The hydrophilic character of a single or of several blocks was switched by changing the pH, the temperature or the salt content, to demonstrate the variability of the molecular designs suited for stimuli-sensitive polymeric amphiphiles, and to exemplify the concept of multiple-sensitive systems. Furthermore, stable colloidal block ionomer complexes were prepared by mixing anionic surfactants in aqueous media with a double hydrophilic block copolymer synthesized via RAFT in water. The block copolymer is composed of a noncharged hydrophilic block based on polyethyleneglycol and a cationic block. The complexes prepared with perfluoro decanoate were found so stable that they even withstand dialysis; notably they do not denaturate proteins. So, they are potentially useful for biomedical applications in vivo.
Taking inspiration from nature, where composite materials made of a polymer matrix and inorganic fillers are often found, e.g. bone, shell of crustaceans, shell of eggs, etc., the feasibility on making composite materials containing chitosan and nanosized hydroxyapatite were investigated. A new preparation approach based on a co-precipitation method has been developed. In its earlier stage of formation, the composite occurs as hydrogel as suspended in aqueous alkaline solution. In order to get solid composites various drying procedures including freeze-drying technique, air-drying at room temperature and at moderate temperatures, between 50oC and 100oC were used. Physicochemical studies showed that the composites exhibit different properties with respect to their structure and composition. IR and Raman spectroscopy probed the presence of both chitosan and hydroxyapatite in the composites. Hydroxyapatite as dispersed in the chitosan matrix was found to be in the nanosize range (15-50 nm) and occurs in a bimodal distribution with respect to its crystallite length. Two types of distribution domains of hydroxyapatite crystallites in the composite matrix such as cluster-like (200-400 nm) and scattered-like domains were identified by the transmission electron microscopy (TEM), X-ray diffraction (XRD) and by confocal scanning laser microscopy (CSLM) measurements. Relaxation NMR experiments on composite hydrogels showed the presence of two types of water sites in their gel networks, such as free and bound water. Mechanical tests showed that the mechanical properties of composites are one order of magnitude less than those of compact bone but comparable to those of porous bone. The enzymatic degradation rates of composites showed slow degradation processes. The yields of degradation were estimated to be less than 10% by loss of mass, after incubation with lysozyme, for a period of 50 days. Since the composite materials were found biocompatible by the in vivo tests, the simple mode of their fabrication and their properties recommend them as potential candidates for the non-load bearing bone substitute materials.
Zur Beherrschung großer Systeme, insbesondere zur Weitergabe und Nutzung von Erfahrungswissen in der frühen Entwurfs- und Planungsphase, benötigt man Abstraktionen für deren Strukturen. Trennt man Software- von Systemstrukturen, kann man mit letzteren Systeme auf ausreichend hohem Abstraktionsgrad beschreiben.Software-Patterns dienen dazu, Erfahrungswissen bezüglich programmierter Systeme strukturiert weiterzugeben. Dabei wird unterschieden zwischen Idiomen, die sich auf Lösungen mit einer bestimmten Programmiersprache beziehen, Design-Patterns, die nur einen kleinen Teil des Programms betreffen und Architektur-Patterns, deren Einfluss über einen größeren Teil oder gar das komplette Programm reicht. Eine Untersuchung von existierenden Patterns zeigt, dass deren Konzepte nützlich zum Finden von Systemstrukturen sind. Die grafische Darstellung dieser Patterns ist dagegen oft auf Software-Strukturen eingeschränkt und ist für die Vermittlung von Erfahrungen zum Finden von Systemstrukturen meist nicht geeignet. Daher wird die Kategorie der konzeptionellen Patterns mit einer darauf abgestimmten grafischen Darstellungsform vorgeschlagen, bei denen Problem und Lösungsvorschlag im Bereich der Systemstrukturen liegen. Sie betreffen informationelle Systeme, sind aber nicht auf Lösungen mit Software beschränkt. Die Systemstrukturen werden grafisch dargestellt, wobei dafür die Fundamental Modeling Concepts (FMC) verwendet werden, die zur Darstellung von Systemstrukturen entwickelt wurden.
This thesis work describes a new experimental method for the determination of Mode II (shear) fracture toughness, KIIC of rock and compares the outcome to results from Mode I (tensile) fracture toughness, KIC, testing using the International Society of Rock Mechanics Chevron-Bend method.Critical Mode I fracture growth at ambient conditions was studied by carrying out a series of experiments on a sandstone at different loading rates. The mechanical and microstructural data show that time- and loading rate dependent crack growth occurs in the test material at constant energy requirement.The newly developed set-up for determination of the Mode II fracture toughness is called the Punch-Through Shear test. Notches were drilled to the end surfaces of core samples. An axial load punches down the central cylinder introducing a shear load in the remaining rock bridge. To the mantle of the cores a confining pressure may be applied. The application of confining pressure favours the growth of Mode II fractures as large pressures suppress the growth of tensile cracks.Variation of geometrical parameters leads to an optimisation of the PTS- geometry. Increase of normal load on the shear zone increases KIIC bi-linear. High slope is observed at low confining pressures; at pressures above 30 MPa low slope increase is evident. The maximum confining pressure applied is 70 MPa. The evolution of fracturing and its change with confining pressure is described.The existence of Mode II fracture in rock is a matter of debate in the literature. Comparison of the results from Mode I and Mode II testing, mainly regarding the resulting fracture pattern, and correlation analysis of KIC and KIIC to physico-mechanical parameters emphasised the differences between the response of rock to Mode I and Mode II loading. On the microscale, neither the fractures resulting from Mode I the Mode II loading are pure mode fractures. On macroscopic scale, Mode I and Mode II do exist.
The role of feedback between erosional unloading and tectonics controlling the development of the Himalaya is a matter of current debate. The distribution of precipitation is thought to control surface erosion, which in turn results in tectonic exhumation as an isostatic compensation process. Alternatively, subsurface structures can have significant influence in the evolution of this actively growing orogen. Along the southern Himalayan front new 40Ar/39Ar white mica and apatite fission track (AFT) thermochronologic data provide the opportunity to determine the history of rock-uplift and exhumation paths along an approximately 120-km-wide NE-SW transect spanning the greater Sutlej region of the northwest Himalaya, India. 40Ar/39Ar data indicate, consistent with earlier studies that first the High Himalayan Crystalline, and subsequently the Lesser Himalayan Crystalline nappes were exhumed rapidly during Miocene time, while the deformation front propagated to the south. In contrast, new AFT data delineate synchronous exhumation of an elliptically shaped, NE-SW-oriented ~80 x 40 km region spanning both crystalline nappes during Pliocene-Quaternary time. The AFT ages correlate with elevation, but show within the resolution of the method no spatial relationship to preexisting major tectonic structures, such as the Main Central Thrust or the Southern Tibetan Fault System. Assuming constant exhumation rates and geothermal gradient, the rocks of two age vs. elevation transects were exhumed at ~1.4 ±0.2 and ~1.1 ±0.4 mm/a with an average cooling rate of ~50-60 °C/Ma during Pliocene-Quaternary time. The locus of pronounced exhumation defined by the AFT data coincides with a region of enhanced precipitation, high discharge, and sediment flux rates under present conditions. We therefore hypothesize that the distribution of AFT cooling ages might reflect the efficiency of surface processes and fluvial erosion, and thus demonstrate the influence of erosion in localizing rock-uplift and exhumation along southern Himalayan front, rather than encompassing the entire orogen.Despite a possible feedback between erosion and exhumation along the southern Himalayan front, we observe tectonically driven, crustal exhumation within the arid region behind the orographic barrier of the High Himalaya, which might be related to and driven by internal plateau forces. Several metamorphic-igneous gneiss dome complexes have been exhumed between the High Himalaya to the south and Indus-Tsangpo suture zone to the north since the onset of Indian-Eurasian collision ~50 Ma ago. Although the overall tectonic setting is characterized by convergence the exhumation of these domes is accommodated by extensional fault systems.Along the Indian-Tibetan border the poorly described Leo Pargil metamorphic-igneous gneiss dome (31-34°N/77-78°E) is located within the Tethyan Himalaya. New field mapping, structural, and geochronologic data document that the western flank of the Leo Pargil dome was formed by extension along temporally linked normal fault systems. Motion on a major detachment system, referred to as the Leo Pargil detachment zone (LPDZ) has led to the juxtaposition of low-grade metamorphic, sedimentary rocks in the hanging wall and high-grade metamorphic gneisses in the footwall. However, the distribution of new 40Ar/39Ar white mica data indicate a regional cooling event during middle Miocene time. New apatite fission track (AFT) data demonstrate that subsequently more of the footwall was extruded along the LPDZ in a brittle stage between 10 and 2 Ma with a minimum displacement of ~9 km. Additionally, AFT-data indicate a regional accelerated cooling and exhumation episode starting at ~4 Ma. Thus, tectonic processes can affect the entire orogenic system, while potential feedbacks between erosion and tectonics appear to be limited to the windward sides of an orogenic systems.
Ziel der vorliegenden Arbeit war die Entwicklung einer SNP-Genotypisierungsmethode mit auf Mikroarrays immobilisierten PCR-Produkten. Für die Analyse wurde ein faseroptischer Affinitätssensor bzw. ein Durchfluss-Biochip-Scanner mit integrierter Fluoreszenzdetektion verwendet. An den immobilisierten Analyten (PCR-Produkten) wurde eine Fluoreszenzoligonukleotidsonde hybridisiert und anschließend die Dissoziation der Sonde im Fluss verfolgt. Die Diskriminierung von Wildtyp- und Mutanten-DNA erfolgte durch die kinetische Auswertung der Dissoziationskurven sowie durch die Analyse der Fluoreszenzintensität. Die Versuche am faseroptischen Affinitätssensor zeigten, dass DNA-DNA-Hybride sowohl von Oligonukleotiden als auch von PCR-Produkten ein typisches Dissoziationsverhalten aufweisen, wobei fehlgepaarte Hybride eine signifikant schnellere Dissoziation zeigen als perfekt passende Hybride. Dieser Geschwindigkeitsunterschied lässt sich durch den Vergleich der jeweiligen kinetischen Geschwindigkeitskonstanten kD quantitativ erfassen. Da die Kopplung des Analyten an der Chipoberfläche sowie die Hybridisierungs- und Dissoziationsparameter essentiell für die Methodenentwicklung war, wurden die Parameter für ein optimales Spotting und die Immobilisierung von PCR-Produkten ermittelt. Getestet wurden die affine Kopplung von biotinylierten PCR-Produkten an Streptavidin-, Avidin- und NeutrAvidin-Oberflächen sowie die kovalente Bindung von phosphorylierten Amplifikaten mit der EDC/Methylimidazol-Methode. Die besten Ergebnisse sowohl in Spotform und -homogenität als auch im Signal/Rausch-Verhältnis wurden an NeutrAvidin-Oberflächen erreicht. Für die Etablierung der Mikroarray-Genotypisierungsmethode durch kinetische Analyse nach einem Hybridisierungsexperiment wurden Sondenlänge, Puffersystem, Spotting-Konzentration des Analyten sowie Temperatur optimiert. Das Analysensystem erlaubte es, PCR-Produkte mit einer Konzentration von 250 ng/µl in einem HEPES-EDTA-NaCl-Puffer auf mit NeutrAvidin beschichtete Glasträger zu spotten. In den anschließenden Hybridisierungs- und Dissoziationsexperimenten bei 30 °C konnte die Diskriminierung von homocygoter Wildtyp- und homocygoter Mutanten- sowie heterocygoter DNA am Beispiel von Oligonukleotid-Hybriden erreicht werden. In einer Gruppe von 24 homocygoten Patienten wurde ein Polymorphismus im SULT1A1-Gen analysiert. Sowohl durch kinetische Auswertung als auch mit der Analyse der Fluoreszenzintensität wurde der Genotyp der Proben identifiziert. Die Ergebnisse wurden mit dem Referenzverfahren, der Restriktionschnittstellenanalyse (PCR-RFLP) validiert. Lediglich ein Genotyp wurde falsch bestimmt, die Genauigkeit lag bei 96%. In einer Gruppe von 44 Patienten wurde der Genotyp eines SNP in der Adiponectin-Promotor-Region untersucht. Nach Vergleich der Analysenergebnisse mit denen eines Referenzverfahrens konnten lediglich 14 der untersuchten Genotypen bestätigt werden. Ursache für die unzureichende Genauigkeit der Methode war vor allem das schlechte Signal/Rausch-Verhältnis. Zusammenfassend kann gesagt werden, dass das in dieser Arbeit entwickelte Analysesystem für die Genotypisierung von Einzelpunktmutationen geeignet ist, homocygote Patientenproben zuverlässig zu analysieren. Prinzipiell ist das auch bei heterocygoter DNA möglich. Da nach aktuellem Kenntnisstand eine SNP-Analysemethode an immobilisierten PCR-Produkten noch nicht veröffentlicht wurde, stellt das hier entwickelte Verfahren eine Alternative zu bisher bekannten Mikroarray-Verfahren dar. Als besonders vorteilhaft erweist sich der reverse Ansatz der Methode. Der hier vorgestellte Ansatz ist eine kostengünstigere und weniger hoch dimensionierte Lösung für Fragestellungen beispielsweise in der Ernährungswissenschaft, bei denen meist eine mittlere Anzahl Patienten auf nur einige wenige SNPs zu untersuchen ist. Wenn es gelingt, durch die Weiterentwicklung der Hardware bzw. weiterer Optimierung, eine Verbesserung des Signal/Rausch-Verhältnisses und damit die Diskriminierung von heterocygoter DNA zu erreichen, kann diese Methode zukünftig bei der Analyse von mittelgroßen Patientengruppen alternativ zu anderen Genotypisierungsmethoden verwendet werden.
Die vorliegende Arbeit 'Abflußentwicklung in Teileinzugsgebieten des Rheins - Simulationen für den Ist-Zustand und für Klimaszenarien' untersucht Auswirkungen möglicher zukünftiger Klimaänderungen auf das Abflußgeschehen in ausgewählten, durch Mittelgebirge geprägten Teileinzugsgebieten des Rheins: Mosel (bis Pegel Cochem); Sieg (bis Pegel Menden 1) und Main (bis Pegel Kemmern).In einem ersten Schritt werden unter Verwendung des hydrologischen Modells HBV-D wichtige Modellprozesse entsprechend der Einzugsgebietscharakteristik parametrisiert und ein Abbild der Gebietshydrologie erzeugt, das mit Zeitreihen gemessener Tageswerte (Temperatur, Niederschlag) eine Zeitreihe der Pegeldurchflüsse simulieren kann. Die Güte der Simulation des Ist-Zustandes (Standard-Meßzeitraum 1.1.1961-31.12.1999) ist für die Kalibrierungs- und Validierungszeiträume in allen Untersuchungsgebieten gut bis sehr gut.Zur Erleichterung der umfangreichen, zeitaufwendigen einzugsgebietsbezogenen Datenaufbereitung für das hydrologische Modell HBV-D wurde eine Arbeitsumgebung auf Basis von Programmerweiterungen des Geoinformationssystems ArcView und zusätzlichen Hilfsprogrammen entwickelt. Die Arbeitsumgebung HBV-Params enthält eine graphische Benutzeroberfläche und räumt sowohl erfahrenen Hydrologen als auch hydrologisch geschulten Anwendern, z.B. Studenten der Vertiefungsrichtung Hydrologie, Flexibilität und vollständige Kontrolle bei der Ableitung von Parameterwerten und der Editierung von Parameter- und Steuerdateien ein. Somit ist HBV-D im Gegensatz zu Vorläuferversionen mit rudimentären Arbeitsumgebungen auch außerhalb der Forschung für Lehr- und Übungszwecke einsetzbar.In einem zweiten Schritt werden Gebietsniederschlagssummen, Gebietstemperaturen und simulierte Mittelwerte des Durchflusses (MQ) des Ist-Zustandes mit den Zuständen zweier Klimaszenarien für den Szenarienzeitraum 100 Jahre später (2061-2099) verglichen. Die Klimaszenarien beruhen auf simulierten Zirkulationsmustern je eines Modellaufes zweier Globaler Zirkulationsmodelle (GCM), die mit einem statistischen Regionalisierungsverfahren in Tageswertszenarien (Temperatur, Niederschlag) an Meßstationen in den Untersuchungsgebieten überführt wurden und als Eingangsdaten des hydrologischen Modells verwendet werden.Für die zweite Hälfte des 21. Jahrhunderts weisen beide regionalisierten Klimaszenarien eine Zunahme der Jahresmittel der Gebietstemperatur sowie eine Zunahme der Jahressummen der Gebietsniederschläge auf, die mit einer hohen Variabilität einhergeht. Eine Betrachtung der saisonalen (monatlichen) Änderungsbeträge von Temperatur, Niederschlag und mittlerem Durchfluß zwischen Szenarienzeitraum (2061-2099) und Ist-Zustand ergibt in allen Untersuchungsgebieten eine Temperaturzunahme (höher im Sommer als im Winter) und eine generelle Zunahme der Niederschlagssummen (mit starken Schwankungen zwischen den Einzelmonaten), die bei der hydrologischen Simulation zu deutlich höheren mittleren Durchflüssen von November bis März und leicht erhöhten mittleren Durchflüssen in den restlichen Monaten führen. Die Stärke der Durchflußerhöhung ist nach den individuellen Klimaszenarien unterschiedlich und im Sommer- bzw. Winterhalbjahr gegenläufig ausgeprägt. Hauptursache für die simulierte starke Zunahme der mittleren Durchflüsse im Winterhalbjahr ist die trotz Temperaturerhöhung der Klimaszenarien winterlich niedrige Evapotranspiration, so daß erhöhte Niederschläge direkt in erhöhten Durchfluß transformiert werden können.Der Vergleich der Untersuchungsgebiete zeigt in Einzelmonaten von West nach Ost abnehmende Änderungsbeträge der Niederschlagssummen, die als Hinweis auf die Bedeutung der Kontinentalitätseinflüsse auch unter geänderten klimatischen Bedingungen in Südwestdeutschland aufgefaßt werden könnten.Aus den regionalisierten Klimaszenarien werden Änderungsbeträge für die Modulation gemessener Zeitreihen mittels synthetischer Szenarien abgeleitet, die mit einem geringen Rechenaufwand in hydrologische Modellantworten überführt werden können. Die direkte Ableitung synthetischer Szenarien aus GCM-Ergebniswerten (bodennahe Temperatur und Gesamtniederschlag) an einzelnen GCM-Gitterpunkten erbrachte unbefriedigende Ergebnisse.Ob, in welcher Höhe und zeitlichen Verteilung die in den (synthetischen) Szenarien verwendeten Niederschlags- und Temperaturänderungen eintreten werden, kann nur die Zukunft zeigen. Eine Abschätzung, wie sich die Abflußverhältnisse und insbesondere die mittleren Durchflüsse der Untersuchungsgebiete bei möglichen Änderungen entwickeln würden, kann jedoch heute schon vorgenommen werden. Simulationen auf Szenariogrundlagen sind ein Weg, unbekannte zukünftige Randbedingungen sowie regionale Auswirkungen möglicher Änderungen des Klimasystems ausschnittsweise abzuschätzen und entsprechende Risikominderungsstrategien zu entwickeln. Jegliche Modellierung und Simulation natürlicher Systeme ist jedoch mit beträchtlichen Unsicherheiten verknüpft. Vergleichsweise große Unsicherheiten sind mit der zukünftigen Entwicklung des sozioökonomischen Systems und der Komplexität des Klimasystems verbunden. Weiterhin haben Unsicherheiten der einzelnen Modellbausteine der Modellkette Emissionsszenarien/Gaszyklusmodelle - Globale Zirkulationsmodelle/Regionalisierung - hydrologisches Modell, die eine Kaskade der Unsicherheiten ergeben, neben Datenunsicherheiten bei der Erfassung hydrometeorologischer Meßgrößen einen erheblichen Einfluß auf die Vertrauenswürdigkeit der Simulationsergebnisse, die als ein dargestellter Wert eines Ergebnisbandes zu interpretieren sind.Der Einsatz (1) robuster hydrologischer Modelle, die insbesondere temperaturbeeinflußte Prozesse adäquat beschreiben,(2) die Verwendung langer Zeitreihen (wenigsten 30 Jahre) von Meßwerten und(3) die gleichzeitige vergleichende Betrachtung von Klimaszenarien, die auf unterschiedlichen GCMs beruhen (und wenn möglich, verschiedene Emissionsszenarien berücksichtigen),sollte aus Gründen der wissenschaftlichen Sorgfalt, aber auch der besseren Vergleichbarkeit der Ergebnisse von Regionalstudien im noch jungen Forschungsfeld der Klimafolgenforschung beachtet werden.
The India-Eurasia continental collision zone provides a spectacular example of active mountain building and climatic forcing. In order to quantify the critically important process of mass removal, I analyzed spatial and temporal precipitation patterns of the oscillating monsoon system and their geomorphic imprints. I processed passive microwave satellite data to derive high-resolution rainfall estimates for the last decade and identified an abnormal monsoon year in 2002. During this year, precipitation migrated far into the Sutlej Valley in the northwestern part of the Himalaya and reached regions behind orographic barriers that are normally arid. There, sediment flux, mean basin denudation rates, and channel-forming processes such as erosion by debris-flows increased significantly. Similarly, during the late Pleistocene and early Holocene, solar forcing increased the strength of the Indian summer monsoon for several millennia and presumably lead to analogous precipitation distribution as were observed during 2002. However, the persistent humid conditions in the steep, high-elevation parts of the Sutlej River resulted in deep-seated landsliding. Landslides were exceptionally large, mainly due to two processes that I infer for this time: At the onset of the intensified monsoon at 9.7 ka BP heavy rainfall and high river discharge removed material stored along the river, and lowered the baselevel. Second, enhanced discharge, sediment flux, and increased pore-water pressures along the hillslopes eventually lead to exceptionally large landslides that have not been observed in other periods. The excess sediments that were removed from the upstream parts of the Sutlej Valley were rapidly deposited in the low-gradient sectors of the lower Sutlej River. Timing of downcutting correlates with centennial-long weaker monsoon periods that were characterized by lower rainfall. I explain this relationship by taking sediment flux and rainfall dynamics into account: High sediment flux derived from the upstream parts of the Sutlej River during strong monsoon phases prevents fluvial incision due to oversaturation the fluvial sediment-transport capacity. In contrast, weaker monsoons result in a lower sediment flux that allows incision in the low-elevation parts of the Sutlej River.
Identifikation des mitochondrialen Proteins Frataxin als stoffwechselmodulierenden Tumorsuppressor
(2004)
Die Krebsentstehung wurde vor rund 80 Jahren auf veränderten zellulären Energiestoffwechsel zurückgeführt. Diese Hypothese konnte bisher weder experimentell bewiesen noch widerlegt werden. Durch den Einsatz zweier Modellsysteme mit unterschiedlicher Expression des mitochondrialen Proteins Frataxin konnte in der vorliegenden Arbeit gezeigt werden, dass der mitochondriale Energiestoffwechsel einen Einfluss auf die Tumorentstehung zu besitzen scheint. Eine Reduktion des mitochondrialen Energiestoffwechsels wurde durch die hepatozytenspezifische Ausschaltung des mitochondrialen Proteins Frataxin in Mäusen erreicht. Der durch das Cre-/loxP-Rekombinasesystem erreichte organspezifische Knock-out wurde auf Transkriptions- und Translationsebene nachgewiesen. Anhand verminderter Aconitaseaktivität, geringeren Sauerstoffverbrauches und reduzierten ATP-Gehaltes im Lebergewebe wurde ein signifikant verminderter Energiestoffwechsel dargestellt. Zwar entsprach die Genotypenverteilung in den Versuchsgruppen der erwarteten Mendelschen Verteilung, dennoch war die mittlere Lebenserwartung der Knock-out-Tiere mit ca. 30 Wochen stark reduziert. Bereits in jungem Alter war bei diesen Tieren die Ausbildung von präneoplastischen Herden zu beobachten. Mit proteinbiochemischen Nachweistechniken konnte in Lebergewebe 4-8 Wochen alter Tiere eine verstärkte Aktivierung des Apoptosesignalweges (Cytochrom C im Zytosol, verstärkte Expression von Bax) sowie eine Modulation stressassoziierter Proteine (geringere Phosphorylierungsrate p38-MAPK, vermehrte Expression HSP-25, verminderte Expression HSP-70) aufgezeigt werden. Im inversen Ansatz wurde eine Steigerung des mitochondrialen Energiestoffwechsels durch stabile transgene Frataxinüberexpression in zwei Kolonkarzinomzelllinien erreicht. Diese Steigerung zeigte sich durch erhöhte Aconitaseaktivität, erhöhten Sauerstoffverbrauch, gesteigertes mitochondriales Membranpotenzial und erhöhten ATP-Gehalt in den Zellen. Die frataxinüberexprimierenden Zellen wuchsen signifikant langsamer als Kontrollzellen und zeigten im Soft-Agar-Assay und im Nacktmausmodell ein deutlich geringeres Potenzial zur Ausbildung von Kolonien bzw. Tumoren. Mittels Immunoblot war hier eine vermehrte Phosphorylierung der p38-MAPK festzustellen. Die zusammenfassende Betrachtung beider Modelle zeigt, dass ein reduzierter mitochondrialer Energiestoffwechsel durch Regulation der p38-MAPK und apoptotischer Signalwege ein erhöhtes Krebsrisiko zu verursachen vermag.
In Anlehnung an das Self-Regulated-Strategy-Development-Modell von Harris und Graham (1996) wurde das Selbstregulatorische Aufsatztraining (SAT) zur Förderung der Schreibkompetenz bei Grundschülern der 4. und 5. Klasse entwickelt. SAT integriert die Vermittlung von Schreibstrategien (hier: „Erzählendes Schreiben“) mit Merkmalen selbstgesteuerten Lernens (Zielsetzung, strategisches Planen, Selbstbewertung und Selbstkorrektur). Die Wirksamkeit des Trainings wurde in drei Studien untersucht: 1. Eine Pilotstudie diente der Überprüfung der prinzipiellen Eignung von SAT zur Förderung von Schreibleistungen bei Grundschülern der 5. Klassen (N = 42) und der Optimierung seiner Teilkomponenten und Vorgehensweisen. 2. In der Hauptuntersuchung wurden die Effektivität und Nachhaltigkeit des SAT-Programms bei Schülern der 4. Klasse (N = 154) im Vergleich zu zwei Bedingungen getestet: (a) der isolierten Einübung von Schreibstrategien (Aufsatztraining) und (b) konventionellem Aufsatzunterricht (Unterrichtskontrollgruppe). 3. In einer weiteren Studie wurde die Wirksamkeit des Trainings speziell bei Schülern mit ungünstigen Lernvoraussetzungen überprüft; die Studie diente zudem der Illustration des dabei gewählten Vorgehens am Einzelfall (N = 6). Die ermittelten Befunde sprechen übereinstimmend dafür, dass die Kombination aus strategischem plus selbstregulatorischem Training (SAT) die stärksten und nachhaltigsten Effekte auf die Schreibleistung erzielt. Der Trainingseffekt generalisiert zudem auf die Erinnerungsleistung bei der freien Wiedergabe einer Kurzgeschichte. Schüler mit schwachen Aufsatzleistungen und ungünstigen Lernvoraussetzungen profitieren von dem SAT-Programm in besonderem Maße. In der Diskussion werden Aufgaben für die zukünftige Forschung erörtert. Forschungsbedarf besteht u.a. hinsichtlich (a) einer stärkeren Verknüpfung von Schreibtrainings mit der kognitionspsychologischen Forschung; (b) der Dekomposition und gezielten Überprüfung der einzelnen Trainingskomponenten; (c) der Ausweitung des SAT-Programms auf andere Textgenre; (d) der Integration verfeinerter Revisionsstrategien in das Förderprogramm; und (e) dessen Implementierung in den Regelunterricht.
It is known that the efficiency of organic light-emitting devices (OLEDs) is strongly influenced by the ’quality′ of the thin films [1]. On the basis of this conviction, the work presented in this thesis aimed to obtain a better understanding of the structure of organic thin films of general interest in the field of organic light emitting devices by using scanning probe microscopies (SPMs). A not yet reported crystal structure of quaterthiophene film grown on potassium hydrogen (KHP) is determined by optical measurements, a simulation program, diffraction at both normal incidence and grazing angle and AFM. The crystal cell is triclinic with parameters a = 0.721 nm, b = 0.632 nm, c = 0.956 nm and a = 91°, b = 91.4°, g = 91° [2]. The morphologies of four organic thin films deposited on gold are characterized by ultra high vacuum scanning tunneling microscopy (UHV-STM). Terraces in an hexanethiol monolayer, lamellar structures in an azobenzenethiol monolayer, rods in a a poly(paraphenylenevinylene) oligomer film and a granular morphology in an oxadiazole film are shown. The topographies of a series of poly(3,4-ethylenedioxythiophene)/poly(styrenesulfonate) (PEDOT/PSS) films deposited on indium-tin oxide (ITO) and gold obtained from dispersions with PEDOT:PSS weight ratios of 1:20, 1:6 and 1:1 are investigated by AFM. It is demonstrated that the films show the same topography on gold and on ITO. It is shown that the PEDOT films eliminate the spike features of ITO. It is reported that PEDOT 1:20 and 1:6 appear indistinguishable between each other but different from PEDOT 1:1 (the most conductive). Coupling STM and I-d measurements, a not yet reported structural model of PEDOT 1:1 on gold is obtained [3]. In this model the surface presents grains and the bulk particles/domains rich in PEDOT embedded in a PEDOT-poor matrix. The equation of conductivity is derived. A STM investigation of four PEDOT films deposited on ITO obtained from dispersions with the same PEDOT:PSS weight ratio of 1:1 is carried out [4]. The films differ either for the presence of sorbitol or for a different synthetic route (and they present different conductivities). For the first time a quantitative and qualitative correlation between the nanometer-scale morphology of PEDOT films with and without sorbitol and their conductivity is established.
It has been known for several years that under certain conditions electrons can be confined within thin layers even if these layers consist of metal and are supported by a metal substrate. In photoelectron spectra, these layers show characteristic discrete energy levels and it has turned out that these lead to large effects like the oscillatory magnetic coupling technically exploited in modern hard disk reading heads. The current work asks in how far the concepts underlying quantization in two-dimensional films can be transferred to lower dimensionality. This problem is approached by a stepwise transition from two-dimensional layers to one-dimensional nanostructures. On the one hand, these nanostructures are represented by terraces on atomically stepped surfaces, on the other hand by atom chains which are deposited onto these terraces up to complete coverage by atomically thin nanostripes. Furthermore, self organization effects are used in order to arrive at perfectly one-dimensional atomic arrangements at surfaces. Angle-resolved photoemission is particularly suited as method of investigation because is reveals the behavior of the electrons in these nanostructures in dependence of the spacial direction which distinguishes it from, e. g., scanning tunneling microscopy. With this method intense and at times surprisingly large effects of one-dimensional quantization are observed for various exemplary systems, partly for the first time. The essential role of bandgaps in the substrate known from two-dimensional systems is confirmed for nanostructures. In addition, we reveal an ambiguity without precedent in two-dimensional layers between spacial confinement of electrons on the one side and superlattice effects on the other side as well as between effects caused by the sample and by the measurement process. The latter effects are huge and can dominate the photoelectron spectra. Finally, the effects of reduced dimensionality are studied in particular for the d electrons of manganese which are additionally affected by strong correlation effects. Surprising results are also obtained here. ---------------------------- Die Links zur jeweiligen Source der im Appendix beigefügten Veröffentlichungen befinden sich auf Seite 83 des Volltextes.
Die immunologische Kontrazeption mittels Zona pellucida (ZP) Proteinen gilt als vielversprechender Ansatz für die Reproduktionskontrolle verwilderter Haus- und Wildtierbestände. Da die Applikation von nativer ZP mit Nebenwirkungen verbunden ist, wird die Verwendung einzelner ZP Peptide als Bestandteil kontrazeptiver Vakzine als besonders aussichtsreich erachtet. Das Prinzip dieser nebenwirkungsfreien ZP Immunisierung ist die gezielte Trennung der Entzündungsreaktionen auslösenden T-Zell-Epitope der ZP von den kontrazeptiv wirkenden B-Zell-Epitopen. Niedermolekulare synthetische oder rekombinante Peptide allein sind gering immunogen und können somit keine ausreichende Immunantwort induzieren. Die Verwendung von Peptiden für die immunologische Kontrazeption erfordert daher ein „Vakzin-Design“, d. h. die gezielte Kombination der Peptide mit immunstimulierenden Substanzen (Liposomen, Carrierproteinen, Adjuvantien). Zielstellung der vorliegenden Arbeit war die Untersuchung des Potentials synthetischer Peptide für die Immunokontrazeption von verwilderten Hauskatzen (Felis catus). Dazu wurden zunächst relevante B-Zell-Epitope des felinen Zona pellucida Proteins, ZPB2, identifiziert und synthetisiert. Zwei der synthetischen Peptide (P3, P6) wurden zur Herstellung von Antikörpern an BSA konjugiert und zusammen mit Freundschem Adjuvans in Ratten verimpft. Die kontrazeptive Relevanz beider Peptide sowie der Ratten Anti-Peptid Antiseren wurde im in vitro Befruchtungssystem der Hauskatze geprüft. Zur Untersuchung der Immunogenität der Peptide in der Zielspezies Hauskatze erfolgte die Entwicklung von Vakzin-Prototypen für die einmalige Applikation. Neben der Eruierung der Stärke und Dauer der Immunantwort wurde durch Verpaarung der Tiere auch das kontrazeptive Potential in vivo abgeschätzt.
Gegenstand der Arbeit ist die lichtinduzierte Orientierung von multifunktionalen Polymeren, die u.a. für die Herstellung von optischen Schichten in Flüssigkristalldisplays verwendet werden können. Dafür wurden Polymere entwickelt, die wenigstens eine mesogene und eine lichtsensitive Gruppe enthalten. Diese Gruppen zeigen Eigenschaften, die für die Orientierung der kompletten Polymerfilme verantwortlich sind. Das Material wird dafür zunächst in einem ersten Schritt kurz mit linear polarisiertem Licht bestrahlt, wobei richtungsabhängig eine photochemische Reaktion an der lichtsensitiven Gruppe erfolgt und dadurch ein "Orientierungskeim" gelegt wird. Durch die thermische Ausrichtung der mesogenen Gruppen an den photochemisch generierten "Orientierungskeimen" erfolgt die komplette Orientierung des Filmes in einem zweiten Schritt. Dadurch wird eine hohe optische Anisotropie erhalten. Dieses Verfahren wurde als Zwei-Stufen-Bulk-Orientierungsprozess bezeichnet. In der vorliegenden Arbeit wurden die Photoreaktionen verschiedener lichtsensitiver Gruppen, wie z. B. Azobenzen, Stilben und Zimtsäureester und deren Orientierungsfähigkeit in flüssigkristallinen Polymeren untersucht. Der Orientierungsprozess wurde durch die Wahl geeigneter Bestrahlungsbedingungen optimiert. Die Effizienz der Orientierung wurde anhand der sich verändernden winkelabhängigen Absorptionseigenschaften und der Doppelbrechung des Materials analysiert. Es wurde gezeigt, dass eine effiziente lichtinduzierte Orientierung bei einer Vielzahl von flüssigkristallinen Polymeren realisierbar ist. So wurde z. B. erstmalig gefunden, dass durch eine Photo-Fries-Orientierung eine hohe optische Anisotropie erhalten werden kann. Außerdem wurde eine neue lichtsensitive Gruppe auf der Basis von Donor-Akzeptor-substituiertem Ethen entwickelt, die farbneutral ist und durch polarisiertes UV-Licht sowohl orientiert als auch re-orientiert werden kann. Es wurden weiterhin Polymere entwickelt, die zusätzlich zu den photosensitiven und flüssigkristallinen Einheiten, fluoreszierende Gruppen enthalten. Die Auswahl geeigneter Fluoreszenzverbindungen erfolgte aufgrund ihrer anisometrischen Form, ihrer Ordnungsparameter in einer niedermolekularen Flüssigkristallmischung und ihrer Photostabilität. Das Orientierungsverhalten von ausgewählten Fluorophoren wurde in sechs Ter- und zwei Copolymeren untersucht. Das Prinzip der Orientierung beruht auf einer kooperativen Ausrichtung der Seitengruppen. Aus diesem Grund kommt dem Nachweis der Kooperativität in der vorliegenden Arbeit eine besondere Stellung zu. Durch lichtinduzierte Bulk-Orientierung wurden Filme erhalten, welche durch eine richtungsabhängige Fluoreszenz und Absorption im sichtbaren- oder UV-Bereich charakterisiert sind. Die Fluoreszenz wird durch einige lichtsensitive Verbindungen komplett gelöscht. Die wahlweise erhaltenen anisotropen Filme von farbigen, fluoreszierenden oder farbneutralen Verbindungen, die zudem in kleinen Pixeln von wenigen Mikrometern orientiert werden können, eröffnen vielfältige Möglichkeiten für den Einsatz von multi-funktionalen Polymeren als optische Schichten in Flüssigkristalldisplays.
Ziel dieser Arbeit ist es, ein sequentielles Extraktionsverfahren zur Erfassung unterschiedlich stabiler Anteile der orgnischen Bodensubstanz (OBS) zu entwickeln und zu klären, ob ein Zusammenhang zwischen Löslichkeit und Stabilität besteht. Darüber hinaus sollen der Einfluss von Bewirtschaftungsmaßnahmen auf Menge und Zusammensetzung dieser OBS-Anteile und Zusammenhänge zwischen Fourier Transform Infrarot (FT-IR)-Spektroskopiedaten und der Kationenaustauschkapazität (KAK) der OBS analysiert werden. Für die Untersuchungen wurden Böden der Langzeitfeldexperimente (LFE) in Halle, Bad Lauchstädt und Rotthalmünster beprobt. Zur Erfassung unterschiedlicher OBS-Fraktionen wurden im ersten Schritt die wasserlöslichen OBS-Anteile (OBS(W)-Fraktion) aus den Böden isoliert. Im zweiten Schritt wurden aus den Extraktionsrückständen der Wasserextraktion OBS-Anteile mit einer Natrium (Na)-Pyrophosphatlösung extrahiert (OBS(PY)-Fraktion). Die Stabilität der OBS-Fraktionen wurde anhand von δ13C-Bestimmungen und 14C-Messungen untersucht. Die Charakterisierung der Zusammensetzung der OBS-Fraktionen erfolgte mittels FT-IR Spektroskopie. Generell wird mit der OBS(PY)-Fraktion ein größerer Anteil am organischen Kohlenstoffgehalt der Böden erfasst als mit der OBS(W)-Fraktion. Die δ13C- und 14C-Daten zeigen, dass die OBS(W)-Fraktion höhere Anteile jungen organischen Materials als die OBS(PY)-Fraktion enthält. Das entwickelte sequentielle Extraktionsverfahren ist also prinzipiell geeignet unterschiedlich stabile OBS-Anteile anhand ihrer Löslichkeit zu isolieren. Mittels FT-IR spektroskopischer Untersuchungen wird festgestellt, dass Bewirtschaftungsmaßnahmen, wie die Düngung, sowie Standorteigenschaften die Zusammensetzung der OBS-Fraktionen beeinflussen. Für die OBS(PY)-Fraktion ist dies stärker ausgeprägt als für die OBS(W)-Fraktion. Die KAK der OBS(PY)-Fraktion aus den Böden der LFE in Halle und Bad Lauchstädt ist positiv mit der Absorptionsintensität der C=O-Bande in den FT-IR Spektren dieser OBS-Fraktion korreliert.
The topic of synchronization forms a link between nonlinear dynamics and neuroscience. On the one hand, neurobiological research has shown that the synchronization of neuronal activity is an essential aspect of the working principle of the brain. On the other hand, recent advances in the physical theory have led to the discovery of the phenomenon of phase synchronization. A method of data analysis that is motivated by this finding - phase synchronization analysis - has already been successfully applied to empirical data. The present doctoral thesis ties up to these converging lines of research. Its subject are methodical contributions to the further development of phase synchronization analysis, as well as its application to event-related potentials, a form of EEG data that is especially important in the cognitive sciences. The methodical contributions of this work consist firstly in a number of specialized statistical tests for a difference in the synchronization strength in two different states of a system of two oscillators. Secondly, in regard of the many-channel character of EEG data an approach to multivariate phase synchronization analysis is presented. For the empirical investigation of neuronal synchronization a classic experiment on language processing was replicated, comparing the effect of a semantic violation in a sentence context with that of the manipulation of physical stimulus properties (font color). Here phase synchronization analysis detects a decrease of global synchronization for the semantic violation as well as an increase for the physical manipulation. In the latter case, by means of the multivariate analysis the global synchronization effect can be traced back to an interaction of symmetrically located brain areas.<BR> The findings presented show that the method of phase synchronization analysis motivated by physics is able to provide a relevant contribution to the investigation of event-related potentials in the cognitive sciences.
The overall objective of the study is an elaboration of quantitative methods for national conservation planning, coincident with the international approach ('hotspots' approach). This objective requires a solution of following problems: 1) How to estimate large scale vegetation diversity from abiotic factors only? 2) How to adopt 'global hotspots' approach for bordering of national biodiversity hotspots? 3) How to set conservation targets, accounting for difference in environmental conditions and human threats between national biodiversity hotspots? 4) How to design large scale national conservation plan reflecting hierarchical nature of biodiversity? The case study for national conservation planning is Russia. Conclusions: · Large scale vegetation diversity can be predicted to a major extent by climatically determined latent heat for evaporation and geometrical structure of landscape, described as an altitudinal difference. The climate based model reproduces observed species number of vascular plant for different areas of the world with an average error 15% · National biodiversity hotspots can be mapped from biotic or abiotic data using corrected for a country the quantitative criteria for plant endemism and land use from the 'global hotspots' approach · Quantitative conservation targets, accounting for difference in environmental conditions and human threats between national biodiversity hotspots can be set using national data for Red Data book species · Large scale national conservation plan reflecting hierarchical nature of biodiversity can be designed by combination of abiotic method at national scale (identification of large scale hotspots) and biotic method at regional scale (analysis of species data from Red Data book)
In this thesis the magnetohydrodynamic jet formation and the effects of magnetic diffusion on the formation of axisymmetric protostellar jets have been investigated in three different simulation sets. The time-dependent numerical simulations have been performed, using the magnetohydrodynamic ZEUS-3D code.
Robotic telescopes & Doppler imaging : measuring differential rotation on long-period active stars
(2004)
The sun shows a wide variety of magnetic-activity related phenomena. The magnetic field responsible for this is generated by a dynamo process which is believed to operate in the tachocline, which is located at the bottom of the convection zone. This dynamo is driven in part by differential rotation and in part by magnetic turbulences in the convection zone. The surface differential rotation, one key ingredient of dynamo theory, can be measured by tracing sunspot positions.To extend the parameter space for dynamo theories, one can extend these measurements to other stars than the sun. The primary obstacle in this endeavor is the lack of resolved surface images on other stars. This can be overcome by the Doppler imaging technique, which uses the rotation-induced Doppler-broadening of spectral lines to compute the surface distribution of a physical parameter like temperature. To obtain the surface image of a star, high-resolution spectroscopic observations, evenly distributed over one stellar rotation period are needed. This turns out to be quite complicated for long period stars. The upcoming robotic observatory STELLA addresses this problem with a dedicated scheduling routine, which is tailored for Doppler imaging targets. This will make observations for Doppler imaging not only easier, but also more efficient.As a preview of what can be done with STELLA, we present results of a Doppler imaging study of seven stars, all of which show evidence for differential rotation, but unfortunately the errors are of the same order of magnitude as the measurements due to unsatisfactory data quality, something that will not happen on STELLA. Both, cross-correlation analysis and the sheared image technique where used to double check the results if possible. For four of these stars, weak anti-solar differential rotation was found in a sense that the pole rotates faster than the equator, for the other three stars weak differential rotation in the same direction as on the sun was found.Finally, these new measurements along with other published measurements of differential rotation using Doppler imaging, were analyzed for correlations with stellar evolution, binarity, and rotation period. The total sample of stars show a significant correlation with rotation period, but if separated into antisolar and solar type behavior, only the subsample showing anti-solar differential rotation shows this correlation. Additionally, there is evidence for binary stars showing less differential rotation as single stars, as is suggested by theory. All other parameter combinations fail to deliver any results due to the still small sample of stars available.
In this work, the basic principles of self-organization of diblock copolymers having the in¬herent property of selective or specific non-covalent binding were examined. By the introduction of electrostatic, dipole–dipole, or hydrogen bonding interactions, it was hoped to add complexity to the self-assembled mesostructures and to extend the level of ordering from the nanometer to a larger length scale. This work may be seen in the framework of biomimetics, as it combines features of synthetic polymer and colloid chemistry with basic concepts of structure formation applying in supramolecular and biological systems. The copolymer systems under study were (i) block ionomers, (ii) block copolymers with acetoacetoxy chelating units, and (iii) polypeptide block copolymers.
Substanzen der pharmazeutischen und chemischen Industrie müssen nach internationalen Richtlinien auf deren Toxizität gegenüber Mensch und Umwelt geprüft werden. Dazu gehören u. a. Prüfungen zur Vorhersage des embryotoxischen Potentials, die am lebenden Organismus durchgeführt werden. Mit dem Ziel die Anzahl der Tierversuche zu verringern, die notwendig sind um das toxikologische Profil einer Prüfsubstanz zu bestimmen, wurde der Embryonale Stammzelltest (EST) entwickelt. Als Grundlage des EST dienen embryonale Stammzellen (ES-Zellen) einer Zelllinie. ES-Zellen sind Zellen, die sich in der frühen embryonalen Entwicklung in die Zellen der Keimblätter entwickeln können. Daraus wiederum differenzieren die vielen verschiedenen, unterschiedlich spezialisierten Zelltypen des komplexen Organismus. Im EST wird die Konzentration einer Prüfsubstanz bestimmt, bei der die Differenzierung von ES-Zellen zu Herzmuskelzellen zu 50 % inhibiert wird. Zusätzlich wird die Konzentration der Prüfsubstanz bestimm°t, bei der 50 % der ES-Zellen (IC50D3) bzw. Fibroblastenzellen (IC503T3) absterben. Die allgemeine Toxizität ist damit von der spezifischen Toxizität der Prüfsubstanz auf die ES-Zellen und deren Differenzierung unterscheidbar. Die Parameter fliessen in ein biostatistisches Modell zur Prädiktion des embryotoxischen Potentials der Prüfsubstanzen ein. Es wurde ein Versuchsprotokoll entwickelt, wonach die ES-Zellen sich verstärkt zu Endothelzellen differenzieren. Die Endothelzellen, die im lebenden Organismus die Wand der späteren Blutgefässe, wie Venen und Arterien bilden, wurden mittels molekularbiologischer Methoden auf der RNA- und der Protein-Ebene nachgewiesen und quantifiziert. Verschiedene Zellkulturmethoden, Wachstumsfaktoren, als auch Wachstumsfaktorkonzentrationen wurden auf deren Vermögen die Differenzierung der ES-Zellen zu Endothelzellen zu induzieren, untersucht. Nach der Etablierung des Differenzierungsprotokolls wurden sieben Substanzen auf deren Vermögen geprüft, die Differenzierung von ES-Zellen zu Endothelzellen zu inhibieren. Die Endothelzellen wurden dabei über die Expression der RNA von zwei endothelzellspezifischen Genen quantifiziert. Im Vergleich dazu wurden die IC50D3 und die IC503T3 der Prüfsubstanz bestimmt, um eine Abschätzung des embryotoxischen Potentials der Prüfsubstanz zu ermöglichen. Die Ergebnisse zeigten, dass eine Abschätzung des embryotoxischen Potentials der sieben Prüfsubstanzen in nicht-, schwach- oder stark embryotoxisch vorgenommen werden konnte. Es ist zu schlussfolgern, dass der weiterentwickelte in vitro Embryotoxizitätsassay sensitiv und reproduzierbar ist. Mit der Verwendung von verschiedenen Differenzierungsendpunkten kann die Prädiktionskraft des Assays deutlich verbessert, und die Anzahl von Tierversuchen verringert werden. Durch die Verwendung von molekularbiologischen Markern kann der Assay einem Hochdurchsatzscreening zugängig gemacht werden und damit die Anzahl von Prüfsubstanzen deutlich erhöht werden.
Following work is embedded in the multidisciplinary study DESERT (DEad SEa Rift Transect) that has been carried out in the Middle East since the beginning of the year 2000. It focuses on the structure of the southern Dead Sea Transform (DST), the transform plate boundary between Africa (Sinai) and the Arabian microplate. The left-lateral displacement along this major active strike-slip fault amounts to more than 100 km since Miocene times. The DESERT near-vertical seismic reflection (NVR) experiment crossed the DST in the Arava Valley between Red Sea and Dead Sea, where its main fault is called Arava Fault. The 100 km long profile extends in a NW—SE direction from Sede Boqer/Israel to Ma'an/Jordan and coincides with the central part of a wide-angle seismic refraction/reflection line. Near-vertical seismic reflection studies are powerful tools to study the crustal architecture down to the crust/mantle boundary. Although they cannot directly image steeply dipping fault zones, they can give indirect evidence for transform motion by offset reflectors or an abrupt change in reflectivity pattern. Since no seismic reflection profile had crossed the DST before DESERT, important aspects of this transform plate boundary and related crustal structures were not known. Thus this study aimed to resolve the DST's manifestation in both the upper and the lower crust. It was to show, whether the DST penetrates into the mantle and whether it is associated with an offset of the crust/mantle boundary, which is observed at other large strike-slip zones. In this work a short description of the seismic reflection method and the various processing steps is followed by a geological interpretation of the seismic data, taking into account relevant information from other studies. Geological investigations in the area of the NVR profile showed, that the Arava Fault can partly be recognized in the field by small scarps in the Neogene sediments, small pressure ridges or rhomb-shaped grabens. A typical fault zone architecture with a fault gauge, fault-related damage zone, and undeformed host rock, that has been reported from other large fault zones, could not be found. Therefore, as a complementary part to the NVR experiment, which was designed to resolve deeper crustal structures, ASTER (Advanced Spacebourne Thermal Emission and Reflection Radiometer) satellite images were used to analyze surface deformation and determine neotectonic activity.
Die Hochwasserereignisse der letzten Jahre haben Mängel bei der schnellen Verfügbarkeit des klassischen Darstellungs-, Entscheidungs- und Analyseinstruments Karte offenbart. Die Erfahrungen von 1997 und 2002 verdeutlichen, dass eine homogene digitale Datengrundlage, die neben rein topographischen zusätzlich auch fachspezifische Informationen des Hochwasserschutzes enthält, für eine effektive Bekämpfung solcher Ereignisse notwendig ist. Mit den Daten des ,Amtlichen Topographisch-Kartographischen Informationssystems’ (ATKIS) liegen topographische Basisdaten in graphikfreier Form als digitales Landschaftsmodell (DLM) flächendeckend für die Bundesrepublik vor. Anhand der exemplarischen Ableitung von nutzerorientierten Kartenmodellen aus diesen graphikfreien Daten wurde deren Eignung für den besonderen Verwendungszweck im Rahmen eines Hochwasserschutz-Informationssystems überprüft. Als Anwendungsbeispiel wurde das Gebiet der Ziltendorfer Niederung, die während des Oder-Hochwassers 1997 überflutet wurde, gewählt. In Expertengesprächen wurden zunächst Inhalte identifiziert, die für einen wirksamen Hochwasserschutz Relevanz besitzen; diese Inhalte wurden anschließend analog zum ATKIS-Systemdesign strukturiert und als Objekte eines separaten Objektbereichs im digitalen Fachmodell (DFM) erfasst. Bei der Ableitung von (Bildschirm-) Karten aus den graphikfreien Daten wurden jeweils unterschiedliche Kriterien für die Basiskarte und die Fachinhalte berücksichtigt. Dabei wurden verschiedene kartographische Regeln und Gesetze mit dem Ziel der prägnanten Visualisierung und damit der eindeutigen Lesbarkeit der Karten angewendet. Beispielhaft sei hier die Schaffung einer visuellen Hierarchie zwischen Basiskarte und Fachinhalten genannt. Die besonderen Nutzungsbedingungen von Karten im Einsatzfall erfordern u.a., dass die Karten auch von Personen, die nur über geringe oder keine Erfahrung im Umgang mit Karten verfügen, schnell und einfach zu lesen sind, um so eine sichere Informationsvermittlung zu gewährleisten. Voraussetzung dafür ist einerseits die Beschränkung auf die Darstellung der wesentlichen Inhalte, andererseits die Verwendung leicht lesbarer Kartenzeichen. Aus diesem Grund wurden einheitliche Kartenzeichen zur Darstellung der Fachinhalte entwickelt, die entweder aus allgemein bekannten Symbolen, aus den im Katastrophenschutz üblicherweise verwendeten sog. taktischen Zeichen oder aus Fachzeichen des Hochwasserschutzes abgeleitet wurden. Die entwickelten Kartenmodelle wurden abschließend in qualitativen Experteninterviews in Bezug auf ihre Qualität und Verwendbarkeit im Hochwasserschutz geprüft. Die Auswertung der Interviews ergab eine insgesamt positive Beurteilung der Karten für den Einsatz in Hochwasserschutz-Informationssystemen. Damit leistet die vorliegende Arbeit einen Beitrag zur Entwicklung von (Bildschirm-) Karten zur Unterstützung bei der Entscheidungsfindung im Katastrophenmanagement.
The age-by-complexity effect is the dominant empirical pattern in cognitive aging. The current report investigates whether a specific high-level mechanism---an age-related decrease in the reliability of episodic accumulators---can account for the age-by-complexity-effect, which is commonly assumed to be caused by an unspecific, low-level deficit. Groups of younger and older adults are compared in six reaction time experiments, using orthogonal manipulations of early cognitive difficulty (e.g., Stroop condition) and episodic demands (e.g., stimulus-response mapping). The predicted three-way interaction of age and the two factors was observed fairly consistently across experiments. A modified Brinley analysis shows that different regression slopes in old-young-space are required for conditions with low and high episodic difficulty. As a methodological contribution, a Brinley regression model following from certain simple processing assumptions is developed. It is shown that in contrast to a standard Brinley meta-analysis, the regression slopes in this model are not influenced by theoretically un-interesting between-experiment variance.
The goal of this work was to study the binding of ions to polymers and lipid bilayer membranes in aqueous solutions. In the first part of this work, the influence of various inorganic salts and polyelectrolytes on the structure of water was studied using Isothermal Titration Calorimetry (ITC). The heat of dilution of the salts was used as a scale of water structure making and breaking of the ions. The heats of dilution could be attributed to the Hofmeister Series. Following this, the binding of Ca2+ to poly(sodium acrylate) (NaPAA) was studied. ITC and a Ca2+ Ion Selective Electrode were used to measure the reaction enthalpy and binding isotherm. Binding of Ca2+ ions to PAA, was found to be highly endothermic and therefore solely driven by entropy. We then compared the binding of ions to the one-dimensional PAA polymer chain to the binding to lipid vesicles with the same functional groups. As for the polymer, Ca2+ binding was found to be endothermic. Binding of calcium to the lipid bilayer was found to be weaker than to the polymer. In the context of these experiments, it was shown that Ca2+ not only binds to charged but also to zwitterionic lipid vesicles. Finally, we studied the interaction of two salts, KCl and NaCl, to a neutral polymer gel, PNIPAAM, and to the ionic polymer PAA. Combining calorimetry and a potassium selective electrode we observed that the ions interact with both polymers, whether containing charges or not.
Adherent cells constantly collect information about the mechanical properties of their extracellular environment by actively pulling on it through cell-matrix contacts, which act as mechanosensors. In recent years, the sophisticated use of elastic substrates has shown that cells respond very sensitively to changes in effective stiffness in their environment, which results in a reorganization of the cytoskeleton in response to mechanical input. We develop a theoretical model to predict cellular self-organization in soft materials on a coarse grained level. Although cell organization in principle results from complex regulatory events inside the cell, the typical response to mechanical input seems to be a simple preference for large effective stiffness, possibly because force is more efficiently generated in a stiffer environment. The term effective stiffness comprises effects of both rigidity and prestrain in the environment. This observation can be turned into an optimization principle in elasticity theory. By specifying the cellular probing force pattern and by modeling the environment as a linear elastic medium, one can predict preferred cell orientation and position. Various examples for cell organization, which are of large practical interest, are considered theoretically: cells in external strain fields and cells close to boundaries or interfaces for different sample geometries and boundary conditions. For this purpose the elastic equations are solved exactly for an infinite space, an elastic half space and the elastic sphere. The predictions of the model are in excellent agreement with experiments for fibroblast cells, both on elastic substrates and in hydrogels. Mechanically active cells like fibroblasts could also interact elastically with each other. We calculate the optimal structures on elastic substrates as a function of material properties, cell density and the geometry of cell positioning, respectively, that allows each cell to maximize the effective stiffness in its environment due to the traction of all the other cells. Finally, we apply Monte Carlo simulations to study the effect of noise on cellular structure formation. The model not only contributes to a better understanding of many physiological situations. In the future it could also be used for biomedical applications to optimize protocols for artificial tissues with respect to sample geometry, boundary condition, material properties or cell density.
This work deals with the connection between two basic phenomena in Nonlinear Dynamics: synchronization of chaotic systems and recurrences in phase space. Synchronization takes place when two or more systems adapt (synchronize) some characteristic of their respective motions, due to an interaction between the systems or to a common external forcing. The appearence of synchronized dynamics in chaotic systems is rather universal but not trivial. In some sense, the possibility that two chaotic systems synchronize is counterintuitive: chaotic systems are characterized by the sensitivity ti different initial conditions. Hence, two identical chaotic systems starting at two slightly different initial conditions evolve in a different manner, and after a certain time, they become uncorrelated. Therefore, at a first glance, it does not seem to be plausible that two chaotic systems are able to synchronize. But as we will see later, synchronization of chaotic systems has been demonstrated. On one hand it is important to investigate the conditions under which synchronization of chaotic systems occurs, and on the other hand, to develop tests for the detection of synchronization. In this work, I have concentrated on the second task for the cases of phase synchronization (PS) and generalized synchronization (GS). Several measures have been proposed so far for the detection of PS and GS. However, difficulties arise with the detection of synchronization in systems subjected to rather large amounts of noise and/or instationarities, which are common when analyzing experimental data. The new measures proposed in the course of this thesis are rather robust with respect to these effects. They hence allow to be applied to data, which have evaded synchronization analysis so far. The proposed tests for synchronization in this work are based on the fundamental property of recurrences in phase space.
In einer multiplen Einzelfallstudie mit zehn aphasischen Patienten wurde die Wirksamkeit eines semantischen und eines phonologischen Therapieansatzes zur Behandlung von Wortabrufstörungen verglichen. Detaillierte Einzelfalluntersuchungen ermöglichten die Diagnose der zugrundeliegenden funktionalen Störungen bei jedem Patienten. Auf diese Weise konnten die erzielten Therapieeffekte auf die individuellen kognitiv-neurolinguistischen Störungsmuster bezogen werden. Im Vordergrund der Therapie stand in beiden Ansätzen das mündliche Benennen von Objektabbildungen mit unterschiedlichen Arten von Hilfen. Während in der semantischen Therapie Teilaspekte des semantischen Zielkonzepts als Benennhilfen eingesetzt wurden, handelte es sich bei den phonologischen Hilfen um Teilinformationen der Zielwortform. Bei der Erhebung von spezifischen Therapieeffekten wurde zwischen itemspezifischen und itemübergreifenden Verbesserungen sowie kurz- und langfristigen Effekten auf die mündlichen Benennleistungen unterschieden. Dabei wurden neben den quantitativen Verbesserungen (% korrekt) auch die qualitativen Effekte (Fehlertypen) der beiden Ansätze berücksichtigt, und es wurden Transfereffekte in die Spontansprache der Patienten untersucht. Zusätzlich wurden auch die Soforteffekte der verschiedenen Benennhilfen in den Therapiesitzungen erhoben. Im Methodenvergleich zeigte sich, dass die phonologische Therapiephase kurzfristig bei der Mehrzahl der Patienten signifikante Verbesserungen beim Bildbenennen bewirkte, diese Effekte haben sich jedoch überwiegend als nicht stabil erwiesen. Im Gegensatz dazu erwies sich die semantische Therapiephase auch als langfristig effektiv. Im Unterschied dazu erwiesen sich die phonologischen Benennhilfen bei fast allen Patienten als unmittelbar effektiver als die semantischen Benennhilfen. Somit waren die Soforteffekte der Hilfetypen in den Therapiesitzungen kein sicherer Indikator für die Dauer der Gesamteffekte einer Therapiephase. Außerdem zeigte sich nicht bei allen Patienten ein direkter Zusammenhang zwischen der Art ihrer zugrundeliegenden funktionalen Störung und den erzielten Therapieeffekten. Einerseits profitierten Patienten mit erhaltenen semantischen Verarbeitungsleistungen von der semantischen Therapie, andererseits zeigten sich signifikante phonologische Therapieeffekte bei Patienten mit zentral-semantischen Störungen. Die Wirkmechanismen der beiden Therapieansätze werden unter Berücksichtigung unterschiedlicher kognitiv-neurolinguistischer Theorien zum mündlichen Wortabrufprozess beim Bildbenennen interpretiert.
Entsprechend der sogenannten Set-point-Theorie besitzt jeder Mensch eine individuell festgelegte Körpermasse, die über große Zeiträume konstant gehalten und gegen Abweichungen verteidigt wird. Es wird angenommen, dass der Körper auf noch unbekannte Weise Änderungen in der Körpermasse per se wahrnimmt und daraufhin Mechanismen aktiviert, die zur Regenerierung der ursprünglichen Masse führen. In dieser Arbeit wurde die Hypothese getestet, dass eine künstliche Erhöhung der Körpermasse zu einer kompensatorischen Reduktion in der Körpermasse führt, um das Ausgangsgewicht wieder zu regenerieren. Die Körpermasse von männlichen und weiblichen Mäusen wurde akut durch die Implantation von Gewichten mit einer Masse von 10% der aktuellen Körpermasse in die Bauchhöhle erhöht. Bei Gültigkeit der Set-point-Theorie sollte die Körpermassereduktion der Masse des zusätzlichen Gewichtsimplantats entsprechen. Die Mäuse reagierten auf die künstlich erhöhte Körpermasse geschlechtsspezifisch. Männchen zeigten eine partielle Reduktion in der Körpermasse. Weibchen zeigten langfristig jedoch keine Änderungen in der Körpermasse. Die Reduktion der Körpermasse erfolgte bei den Männchen durch eine Abnahme in der Fettmasse. Die fettfreie Masse war in beiden Geschlechtern nicht verändert. Änderungen in der Körpermasse wurden vor allem durch Änderungen in der Energieaufnahme hervorgerufen. Ein Einfluss des Energieumsatzes auf Änderungen in der Körpermasse konnte nicht nachgewiesen werden. Die Regulation der Körpermasse entsprechend eines massespezifischen Set-points konnte partiell für die Männchen gezeigt werden. Bei den Männchen könnte daher die Wahrnehmung der Körpermasse in die Regulation der Körpermasse teilweise integriert sein. Weibchen verminderten ihre Körpermasse dagegen trotz der künstlichen Körpermasseerhöhung nicht. Das führte zur Bewahrung der Energiereserven und spricht eher für die Regulation der Körpermasse entsprechend des notwendigen Energiebedarfs im Vergleich zu Änderungen in der Körpermasse per se. Diese Ergebnisse zeigen, dass die Regulation der Körpermasse geschlechtsspezifischen Mechanismen unterliegt. Dementsprechend sind auch geschlechtsspezifische Ansätze zur Therapie von Übergewicht und Adipositas notwendig.
Paleomagnetic dating of climatic events in Late Quaternary sediments of Lake Baikal (Siberia)
(2004)
Lake Baikal provides an excellent climatic archive for Central Eurasia as global climatic variations are continuously depicted in its sediments. We performed continuous rock magnetic and paleomagnetic analyses on hemipelagic sequences retrieved from 4 underwater highs reaching back 300 ka. The rock magnetic study combined with TEM, XRD, XRF and geochemical analyses evidenced that a magnetite of detrital origin dominates the magnetic signal in glacial sediments whereas interglacial sediments are affected by early diagenesis. HIRM roughly quantifies the hematite and goethite contributions and remains the best proxy for estimating the detrital input in Lake Baikal. Relative paleointensity records of the earth′s magnetic field show a reproducible pattern, which allows for correlation with well-dated reference curves and thus provides an alternative age model for Lake Baikal sediments. Using the paleomagnetic age model we observed that cooling in the Lake Baikal region and cooling of the sea surface water in the North Atlantic, as recorded in planktonic foraminifera δ18 O, are coeval. On the other hand, benthic δ18 O curves record mainly the global ice volume change, which occurs later than the sea surface temperature change. This proves that a dating bias results from an age model based on the correlation of Lake Baikal sedimentary records with benthic δ18 O curves. The compilation of paleomagnetic curves provides a new relative paleointensity curve, “Baikal 200”. With a laser-assisted grain size analysis of the detrital input, three facies types, reflecting different sedimentary dynamics can be distinguished. (1) Glacial periods are characterised by a high clay content mostly due to wind activity and by occurrence of a coarse fraction (sand) transported over the ice by local winds. This fraction gives evidence for aridity in the hinterland. (2) At glacial/interglacial transitions, the quantity of silt increases as the moisture increases, reflecting increased sedimentary dynamics. Wind transport and snow trapping are the dominant process bringing silt to a hemipelagic site (3) During the climatic optimum of the Eemian, the silt size and quantity are minimal due to blanketing of the detrital sources by the vegetal cover.
Understanding stars, their magnetic activity phenomena and the underlying dynamo action is the foundation for understanding 'life, the universe and everything' - as stellar magnetic fields play a fundamental role for star and planet formation and for the terrestrial atmosphere and climate. Starspots are the fingerprints of magnetic field lines and thereby the most important sign of activity in a star's photosphere. However, they cannot be observed directly, as it is not (yet) possible to spacially resolve the surfaces of even the nearest neighbouring stars. Therefore, an indirect approach called 'Doppler imaging' is applied, which allows to reconstruct the surface spot distribution on rapidly rotating, active stars. In this work, data from 11 years of continuous spectroscopic observations of the active binary star EI Eridani are reduced and analysed. 34 Doppler maps are obtained and the problem of how to parameterise the information content of Doppler maps is discussed. Three approaches for parameter extraction are introduced and applied to all maps: average temperature, separated for several latitude bands; fractional spottedness; and, for the analysis of structural temperature distribution, longitudinal and latitudinal spot-occurrence functions. The resulting values do not show a distinct correlation with the proposed activity cycle as seen from photometric long-term observations, thereby suggesting that the photometric activity cycle is not accompanied by a spot cycle as seen on the Sun. The general morphology of the spot pattern on EI Eri remains persistent for the whole period of 11 years. In addition, a detailed parameter study is performed. Improved orbital parameters suggest that EI Eri might be complemented by a third star in a wide orbit of about 19 years. Preliminary differential rotation measurements are carried out, indicating an anti-solar orientation.
Die Frage nach der Herkunft und der dynamischen Entwicklung langlebiger kosmischer Magnetfelder ist in vielen Details noch unbeantwortet. Es besteht zwar kein Zweifel daran, dass das Magnetfeld der Erde und anderer kosmischer Objekte durch den sogenannten Dynamoeffekt verursacht werden, der genaue Mechanismus als auch die notwendigen Voraussetzungen und Randbedingungen der zugrundeliegenden Strömungen sind aber weitgehend unbekannt. Die für einen Dynamo interessanten Strömungsmuster, die im Inneren von Himmelskörpern durch Konvektion und differentielle Rotation entstehen, sind Konvektionsrollen parallel zur Rotationsachse. Auf einer Strömung mit eben solcher Geometrie, der sogenannten Roberts-Strömung, basieren die in der vorliegenden Arbeit untersuchten Dynamomodelle. Mit Methoden der nichtlinearen Dynamik wird versucht, das Systemverhalten bei Änderung der Systemparamter genauer zu charakterisieren. Die numerischen Untersuchungen beginnen mit einer Analyse der Dynamoaktivität der Roberts-Strömung in Abhängigkeit von den zwei freien Parametern in den Modellgleichungen, der magnetischen Prandtl-Zahl und der Stärke des Energieinputs. Gefunden werden verschiedene Lösungstypen die von einem stationären Magnetfeld über periodische bis zu chaotischen Zuständen reichen. Die yugrundeliegenden Symmetrien werden beschrieben und die Bifurkationen, die zum Wechsel der Lösungstypen führen, charakterisiert. Zusätzlich gibt es Bereiche bei sehr kleinen Prandtl-Zahlen, in denen überhaupt kein Dynamo existiert. Dieses Verhalten wird in der Literatur auch für viele andere numerisch ausgewertete Modelle beschrieben. Im Übergangsbereich zwischen dynamoaktivem und dynamoinaktivem Bereich wird das Auftreten einer sogenannten Blowout-Bifurkation gefunden. Desweiteren beschäftigt sich die Arbeit mit der Frage, inwiefern Helizität, also eine schraubenförmige Bewegung, der Strömung den Dynamoeffekt beeinflusst. Dazu werden ähnliche Strömungstypen verglichen, die sich hauptsächlich in ihrem Helizitätswert unterscheiden. Es wird gefunden, dass ein bestimmter Wert der Helizität nicht unterschritten werden darf, um einen stabilen Roberts-Dynamo zu erhalten.
In this thesis, dynamical structures and manifolds in closed chaotic flows will be investigated. The knowledge about the dynamical structures (and manifolds) of a system is of importance, since they provide us first information about the dynamics of the system - means, with their help we are able to characterize the flow and maybe even to forecast it`s dynamics. The visualization of such structures in closed chaotic flows is a difficult and often long-lasting process. Here, the so-called 'Leaking-method' will be introduced, in examples of simple mathematical maps as the baker- or sine-map, with which we are able to visualize subsets of the manifolds of the system`s chaotic saddle. Comparisons between the visualized manifolds and structures traced out by chemical or biological reactions superimposed on the same flow will be done in the example of a kinematic model of the Gulf Stream. It will be shown that with the help of the leaking method dynamical structures can be also visualized in environmental systems. In the example of a realistic model of the Mediterranean Sea, the leaking method will be extended to the 'exchange-method'. The exchange method allows us to characterize transport between two regions, to visualize transport routes and their exchange sets and to calculate the exchange times. Exchange times and sets will be shown and calculated for a northern and southern region in the western basin of the Mediterranean Sea. Furthermore, mixing properties in the Earth mantle will be characterized and geometrical properties of manifolds in a 3dimensional mathematical model (ABC map) will be investigated.
Gangschwärme nehmen eine bedeutende Stellung im Verständnis zur kontinentalen Fragmentierung ein. Einerseits markieren sie das Paläo-Spannungsfeld und helfen bei der Rekonstruktion der strukturellen Entwicklung der gedehnten Lithosphäre, andererseits gibt ihre petrologische Beschaffenheit Aufschluß über die Entstehung des Magmas, Aufstieg und Platznahme und schließlich erlaubt ihre Altersbestimmung die Rekonstruktion einer chronologischen Reihenfolge magmatischer und struktureller Ereignisse. Das Arbeitsgebiet im namibianischen Henties Bay-Outjo Dike swarm (HOD) war zur Zeit der Unterkreide einem Rifting mit intensiver Platznahme von überwiegend mafischen Gängen unterworfen. Geochemische Signaturen weisen die Gänge als erodierte Förderkanäle der Etendeka Plateaubasalte aus. Durch den Einsatz von hochauflösenden Aeromagnetik- und Satellitendaten war es möglich, die Geometrie des Gangschwarmes erstmals detailliert synoptisch zu erfassen. Viele zu den Schichten des Grundgebirges foliationsparallel verlaufende magnetische Anomalien können unaufgeschlossenen kretazischen Intrusionen zugeordnet werden. Bei der nach Norden propagierenden Südatlantiköffnung spielte die unterschiedliche strukturelle Vorzeichnung durch die neoproterozoischen Faltengürtel sowie Lithologie und Spannungsfeld des Angola Kratons eine bedeutende Rolle. Im küstennahen zentralen Bereich war dank der Vorzeichnung des Nordost streichenden Damara-Faltengürtels ein Rifting in Nordwest-Südost-Richtung dominierend, bis das Angola Kraton ein weiteres Fortscheiten nach Nordosten hemmte und die Vorzeichnung des Nordwest streichenden Kaoko-Faltengürtels an der Westgrenze den weiteren Riftverlauf und die letztendlich erfolgreiche Öffnung des Südatlantiks bestimmte. Aus diesem Grund kann das Gebiet des HOD als ein failed rift betrachtet werden. Die Entwicklung des Spannungsfeldes im HOD kann folgendermaßen skizziert werden: 1. Platznahme von Gängen bei gleichzeitig hoher Dehnungsrate und hohem Magmenfluß. 2. Platznahme von Zentralvulkanen entlang reaktivierter paläozoischer Lineamente bei Abnahme der Dehnungsrate und fortbestehendem hohen Magmenfluß. 3. Abnahme/Versiegen des Magmenflusses und neotektonische Bewegungen führen zur Bildung von Halbgräben.
In this work different approaches are undertaken to improve the understanding of the sucrose-to-starch pathway in developing potato tubers. At first an inducible gene expression system from fungal origin is optimised for the use of studying metabolism in the potato tuber. It is found that the alc system from Aspergillus nidulans responds more rapidly to acetaldehyde than ethanol, and that acetaldehyde has less side-effects on metabolism. The optimal induction conditions then are used to study the effects of temporally controlled cytosolic expression of a yeast invertase on metabolism of potato tubers. The observed differences between induced and constitutive expression of the invertase lead to the conclusion that glycolysis is induced after an ATP demand has been created by an increase in sucrose cycling. Furthermore, the data suggest that in the potato tuber maltose is a product of glucose condensation rather than starch degradation. In the second part of the work it is shown that the expression of a yeast invertase in the vacuole of potato tubers has similar effects on metabolism than the expression of the same enzyme in the apoplast. These observations give further evidence to the presence of a mechanism by which sucrose is taken up via endocytosis to the vacuole rather than via transporters directly to the cytosol. Finally, a kinetic in silico model of sucrose breakdown is presented that is able to simulate this part of potato tuber metabolism on a quantitative level. Furthermore, it can predict the metabolic effects of the introduction of a yeast invertase in the cytosol of potato tubers with an astonishing precision. In summary, these data prove that inducible gene expression and kinetic computer models of metabolic pathways are useful tools to greatly improve the understanding of plant metabolism.
Polymer optical fibers (POFs) are a rather new tool for high-speed data transfer by modulated light. They allow the transport of high amounts of data over distances up to about 100 m without be influenced by external electromagnetic fields. Due to organic chemical nature of POFs, they are sensitive to the climate of their environment and therefore the optical fiber properties are as well. Hence, the optical stability is a key issue for long-term applications of POFs. The causes for a loss of optical transmission due to climatic exposures (aging/degradation) are researched by means of chemical analytical tools such as chemiluminescence (CL) and Fourier transform infrared (FTIR) spectroscopy for five different (with respect to manufacturers) step-index multimode PMMA based POFs and for seven different climatic conditions. Three of the five POF samples are studied more in detail to realize the effects of individual parameters and for forecasting longterm optical stability by short-term exposure tests. At first, the unexposed POF components (core, cladding, and bare POF as combination of core and cladding) are characterized with respect to important physical and chemical properties. The glass transition temperature Tg, and the melting temperature Tm are in the region of 120 °C to 140 °C, the molecular weight (Mw) of cores is in the order of 105 g mol-1. POFs are found to have different chemical compositions of their claddings as could be detected by FTIR, but identical compositions of their cores. Two of the POFs are exposed as cables (core, cladding and jacket) for about 3300 hours to the climate 92 °C / 95 % relative humidity (RH) resulting in a different transmission decrease. Investigating the related unexposed and exposed bare POFs for degradation using CL, FTIR, thermogravimetry (TG), UV/visible transmittance and gel permeation chromatography (GPC) suggest that claddings of POFs are more affected than cores. Probably the observed loss of transmission is mainly due to increased light absorption and imperfections at the core-cladding boundary caused by a large degradation of claddings. Hence, it is highly possible that the optical transmission stability of POFs is governed mainly by the thermo-oxidative stability of the cladding and minor of the core. Three bare POFs (core and cladding only) are exposed for different duration of exposure time (30 hours to 4500 hours) to 92 °C / 95 %RH, 92 °C / 50 %RH, 50 °C / 95 %RH, 90 °C / low humidity, 100 °C / low humidity, 110 °C / low humidity and 120 °C / low humidity. In these climates their transmission variations are found to be different from each other, too. The outcomes strongly inform that under high temperature and high humid climates physical changes such as volume expansion, are the main sources for the loss of optical transmission. Also, the optical transmission stability of POFs is found to be dependent on chemical compositions of claddings. Under high temperature and low humid conditions, a loss of transmission at the early stages of the exposure is mainly caused by physical changes, presumable by corecladding interface imperfections. For the later stages of exposures it is proposed to an additional increase of light absorption by core and cladding owes to degradation. Optical simulation results obtained parallel by Mr. L. Jankowski (a PhD student of BAM) are found to confirm these results. For bare POFs, too, the optical stability of POFs seems to depend on their thermo-oxidative stability. Some short-term exposure tests are conducted to realize influences of individual climatic parameters on the transmission property of POFs. It is found that at stationary high temperature and variable humidity conditions POFs display to a certain amount a reversible transmission loss due to physically absorbed water. But in the case of varying temperature and constant high humidity such reversibility is hardly noticeable. However, at room temperature and varying humidity, POFs display fully reversible transmission loss. The whole research described above has to be regarded as a starting point for further investigations. The restricted distribution of fundamental POF data by the manufacturers and the time consuming aging by climatic exposures restrict the results more or less to the samples, investigated here. Significant general statements require for example additional information concerning the variation of POF properties due to production. Nevertheless the tests, described here, have the capability for approximating and forecasting the long-term optical transmission stability of POFs. -------------- Auch im Druck erschienen: Appajaiah, Anilkumar: Climatic stability of polymer optical fibers (POF) / Anilkumar Appajaiah. - Bremerhaven : Wirtschaftsverl. NW, Verl. für neue Wiss., 2005. - Getr. Zählung [ca. 175 S.]. : Ill., graph. Darst. - (BAM-Dissertationsreihe ; 9) ISBN 3-86509-302-7
This thesis discusses theoretical and practical aspects of modelling of light propagation in non-aged and aged step-index polymer optical fibres (POFs). Special attention has been paid in describing optical characteristics of non-ideal fibres, scattering and attenuation, and in combining application-oriented and theoretical approaches. The precedence has been given to practical issues, but much effort has been also spent on the theoretical analysis of basic mechanisms governing light propagation in cylindrical waveguides.As a result a practically usable general POF model based on the raytracing approach has been developed and implemented. A systematic numerical optimisation of its parameters has been performed to obtain the best fit between simulated and measured optical characteristics of numerous non-aged and aged fibre samples. The model was verified by providing good agreement, especially for the non-aged fibres. The relations found between aging time and optimal values of model parameters contribute to a better understanding of the aging mechanisms of POFs.
Modelling and simulation of light propagation in non-aged and aged step-index polymer optical fibres
(2004)
This thesis discusses theoretical and practical aspects of modelling of light propagation in non-aged and aged step-index polymer optical fibres (POFs). Special attention has been paid in describing optical characteristics of non-ideal fibres, scattering and attenuation, and in combining application-oriented and theoretical approaches. The precedence has been given to practical issues, but much effort has been also spent on the theoretical analysis of basic mechanisms governing light propagation in cylindrical waveguides. As a result a practically usable general POF model based on the raytracing approach has been developed and implemented. A systematic numerical optimisation of its parameters has been performed to obtain the best fit between simulated and measured optical characteristics of numerous non-aged and aged fibre samples. The model was verified by providing good agreement, especially for the non-aged fibres. The relations found between aging time and optimal values of model parameters contribute to a better understanding of the aging mechanisms of POFs.
Recurrence plots, a rather promising tool of data analysis, have been introduced by Eckman et al. in 1987. They visualise recurrences in phase space and give an overview about the system's dynamics. Two features have made the method rather popular. Firstly they are rather simple to compute and secondly they are putatively easy to interpret. However, the straightforward interpretation of recurrence plots for some systems yields rather surprising results. For example indications of low dimensional chaos have been reported for stock marked data, based on recurrence plots. In this work we exploit recurrences or ``naturally occurring analogues'' as they were termed by E. Lorenz, to obtain three key results. One of which is that the most striking structures which are found in recurrence plots are hinged to the correlation entropy and the correlation dimension of the underlying system. Even though an eventual embedding changes the structures in recurrence plots considerably these dynamical invariants can be estimated independently of the special parameters used for the computation. The second key result is that the attractor can be reconstructed from the recurrence plot. This means that it contains all topological information of the system under question in the limit of long time series. The graphical representation of the recurrences can also help to develop new algorithms and exploit specific structures. This feature has helped to obtain the third key result of this study. Based on recurrences to points which have the same ``recurrence structure'', it is possible to generate surrogates of the system which capture all relevant dynamical characteristics, such as entropies, dimensions and characteristic frequencies of the system. These so generated surrogates are shadowed by a trajectory of the system which starts at different initial conditions than the time series in question. They can be used then to test for complex synchronisation.
One of the most striking features of ecological systems is their ability to undergo sudden outbreaks in the population numbers of one or a small number of species. The similarity of outbreak characteristics, which is exhibited in totally different and unrelated (ecological) systems naturally leads to the question whether there are universal mechanisms underlying outbreak dynamics in Ecology. It will be shown into two case studies (dynamics of phytoplankton blooms under variable nutrients supply and spread of epidemics in networks of cities) that one explanation for the regular recurrence of outbreaks stems from the interaction of the natural systems with periodical variations of their environment. Natural aquatic systems like lakes offer very good examples for the annual recurrence of outbreaks in Ecology. The idea whether chaos is responsible for the irregular heights of outbreaks is central in the domain of ecological modeling. This question is investigated in the context of phytoplankton blooms. The dynamics of epidemics in networks of cities is a problem which offers many ecological and theoretical aspects. The coupling between the cities is introduced through their sizes and gives rise to a weighted network which topology is generated from the distribution of the city sizes. We examine the dynamics in this network and classified the different possible regimes. It could be shown that a single epidemiological model can be reduced to a one-dimensional map. We analyze in this context the dynamics in networks of weighted maps. The coupling is a saturation function which possess a parameter which can be interpreted as an effective temperature for the network. This parameter allows to vary continously the network topology from global coupling to hierarchical network. We perform bifurcation analysis of the global dynamics and succeed to construct an effective theory explaining very well the behavior of the system.
Die vorliegende Arbeit beschreibt das Verhalten von Polypeptid-Blockcopolymeren in der festen Phase und in selektiven Lösungsmitteln. Blockcopolymere auf Basis von Poly(L-glutaminsäure-5-benzylester) (PBLGlu) oder Poly(Nε-benzoyloxycarbonyl-L-lysin) (PZLLys), die in dieser Arbeit eingesetzt wurden, besitzen wegen ihrer helikalen Sekundärstruktur eine sog. Stäbchen-Knäuel-Geometrie, wobei die Knäuelkomponente Polystyrol oder Polybutadien ist. Die Phasenbildung dieser Blockcopolymere ist durch die Packungseigenschaften des rigiden Blocks beeinflusst. Es wurden bevorzugt lamellare Strukturen gebildet, in denen die Stäbchen parallel angeordnet sind. Das Vorhandensein eines permanenten Dipolmomentes führt zur Wechselwirkung zwischen den Helices und zur Erhöhung des Ordnungsgrades in der Phase. Ein zusätzlicher Parameter, der die Morphologie der Phase beeinflußt, ist die Chiralität der Peptidhelix, durch die chirale Überstrukturen induziert werden. In dünnen Filmen (40 nm), wo die Geometrie begrenzt ist, führt es zu Frustrationen in der Phase. Die dadurch entstandene Spannung wurde durch einen zick-zack-artigen Lamellenverlauf abgebaut. In selektiven Lösungsmitteln für die synthetische Komponente (PS) bilden die Polypeptid-Blockcopolymere vesikuläre Strukturen, deren kugel- oder wurmförmige Geometrie von der Elastizität der Membran abhängig ist. Durch Entfernung der Z-Schutzgruppe kann PZLLys in eine wasserlösliche Form überführt werden, so dass die PB-PLLys Blockcopolymere unter Bildung von Vesikeln in Wasser löslich sind. Dabei ist die Konformation des Peptids vom pH-Wert des Mediums abhängig und kann von einem Knäuel zu einer Helix reversibel geschaltet werden. Beim Modifizieren der Sekundärstruktur wurde eine Änderung der Aggregationszahl beobachtet. Somit können diese Blockcopolymere für die Herstellung von schaltbaren Aggregaten eingesetzt werden.
Die Autoren untersuchten mit Hilfe einer Fragebogenstudie das Sexualverhalten von StudentenInnen und KrankenpflegeschülernInnen unter der Bedrohung durch AIDS(n = 593). Als Ergebnis lässt sich festhalten, dass unterschiedliche Personengruppen mit unterschiedlichen Einstellungen, mit unterschiedlichem Wissen über HIV und AIDS, mit unterschiedlichem Sexualverhalten sowie einem unterschiedlichen Grad von persönlicher Betroffenheit auf differenzierte Weise angesprochen und zur Prävention angeleitet werden müssen. Die berufliche Nähe zu HIV und AIDS hat keinen Einfluss auf die sexuellen Einstellungen und Verhaltensweisen. Nur durch eine Selbststeuerung kann einer Gefahrensituation, wie sie eine mögliche HIV-Infektion darstellt, begegnet werden. Von daher muss neben der persönlichen Betroffenheit auch die Einsicht gegeben sein, dass ich mich als Individuum eigenständig vor dieser Gefahr schützen kann. Ferner muss dieses Verhalten in die eigene Lebenswelt eingepasst und von der eigenen sozialen Umgebung getragen werden. Präventionsbemühungen müssen auf kompetenzsteigernde, ressourcenorientierte und differenzierte Maßnahmen setzen. Ansätze von Furchtappellen und Lustfeindlichkeit wirken kontraproduktiv. Eine Beschränkung der Prävention auf individuumzentrierte Maßnahmen ist wenig effektiv, sofern gesellschaftliche und strukturelle Bedingungen ausgeblendet werden. Ziel von Sexualpädagogik und AIDS-Präventionsarbeit muss es daher sein, eine von allen geteilte Kommunikationsstruktur für Intimität zu entwickeln.
This thesis analyses synchronization phenomena occurring in large ensembles of interacting oscillatory units. In particular, the effects of nonisochronicity (frequency dependence on the oscillator's amplitude) on the macroscopic transition to synchronization are studied in detail. The new phenomena found (Anomalous Synchronization) are investigated in populations of oscillators as well as between oscillator's ensembles.
Eine Nutzung der optischen Anisotropie dünner Schichten ist vor allem für die Displaytechnologie, die optische Datenspeicherung und für optische Sicherheitselemente von hoher Bedeutung. Diese Doktorarbeit befasst sich mit theoretischen und experimentellen Untersuchung von dreidimensionaler Anisotropie und dabei insbesondere mit der Untersuchung von lichtinduzierter dreidimensionaler Anisotropie in organischen dünnen Polymer-Schichten. Die gewonnenen Erkentnisse und entwickelten Methoden können wertvolle Beiträge für Optimierungsprozesse, wie bei der Kompensation der Blickwinkelabhängigkeit von Flüssigkristall-Displays, liefern. Die neue Methode der Immersions-Transmissions-Ellipsometrie (ITE) zur Untersuchung von dünneren Schichten wurde im Rahmen dieser Dissertation entwickelt. Diese Methode gestattet es, in Kombination mit konventioneller Reflexions- und Transmissionsellipsometrie, die absoluten dreidimensionalen Brechungsindices einer biaxialen Schicht zu bestimmen. Erstmals gelang es damit, das dreidimensionale Brechungsindexellipsoid von transparenten, dünneren (150 nm) Filmen hochgenau (drei Stellen hinter dem Komma) zu bestimmen. Die ITE-Methode hat demzufolge das Potential, auch bei noch dünneren Schichten mit Gewinn eingesetzt werden zu können. Die lichtinduzierte Generierung von dreidimensionaler Anisotropie wurde in dünnen Schichten von azobenzenhaltigen und zimtsäurehaltigen, amorphen und flüssig-kristallinen Homo- und Copolymeren untersucht. Erstmals wurden quantitative Untersuchungen zur Änderung von lichtinduzierten, dreidimensionalen Anisotropien in dünnen Schichten von azobenzenhaltigen und zimtsäurehaltigen Polymeren bei Tempern oberhalb der Glastemperatur durchgeführt. Bei vielen der untersuchten Polymere war die dreidimensionale Ordnung nach dem Bestrahlen mit polarisiertem Licht und anschließendem Tempern oberhalb der Glastemperatur scheinbar von der Schichtdicke abhängig. Die Ursache liegt wohl in der, mit der neuentwickelten ITE-Methode detektierten, planaren Ausgangsorientierung der aufgeschleuderten dünneren Schichten. Um Verkippungs-Gradienten in dickeren Polymerschichten in ihrem Verlauf zu bestimmen, wurde eine spezielle Methode unter Benutzung der Wellenleitermoden-Spektroskopie entwickelt. Quantenchemisch bestimmte, maximal induzierbare Doppelbrechungen in flüssig-kristallinen Polymeren wurden mit den experimentell gefundenen Ordnungen verglichen.
We calculate the additional carbon emissions as a result of the conversion of natural land in a process of urbanisation; and the change of carbon flows by “urbanised” ecosystems, when the atmospheric carbon is exported to the neighboring territories, from 1980 till 2050 for the eight regions of the world. As a scenario we use combined UN and demographic model′s prognoses for regional total and urban population growth. The calculations of urban areas dynamics are based on two models: the regression model and the Gamma-model. The urbanised area is sub-divided on built-up, „green“ (parks, etc.) and informal settlements (favelas) areas. The next step is to calculate the regional and world dynamics of carbon emission and export, and the annual total carbon balance. Both models give similar results with some quantitative differences. In the first model, the world annual emissions attain a maximum of 205 MtC/year between 2020-2030. Emissions will then slowly decrease. The maximum contributions are given by China and the Asia and Pacific regions. In the second model, world annual emissions increase to 1.25 GtC in 2005, beginning to decrease afterwards. If we compare the emission maximum with the annual emission caused by deforestation, 1.36GtC per year, then we can say that the role of urbanised territories (UT) is of a comparable magnitude. Regarding the world annual export of carbon by UT, we observe its monotonous growth by three times, from 24 MtC to 66 MtC in the first model, and from 249 MtC to 505 MtC in the second one. The latter, is therefore comparable to the amount of carbon transported by rivers into the ocean (196-537 MtC). By estimating the total balance we find that urbanisation shifts the total balance towards a “sink” state. The urbanisation is inhibited in the interval 2020-2030, and by 2050 the growth of urbanised areas would almost stop. Hence, the total emission of natural carbon at that stage will stabilise at the level of the 1980s (80 MtC per year). As estimated by the second model, the total balance, being almost constant until 2000, then starts to decrease at an almost constant rate. We can say that by the end of the XXI century, the total carbon balance will be equal to zero, when the exchange flows are fully balanced, and may even be negative, when the system begins to take up carbon from the atmosphere, i.e., becomes a “sink”.
My thesis is concerned with several new noise-induced phenomena in excitable neural models, especially those with FitzHugh-Nagumo dynamics. In these effects the fluctuations intrinsically present in any complex neural network play a constructive role and improve functionality. I report the occurrence of Vibrational Resonance in excitable systems. Both in an excitable electronic circuit and in the FitzHugh-Nagumo model, I show that an optimal amplitude of high-frequency driving enhances the response of an excitable system to a low-frequency signal. Additionally, the influence of additive noise and the interplay between Stochastic and Vibrational Resonance is analyzed. Further, I study systems which combine both oscillatory and excitable properties, and hence intrinsically possess two internal frequencies. I show that in such a system the effect of Stochastic Resonance can be amplified by an additional high-frequency signal which is in resonance with the oscillatory frequency. This amplification needs much lower noise intensities than for conventional Stochastic Resonance in excitable systems. I study frequency selectivity in noise-induced subthreshold signal processing in a system with many noise-supported stochastic attractors. I show that the response of the coupled elements at different noise levels can be significantly enhanced or reduced by forcing some elements into resonance with these new frequencies which correspond to appropriate phase-relations. A noise-induced phase transition to excitability is reported in oscillatory media with FitzHugh-Nagumo dynamics. This transition takes place via noise-induced stabilization of a deterministically unstable fixed point of the local dynamics, while the overall phase-space structure of the system is maintained. The joint action of coupling and noise leads to a different type of phase transition and results in a stabilization of the system. The resulting noise-induced regime is shown to display properties characteristic of excitable media, such as Stochastic Resonance and wave propagation. This effect thus allows the transmission of signals through an otherwise globally oscillating medium. In particular, these theoretical findings suggest a possible mechanism for suppressing undesirable global oscillations in neural networks (which are usually characteristic of abnormal medical conditions such as Parkinson′s disease or epilepsy), using the action of noise to restore excitability, which is the normal state of neuronal ensembles.
Die Untersuchung mikrogelinster astronomischer Objekte ermöglicht es, Informationen über die Größe und Struktur dieser Objekte zu erhalten. Im ersten Teil dieser Arbeit werden die Spektren von drei gelinsten Quasare, die mit dem Potsdamer Multi Aperture Spectrophotometer (PMAS) erhalten wurden, auf Anzeichen für Mikrolensing untersucht. In den Spektren des Vierfachquasares HE 0435-1223 und des Doppelquasares HE 0047-1756 konnten Hinweise für Mikrolensing gefunden werden, während der Doppelquasar UM 673 (Q 0142--100) keine Anzeichen für Mikrolensing zeigt. Die Invertierung der Lichtkurve eines Mikrolensing-Kausik-Crossing-Ereignisses ermöglicht es, das eindimensionale Helligkeitsprofil der gelinsten Quelle zu rekonstruieren. Dies wird im zweiten Teil dieser Arbeit untersucht. Die mathematische Beschreibung dieser Aufgabe führt zu einer Volterra'schen Integralgleichung der ersten Art, deren Lösung ein schlecht gestelltes Problem ist. Zu ihrer Lösung wird in dieser Arbeit ein lokales Regularisierungsverfahren angewendet, das an die kausale Strukture der Volterra'schen Gleichung besser angepasst ist als die bisher verwendete Tikhonov-Phillips-Regularisierung. Es zeigt sich, dass mit dieser Methode eine bessere Rekonstruktion kleinerer Strukturen in der Quelle möglich ist. Weiterhin wird die Anwendbarkeit der Regularisierungsmethode auf realistische Lichtkurven mit irregulärem Sampling bzw. größeren Lücken in den Datenpunkten untersucht.
Independent component analysis (ICA) is a tool for statistical data analysis and signal processing that is able to decompose multivariate signals into their underlying source components. Although the classical ICA model is highly useful, there are many real-world applications that require powerful extensions of ICA. This thesis presents new methods that extend the functionality of ICA: (1) reliability and grouping of independent components with noise injection, (2) robust and overcomplete ICA with inlier detection, and (3) nonlinear ICA with kernel methods.
For recombinant production of proteins for structural and functional analyses, the E. coli expression system is the most widely used due to high yields and straightforward processing. However, particularly the expression of eukaryotic proteins in E. coli is often problematic, e.g. when the protein is not folded correctly and is deposited in insoluble inclusion bodies. In some cases it is favourable to analyse deletion constructs of a protein or an individual protein domain instead of the full-length protein. This implies the generation of a set of expression constructs that need to be characterised. In this work methods to optimise and evaluate in vitro folding of inclusion body proteins as well as high-throughput characterisation of expression constructs were developed. Transferring inclusion body proteins to their native state involves two steps: (a) solubilisation with a chaotropic reagent or a strong ionic detergent and (b) folding of the protein by removal of the chaotrop accompanied by the transfer into an appropriate buffer. The yield of natively folded protein is often substantially reduced due to aggregation or misfolding; it may, however, be improved by certain additives to the folding buffer. These additives need to be identified empirically. In this thesis a screening procedure for folding conditions was developed. To reduce the number of possible combinations of screening additives, empirical observations documented in the literature as well as well known properties of certain screening additives were considered. To decrease the amount of protein and work invested, the screen was miniaturised and automated using a pipetting robot. Twenty rapid dilution conditions for the denatured protein are tested and two conditions for folding of proteins using the detergent/cyclodextrin protein folding system of Rozema et al. (1996). 100 µg protein is used per condition. In addition, eight conditions can be tested for folding of His-tagged proteins (approx. 200 µg) immobilised on metal chelate resins. The screen was successfully applied to fold a human protein, the p22 subunit of dynactin that is expressed in inclusion bodies in E. coli. For p22 dynactin – as is the case for many proteins – there was no biological assay available to assess the success of the folding screen. Protein solubility can not be used as a stringent criterion because beside natively folded protein, soluble misfolded species and microaggregates may occur. This work evaluates methods to detect small amounts of natively folded protein after automated folding screening. Before folding screening with p22 dynactin, two model enzymes, bovine carbonic anhydrase II (CAB) and pig heart mitochondrial malate dehydrogenase, were used for evaluation. Recovered activity after refolding was correlated to different biophysical methods. 8-anilino-1-naphtalenesulfonic acid binding-experiments gave no useful information when refolding CAB, due to low sensitivity and because misfolded protein could not be readily distinguished from native protein. Tryptophan fluorescence spectra of refolded CAB were used to assess the success of refolding. The shift of the intensity maximum to a shorter wavelength, compared to the denaturant unfolded protein, as well as the fluorescence intensity correlated to recovered enzymatic activity. For both model enzymes, analytical hydrophobic interaction chromatography (HIC) was useful to identify refolded samples that contain active enzyme. Compactly folded, active enzyme eluted in a distinct peak in a decreasing ammonium sulfate gradient. The detection limit of analytical HIC was approx. 5 µg. In case of CAB, tryptophan fluorescence spectroscopy and analytical HIC showed that both methods in combination can be useful to rule out false positives or false negatives obtained with one method. These two methods were also useful to identify conditions for folding of p22 dynactin. However, tryptophan fluorescence spectroscopy can lead to false positives because in some cases spectra of soluble microaggregates are not well distinguishable from spectra of natively folded protein. In summary, a fast and reliable screening procedure was developed to make inclusion body proteins accessible to structural or functional analyses. In a separate project, 88 different E. coli expression constructs for 17 human protein domains that had been identified by sequence analysis were analysed using high-throughput purification and folding analysis in order to obtain candidates suitable for structural analysis. After 96 deep-well microplate expression and automated protein purification, solubly expressed protein domains were directly analysed using 1D ¹H-NMR spectroscopy. It was found that isolated methyl group signals below 0.5 ppm are particularly sensitive and reliable probes for folded protein. In addition – similar to the evaluation of a folding screen – analytical HIC proved to be an efficient tool for identifying constructs that yield compactly folded protein. Both methods, 1D ¹H-NMR spectroscopy and analytical HIC, provided complementary results. Six constructs, representing two domains, could be quickly identified as targets that are well suitable for structural analysis. The structure of one of these domains was solved recently by co-workers, the other structure was published by another group during this project.
Ellipsometrische Lichtstreuung als neue Methode zur Charakterisierung der Grenzfläche von Kolloiden
(2004)
Die ellipsometrische Lichtstreuung wird als eine neue, leistungsfähige Methode zur Charakterisierung von Schichten um kolloidale Partikel vorgestellt. Theoretische Grundlage der Methode ist die Mie-Theorie der Lichtstreuung. Experimentell wurde die Polarisationsoptik eines Null-Ellipsometers in den Strahlengang eines Lichtstreuaufbaus eingebaut. Wie in der Reflexionsellipsometrie um den Brewsterwinkel herum erhält man in der ellipsometrischen Streuung einen Winkelbereich, in dem die Methode empfindlich auf Schichten an der Oberfläche der Partikel ist. An verschiedenen Systemen wurde die Tauglichkeit der ellipsometrischen Streuung zur Charakterisierung von Schichten auf Partikeln demonstriert. So wurden Dicke und Brechungsindex einer thermosensitiven Schicht von Poly(N-isopropylacrylamid) auf einem Poly(methylmethacrylat)-Kern bestimmt. Damit ist es möglich, experimentell den Schichtbrechungsindex und damit den Quellungsgrad zu bestimmen. Des Weiteren wurde der Einfluss der NaCl-Konzentration auf die Polyelektrolythülle von Poly(methylmethacrylat)-Poly(styrolsulfonat)-Blockcopolymer-Partikeln untersucht. Die Polyelektrolytketten liegen im hier untersuchten Beispiel nicht gestreckt vor. Als drittes wurde die Verteilung von niedermolekularen Ionen um elektrostatisch stabilisierte Poly(styrol)-Latexpartikel in Wasser untersucht. Hier wurde gezeigt, dass die beobachteten Schichtdicken und Schichtbrechungsindizes viel größer sind, als nach der klassischen Poisson-Boltzmann-Theorie zu erwarten ist. Des Weiteren wurde die Doppelbrechung von unilamellaren Lipidvesikeln bestimmt. Außerdem wurden Messungen der dynamische Lichtstreuung im Intensitätsminimum der Ellipsometrie durchgeführt. Dabei wird ein Prozess mit einer Korrelationszeit, die unabhängig vom Streuvektor, aber abhängig von der verwendeten Wellenlänge ist, sichtbar. Die Natur dieses Prozesses konnte hier nicht vollständig geklärt werden.
Muster globaler anthropogener CO₂-Emissionen : sozio-ökonomische Determinanten und ihre Wirkung
(2004)
Die wesentlichen sozio-ökonomischen Prozesse, die die vermehrten anthropogenen CO₂-Emissionen verursachen, können durch die Determinanten Bevölkerung, Wohlstand (Bruttoinlandsprodukt pro Kopf) und Technologie (Energie- und Kohlenstoffintensität) vereinfacht beschrieben werden. Der Einfluss dieser Determinanten auf die Emissionsänderungen ist nicht für alle Länder der Erde gleich. Zeitreihen der CO₂-Emissionen aus der Verbrennung fossiler Energieträger, der Bevölkerung, des Bruttoinlandsproduktes und des Primärenergieverbrauches von 121 Ländern bilden die Grundlage für das entwickelte statistische Verfahren zur schrittweisen Informationsverdichtung, mit dem der gesamte Datenraum zu 6 energiewirtschaftlichen Ländertypen schrittweise zusammengefasst wird. Zur Beschreibung dieser Ländertypen wird mit Hilfe der Dekompositionsanalyse der Einfluss der Bevölkerungs-, der Wohlstands- und der Technologiekomponenten an den Emissionsänderungen quantifiziert. Die Ländertypen können vereinfacht als Repräsentanten unterschiedlicher Entwicklungsstufen und -richtungen angesehen werden. Sie bilden unter anderem eine Grundlage für die Weiterentwicklung und Kalibrierung regionalisierter makro-ökonomischer Modelle zu den sozio-ökonomischen Hintergründen der vermehrten anthropogenen CO₂-Emissionen.
Die vorliegende Arbeit befasst sich mit der Untersuchung von Wanderungsüberlegungen der Einwohner der Stadt Visaginas vor dem Hintergrund steigender ökonomischer Unsicherheit, bedingt durch die bevorstehende Schließung des Atomkraftwerkes 'Ignalina'. Visaginas befindet sich im Nordosten Litauens, in einer der strukturschwächsten Regionen des Landes. Von Mitte der 70er bis Ende der 80er Jahre entstand die Stadt als Wohnstätte für die Arbeiter des sich zu dieser Zeit ebenfalls im Bau befindlichen Atomkraftwerkes 'Ignalina' sowie für deren Angehörige. Noch heute ist die Stadt wirtschaftlich vom Kraftwerk abhängig: Nicht nur ist das staatliche Unternehmen der größte Arbeitgeber für die ca. 30.000 Einwohner, sondern darüber hinaus stellt auch die Mehrzahl der unabhängigen Firmen ihre Leistungen und Produktion in dessen Dienst. Auf Druck der Europäischen Union, welche bereits Ende der 90er Jahre aus sicherheitstechnischen Gründen die Schließung des Atomkraftwerkes forderte, beschloss die Regierung Litauens, das Atomkraftwerk stillzulegen. Am 1. Januar 2005 wird der Betrieb des ersten Reaktors eingestellt. Die endgültige Abschaltung ist bis zum Januar 2009 vorgesehen. Auf diese Weise wird der Stadt Visaginas, und damit verbunden vielen ihrer Einwohner, die wirtschaftliche Existenzgrundlage entzogen. Bedingt durch den Wegfall ihres Arbeitsplatzes wird ein Großteil der Einwohner gezwungen sein, sich nach Beschäftigungsalternativen umzuschauen. Da jedoch auch im Umland der Stadt keine ausreichenden Möglichkeiten bestehen, die freigesetzten Arbeitskräfte aufzufangen, wird für viele Betroffene die einzige Alternative darin liegen, Visaginas auf der Suche nach einem neuen Arbeitsplatz zu verlassen. Die Tatsache, dass der Großteil der heutigen Einwohner aus anderen Unionsrepubliken der damaligen Sowjetunion nach Visaginas kam und nur selten über gute Kenntnisse in der Landessprache Litauisch verfügt, stellt dabei ein besonderes Problem dar. Der Arbeit lag folgende zentrale Fragestellung zugrunde: Warum wandern unter gleichen strukturellen (vor allem ökonomischen) Rahmenbedingungen Menschen aus Visaginas ab, während andere dies nicht tun bzw. eine Abwanderung gar nicht in Erwägung ziehen? Betreuer/Gutachter: Prof. Wilfried Heller; Prof. Sebastian Lentz
Gerade in den letzten Jahren erfuhr Open Source Software (OSS) eine zunehmende Verbreitung und Popularität und hat sich in verschiedenen Anwendungsdomänen etabliert. Die Prozesse, welche sich im Kontext der OSS-Entwicklung (auch: OSSD – Open Source Software-Development) evolutionär herausgebildet haben, weisen in den verschiedenen OSS-Entwicklungsprojekten z.T. ähnliche Eigenschaften und Strukturen auf und auch die involvierten Entitäten, wie z.B. Artefakte, Rollen oder Software-Werkzeuge sind weitgehend miteinander vergleichbar. Dies motiviert den Gedanken, ein verallgemeinerbares Modell zu entwickeln, welches die generalisierbaren Entwicklungsprozesse im Kontext von OSS zu einem übertragbaren Modell abstrahiert. Auch in der Wissenschaftsdisziplin des Software Engineering (SE) wurde bereits erkannt, dass sich der OSSD-Ansatz in verschiedenen Aspekten erheblich von klassischen (proprietären) Modellen des SE unterscheidet und daher diese Methoden einer eigenen wissenschaftlichen Betrachtung bedürfen. In verschiedenen Publikationen wurden zwar bereits einzelne Aspekte der OSS-Entwicklung analysiert und Theorien über die zugrundeliegenden Entwicklungsmethoden formuliert, aber es existiert noch keine umfassende Beschreibung der typischen Prozesse der OSSD-Methodik, die auf einer empirischen Untersuchung existierender OSS-Entwicklungsprojekte basiert. Da dies eine Voraussetzung für die weitere wissenschaftliche Auseinandersetzung mit OSSD-Prozessen darstellt, wird im Rahmen dieser Arbeit auf der Basis vergleichender Fallstudien ein deskriptives Modell der OSSD-Prozesse hergeleitet und mit Modellierungselementen der UML formalisiert beschrieben. Das Modell generalisiert die identifizierten Prozesse, Prozessentitäten und Software-Infrastrukturen der untersuchten OSSD-Projekte. Es basiert auf einem eigens entwickelten Metamodell, welches die zu analysierenden Entitäten identifiziert und die Modellierungssichten und -elemente beschreibt, die zur UML-basierten Beschreibung der Entwicklungsprozesse verwendet werden. In einem weiteren Arbeitsschritt wird eine weiterführende Analyse des identifizierten Modells durchgeführt, um Implikationen, und Optimierungspotentiale aufzuzeigen. Diese umfassen beispielsweise die ungenügende Plan- und Terminierbarkeit von Prozessen oder die beobachtete Tendenz von OSSD-Akteuren, verschiedene Aktivitäten mit unterschiedlicher Intensität entsprechend der subjektiv wahrgenommenen Anreize auszuüben, was zur Vernachlässigung einiger Prozesse führt. Anschließend werden Optimierungszielstellungen dargestellt, die diese Unzulänglichkeiten adressieren, und ein Optimierungsansatz zur Verbesserung des OSSD-Modells wird beschrieben. Dieser Ansatz umfasst die Erweiterung der identifizierten Rollen, die Einführung neuer oder die Erweiterung bereits identifizierter Prozesse und die Modifikation oder Erweiterung der Artefakte des generalisierten OSS-Entwicklungsmodells. Die vorgestellten Modellerweiterungen dienen vor allem einer gesteigerten Qualitätssicherung und der Kompensation von vernachlässigten Prozessen, um sowohl die entwickelte Software- als auch die Prozessqualität im OSSD-Kontext zu verbessern. Desweiteren werden Softwarefunktionalitäten beschrieben, welche die identifizierte bestehende Software-Infrastruktur erweitern und eine gesamtheitlichere, softwaretechnische Unterstützung der OSSD-Prozesse ermöglichen sollen. Abschließend werden verschiedene Anwendungsszenarien der Methoden des OSS-Entwicklungsmodells, u.a. auch im kommerziellen SE, identifiziert und ein Implementierungsansatz basierend auf der OSS GENESIS vorgestellt, der zur Implementierung und Unterstützung des OSSD-Modells verwendet werden kann.
In der Person von Georg Potente, der von 1902 bis 1938 in Potsdam-Sanssouci tätig war, spiegelt sich eine Entwicklung vom königlichen Ober- und Hofgärtner zum staatlichen Gartendirektor, einem schöpferisch tätigen Gartendenkmalpfleger wider. Sein Schaffen in historischen Gärten ist charakterisiert durch ein zeittypisches Spannungsfeld von kaiserlichen Aufgaben zur Neuanlage und Modernisierung einzelner Parkteile bis zu komplizierten gartendenkmalpflegerischen Wiederherstellungsarbeiten ganzer Parkbereiche. Die dabei von Potente begründete und praktizierte Herangehensweise, nach der Erforschung der Entstehungsgeschichte und der Auswertung aller historischen Pläne und Beschreibungen der Gartenanlage durch eine plangrafische Überlagerung die verschiedenen zeitlichen Zustände zu gewichten und den wiederherzustellenden Zeitstil festzulegen, begründete in den 20er Jahren des 20. Jahrhunderts die wissenschaftliche Arbeitsweise der sich entwickelnden Gartendenkmalpflege.
Anna Seghers (1900 - 1983)
(2001)
"Deutsche, Jüdin, Kommunistin, Schriftstellerin, Frau, Mutter - so viele Identitäten, so dicht besetzt ihr Leben, so eindeutig ihr Werk. Am 19. November 2000 wurde sie 100 Jahre alt - Anna Seghers. Die Universität Potsdam hat der großen deutschen Schriftstellerin und engagierten Kommunistin, die mit ihren Exilromanen "Das siebte Kreuz" (1942) und "Transit" (1944) Weltruhm erlangte, eine Website gewidmet, die in ihrer präzisen und konzentrierten Darstellung Seghers Werk treffend widerspiegelt. Neben Links zur Biographie und eine Auswahlbiographie der Primär- und Sekundärliteratur findet der Leser Querverweise auf Archiv, Stiftung, Gedenkstätte und Gesellschaft der Literatin ..." Quelle: Literatur online : mit den 700 wichtigsten Adressen zum Thema / Hrsg.: Jörg Krichbaum ... - Köln : Arcum, Vectrum, 2000. - 215 S. (deutsche-internetadressen.de ; Bd. 22). - ISBN: 3-930912-92-9
In dem Beitrag wird eine didaktisch verwendbare Klassifikation der französischen Verben vorgeschlagen. Den Anlaß für mein Vorhaben bildete ein Vergleich der 'Übersichten über die unregelmäßigen Verben' bzw. ' Sonstigen Verben' in den Grammatischen Beiheften verschiedener im Unterricht an allgemeinbildenden Gymnasien der Bundesrepublik Deutschland gebrauchter Lehrwerke. Es wird empfohlen, auf die bisherige Einteilung in 'regelmäßige' und 'unregelmäßige' Verben zu verzichten. Nach meiner Definition bilden Verben mit identischen oder weitgehend identischen orthographischen Flexionsmerkmalen eine Verbklasse. Der didaktische Nutzen der neuen Klassifikation läßt sich durch einen Vergleich mit der bisher in den Grammatischen Beiheften üblichen Einteilung belegen: 1) Die Lehrinhalte der Verbalflexion lassen sich reduzieren, wenn Verben mit identischen bzw. weitgehend identischen Flexionsmerkmalen einer Klasse zugeschlagen werden, 2) Meine Untersuchung hat ergeben, dass die Schüler nicht immer unterstützt werden, Neues mit bereits Bekanntem zu verknüpfen und einen Zusammenhang zwischen Verben mit identischen Flexionsmerkmalen herzustellen. Von jeter wird nicht immer auf das bereits eingeführte Verb appeler verwiesen. Auch die Gemeinsamkeiten der Verben der Klassen atteindre, sentir und offrir werden im lektionsbegleitenden Teil bestimmter Grammatischer Beihefte dem Schüler nicht einsichtig gemacht und damit nicht als Lernhilfe genutzt. 3) Verben mit identischen Endungen im Infinitiv, aber ansonsten überwiegend unterschiedlichen Flexionsmerkmalen, sollten verschiedenen Klassen zugeschlagen werden, um irrtümliche Verallgemeinerungen zu vermeiden. Für Verben der Klassen élever und considérer wird vereinzelt im Gegensatz zu meiner Empfehlung nur eine Klasse angesetzt. Die Verben der Klasse employer und envoyer werden nicht immer deutlich genug von den Verben auf -AYER abgegrenzt. Vielleicht werden die Autoren neuer Lehrwerke die Möglichkeit nützen, mit Hilfe der vorgeschlagenen Klassifikation die Lehrinhalte der Verbalflexion zu verringern, den Lernprozeß abzukürzen sowie das Behalten der Verbformen zu unterstützen.
Die Verbalflexion in Lehrplänen und Lehrwerken für den Französischunterricht an Deutschsprachige
(2000)
Der Beitrag fasst die Ergebnisse einer Forschungsarbeit zur Verbalflexion in Lehrplänen und Lehrwerken für den Französischunterricht an allgemeinbildenden Gymnasien der Bundesrepublik Deutschland zusammen. Im Mittelpunkt steht ein Problem, das bereits in der frühesten fächerübergreifenden Methodik des modernen Fremdsprachenunterrichts aufgeworfen wurde. (Seidelmann, Christian Friedrich: Tractatus philosophico-philologicus de methodo recte tractandi linguas exoticas speciatim gallicam, italicam et anglicam (1724). Faksimiliert, übersetzt und herausgegeben von Franz Josef Zapp und Konrad Schröder, Augsburg 1984.) Seidelmann hat schon vor mehr als 250 Jahren darauf hingewiesen, daß für den Fremdsprachenunterricht ungeeignete Grammatiken zur Verfügung stehen. Sie weisen einerseits Lücken auf und enthalten andererseits unnötigen Ballast: 'Ne quisquam sibi persuadeat, Grammaticas, maximam partem hodiernas, esse compendia, in quibus Linguarum fundamenta sive prima principio contineantur .... ' ('Niemand darf der Meinung sein, daß die Grammatiken, und erst recht die derzeitigen, Zusammenfassungen sind, die die Grundlagen oder die wichtigsten Elemente der Sprachen enthalten.') Seidelmann 1724; zitiert nach der zweisprachigen Ausgabe von Zapp und Schröder, Augsburg 1984, S. 81. Vor bald 100 Jahren betonte Viëtor im Zusammenhang mit der Diskussion um die 'Überbürdung' der Schüler die Notwendigkeit, die Verbalflexion gewissermaßen 'auszumisten'. Wie meine Arbeit u.a. zeigt, reichen ganze 42 Verbparadigmen aus, um das Lernziel der kommunikativen Kompetenz zu realisieren. Das heißt, man kann auf über die Hälfte der bis zu 90 Verbalparadigmen, die in Lehrwerken für den Französischunterricht vermittelt werden, verzichten. Die 42 Konjugationsmuster können als Teil eines nach kohärenten Prinzipien konstituierten und in diesem Sinne genormten sprachlichen Grundstocks für unterschiedliche Lehrgangstypen betrachtet werden. Dieser Grundstock läßt sich schulartübergreifend und adressatenunabhängig, d.h. in Lehrmaterialien für allgemeinbildende und berufsbildende Schulen, verwenden. Außerdem wird noch ein Vorschlag für die Progression der Lehrinhalte der Verbalflexion über vier bzw. zweieinhalb Schuljahre unterbreitet.
UNICERT in zehn Punkten
(2000)
Die im Französischunterricht an Deutschsprachige zu vermittelnden Kategorien der Verbalflexion
(2000)
Im Mittelpunkt des Beitrags steht eine sprachwissenschaftlich verantwortete Beschreibung der im Französischunterricht auf der Sekundarstufe I zu unterrichtenden grammatischen Kategorien der Verbalflexion. Aufgrund der Mängel in verbreiteten Lehrwerken erscheint es dringend notwendig, nachvollziehbare Empfehlungen zu den Tempora und Modi vorzulegen. Mein Vorschlag richtet sich in erster Linie an Lehrplan- und Lehrwerkautoren.
On peut qualifier les hyperlivres de matériaux d'enseignement et d'apprentissage innovants bâtis sur une structuration électronique des éléments du savoir. En lieu et place du texte écrit est créée une base de données, dans laquelle le texte, les schémas et le son sont organisés de façon numérique. C'est dans ce lien entre des données habituellement dissociées que réside la plus-value de qualité apportée par le média. L'hyperlivre dont il est question ici prépare les étudiants à la langue de spécialité juridique, ce qui leur permet d'aborder sans trop de difficultés les séminaires de leur cursus intégré de droit français et de droit allemand. De plus, il permet des compléments en auto-formation et en approfondissement des notions abordées dans une discipline qui n'est pas toujours facile d'accès pour les apprenants.