530 Physik
Refine
Has Fulltext
- yes (67) (remove)
Year of publication
Document Type
- Doctoral Thesis (51)
- Article (4)
- Course Material (3)
- Master's Thesis (3)
- Habilitation Thesis (2)
- Preprint (2)
- Monograph/Edited Volume (1)
- Postprint (1)
Language
- German (67) (remove)
Keywords
- Physikdidaktik (5)
- physics (4)
- Ellipsometrie (3)
- Fluoreszenz (3)
- Ozon (3)
- Physik (3)
- Resonanzenergietransfer (3)
- Synchronisation (3)
- Wellenleiter (3)
- dünne Schichten (3)
Reflexion und Reflexivität
(2023)
Reflexion gilt in der Lehrkräftebildung als eine Schlüsselkategorie der professionellen Entwicklung. Entsprechend wird auf vielfältige Weise die Qualität reflexionsbezogener Kompetenzen untersucht. Eine Herausforderung hierbei kann in der Annahme bestehen, von der Analyse schriftlicher Reflexionen unmittelbar auf die Reflexivität einer Person zu schließen, da Reflexion stets kontextspezifisch als Abbild reflexionsbezogener Argumentationsprozesse angesehen werden sollte und reflexionsbezogenen Dispositionen unterliegt. Auch kann die Qualität einer Reflexion auf mehreren Dimensionen bewertet werden, ohne quantifizierbare, absolute Aussagen treffen zu können.
Daher wurden im Rahmen einer Physik-Videovignette N = 134 schriftliche Fremdreflexionen verfasst und kontextspezifische reflexionsbezogene Dispositionen erhoben. Expert*innen erstellten theoriegeleitet Qualitätsbewertungen zur Breite, Tiefe, Kohärenz und Spezifität eines jeden Reflexionstextes. Unter Verwendung computerbasierter Klassifikations- und Analyseverfahren wurden weitere Textmerkmale erhoben. Mittels explorativer Faktorenanalyse konnten die Faktoren Qualität, Quantität und Deskriptivität gefunden werden. Da alle konventionell eingeschätzten Qualitätsbewertungen durch einen Faktor repräsentiert wurden, konnte ein maximales Qualitätskorrelat kalkuliert werden, zu welchem jede schriftliche Fremdreflexion im Rahmen der vorliegenden Vignette eine computerbasiert bestimmbare Distanz aufweist. Diese Distanz zum maximalen Qualitätskorrelat konnte validiert werden und kann die Qualität der schriftlichen Reflexionen unabhängig von menschlichen Ressourcen quantifiziert repräsentieren. Abschließend konnte identifiziert werden, dass ausgewählte Dispositionen in unterschiedlichem Maße mit der Reflexionsqualität zusammenhängen. So konnten beispielsweise bezogen auf das Physik-Fachwissen minimale Zusammenhänge identifiziert werden, wohingegen Werthaltung sowie wahrgenommene Unterrichtsqualität eng mit der Qualität einer schriftlichen Reflexion in Verbindung stehen können.
Es wird geschlussfolgert, dass reflexionsbezogene Dispositionen moderierenden Einfluss auf Reflexionen nehmen können. Es wird empfohlen bei der Erhebung von Reflexion mit dem Ziel der Kompetenzmessung ausgewählte Dispositionen mit zu erheben. Weiter verdeutlicht diese Arbeit die Möglichkeit, aussagekräftige Quantifizierungen auch in der Analyse komplexer Konstrukte vorzunehmen. Durch computerbasierte Qualitätsabschätzungen können objektive und individuelle Analysen und differenzierteres automatisiertes Feedback ermöglicht werden.
Es wird ein Überblick über verschiedene spektroskopische Techniken, mit denen dünne organische Schichten, wie sie in der Fotovoltaik, bei Leuchtdioden oder organischen Halbleitern Anwendung finden, gegeben. Mit einfachen Zusatzgeräten lassen sich Schichtdicke, Schichtaufbau und Zusammensetzung untersuchen. Die Schichtdicke kann monomolekular sein. Unter bestimmten Voraussetzungen sind einzelne Moleküle in einer Schicht charakterisierbar.
Beim Resonanzenergietransfer werden Fotonen von einem angeregten Donator über einen Wechselwirkungsabstand auf einen Akzeptor übertragen. Nach der quantenmechanischen Theorie von FÖRSTER kann dieser Abstand mit Hilfe des Überlappungsintegrals von Fluoreszenzspektrum des Donators und Absorp-tionsspektrum des Akzeptors berechnet werden.
Eine andere Möglichkeit der Bestimmung erhält man mit Hilfe von statistischen Modellen, die in einem Überblick zusammengestellt sind. Dabei kann der Abstand durch Auswertung der Löschkurve bestimmt werden.
In dieser Arbeit wird dazu eine weitere statistische Variante der Bestimmung des Wechselwirkungsradius hinzugefügt und an einem Beispiel ausführlich demonstriert.
Beim Resonanzenergietransfer werden Fotonen von einem angeregten Donator über einen Wechselwirkungsabstand auf einen Akzeptor übertragen. Nach der quantenmechanischen Theorie von FÖRSTER kann dieser Abstand mit Hilfe des Überlappungsintegrals von Fluoreszenzspektrum des Donators und Absorp-tionsspektrum des Akzeptors berechnet werden.
Eine andere Möglichkeit der Bestimmung erhält man mit Hilfe von statistischen Modellen, die in einem Überblick zusammengestellt sind. Dabei kann der Abstand durch Auswertung der Löschkurve bestimmt werden.
In dieser Arbeit wird dazu eine weitere statistische Variante der Bestimmung des Wechselwirkungsradius hinzugefügt und an einem Beispiel ausführlich demonstriert.
Proteine sind an praktisch allen Prozessen in lebenden Zellen maßgeblich beteiligt. Auch in der Biotechnologie werden Proteine in vielfältiger Weise eingesetzt.
Ein Protein besteht aus einer Kette von Aminosäuren. Häufig lagern sich mehrere dieser Ketten zu größeren Strukturen und Funktionseinheiten, sogenannten Proteinkomplexen,
zusammen. Kürzlich wurde gezeigt, dass eine Proteinkomplexbildung bereits während der Biosynthese der Proteine (co-translational) stattfinden kann
und nicht stets erst danach (post-translational) erfolgt. Da Fehlassemblierungen von Proteinen zu Funktionsverlusten und adversen Effekten führen, ist eine präzise und verlässliche Proteinkomplexbildung sowohl für zelluläre Prozesse als auch für biotechnologische Anwendungen essenziell. Mit experimentellen Methoden lassen sich zwar u.a. die Stöchiometrie und die Struktur von Proteinkomplexen bestimmen,
jedoch bisher nicht die Dynamik der Komplexbildung auf unterschiedlichen Zeitskalen. Daher sind grundlegende Mechanismen der Proteinkomplexbildung noch nicht vollständig verstanden. Die hier vorgestellte, auf experimentellen Erkenntnissen aufbauende, computergestützte Modellierung der Proteinkomplexbildung erlaubt eine umfassende Analyse des Einflusses physikalisch-chemischer Parameter
auf den Assemblierungsprozess. Die Modelle bilden möglichst realistisch die experimentellen Systeme der Kooperationspartner (Bar-Ziv, Weizmann-Institut, Israel; Bukau und Kramer, Universität Heidelberg) ab, um damit die Assemblierung von Proteinkomplexen einerseits in einem quasi-zweidimensionalen synthetischen Expressionssystem (in vitro) und andererseits im Bakterium Escherichia coli (in vivo) untersuchen zu können. Mit Hilfe eines vereinfachten Expressionssystems, in dem die Proteine nur an die Chip-Oberfläche, aber nicht aneinander binden können, wird das theoretische Modell parametrisiert. In diesem vereinfachten in-vitro-System durchläuft die Effizienz der Komplexbildung drei Regime – ein bindedominiertes Regime, ein Mischregime und ein produktionsdominiertes Regime. Ihr Maximum erreicht die Effizienz dabei kurz nach dem Übergang vom bindedominierten ins Mischregime und fällt anschließend monoton ab. Sowohl im nicht-vereinfachten in-vitro- als auch im in-vivo-System koexistieren je zwei konkurrierende Assemblierungspfade: Im in-vitro-System erfolgt die Komplexbildung entweder spontan in wässriger Lösung (Lösungsassemblierung) oder aber in einer definierten Schrittfolge an der Chip-Oberfläche (Oberflächenassemblierung); Im in-vivo-System konkurrieren hingegen die co- und die post-translationale Komplexbildung. Es zeigt sich, dass die Dominanz der Assemblierungspfade im in-vitro-System zeitabhängig ist und u.a. durch die Limitierung und Stärke der Bindestellen auf der Chip-Oberfläche beeinflusst werden kann. Im in-vivo-System hat der räumliche Abstand zwischen den Syntheseorten der beiden Proteinkomponenten nur dann einen Einfluss auf die Komplexbildung, wenn die Untereinheiten schnell degradieren. In diesem Fall dominiert die co-translationale Assemblierung auch auf kurzen Zeitskalen deutlich, wohingegen es bei stabilen Untereinheiten zu einem Wechsel von der Dominanz der post- hin zu einer geringen Dominanz der co-translationalen Assemblierung kommt. Mit den in-silico-Modellen lässt sich neben der Dynamik u.a. auch die Lokalisierung der Komplexbildung und -bindung darstellen, was einen Vergleich der theoretischen Vorhersagen mit experimentellen Daten und somit eine Validierung der Modelle ermöglicht. Der hier präsentierte in-silico Ansatz ergänzt die experimentellen Methoden, und erlaubt so, deren Ergebnisse zu interpretieren und neue Erkenntnisse davon abzuleiten.
Aufgrund der Bedeutung von Experimenten im physikalischen Erkenntnisprozess, sind diese ein wesentlicher Bestandteil des Physikunterrichts. Um den Einsatz von Experimenten im Physikunterricht zu fördern, sind kompetenzorientiertes Experimentieren und die Reflexion des Einsatzes von Experimenten wichtige Ziele in Lehrkräftebildungsprogrammen. Ablaufmodelle für kompetenzorientiertes Experimentieren unterscheiden typischerweise Phasen der Fragen- und Hypothesenentwicklung, der Planung, der Erforschung und der Schlussfolgerungen. Es ist allerdings unklar, auf welche Weise angehende Physiklehrkräfte Aspekte des kompetenzorientierten Experimentierens in ihrem Unterricht in schulpraktischen Ausbildungsphasen einsetzen, auf welche Weise sie solche Unterrichtsversuche mit Experimentierbezug reflektieren und wie strukturiert (im Sinne der Ablaufmodelle) sie dabei vorgehen.
In der vorliegenden Studie wurde deshalb untersucht, auf welche Weise Praxissemesterstudierende Experimentierprozesse in ihren Unterrichtsversuchen reflektieren. Hierfür wurde betrachtet, zu welchen Anteilen die Experimentierphasen in den Reflexionen adressiert werden. Um weiterhin herauszufinden, mit welcher Qualität die Experimentplanung reflektiert wird und inwiefern sich Vorstrukturierung für die Planungsphase zeigt, wurde diese differenzierter betrachtet. Auf Basis empirischer Vorarbeiten wurde vermutet, dass Fragenentwicklung, Hypothesenbildung und Experimentplanung seltener thematisiert werden als die anderen Teilkompetenzen und dass die Planungsphase hauptsächlich stark vorstrukturierte Elemente enthält, statt den Lernenden Freiräume für selbstständige Planungen zu lassen.
Zur Untersuchung der Fragestellung wurden Kodiermanuale zur Erfassung experimentierbezogener Kompetenzen in schriftlichen Reflexionen entwickelt und validiert. Analysiert wurden 40 Reflexionstexte von 14 Studierenden des Physik-Lehramts im Praxissemester an der Universität Potsdam. Als Untersuchungsmethode wurde die qualitative Inhaltsanalyse genutzt. Die Texte wurden bezüglich der Umsetzung eines Reflexionsmodells und auf das Vorkommen der Teilkompetenzen des Experimentierzyklus untersucht.
Die Ergebnisse bestätigten das geringe Vorkommen der Fragenentwicklung und Hypothesenbildung sowie die tendenziell geschlossenen Planungsinhalte. Zudem konnte festgestellt werden, dass die Planungsphase eher oberflächlich reflektiert und vor allem Arbeitsaufträge wiedergegeben wurden. Allgemein zeigten sich hauptsächlich beschreibende Tendenzen in den Reflexionen und eher wenige Alternativen und Konsequenzen. Aus den Ergebnissen werden Implikationen für die Lehrkräftebildung im Fach Physik abgeleitet. Um die Reflexionskompetenz der angehenden Lehrkräfte zu fördern, sind Hilfestellungen während des Reflexionsprozesses und eine inhaltliche Rückmeldung notwendig. Des Weiteren sollten die angehenden Lehrkräfte für eine ausgewogenere Förderung der Teilkompetenzen in ihrem Unterricht sensibilisiert werden.
Das Manuskript dient der Vorbereitung der Prüfung der Fachkunde zum Strahlenschutz für Lehrer. Es enthält wichtige Grundlagen der Kernphysik, insbesondere die Eigenschaften der Alpha-, Beta-, Gamma-, Neutronen- und Röntgenstrahlen. Es folgt eine kurze Beschreibung des Einflusses der Strahlung auf belebte Materie. Wichtige Paragrafen der Strahlenschutzverordnung werden beschrieben. Eine Aufgabensammlung dient zur Illustration und Übung.
An einigen CT-Modellkomplexen in verschiedenen Lösungsmitteln und bei Temperaturen von 113-300 K sollte der Einfluß der Umgebung auf die Form und Lage der Absorption von CT-Komplexen unterschiedlicher Bindungsfestigkeit untersucht werden.
Dazu wurden bekannte Bandenprofilfunktionen auf ihre Anwendbar-keit geprüft. Da eine optimale Anpassung nicht möglich war, wurde eine neue Profilfunktion entwickelt, die eine bessere Beschreibung ergab.
Nach der Bestimmung der Gleichgewichtskonstante und des Extink-tionskoeffizienten konnte mit der Profilfläche das Übergangsmoment berechnet werden.
Die Lösungsmittelabhängigkeit wurde bei verschiedenen Brechzahlen und Dielektrizitätskonstanten untersucht.
Für feste Komplexe wurde eine spezielle Präparationstechnik gewählt. Die beobachteten Feinstrukturen und der auftretende Streuuntergrund werden diskutiert.
Intermolekulare Desaktivierung zwischen einem angeregten Fluorophor und einem Löscher durch Elektronenübertragung kann mit dynamischer und statischer Löschung beschrieben werden. Es wird vorgeschlagen den dynamischen Löschprozess in Transport- und Wechselwirkungsphase einzuteilen. Ergebnisse der Löschung der N-Heteroarene durch Naphthalen bei hohen Löscherkonzentrationen werden mit der statischen Löschung beschrieben. Außerdem werden CT-Systeme untersucht. Nach einem Überblick über statische Modelle zum Resonanzenergietransfer wird ein aus der Treffertheorie abgeleitetes Modell vorgestellt und an Beispielen getestet. Die Experimente sind computergesteuert.
In der vorliegenden Arbeit wird untersucht, in wie weit physikalische Experimente ein flow-Erleben bei Lernenden hervorrufen. Flow-Erleben wird als Motivationsursache gesehen und soll den Weg zu Freude und Glück darstellen. Insbesondere wegen dem oft zitierten Fachkräftemangel in naturwissenschaftlichen und technischen Berufen ist eine Motivationssteigerung in naturwissenschaftlichen Unterrichtsfächern wichtig. Denn trotz Leistungssteigerungen in internationalen Vergleichstests möchten in Deutschland deutlich weniger Schüler*innen einen solchen Beruf ergreifen als in anderen Industriestaaten. Daher gilt es, möglichst früh Schüler*innen für naturwissenschaftlich-technische Fächer zu begeistern und insbesondere im regelrecht verhassten Physikunterricht flow-Erleben zu erzeugen.
Im Rahmen dieser Arbeit wird das flow-Erleben von Studierenden in klassischen Laborexperimenten und FELS (Forschend-Entdeckendes Lernen mit dem Smartphone) als Lernumgebung untersucht. FELS ist eine an die Lebenswelt der Schüler*innen angepasste Lernumgebung, in der sie mit Smartphones ihre eigene Lebenswelt experimentell untersuchen.
Es zeigt sich, dass sowohl klassische Laborexperimente als auch in der Lebenswelt durchgeführte, smartphonebasierte Experimente flow-Erleben erzeugen. Allerdings verursachen die smartphonebasierten Experimente kaum Stressgefühle.
Die in dieser Arbeit herausgefundenen Ergebnisse liefern einen ersten Ansatz, der durch Folgestudien erweitert werden sollte.
Carbonfasern haben sich in der Luft- und Raumfahrt etabliert und gewinnen in Alltagsanwendungen wie dem Automobilbereich, Windkraft- und Sportbereich durch ihre hohen Zugfestigkeiten, insbesondere ihrer hohen E-Moduli, und ihrer geringen Dichte immer mehr an Bedeutung. Auf Grund ihrer hohen Kosten, welche sich zur Hälfte aus der Precursorherstellung, inklusive seiner Synthese und seinem Verspinnprozess, dem Lösungsspinnverfahren, ergeben, erhalten zunehmend alternative und schmelzspinnbare Precursoren Interesse. Für die Carbonfaserherstellung wird fast ausschließlich Polyacrylnitril (PAN) verwendet, das vor dem Schmelzen irreversible exotherme Zyklisierungsreaktionen aufweist, welchen sich seine Zersetzung anschließt. Eine Möglichkeit der Reduzierung der Schmelztemperatur von Polymeren ist die Einbringung von Comonomeren zur Erhöhung des freien Volumens und die Reduzierung der intermolekularen Wechselwirkungen als interne Weichmacher. Wie am Fraunhofer IAP gezeigt wurde, kann mittels 2-Methoxyethylacrylat (MEA) die Schmelztemperatur zu neuartigen PAN-basierten Precursoren verringert werden. Um den PAN-co-MEA-Precursor für die nachfolgenden Prozessschritte der Carbonfaserherstellung zu verwenden, müssen die thermoplastischen Fasern in thermisch stabile Fasern ohne thermoplastisches Verhalten überführt werden. Es wurde ein neuer Prozessschritt (Prästabilisierung) eingeführt, welcher unter alkalischen Bedingungen zur Abspaltung der Comonomerseitenkette führt. Neben der Esterhydrolyse finden Reaktionen statt, welche an diesem Material noch nicht hinreichend untersucht wurden. Weiterhin stellt sich die Frage nach der Kinetik der Prästabilisierung und der Ermittlung einer geeigneten Prozessführung.
Hierzu wurde die Prästabilisierung in den Labormaßstab überführt und die möglichen Zusammensetzungen des aus DMSO und einer KOH-Lösung bestehenden Reaktionsmediums evaluiert. Weiterhin wurde die Behandlung bei verschiedenen Prästabilisierungszeiten von maximal 30 min und Temperaturen von 40, 50 und 60 °C durchgeführt, um primär mittels NMR-Spektroskopie die chemischen Strukturänderungen aufzuklären. Die Esterhydrolyse des Comonomers, welche zur Abspaltung des 2-Methoxyethanols führt, wurde mittels 1H-NMR-spektroskopischer Untersuchungen detektiert.
Es wurde ein Modell aufgestellt, das die chemisch-physikalischen Strukturänderungen während der Prästabilisierung aufzeigt. Die zuerst ablaufende Reaktion ist die Esterhydrolyse am Comonomer, welche vom Faserrand nach innen verläuft und durch die Präsenz des DMSO in Kombination mit der KOH-Lösung (Superbase) initiiert wird. Der zeitliche Reaktionsverlauf der Esterhydrolyse kann in drei Bereiche eingeteilt werden. Der erste Bereich ab dem Prästabilisierungsbeginn wird durch die Diffusion der basischen Anionen in die Faser, der zweite Bereich durch die Reaktion an der Estergruppe des Comonomers und der dritte Bereich durch letzte Reaktionen im Faserinneren und diffusiven Prozessen der Produkte und Edukte charakterisiert. Der zweite Bereich kann mit einer Reaktion pseudo 1. Ordnung abgebildet werden, da in diesem Bereich bereits eine ausreichende Diffusion der Edukte in die Faser stattgefunden hat. Bei 50 °C spielt die Diffusion im ersten Bereich im Vergleich zur Reaktion eine untergeordnete Rolle. Mit Erhöhung der Temperatur auf 60 °C kann eine im Verhältnis geringere Diffusions- als Reaktionsgeschwindigkeit beobachtet werden. Die Nebenreaktionen wurden mittels 13C-CP/MAS-NMR-spektroskopischen, elementaranlaytischen Untersuchungen sowie Doppelbrechungsmessungen charakterisiert. Während der alkalischen Esterhydrolyse beginnt die Reduzierung der Nitrilgruppen unter der Bildung von primären Carbonsäureamiden und Carbonsäuren. Zur Beschreibung dieser Umsetzung wurde eine Methode entwickelt, welche die Addition von 13C-CP/MAS-NMR-Spektren der Modellsubstanzen PAN, PAM und PAA beinhaltet. Weitere stattfindende Reaktionen sind die Bildung von konjugierten Doppelbindungen, welche insbesondere auf eine Zyklisierung der Nitrile hinweisen. Die nasschemisch initiierte Zyklisierung der Nitrilgruppen kann zu kürzeren Stabilisierungszeiten und einem besser kontrollierbaren Stabilisierungsprozess durch geringere Wärmefreisetzung und schlussendlich zu einer Kostenersparnis des gesamten Verfahrens führen. Die Umsetzung der Nitrilgruppen konnte mit einer Reaktion pseudo 1. Ordnung gut abgebildet werden. DMSO initiiert die Esterhydrolyse, wobei die KOH-Konzentration einen höheren Einfluss auf die Reaktionsgeschwindigkeit der Ester- und Nitrilhydrolyse als die DMSO-Konzentration besitzt. Beide Reaktionen zeigen eine vergleichbare Abhängigkeit von der Temperatur. Die Erhöhung der Prästabilisierungszeit und der KOH- bzw. DMSO-Konzentration führt zur Migration niedermolekularer Bestandteile des Fasermaterials an die Oberfläche und der Bildung punktueller Ablagerungen bis hin zu miteinander verbundenen Einzelfasern. Eine weitere Erhöhung der Prästabilisierungszeit bzw. der Konzentration führt zu einem steigenden Carbonsäureanteil und zur Quellung des Fasermaterials, wodurch die Ablagerungen in das Reaktionsmedium diffundieren. Die Ablagerungen enthalten Chlor, welches durch den Waschvorgang mit HCl in das Materialsystem gelangt ist und durch Parameteranpassungen reduziert wurde. Die schmelzbaren Fasern konnten durch die Prästabilisierung erfolgreich über eine Kern-Mantel-Struktur in nicht-thermoplastische Fasern überführt werden.
Zur Ermittlung eines geeigneten Prozessfensters für nachfolgende thermische Beanspruchungen der prästabilisierten Fasern wurden drei Kriterien identifiziert, anhand welcher die Evaluation erfolgte. Das erste Kriterium beinhaltet die Notwendigkeit der vollständigen Aufhebung der thermoplastischen Eigenschaft der Fasern. Als zweites Kriterium diente die Fasermorphologie. Anhand von REM-Aufnahmen wurden Faserbündel mit separierten Einzelfasern ohne Ablagerungen für die nachfolgende Stabilisierung ausgewählt. Das dritte Kriterium bezieht sich auf eine möglichst geringe Umsetzung der Nitrilgruppen, um Prästabilisierungsbedingungen mit Nebenreaktionen zu vermeiden.
Aus den Untersuchungen konnte eine Prästabilisierungstemperatur von 60 °C als geeignet identifiziert werden. Weiterhin führen hoch alkalische Zusammensetzungen des Reaktionsmediums mit KOH-Konzentrationen von 1, 1,5 und 2 M, vorzugsweise 1,5 M und 50 vol% DMSO mit Reaktionszeiten von unter 10 min zu geeigneten Fasern. Ein MEA-Anteil unterhalb von 2 mol% bewirkt eine Überführung in die Unschmelzbarkeit. Thermisch stabile und für die nachfolgende Stabilisierung geeignete Fasern besitzen weiterhin 68 – 80 mol% Nitrilgruppen, 20 – 25 mol% Carbonsäuren, bis zu 15 mol% primäre Carbonsäureamide und zyklisierte Strukturen.
In dieser Arbeit wurden Nano-Elektroden-Arrays zur Einzel-Objekt-Immobilisierung mittels Dielektrophorese verwendet. Hierbei wurden fluoreszenzmarkierte Nano-Sphären als Modellsystem untersucht und die gewonnenen Ergebnisse auf biologische Proben übertragen. Die Untersuchungen in Kombination mit verschiedenen Elektrodenlayouts führten zu einer deterministischen Vereinzelung der Nano-Sphären ab einem festen Größenverhältnis zwischen Nano-Sphäre und Durchmesser der Elektrodenspitzen. An den Proteinen BSA und R-PE konnte eine dielektrophoretische Immobilisierung ebenfalls demonstriert und R-PE Moleküle zur Vereinzelung gebracht werden. Hierfür war neben einem optimierten Elektrodenlayout, das durch Feldsimulationen den Feldgradienten betreffend gesucht wurde, eine Optimierung der Feldparameter, insbesondere von Spannung und Frequenz, erforderlich.
Neben der Dielektrophorese erfolgten auch Beobachtungen anderer Effekte des elektrischen Feldes, wie z.B. Elektrolyse an Nano-Elektroden und Strömungen über dem Elektroden-Array, hervorgerufen durch Joulesche Wärme und AC-elektroosmotischen Fluss. Zudem konnte Dielektrophorese an Silberpartikeln beobachtet werden und mittels Fluoreszenz-, Atom-Kraft-, Raster-Elektronen-Mikroskopie und energiedispersiver Röntgenspektroskopie untersucht werden. Schließlich wurden die verwendeten Objektive und Kameras auf ihre Lichtempfindlichkeit hin analysiert, so dass die Vereinzelung von Biomolekülen an Nano-Elektroden nachweisbar war.
Festzuhalten bleibt also, dass die Vereinzelung von Nano-Objekten und Biomolekülen an Nano-Elektroden-Arrays gelungen ist. Durch den parallelen Ansatz erlaubt dies, Aussagen über das Verhalten von Einzelmolekülen mit guter Statistik zu treffen.
Kosmologie beschreibt die Entwicklung des Universums als Ganzes. Kosmologische Entdeckungen in Theorie und Praxis haben daher unser modernes wissenschaftliches Weltbild entscheidend geprägt. Die Vermittlung eines modernen Weltbildes durch Unterricht ist ein häufiger Wunsch in der naturwissenschaftlichen Bildungsdiskussion. Dennoch existieren weiterhin Forschungs- und Entwicklungsbedarfe. Kosmologische Themen finden sich häufig in den Medien und sind gleichzeitig weiter vom Alltag entfernt, so dass sich hier besonders leicht wissenschaftlich inkorrekte Vorstellungen entwickeln können, die zu Problemen im Unterricht führen können.
Das Ziel dieser wissenschaftlichen Arbeit ist es, zu diesem Forschungsgebiet beizutragen und die Voraussetzungen hinsichtlich vorhandener Vorkenntnisse und Präkonzepte in Kosmologie, mit denen Schülerinnen und Schüler in den Unterricht kommen, zu untersuchen und anschließend mit denen anderer Länder zu vergleichen. Dies erfolgt anhand einer qualitativen Inhaltsanalyse eines offenen Fragebogens. Auf dieser Grundlage wird schließlich ein Multiple-Choice Fragebogen entwickelt, angewendet und evaluiert.
Die Ergebnisse zeigen große Wissenslücken im Bereich der Kosmologie auf und geben erste Hinweise auf vorhandene Unterschiede zwischen den Ländern. Es existieren ebenfalls einige teils weit verbreitete wissenschaftlich inkorrekte Vorstellungen wie beispielsweise die Assoziation des Urknalls mit einer Explosion, der Urknall verursacht durch eine Kollision von Teilchen oder größeren Objekten, oder die Vorstellung der Ausdehnung des Universums als neue Entdeckungen und/oder Wissen. Des Weiteren gab nur etwa jeder Fünfte das korrekte Alter des Universums oder die Ausdehnung des Universums als einen der drei Belege der Urknalltheorie an, während fast 40% keinen einzigen Beleg nennen konnten. Für den geschlossenen Fragebogen konnten gute Hinweise für verschiedene Validitätsaspekte herausgearbeitet werden und es existieren erste Hinweise darauf, dass der Fragebogen Wissenszuwachs messen kann und damit wahrscheinlich zur Untersuchung der Wirksamkeit von Lerneinheiten eingesetzt werden kann. Auch ein entsprechendes Modell zur Verständnisentwicklung der Ausdehnung des Universums zeigte sich vielversprechend.
Diese Arbeit liefert insgesamt einen Forschungsbeitrag zum Schülervorwissen und Vorstellungen in der Kosmologie und deren Large Scale Assessment. Dies eröffnet die Möglichkeit zukünftiger Forschungen im Bereich von Gruppenvergleichen insbesondere hinsichtlich objektiver Ländervergleiche sowie der Untersuchungen der Wirksamkeit von einzelnen Lerneinheiten als auch Vergleiche verschiedener Lerneinheiten untereinander.
Im Rahmen des Berliner Projekts „Sprachen-Bilden-Chancen. Innovationen für das Berliner Lehramt“ wurde unter anderem das „Instrument zur sprachbildenden Analyse von Aufgaben im Fach (isaf)“ entwickelt, welches eine Hilfestellung bei der Analyse sprachlicher Anforderungen von (Lern-)Aufgaben darstellt. Ziel des Instruments ist die Förderung der Analyse- und Planungskompetenzen von (angehenden) Lehrkräften. Im Rahmen des Teilprojekts „Sprachliche Heterogenität als Herausforderung für die Lehrerbildung“ des Projekts „PSI (Professionalisierung, Schulpraktische Studien und Inklusion)“ an der Universität Potsdam wurde isaf in der Didaktik der Physik erprobt. Auf Basis der Erprobungsergebnisse sowie der Ergebnisse eines fächerübergreifenden Workshops wurde die hier vorliegende Adaption entwickelt, die um Begriffserläuterungen und Literaturhinweise ergänzt wurde.
Die Klangeigenschaften von Musikinstrumenten werden durch das Zusammenwirken der auf ihnen anregbaren akustischen Schwingungsmoden bestimmt, welche sich wiederum aus der geometrischen Struktur des Resonators in Kombination mit den verwendeten Materialien ergeben. In dieser Arbeit wurde das Schwingungsverhalten von Streichinstrumenten durch den Einsatz minimal-invasiver piezoelektrischer Polymerfilmsensoren untersucht. Die studierten Kopplungsphänomene umfassen den sogenannten Wolfton und Schwingungstilger, die zu dessen Abschwächung verwendet werden, sowie die gegenseitige Beeinflussung von Bogen und Instrument beim Spielvorgang. An Dielektrischen Elastomeraktormembranen wurde dagegen der Einfluss der elastischen Eigenschaften des Membranmaterials auf das akustische und elektromechanische Schwingungsverhalten gezeigt. Die Dissertation gliedert sich in drei Teile, deren wesentliche Ergebnisse im Folgenden zusammengefasst werden.
In Teil I wurde die Funktionsweise eines abstimmbaren Schwingungstilgers zur Dämpfung von Wolftönen auf Streichinstrumenten untersucht. Durch Abstimmung der Resonanzfrequenz des Schwingungstilgers auf die Wolftonfrequenz kann ein Teil der Saitenschwingungen absorbiert werden, so dass die zu starke Anregung der Korpusresonanz vermieden wird, die den Wolfton verursacht. Der Schwingungstilger besteht aus einem „Wolftöter“, einem Massestück, welches auf der Nachlänge der betroffenen Saite (zwischen Steg und Saitenhalter) installiert wird. Hier wurde gezeigt, wie die Resonanzen dieses Schwingungstilgers von der Masse des Wolftöters und von dessen Position auf der Nachlänge abhängen. Aber auch die Geometrie des Wolftöters stellte sich als ausschlaggebend heraus, insbesondere bei einem nicht-rotationssymmetrischen Wolftöter: In diesem Fall entsteht – basierend auf den zu erwartenden nicht-harmonischen Moden einer massebelasteten Saite – eine zusätzliche Mode, die von der Polarisationsrichtung der Saitenschwingung abhängt.
Teil II der Dissertation befasst sich mit Elastomermembranen, die als Basis von Dielektrischen Elastomeraktoren dienen, und die wegen der Membranspannung auch akustische Resonanzen aufweisen. Die Ansprache von Elastomeraktoren hängt unter anderem von der Geschwindigkeit der elektrischen Anregung ab. Die damit zusammenhängenden viskoelastischen Eigenschaften der hier verwendeten Elastomere, Silikon und Acrylat, wurden einerseits in einer frequenzabhängigen dynamisch-mechanischen Analyse des Elastomers erfasst, andererseits auch optisch an vollständigen Aktoren selbst gemessen. Die höhere Viskosität des Acrylats, das bei tieferen Frequenzen höhere Aktuationsdehnungen als das Silikon zeigt, führt zu einer Verminderung der Dehnungen bei höheren Frequenzen, so dass über etwa 40 Hertz mit Silikon größere Aktuationsdehnungen erreicht werden. Mit den untersuchten Aktoren konnte die Gitterkonstante weicher optischer Beugungsgitter kontrolliert werden, die als zusätzlicher Film auf der Membran installiert wurden. Über eine Messung der akustischen Resonanzfrequenz von Elastomermebranen aus Acrylat in 1Abhängigkeit von ihrer Vorstreckung konnte in Verbindung mit einer Modellierung des hyperelastischen Verhaltens des Elastomers (Ogden-Modell) der Schermodul bestimmt werden.
Schließlich wird in Teil III die Untersuchung von Geigen und ihrer Streichanregung mit Hilfe minimal-invasiver piezoelektrischer Polymerfilme geschildert. Es konnten am Bogen und am Steg von Geigen – unter den beiden Füßen des Stegs – jeweils zwei Filmsensoren installiert werden. Mit den beiden Sensoren am Steg wurden Frequenzgänge von Geigen gemessen, welche eine Bestimmung der frequenzabhängigen Stegbewegung erlaubten. Diese Methode ermöglicht damit auch eine umfassende Charakterisierung der Signaturmoden in Bezug auf die Stegdynamik. Die Ergebnisse der komplementären Methoden von Impulsanregung und natürlichem Spielen der Geigen konnten dank der Sensoren verglichen werden. Für die Nutzung der Sensoren am Bogen – insbesondere für eine Messung des Bogendrucks – wurde eine Kalibrierung des Bogen-Sensor-Systems mit Hilfe einer Materialprüfmaschine durchgeführt. Bei einer Messung während des natürlichen Spielens wurde mit den Sensoren am Bogen einerseits die Übertragung der Saitenschwingung auf den Bogen festgestellt. Dabei konnten außerdem longitudinale Bogenhaarresonanzen identifiziert werden, die von der Position der Saite auf dem Bogen abhängen. Aus der Analyse dieses Phänomens konnte die longitudinale Wellengeschwindigkeit der Bogenhaare bestimmt werden, die eine wichtige Größe für die Kopplung zwischen Saite und Bogen ist. Mit Hilfe des Systems aus Sensoren an Bogen und Steg werden auf Grundlage der vorliegenden Arbeit Studien an Streichinstrumenten vorgeschlagen, in denen die Bespielbarkeit der Instrumente zu den jeweils angeregten Steg- und Bogenschwingungen in Beziehung gesetzt werden kann. Damit könnte nicht zuletzt auch die bisher nicht vollständig geklärte Rolle des Bogens für Klang und Bespielbarkeit besser beurteilt werden
Die Arktis erwärmt sich schneller als der Rest der Erde. Die Auswirkungen manifestieren sich unter Anderem in einer verstärkten Erwärmung der arktischen Grenzschicht. Diese Arbeit befasst sich mit Wechselwirkungen zwischen synoptischen Zyklonen und der arktischen Atmosphäre auf lokalen bis überregionalen Skalen. Ausgangspunkt dafür sind Messdaten und Modellsimulationen für den Zeitraum der N-ICE2015 Expedition, die von Anfang Januar bis Ende Juni 2015 im arktischen Nordatlantiksektor stattgefunden hat.
Anhand von Radiosondenmessungen lassen sich Auswirkungen von synoptischen Zyklonen am deutlichsten im Winter erkennen, da sie durch die Advektion warmer und feuchter Luftmassen in die Arktis den Zustand der Atmosphäre von einem strahlungs-klaren in einen strahlungs-opaken ändern. Obwohl dieser scharfe Kontrast nur im Winter existiert, zeigt die Analyse, dass der integrierte Wasserdampf als Indikator für die Advektion von Luftmassen aus niedrigen Breiten in die Arktis auch im Frühjahr geeignet ist. Neben der Advektion von Luftmassen wird der Einfluss der Zyklonen auf die statische Stabilität charakterisiert. Beim Vergleich der N-ICE2015 Beobachtungen mit der SHEBA Kampagne (1997/1998), die über dickerem Eis stattfand, finden sich trotz der unterschiedlichen Meereisregime Ähnlichkeiten in der statischen Stabilität der Atmosphäre. Die beobachteten Differenzen in der Stabilität lassen sich auf Unterschiede in der synoptischen Aktivität zurückführen. Dies lässt vermuten, dass die dünnere Eisdecke auf saisonalen Zeitskalen nur einen geringen Einfluss auf die thermodynamische Struktur der arktischen Troposphäre besitzt, solange eine dicke Schneeschicht sie bedeckt. Ein weiterer Vergleich mit den parallel zur N-ICE2015 Kampagne gestarteten Radiosonden der AWIPEV Station in Ny-Åesund, Spitzbergen, macht deutlich, dass die synoptischen Zyklonen oberhalb der Orographie auf saisonalen Zeitskalen das Wettergeschehen bestimmen.
Des Weiteren werden für Februar 2015 die Auswirkungen von in der Vertikalen variiertem Nudging auf die Entwicklung der Zyklonen am Beispiel des hydrostatischen regionalen Klimamodells HIRHAM5 untersucht. Es zeigt sich, dass die Unterschiede zwischen den acht Modellsimulationen mit abnehmender Anzahl der genudgten Level zunehmen. Die größten Differenzen resultieren vornehmlich aus dem zeitlichen Versatz der Entwicklung synoptischer Zyklonen. Zur Korrektur des Zeitversatzes der Zykloneninitiierung genügt es bereits, Nudging in den unterstem 250 m der Troposphäre anzuwenden. Daneben findet sich zwischen den genudgten HIRHAM5-Simulation und den in situ Messungen der gleiche positive Temperaturbias, den auch ERA-Interim besitzt. Das freie HIRHAM hingegen reproduziert das positive Ende der N-ICE2015 Temperaturverteilung gut, besitzt aber einen starken negativen Bias, der sehr wahrscheinlich aus einer Unterschätzung des Feuchtegehalts resultiert. An Beispiel einer Zyklone wird gezeigt, dass Nudging Einfluss auf die Lage der Höhentiefs besitzt, die ihrerseits die Zyklonenentwicklung am Boden beeinflussen. Im Weiteren wird mittels eines für kleine Ensemblegrößen geeigneten Varianzmaßes eine statistische Einschätzung der Wirkung des Nudgings auf die Vertikale getroffen. Es wird festgestellt, dass die Ähnlichkeit der Modellsimulationen in der unteren Troposphäre generell höher ist als darüber und in 500 hPa ein lokales Minimum besitzt.
Im letzten Teil der Analyse wird die Wechselwirkung der oberen und unteren Stratosphäre anhand zuvor betrachteter Zyklonen mit Daten der ERA-Interim Reanalyse untersucht. Lage und Ausrichtung des Polarwirbels erzeugten ab Anfang Februar 2015 eine ungewöhnlich große Meridionalkomponente des Tropopausenjets, die Zugbahnen in die zentrale Arktis begünstigte. Am Beispiel einer Zyklone wird die Übereinstimmung der synoptischen Entwicklung mit den theoretischen Annahmen über den abwärts gerichteten Einfluss der Stratosphäre auf die Troposphäre hervorgehoben. Dabei spielt die nicht-lineare Wechselwirkung zwischen der Orographie Grönlands, einer Intrusion stratosphärischer Luft in die Troposphäre sowie einer in Richtung Arktis propagierender Rossby-Welle eine tragende Rolle. Als Indikator dieser Wechselwirkung werden horizontale Signaturen aus abwechselnd aufsteigender und absinkender Luft innerhalb der Troposphäre identifiziert.
In der vorliegenden Arbeit wird die planetare Grenzschicht in Ny-Ålesund, Spitzbergen, sowohl bezüglich kleinskaliger („mikrometeorologischer“) Effekte als auch in ihrer Kopplung mit der Synoptik untersucht. Dazu werden verschiedene Beobachtungsdaten aus der Säule und in Bodennähe zusammengezogen und bewertet. Die so gewonnenen Datensätze werden dann zur Validierung eines nicht-hydrostatischen, regionalen Klimamodells genutzt. Weiterhin werden orographisch bedingte Einflüsse, die Untergrundbeschaffenheit und die lokale Heterogenität der Unterlage untersucht. Hierzu werden meteorologische Größen, wie die Variabilität der Temperatur und insbesondere die jährliche Windverteilung in Bodennähe untersucht und es erfolgt ein Vergleich von in-situ gemessenen turbulenten Flüssen von den Eddy-Kovarianz-Messkomplexen bei Ny-Ålesund und im Bayelva-Tal unter demselben Aspekt. Es zeigt sich, dass der Eddy-Kovarianz-Messkomplex im Bayelva-Tal sehr stark durch eine orographisch bedingte Kanalisierung der Strömung beeinflusst ist und sich nicht für Vergleiche mit regionalen Klimamodellen mit horizontalen Auflösungen von <1km eignet. Die hohe Bodenfeuchte im Bayelva-Tal führt zudem zu einem deutlich kleineren Bowen-Verhältnis, als es für diese Region zu erwarten ist. Der Eddy-Kovarianz-Messkomplex bei Ny-Ålesund erweist sich hingegen als geeigneter für solche Modellvergleiche, aufgrund der typischen, küstennahen Windverteilung und des repräsentativen Footprints. Letzteres wird durch die Bestimmung der Footprint-Klimatologie des Jahres 2013 mit einem aktuellen Footprint-Modell erarbeitet.
Weiterhin wird die Auswirkung von (Anti-) Zyklonen über den Archipel auf die zeitliche Variabilität der lokalen Grenzschichteigenschaften untersucht und bewertet. Dazu wird ein Zyklonen-Detektions-Algorithmus auf ERA-Interim-Reanalysedatensätze angewendet, wodurch die Häufigkeit von nahezu ideal konzentrischen Hoch- und die Tiefdruckgebieten für drei Jahre bestimmt wird. Aus dieser Verteilung werden insgesamt drei interessante Zeiträume zu verschiedenen Jahreszeiten ausgewählt und im Rahmen von Prozessstudien die lokalen bodennahen meteorologischen Messungen, der turbulente Austausch an der Oberfläche und die Grenzschichtdynamik in der Säule untersucht. Die zeitliche Variabilität der dynamischen Grenzschichtstabilität in der Säule wird anhand von zeitlich hoch aufgelösten vertikalen Profilen der Bulk-Richardson-Zahl aus Kompositprofilen aus Fernerkundungsinstrumenten (Radiometer, Wind-LIDAR) sowie Mastdaten (BSRN-Mast) untersucht und die Grenzschichthöhe ermittelt. Aus diesen Analysen ergibt sich eine deutliche Abhängigkeit der thermischen Stabilität beim Durchzug von Fronten, eine damit einhergehende erhebliche Abhängigkeit der Grenzschichtdynamik und der Grenzschichthöhe sowie des turbulenten Austauschs von der zeitlichen Variabilität der Windgeschwindigkeit in der Säule.
Auf Grundlage der Standortanalysen und Prozessstudien erfolgt ein Vergleich der bodennahen Messungen und den Beobachtungen aus der Säule, sowohl von den genannten Fernerkundungsinstrumenten als auch von In-situ-Messungen (Radiosonden) für den Zeitraum einer Radiosondierungskampagne mit dem nicht-hydrostatischen, regionalen Klimamodel WRF (ARW). Auf Grundlage der Fragestellung, inwieweit aktuelle Schemata die Grenzschichtcharakteristika in orographisch stark gegliedertem Gelände in der Arktis reproduzieren können, werden zwei Grenzschichtparametrisierungsschemata mit verschiedenen Ordnungen der Schließung validiert. Hierzu wird die zeitliche Variabilität der Temperatur, der Feuchte und des Windfeldes in der Säule bis 2000m in den Simulationen mit den Beobachtungsdaten vergleichen. Es wird gezeigt, dass durch Modifikation der Initialwertfelder eine sehr gute Übereinstimmung zwischen den Simulationen und den Beobachtungen bereits bei einer horizontalen Auflösung von 1km erreicht werden kann und die Wahl des Grenzschichtschemas nur untergeordneten Einfluss hat. Hieraus werden Ansätze der Weiterentwicklung der Parametrisierungen, aber auch Empfehlungen bezüglich der Initialwertfelder, wie der Landmaske und der Orographie, vorgeschlagen.
For the calculation of the work in an irreversible pressure-volume change, we propose approxima-tions, which in contrast to the usual representation in the literature reflect the work performed during expansion and compression symmetrically. The calculations are based on the Reversible-Share-Theorem: Is used the force to overcome for calculating the work, so it captures only the configurational reversible work share.
In dieser Arbeit werden nichtlineare Kopplungsmechanismen von akustischen Oszillatoren untersucht, die zu Synchronisation führen können. Aufbauend auf die Fragestellungen vorangegangener Arbeiten werden mit Hilfe theoretischer und experimenteller Studien sowie mit Hilfe numerischer Simulationen die Elemente der Tonentstehung in der Orgelpfeife und die Mechanismen der gegenseitigen Wechselwirkung von Orgelpfeifen identifiziert. Daraus wird erstmalig ein vollständig auf den aeroakustischen und fluiddynamischen Grundprinzipien basierendes nichtlinear gekoppeltes Modell selbst-erregter Oszillatoren für die Beschreibung des Verhaltens zweier wechselwirkender Orgelpfeifen entwickelt. Die durchgeführten Modellrechnungen werden mit den experimentellen Befunden verglichen. Es zeigt sich, dass die Tonentstehung und die Kopplungsmechanismen von Orgelpfeifen durch das entwickelte Oszillatormodell in weiten Teilen richtig beschrieben werden. Insbesondere kann damit die Ursache für den nichtlinearen Zusammenhang von Kopplungsstärke und Synchronisation des gekoppelten Zwei-Pfeifen Systems, welcher sich in einem nichtlinearen Verlauf der Arnoldzunge darstellt, geklärt werden. Mit den gewonnenen Erkenntnissen wird der Einfluss des Raumes auf die Tonentstehung bei Orgelpfeifen betrachtet. Dafür werden numerische Simulationen der Wechselwirkung einer Orgelpfeife mit verschiedenen Raumgeometrien, wie z. B. ebene, konvexe, konkave, und gezahnte Geometrien, exemplarisch untersucht. Auch der Einfluss von Schwellkästen auf die Tonentstehung und die Klangbildung der Orgelpfeife wird studiert. In weiteren, neuartigen Synchronisationsexperimenten mit identisch gestimmten Orgelpfeifen, sowie mit Mixturen wird die Synchronisation für verschiedene, horizontale und vertikale Pfeifenabstände in der Ebene der Schallabstrahlung, untersucht. Die dabei erstmalig beobachteten räumlich isotropen Unstetigkeiten im Schwingungsverhalten der gekoppelten Pfeifensysteme, deuten auf abstandsabhängige Wechsel zwischen gegen- und gleichphasigen Sychronisationsregimen hin. Abschließend wird die Möglichkeit dokumentiert, das Phänomen der Synchronisation zweier Orgelpfeifen durch numerische Simulationen, also der Behandlung der kompressiblen Navier-Stokes Gleichungen mit entsprechenden Rand- und Anfangsbedingungen, realitätsnah abzubilden. Auch dies stellt ein Novum dar.
Organische Halbleiter besitzen neue, bemerkenswerte Materialeigenschaften, die sie für die grundlegende Forschung wie auch aktuelle technologische Entwicklung (bsw. org. Leuchtdioden, org. Solarzellen) interessant werden lassen. Aufgrund der starken konformative Freiheit der konjugierten Polymerketten führt die Vielzahl der möglichen Anordnungen und die schwache intermolekulare Wechselwirkung für gewöhnlich zu geringer struktureller Ordnung im Festkörper. Die Morphologie hat gleichzeitig direkten Einfluss auf die elektronische Struktur der organischen Halbleiter, welches sich meistens in einer deutlichen Reduktion der Ladungsträgerbeweglichkeit gegenüber den anorganischen Verwandten zeigt. So stellt die Beweglichkeit der Ladungen im Halbleiter einen der limitierenden Faktoren für die Leistungsfähigkeit bzw. den Wirkungsgrad von funktionellen organischen Bauteilen dar. Im Jahr 2009 wurde ein neues auf Naphthalindiimid und Bithiophen basierendes Dornor/Akzeptor Copolymer vorgestellt [P(NDI2OD‑T2)], welches sich durch seine außergewöhnlich hohe Ladungsträgermobilität auszeichnet. In dieser Arbeit wird die Ladungsträgermobilität in P(NDI2OD‑T2) bestimmt, und der Transport durch eine geringe energetischer Unordnung charakterisiert. Obwohl dieses Material zunächst als amorph beschrieben wurde zeigt eine detaillierte Analyse der optischen Eigenschaften von P(NDI2OD‑T2), dass bereits in Lösung geordnete Vorstufen supramolekularer Strukturen (Aggregate) existieren. Quantenchemische Berechnungen belegen die beobachteten spektralen Änderungen. Mithilfe der NMR-Spektroskopie kann die Bildung der Aggregate unabhängig von optischer Spektroskopie bestätigt werden. Die Analytische Ultrazentrifugation an P(NDI2OD‑T2) Lösungen legt nahe, dass sich die Aggregation innerhalb der einzelnen Ketten unter Reduktion des hydrodynamischen Radius vollzieht. Die Ausbildung supramolekularen Strukturen nimmt auch eine signifikante Rolle bei der Filmbildung ein und verhindert gleichzeitig die Herstellung amorpher P(NDI2OD‑T2) Filme. Durch chemische Modifikation der P(NDI2OD‑T2)-Kette und verschiedener Prozessierungs-Methoden wurde eine Änderung des Kristallinitätsgrades und gleichzeitig der Orientierung der kristallinen Domänen erreicht und mittels Röntgenbeugung quantifiziert. In hochauflösenden Elektronenmikroskopie-Messungen werden die Netzebenen und deren Einbettung in die semikristallinen Strukturen direkt abgebildet. Aus der Kombination der verschiedenen Methoden erschließt sich ein Gesamtbild der Nah- und Fernordnung in P(NDI2OD‑T2). Über die Messung der Elektronenmobilität dieser Schichten wird die Anisotropie des Ladungstransports in den kristallographischen Raumrichtungen von P(NDI2OD‑T2) charakterisiert und die Bedeutung der intramolekularen Wechselwirkung für effizienten Ladungstransport herausgearbeitet. Gleichzeitig wird deutlich, wie die Verwendung von größeren und planaren funktionellen Gruppen zu höheren Ladungsträgermobilitäten führt, welche im Vergleich zu klassischen semikristallinen Polymeren weniger sensitiv auf die strukturelle Unordnung im Film sind.
Unstetige Galerkin-Diskretisierung niedriger Ordnung in einem atmosphärischen Multiskalenmodell
(2014)
Die Dynamik der Atmosphäre der Erde umfasst einen Bereich von mikrophysikalischer Turbulenz über konvektive Prozesse und Wolkenbildung bis zu planetaren Wellenmustern. Für Wettervorhersage und zur Betrachtung des Klimas über Jahrzehnte und Jahrhunderte ist diese Gegenstand der Modellierung mit numerischen Verfahren. Mit voranschreitender Entwicklung der Rechentechnik sind Neuentwicklungen der dynamischen Kerne von Klimamodellen, die mit der feiner werdenden Auflösung auch entsprechende Prozesse auflösen können, notwendig. Der dynamische Kern eines Modells besteht in der Umsetzung (Diskretisierung) der grundlegenden dynamischen Gleichungen für die Entwicklung von Masse, Energie und Impuls, so dass sie mit Computern numerisch gelöst werden können. Die vorliegende Arbeit untersucht die Eignung eines unstetigen Galerkin-Verfahrens niedriger Ordnung für atmosphärische Anwendungen. Diese Eignung für Gleichungen mit Wirkungen von externen Kräften wie Erdanziehungskraft und Corioliskraft ist aus der Theorie nicht selbstverständlich. Es werden nötige Anpassungen beschrieben, die das Verfahren stabilisieren, ohne sogenannte „slope limiter” einzusetzen. Für das unmodifizierte Verfahren wird belegt, dass es nicht geeignet ist, atmosphärische Gleichgewichte stabil darzustellen. Das entwickelte stabilisierte Modell reproduziert eine Reihe von Standard-Testfällen der atmosphärischen Dynamik mit Euler- und Flachwassergleichungen in einem weiten Bereich von räumlichen und zeitlichen Skalen. Die Lösung der thermischen Windgleichung entlang der mit den Isobaren identischen charakteristischen Kurven liefert atmosphärische Gleichgewichtszustände mit durch vorgegebenem Grundstrom einstellbarer Neigung zu(barotropen und baroklinen)Instabilitäten, die für die Entwicklung von Zyklonen wesentlich sind. Im Gegensatz zu früheren Arbeiten sind diese Zustände direkt im z-System(Höhe in Metern)definiert und müssen nicht aus Druckkoordinaten übertragen werden.Mit diesen Zuständen, sowohl als Referenzzustand, von dem lediglich die Abweichungen numerisch betrachtet werden, und insbesondere auch als Startzustand, der einer kleinen Störung unterliegt, werden verschiedene Studien der Simulation von barotroper und barokliner Instabilität durchgeführt. Hervorzuheben ist dabei die durch die Formulierung von Grundströmen mit einstellbarer Baroklinität ermöglichte simulationsgestützte Studie des Grades der baroklinen Instabilität verschiedener Wellenlängen in Abhängigkeit von statischer Stabilität und vertikalem Windgradient als Entsprechung zu Stabilitätskarten aus theoretischen Betrachtungen in der Literatur.
Wir schlagen einen allgemein anwendbaren Algorithmus vor, der unter Verwendung des Skalarprodukts von Kraft und Weg zum richtigen Vorzeichen in den Gleichungen für die Arbeit und die Potentielle Energie bei reversiblen Prozessen (Druck-Volumen-Änderung, Dehnung, Elektrostatische Wechselwirkung, Hub)führt. Wir zeigen, dass es dabei möglich ist, systemimmanente oder externe Kräfte zu benutzen. Wir zeigen, dass bei Verwendung von systemimmanenten Kräften das Skalarprodukt mit negativem Vorzeichen anzusetzen ist. Zudem ist es sehr wichtig, nötige Vorzeichenwechsel bei den einzelnen Schritten zu beachten. Wir betonen dies, weil gelegentlich übersehen wird, dass ein Vorzeichenwechsel nötig ist, wenn das Wegdifferential ds durch das Höhendifferential dh beziehungsweise durch das Abstandsdifferential dx oder dr ersetzt werden muss.
Unter geeigneten Wachstumsbedingungen weisen Algenkulturen oft eine größere Produktivität der Zellen auf, als sie bei höheren Pflanzen zu beobachten ist. Chlamydomonas reinhardtii-Zellen sind vergleichsweise klein. So beträgt das Zellvolumen während des vegetativen Zellzyklus etwa 50–3500 µm³. Im Vergleich zu höheren Pflanzen ist in einer Algensuspension die Konzentration der Biomasse allerdings gering. So enthält beispielsweise 1 ml einer üblichen Konzentration zwischen 10E6 und 10E7 Algenzellen. Quantifizierungen von Metaboliten oder Makromolekülen, die zur Modellierung von zellulären Prozessen genutzt werden, werden meist im Zellensemble vorgenommen. Tatsächlich unterliegt jedoch jede Algenzelle einer individuellen Entwicklung, die die Identifizierung charakteristischer allgemeingültiger Systemparameter erschwert. Ziel dieser Arbeit war es, biochemisch relevante Messgrößen in-vivo und in-vitro mit Hilfe optischer Verfahren zu identifizieren und zu quantifizieren. Im ersten Teil der Arbeit wurde ein Puls-Amplituden-Modulation(PAM)-Fluorimetriemessplatz zur Messung der durch äußere Einflüsse bedingten veränderlichen Chlorophyllfluoreszenz an einzelnen Zellen vorgestellt. Die Verwendung eines kommerziellen Mikroskops, die Implementierung empfindlicher Nachweiselektronik und einer geeignete Immobilisierungsmethode ermöglichten es, ein Signal-zu-Rauschverhältnis zu erreichen, mit dem Fluoreszenzsignale einzelner lebender Chlamydomonas-Zellen gemessen werden konnten. Insbesondere wurden das Zellvolumen und der als Maß für die Effizienz des Photosyntheseapparats bzw. die Zellfitness geltende Chlorophyllfluoreszenzparameter Fv/Fm ermittelt und ein hohes Maß an Heterogenität dieser zellulären Parameter in verschiedenen Entwicklungsstadien der synchronisierten Chlamydomonas-Zellen festgestellt. Im zweiten Teil der Arbeit wurden die bildgebende Laser-Scanning-Mikroskopie und anschließende Bilddatenanalyse zur quantitativen Erfassung der wachstumsabhängigen zellulären Parameter angewandt. Ein kommerzielles konfokales Mikroskop wurde um die Möglichkeit der nichtlinearen Mikroskopie erweitert. Diese hat den Vorteil einer lokalisierten Anregung, damit verbunden einer höheren Ortsauflösung und insgesamt geringeren Probenbelastung. Weiterhin besteht neben der Signalgewinnung durch Fluoreszenzanregung die Möglichkeit der Erzeugung der Zweiten Harmonischen (SHG) an biophotonischen Strukturen, wie der zellulären Stärke. Anhand der Verteilungsfunktionen war es möglich mit Hilfe von modelltheoretischen Ansätzen zelluläre Parameter zu ermitteln, die messtechnisch nicht unmittelbar zugänglich sind. Die morphologischen Informationen der Bilddaten ermöglichten die Bestimmung der Zellvolumina und die Volumina subzellularer Strukturen, wie Nuclei, extranucleäre DNA oder Stärkegranula. Weiterhin konnte die Anzahl subzellulärer Strukturen innerhalb einer Zelle bzw. eines Zellverbunds ermittelt werden. Die Analyse der in den Bilddaten enthaltenen Signalintensitäten war Grundlage einer relativen Konzentrationsbestimmung von zellulären Komponenten, wie DNA bzw. Stärke. Mit dem hier vorgestellten Verfahren der nichtlinearen Mikroskopie und nachfolgender Bilddatenanalyse konnte erstmalig die Verteilung des zellulären Stärkegehalts in einer Chlamydomonas-Population während des Wachstums bzw. nach induziertem Stärkeabbau verfolgt werden. Im weiteren Verlauf wurde diese Methode auch auf Gefrierschnitte höherer Pflanzen, wie Arabidopsis thaliana, angewendet. Im Ergebnis wurde gezeigt, dass viele zelluläre Parameter, wie das Volumen, der zelluläre DNA- und Stärkegehalt bzw. die Anzahl der Stärkegranula durch eine Lognormalverteilung, mit wachstumsabhängiger Parametrisierung, beschrieben werden. Zelluläre Parameter, wie Stoffkonzentration und zelluläres Volumen, zeigen keine signifikanten Korrelationen zueinander, woraus geschlussfolgert werden muss, dass es ein hohes Maß an Heterogenität der zellulären Parameter innerhalb der synchronisierten Chlamydomonas-Populationen gibt. Diese Aussage gilt sowohl für die als homogenste Form geltenden Synchronkulturen von Chlamydomonas reinhardtii als auch für die gemessenen zellulären Parameter im intakten Zellverbund höherer Pflanzen. Dieses Ergebnis ist insbesondere für modelltheoretische Betrachtungen von Relevanz, die sich auf empirische Daten bzw. zelluläre Parameter stützen welche im Zellensemble gemessen wurden und somit nicht notwendigerweise den zellulären Status einer einzelnen Zelle repräsentieren.
In dieser Arbeit werden die Effekte der Synchronisation nichtlinearer, akustischer Oszillatoren am Beispiel zweier Orgelpfeifen untersucht. Aus vorhandenen, experimentellen Messdaten werden die typischen Merkmale der Synchronisation extrahiert und dargestellt. Es folgt eine detaillierte Analyse der Übergangsbereiche in das Synchronisationsplateau, der Phänomene während der Synchronisation, als auch das Austreten aus der Synchronisationsregion beider Orgelpfeifen, bei verschiedenen Kopplungsstärken. Die experimentellen Befunde werfen Fragestellungen nach der Kopplungsfunktion auf. Dazu wird die Tonentstehung in einer Orgelpfeife untersucht. Mit Hilfe von numerischen Simulationen der Tonentstehung wird der Frage nachgegangen, welche fluiddynamischen und aero-akustischen Ursachen die Tonentstehung in der Orgelpfeife hat und inwiefern sich die Mechanismen auf das Modell eines selbsterregten akustischen Oszillators abbilden lässt. Mit der Methode des Coarse Graining wird ein Modellansatz formuliert.
Eumelanin ist ein Fluorophor mit teilweise recht ungewöhnlichen spektralen Eigenschaften. Unter anderem konnten in früheren Veröffentlichungen Unterschiede zwischen dem 1- und 2-photonen-angeregtem Fluoreszenzspektrum beobachtet werden, weshalb im nichtlinearen Anregungsfall ein schrittweiser Anregungsprozess vermutet wurde. Um diese und weitere optische Eigenschaften des Eumelanins besser zu verstehen, wurden in der vorliegenden Arbeit vielfältige messmethodische Ansätze der linearen und nichtlinearen Optik an synthetischem Eumelanin in 0,1M NaOH verfolgt. Aus den Ergebnissen wurde ein Modell abgeleitet, welches die beobachteten photonischen Eigenschaften konsistent beschreibt. In diesem kaskadierten Zustandsmodell (Kaskaden-Modell) wird die aufgenommene Photonenenergie schrittweise von Anregungszuständen hoher Übergangsenergien zu Anregungszuständen niedrigerer Übergangsenergien transferiert. Messungen der transienten Absorption ergaben dominante Anteile mit kurzen Lebensdauern im ps-Bereich und ließen damit auf eine hohe Relaxationsgeschwindigkeit entlang der Kaskade schließen. Durch Untersuchung der nichtlinear angeregten Fluoreszenz von verschieden großen Eumelanin-Aggregaten konnte gezeigt werden, dass Unterschiede zwischen dem linear und nichtlinear angeregten Fluoreszenzspektrum nicht nur durch einen schrittweisen Anregungsprozess bei nichtlinearer Anregung sondern auch durch Unterschiede in den Verhältnissen der Quantenausbeuten zwischen kleinen und großen Aggregaten beim Wechsel von linearer zu nichtlinearer Anregung begründet sein können. Durch Bestimmung des Anregungswirkungsquerschnitts und der Anregungspulsdauer-Abhängigkeit der nichtlinear angeregten Fluoreszenz von Eumelanin konnte jedoch ein schrittweiser 2-Photonen-Anregungsprozess über einen Zwischenzustand mit Lebendsdauern im ps-Bereich nachgewiesen werden.
Ein neuentwickeltes azobenzenhaltiges Material, das auf einem supramolekularen Konzept basiert, wird bezüglich seiner Strukturbildung während einer holografischen Belichtung bei 488 nm untersucht. Im Mittelpunkt stehen dabei eindimensionale, sinusförmige Reliefs mit Periodizitäten kleiner 500 nm. Es wird gezeigt, wie der Grad der Vernetzung der photosensitiven Schicht die Strukturbildung in diesem Größenbereich beeinflusst. Zur Maximierung der Strukturtiefe werden gezielt Prozessparameter der Belichtung sowie Materialparameter variiert. Unter Standardbedingungen und moderaten Belichtungsintensitäten von ca. 200 mW/cm² bilden sich innerhalb weniger Minuten bei einer Periode von 400 nm Strukturtiefen von bis zu 80nm aus. Durch die Beeinflussung von Materialparametern, wie Oberflächenspannung und Viskosität, wird die maximale Strukturtiefe auf 160nm verdoppelt. Durch Mehrfachbelichtungen wird auch die Bildung von zweidimensionalen Gittern untersucht. Die Originalstrukturen werden in einem Abformverfahren kopiert und in Schichten von unter UV-Licht aushärtenden Polymeren übertragen. Durch das Abformen kommt es zu einer geringfügigen Verschlechterung der Oberflächenqualität sowie Abnahme der Strukturtiefe. Dieser Verlust wird durch eine Verringerung der Prozesstemperatur verringert. Mithilfe kopierter Oberflächengitter werden organische Distributed Feedback-(DFB)-Laser zweiter Ordnung hergestellt, um den Einfluss von Gitterparametern auf die Emissionseigenschaften dieser Laser zu untersuchen. Dazu erfolgt zunächst die Charakterisierung der optischen Verstärkungseigenschaften ausgewählter organischer Emittermaterialien mittels der Variablen Strichlängenmethode. Das mit dem Laserfarbstoff Pyrromthen567 (PM567) dotierte Polystyrol (PS) zeigt dabei trotz konzentrationsbedingter geringer Absorption eine vergleichsweise geringe Gewinnschwelle von 50µJ/cm² bei ca. 575 nm. Das aktive Gast-Wirt-System der konjugierten Polymere MEH-PPV und F8BT* weist eine hohe Absorption und eine kleine Gewinnschwelle von 2,5 µJ/cm² bei 630 nm auf. Dieses Verhalten spiegelt sich auch in den Emissionseigenschaften der damit hergestellten DFB-Laser wieder. Die Dicke der aktiven Schichten liegen im Bereich hunderter Nanometer und wird so eingestellt, dass sich nur die transversalen Grundmoden im Wellenleiter ausbreiten können. Die Gitterperiode sind so gewählt, dass ein Lichtmode im Verstärkungsbereich des Emittermaterials liegt. Die Emissionslinien der Laser sind mit FWHM-Werten von bis zu 0,3 nm spektral sehr schmalbandig und weisen auf eine sehr gute Gitterqualität hin. Die Untersuchungen liefern minimale Laserschwellen und maximale differentielle Effizienzen von 4,0µJ/cm² und 8,4% für MEH-PPV in F8BT* (bei ca. 640nm) sowie 80 µJ/cm² und 0,9% für PM567 in PS (bei ca. 575 nm). Die Vergrößerung der Strukturtiefe von 40nm auf 80nm in mit MEH-PPV dotierten F8BT*-Lasern zu einem deutlichen Anstieg der ausgekoppelten Energie sowie der differentiellen Effizienz und einem geringen Absinken der Laserschwelle. Dies ist ein Resultat der erhöhten Kopplung von Lasermode und Gitter. Die Emission von DFB-Lasern mit zweidimensionalen Oberflächengittern zeigen eine Verringerung der Divergenz aber kein Einfluss auf die Laserschwelle. Abschließend erfolgt eine Vermessung der Photostabilität von DFB-Lasern unter verschiedenen Bedingungen. Das Einbringen eines konjugierten Polymers in eine aktive Matrix sowie der Betrieb in einer Stickstoffatmosphäre führen dabei zu einer Erhöhung der Lebensdauer auf über eine Million Pulse. Durch die Kombination von Oberflächengittern in PDMS-Filmen mit elektroaktiven Substraten wird eine elektrisch steuerbare Deformation des Beugungsgitters erreicht und auf einen DFB-Laser übertragen. Die spannungsinduzierte Verformung wird zunächst in Beugungsexperimenten charakterisiert und ein optimaler Arbeitspunkt bestimmt. Mit den beiden Elastomeren SEBS12 und VHB4910 werden in den Gittern maximale Periodenänderungen von 1,3% bzw. 3,4% bei einer Steuerspannung von 2 kV erreicht. Der Unterschied resultiert aus den verschiedenen Elastizitätsmoduln der Materialien. Übertragen auf DFB-Laser resultiert eine Variation der Gitterperiode senkrecht zu den Gitterlinien in einer kontinuierlichen Verschiebung der Emissionswellenlänge. Mit einem Spannungssignal von 3,25 kV wird die schmalbandige Emission eines elastischen DFB-Lasers kontinuierlich um fast 50nm von 604 nm zu 557 nm hin verschoben. Aus dem Deformationsverhalten sowohl der reinen Beugungsgitter als auch der Laser werden Rückschlüsse auf die Elastizität der verwendeten Materialien gezogen und erlauben Verbesserungen der Bauteile.
Mathematik spielt im Physikunterricht eine nicht unerhebliche Rolle - wenn auch eine zwiespältige. Oft wird sie sogar zum Hindernis beim Lernen von Physik und kann ihr emanzipatorisches Potenzial nicht entfalten. Die vorliegende Arbeit stellt zwei Bausteine für eine begründete Konzeption zum Umgang mit Mathematik beim Lernen von Physik zur Verfügung. Im Theorieteil der Arbeit werden zum Einen wissenschaftstheoretische Aspekte der Rolle der Mathematik in der Physik aufgearbeitet und der physikdidaktischen Forschungsgemeinschaft im Zusammenhang zugänglich gemacht. Zum anderen werden Forschungsergebnisse zu Vorstellungen Lernender über Physik und Mathematik sowie im Bereich der Epistemologie zusammengestellt. Im empirischen Teil der Arbeit werden Vorstellungen zur Rolle der Mathematik in der Physik von Schülerinnen und Schülern der Klassenstufen 10 und 12 sowie Physik-Lehramtstudierenden im Grundstudium mit Hilfe eines Fragebogens erhoben und unter Verwendung inhaltsanalytischer bzw. statistischer Methoden ausgewertet. Die Ergebnisse zeigen unter Anderem, dass Mathematik im Physikunterricht entgegen gängiger Meinungen bei den Lernenden nicht negativ, aber zumindest bei jüngeren Lernenden formal und algorithmisch konnotiert ist.
Um Extremereignisse in der Dynamik des indischen Sommermonsuns (ISM) in der geologischen Vergangenheit zu identifizieren, schlage ich einen neuartigen Ansatz basierend auf der Quantifikation von Fluktuationen in einem nichtlinearen Ähnlichkeitsmaß vor. Dieser reagiert empfindlich auf Zeitabschnitte mit deutlichen Veränderungen in der dynamischen Komplexität kurzer Zeitreihen. Ein mathematischer Zusammenhang zwischen dem neuen Maß und dynamischen Invarianten des zugrundeliegenden Systems wie fraktalen Dimensionen und Lyapunovexponenten wird analytisch hergeleitet. Weiterhin entwickle ich einen statistischen Test zur Schätzung der Signifikanz der so identifizierten dynamischen Übergänge. Die Stärken der Methode werden durch die Aufdeckung von Bifurkationsstrukturen in paradigmatischen Modellsystemen nachgewiesen, wobei im Vergleich zu den traditionellen Lyapunovexponenten eine Identifikation komplexerer dynamischer Übergänge möglich ist. Wir wenden die neu entwickelte Methode zur Analyse realer Messdaten an, um ausgeprägte dynamische Veränderungen auf Zeitskalen von Jahrtausenden in Klimaproxydaten des südasiatischen Sommermonsunsystems während des Pleistozäns aufzuspüren. Dabei zeigt sich, dass viele dieser Übergänge durch den externen Einfluss der veränderlichen Sonneneinstrahlung, sowie durch dem Klimasystem interne Einflussfaktoren auf das Monsunsystem (Eiszeitzyklen der nördlichen Hemisphäre und Einsatz der tropischenWalkerzirkulation) induziert werden. Trotz seiner Anwendbarkeit auf allgemeine Zeitreihen ist der diskutierte Ansatz besonders zur Untersuchung von kurzen Paläoklimazeitreihen geeignet. Die während des ISM über dem indischen Subkontinent fallenden Niederschläge treten, bedingt durch die zugrundeliegende Dynamik der atmosphärischen Zirkulation und topographische Einflüsse, in äußerst komplexen, raumzeitlichen Mustern auf. Ich stelle eine detaillierte Analyse der Sommermonsunniederschläge über der indischen Halbinsel vor, die auf Ereignissynchronisation (ES) beruht, einem Maß für die nichtlineare Korrelation von Punktprozessen wie Niederschlagsereignissen. Mit hierarchischen Clusteringalgorithmen identifiziere ich zunächst Regionen mit besonders kohärenten oder homogenen Monsunniederschlägen. Dabei können auch die Zeitverzögerungsmuster von Regenereignissen rekonstruiert werden. Darüber hinaus führe ich weitere Analysen auf Basis der Theorie komplexer Netzwerke durch. Diese Studien ermöglichen wertvolle Einsichten in räumliche Organisation, Skalen und Strukturen von starken Niederschlagsereignissen oberhalb der 90% und 94% Perzentilen während des ISM (Juni bis September). Weiterhin untersuche ich den Einfluss von verschiedenen, kritischen synoptischen Systemen der Atmosphäre sowie der steilen Topographie des Himalayas auf diese Niederschlagsmuster. Die vorgestellte Methode ist nicht nur geeignet, die Struktur extremer Niederschlagsereignisse zu visualisieren, sondern kann darüber hinaus über der Region atmosphärische Transportwege von Wasserdampf und Feuchtigkeitssenken auf dekadischen Skalen identifizieren.Weiterhin wird ein einfaches, auf komplexen Netzwerken basierendes Verfahren zur Entschlüsselung der räumlichen Feinstruktur und Zeitentwicklung von Monsunniederschlagsextremen während der vergangenen 60 Jahre vorgestellt.
Die vorliegende Arbeit versammelt zwei einleitende Kapitel und zehn Essays, die sich als kritisch-konstruktive Beiträge zu einem "erlebenden Verstehen" (Buck) von Physik lesen lassen. Die traditionelle Anlage von Schulphysik zielt auf eine systematische Darstellung naturwissenschaftlichen Wissens, das dann an ausgewählten Beispielen angewendet wird: Schulexperimente beweisen die Aussagen der Systematik (oder machen sie wenigstens plausibel), ausgewählte Phänomene werden erklärt. In einem solchen Rahmen besteht jedoch leicht die Gefahr, den Bezug zur Lebenswirklichkeit oder den Interessen der Schüler zu verlieren. Diese Problematik ist seit mindestens 90 Jahren bekannt, didaktische Antworten - untersuchendes Lernen, Kontextualisierung, Schülerexperimente etc. - adressieren allerdings eher Symptome als Ursachen. Naturwissenschaft wird dadurch spannend, dass sie ein spezifisch investigatives Weltverhältnis stiftet: man müsste gleichsam nicht Wissen, sondern "Fragen lernen" (und natürlich auch, wie Antworten gefunden werden...). Doch wie kann dergleichen auf dem Niveau von Schulphysik aussehen, was für einen theoretischen Rahmen kann es hier geben? In den gesammelten Arbeiten wird einigen dieser Spuren nachgegangen: Der Absage an das zu modellhafte Denken in der phänomenologischen Optik, der Abgrenzung formal-mathematischen Denkens gegen wirklichkeitsnähere Formen naturwissenschaftlicher Denkbewegungen und Evidenz, dem Potential alternativer Interpretationen von "Physikunterricht", der Frage nach dem "Verstehen" u.a. Dabei werden nicht nur Bezüge zum modernen bildungstheoretischen Paradigma der Kompetenz sichtbar, sondern es wird auch versucht, eine ganze Reihe konkrete (schul-)physikalische Beispiele dafür zu geben, was passiert, wenn nicht schon gewusste Antworten Thema werden, sondern Expeditionen, die sich der physischen Welt widmen: Die Schlüsselbegriffe des Fachs, die Methoden der Datenerhebung und Interpretation, die Such- und Denkbewegungen kommen dabei auf eine Weise zur Sprache, die sich nicht auf die Fachsystematik abstützen möchte, sondern diese motivieren, konturieren und verständlich machen will.
Das Ziel dieser Arbeit ist die Untersuchung der aktiven Komponenten und ihrer Wechselwirkungen in teilorganischen Hybrid-Solarzellen. Diese bestehen aus einer dünnen Titandioxidschicht, kombiniert mit einer dünnen Polymerschicht. Die Effizienz der Hybrid-Solarzellen wird durch die Lichtabsorption im Polymer, die Dissoziation der gebildeten Exzitonen an der aktiven Grenzfläche zwischen TiO2 und Polymer, sowie durch Generation und Extraktion freier Ladungsträger bestimmt. Zur Optimierung der Solarzellen wurden grundlegende physikalische Wechselwirkungen zwischen den verwendeten Materialen sowie der Einfluss verschiedener Herstellungsparameter untersucht. Unter anderem wurden Fragen zum optimalen Materialeinsatz und Präparationsbedingungen beantwortet sowie grundlegende Einflüsse wie Schichtmorphologie und Polymerinfiltration näher betrachtet. Zunächst wurde aus unterschiedlich hergestelltem Titandioxid (Akzeptor-Schicht) eine Auswahl für den Einsatz in Hybrid-Solarzellen getroffen. Kriterium war hierbei die unterschiedliche Morphologie aufgrund der Oberflächenbeschaffenheit, der Film-Struktur, der Kristallinität und die daraus resultierenden Solarzelleneigenschaften. Für die anschließenden Untersuchungen wurden mesoporöse TiO2–Filme aus einer neuen Nanopartikel-Synthese, welche es erlaubt, kristalline Partikel schon während der Synthese herzustellen, als Elektronenakzeptor und konjugierte Polymere auf Poly(p-Phenylen-Vinylen) (PPV)- bzw. Thiophenbasis als Donatormaterial verwendet. Bei der thermischen Behandlung der TiO2-Schichten erfolgt eine temperaturabhängige Änderung der Morphologie, jedoch nicht der Kristallstruktur. Die Auswirkungen auf die Solarzelleneigenschaften wurden dokumentiert und diskutiert. Um die Vorteile der Nanopartikel-Synthese, die Bildung kristalliner TiO2-Partikel bei tiefen Temperaturen, nutzen zu können, wurden erste Versuche zur UV-Vernetzung durchgeführt. Neben der Beschaffenheit der Oxidschicht wurde auch der Einfluss der Polymermorphologie, bedingt durch Lösungsmittelvariation und Tempertemperatur, untersucht. Hierbei konnte gezeigt werden, dass u.a. die Viskosität der Polymerlösung die Infiltration in die TiO2-Schicht und dadurch die Effizienz der Solarzelle beeinflusst. Ein weiterer Ansatz zur Erhöhung der Effizienz ist die Entwicklung neuer lochleitender Polymere, welche möglichst über einen weiten spektralen Bereich Licht absorbieren und an die Bandlücke des TiO2 angepasst sind. Hierzu wurden einige neuartige Konzepte, z.B. die Kombination von Thiophen- und Phenyl-Einheiten näher untersucht. Auch wurde die Sensibilisierung der Titandioxidschicht in Anlehnung an die höheren Effizienzen der Farbstoffzellen in Betracht gezogen. Zusammenfassend konnten im Rahmen dieser Arbeit wichtige Einflussparameter auf die Funktion hybrider Solarzellen identifiziert und z.T. näher diskutiert werden. Für einige limitierende Faktoren wurden Konzepte zur Verbesserung bzw. Vermeidung vorgestellt.
Tätigkeitsbericht 1994-2000
(2004)
Das Interdisziplinäre Zentrum für Nichtlineare Dynamik an der Universität Potsdam verbindet theoretisch-methodische Untersuchungen in Mathematik und theoretischer Physik mit einer Vielzahl anderer Wissenschaften und zielt auf eine fruchtbare Wechselwirkung zwischen Theorie und Experiment. Unter Einbezug von Instituten und Großforschungseinrichtungen, die insbesondere im Potsdamer Raum angesiedelt sind, soll sich ein überregional bedeutender Schwerpunkt entwickeln, wie er an keiner anderen deutschen Universität in gleicher Weise interdisziplinär angelegt ist.
Der Einfluss der Dynamik auf die stratosphärische Ozonvariabilität über der Arktis im Frühwinter
(2010)
Der frühwinterliche Ozongehalt ist ein Indikator für den Ozongehalt im Spätwinter/Frühjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivität von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilität weitestgehend auf dynamische Prozesse während der Wirbelbildungsphase des arktischen Polarwirbels zurückgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem früh- und spätwinterlichen Ozongehalt bezüglich Dynamik und Chemie aufgezeigt. Für die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die über die Fläche (45–75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fläche zeigt eine Verbindung zwischen der frühwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur für die untere Stratosphäre gültig, da die Vertikalkomponente die sich innerhalb der Stratosphäre ändernden Wellenausbreitungsbedingungen nicht erfasst. Für eine verbesserte Höhendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Größe definiert. Diese neue Größe verbindet die Wellenaktivität während der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung über die Breite. Eine verstärkte Wellenaktivität führt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Frühwinter zerstören chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablität, die durch dynamische Prozesse während der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter ermöglicht eine Abschätzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden für den Winter 1999–2000 Modellläufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen über den Erhalt der künstlichen Ozonvariabilität hinsichtlich Zeit, Höhe und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilität während der Wirbelbildungsphase länger im Inneren als im Äußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilität. In darunterliegenden Höhenbereichen ist der Anteil an der ursprünglichen Störung groß, bis zu 90% auf der 450K. Innerhalb dieses Höhenbereiches üben die dynamischen Prozesse während der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus.
In der vorliegenden Dissertation wird eine Beschreibung der Phasendynamik irregulärer Oszillationen und deren Wechselwirkungen vorgestellt. Hierbei werden chaotische und stochastische Oszillationen autonomer dissipativer Systeme betrachtet. Für eine Phasenbeschreibung stochastischer Oszillationen müssen zum einen unterschiedliche Werte der Phase zueinander in Beziehung gesetzt werden, um ihre Dynamik unabhängig von der gewählten Parametrisierung der Oszillation beschreiben zu können. Zum anderen müssen für stochastische und chaotische Oszillationen diejenigen Systemzustände identifiziert werden, die sich in der gleichen Phase befinden. Im Rahmen dieser Dissertation werden die Werte der Phase über eine gemittelte Phasengeschwindigkeitsfunktion miteinander in Beziehung gesetzt. Für stochastische Oszillationen sind jedoch verschiedene Definitionen der mittleren Geschwindigkeit möglich. Um die Unterschiede der Geschwindigkeitsdefinitionen besser zu verstehen, werden auf ihrer Basis effektive deterministische Modelle der Oszillationen konstruiert. Hierbei zeigt sich, dass die Modelle unterschiedliche Oszillationseigenschaften, wie z. B. die mittlere Frequenz oder die invariante Wahrscheinlichkeitsverteilung, nachahmen. Je nach Anwendung stellt die effektive Phasengeschwindigkeitsfunktion eines speziellen Modells eine zweckmäßige Phasenbeziehung her. Wie anhand einfacher Beispiele erklärt wird, kann so die Theorie der effektiven Phasendynamik auch kontinuierlich und pulsartig wechselwirkende stochastische Oszillationen beschreiben. Weiterhin wird ein Kriterium für die invariante Identifikation von Zuständen gleicher Phase irregulärer Oszillationen zu sogenannten generalisierten Isophasen beschrieben: Die Zustände einer solchen Isophase sollen in ihrer dynamischen Entwicklung ununterscheidbar werden. Für stochastische Oszillationen wird dieses Kriterium in einem mittleren Sinne interpretiert. Wie anhand von Beispielen demonstriert wird, lassen sich so verschiedene Typen stochastischer Oszillationen in einheitlicher Weise auf eine stochastische Phasendynamik reduzieren. Mit Hilfe eines numerischen Algorithmus zur Schätzung der Isophasen aus Daten wird die Anwendbarkeit der Theorie anhand eines Signals regelmäßiger Atmung gezeigt. Weiterhin zeigt sich, dass das Kriterium der Phasenidentifikation für chaotische Oszillationen nur approximativ erfüllt werden kann. Anhand des Rössleroszillators wird der tiefgreifende Zusammenhang zwischen approximativen Isophasen, chaotischer Phasendiffusion und instabilen periodischen Orbits dargelegt. Gemeinsam ermöglichen die Theorien der effektiven Phasendynamik und der generalisierten Isophasen eine umfassende und einheitliche Phasenbeschreibung irregulärer Oszillationen.
Auf der Grundlage von Sonnenphotometermessungen an drei Messstationen (AWIPEV/ Koldewey in Ny-Ålesund (78.923 °N, 11.923 °O) 1995–2008, 35. Nordpol Driftstation – NP-35 (84.3–85.5 °N, 41.7–56.6 °O) März/April 2008, Sodankylä (67.37 °N, 26.65 °O) 2004–2007) wird die Aerosolvariabilität in der europäischen Arktis und deren Ursachen untersucht. Der Schwerpunkt liegt dabei auf der Frage des Zusammenhanges zwischen den an den Stationen gemessenen Aerosolparametern (Aerosol optische Dicke, Angström Koeffizient, usw.) und dem Transport des Aerosols sowohl auf kurzen Zeitskalen (Tagen) als auch auf langen Zeitskalen (Monate, Jahre). Um diesen Zusammenhang herzustellen, werden für die kurzen Zeitskalen mit dem Trajektorienmodell PEP-Tracer 5-Tage Rückwärtstrajektorien in drei Starthöhen (850 hPa, 700 hPa, 500 hPa) für die Uhrzeiten 00, 06, 12 und 18 Uhr berechnet. Mit Hilfe der nicht-hierarchischen Clustermethode k-means werden die berechneten Rückwärtstrajektorien dann zu Gruppen zusammengefasst und bestimmten Quellgebieten und den gemessenen Aerosol optischen Dicken zugeordnet. Die Zuordnung von Aerosol optischer Dicke und Quellregion ergibt keinen eindeutigen Zusammenhang zwischen dem Transport verschmutzter Luftmassen aus Europa oder Russland bzw. Asien und erhöhter Aerosol optischer Dicke. Dennoch ist für einen konkreten Einzelfall (März 2008) ein direkter Zusammenhang von Aerosoltransport und hohen Aerosol optischen Dicken nachweisbar. In diesem Fall gelangte Waldbrandaerosol aus Südwestrussland in die Arktis und konnte sowohl auf der NP-35 als auch in Ny-Ålesund beobachtet werden. In einem weiteren Schritt wird mit Hilfe der EOF-Analyse untersucht, inwieweit großskalige atmosphärische Zirkulationsmuster für die Aerosolvariabilität in der europäischen Arktis verantwortlich sind. Ähnlich wie bei der Trajektorienanalyse ist auch die Verbindung der atmosphärischen Zirkulation zu den Photometermessungen an den Stationen in der Regel nur schwach ausgeprägt. Eine Ausnahme findet sich bei der Betrachtung des Jahresganges des Bodendruckes und der Aerosol optischen Dicke. Hohe Aerosol optische Dicken treten im Frühjahr zum einen dann auf, wenn durch das Islandtief und das sibirische Hochdruckgebiet Luftmassen aus Europa oder Russland/Asien in die Arktis gelangen, und zum anderen, wenn sich ein kräftiges Hochdruckgebiet über Grönland und weiten Teilen der Arktis befindet. Ebenso zeigt sich, dass der Übergang zwischen Frühjahr und Sommer zumindest teilweise bedingt ist durch denWechsel vom stabilen Polarhoch im Winter und Frühjahr zu einer stärker von Tiefdruckgebieten bestimmten arktischen Atmosphäre im Sommer. Die geringere Aerosolkonzentration im Sommer kann zum Teil mit einer Zunahme der nassen Deposition als Aerosolsenke begründet werden. Für Ny-Ålesund wird neben den Transportmustern auch die chemische Zusammensetzung des Aerosols mit Hilfe von Impaktormessungen an der Zeppelinstation auf dem Zeppelinberg (474m ü.NN) nahe Ny-Ålesund abgeleitet. Dabei ist die positive Korrelation der Aerosoloptischen Dicke mit der Konzentration von Sulfationen und Ruß sehr deutlich. Beide Stoffe gelangen zu einem Großteil durch anthropogene Emissionen in die Atmosphäre. Die damit nachweisbar anthropogen geprägte Zusammensetzung des arktischen Aerosols steht im Widerspruch zum nicht eindeutig herstellbaren Zusammenhang mit dem Transport des Aerosols aus Industrieregionen. Dies kann nur durch einen oder mehrere gleichzeitig stattfindende Transformationsprozesse (z. B. Nukleation von Schwefelsäurepartikeln) während des Transportes aus den Quellregionen (Europa, Russland) erklärt werden.
Ziel dieser Arbeit ist die Überwindung einer Differenz, die zwischen der Theorie der Phase bzw. der Phasendynamik und ihrer Anwendung in der Zeitreihenanalyse besteht: Während die theoretische Phase eindeutig bestimmt und invariant unter Koordinatentransformationen bzw. gegenüber der jeweils gewählten Observable ist, führen die Standardmethoden zur Abschätzung der Phase aus gegebenen Zeitreihen zu Resultaten, die einerseits von den gewählten Observablen abhängen und so andererseits das jeweilige System keineswegs in eindeutiger und invarianter Weise beschreiben. Um diese Differenz deutlich zu machen, wird die terminologische Unterscheidung von Phase und Protophase eingeführt: Der Terminus Phase wird nur für Variablen verwendet, die dem theoretischen Konzept der Phase entsprechen und daher das jeweilige System in invarianter Weise charakterisieren, während die observablen-abhängigen Abschätzungen der Phase aus Zeitreihen als Protophasen bezeichnet werden. Der zentrale Gegenstand dieser Arbeit ist die Entwicklung einer deterministischen Transformation, die von jeder Protophase eines selbsterhaltenden Oszillators zur eindeutig bestimmten Phase führt. Dies ermöglicht dann die invariante Beschreibung gekoppelter Oszillatoren und ihrer Wechselwirkung. Die Anwendung der Transformation bzw. ihr Effekt wird sowohl an numerischen Beispielen demonstriert - insbesondere wird die Phasentransformation in einem Beispiel auf den Fall von drei gekoppelten Oszillatoren erweitert - als auch an multivariaten Messungen des EKGs, des Pulses und der Atmung, aus denen Phasenmodelle der kardiorespiratorischen Wechselwirkung rekonstruiert werden. Abschließend wird die Phasentransformation für autonome Oszillatoren auf den Fall einer nicht vernachlässigbaren Amplitudenabhängigkeit der Protophase erweitert, was beispielsweise die numerischen Bestimmung der Isochronen des chaotischen Rössler Systems ermöglicht.
Das Strahlungsfeld in einem absorbierenden, periodischen Dielektrikum ist kanonisch quantisiert worden. Dabei wurde ein eindimensionales Modell mit punktförmigen Streuern betrachtet, deren Polarisierbarkeit den Kramers-Kronig Relationen gehorcht. Es wurde ein Quantisierungsverfahren nach Knöll, Scheel und Welsch [1] verwendet, das als eine Ergänzung zum mikroskopischen Huttner-Barnett Schema [2] aufgefaßt werden kann und in dem auf der Basis der phänomenologischen Maxwell Gleichungen eine bosonische Rauschpolarisation als die Quelle des Feldes auftritt. Das Problem reduziert sich dabei auf die Bestimmung der klassischenGreens Funktion. Die Kramers-Kronig Relationen der komplexen Polarisierbarkeit der Punktstreuer sichert die korrekte Verknüpfung zwischen Dispersion und Absorption. Der Punktstreuer ist dabei ein idealisiertes Modell, um periodische Hintergrundmedien, denen das Strahlungsfeld ausgesetzt ist, zu beschreiben. Er bedarf jedoch eines Kompromisses, um die entsprechenden Rauschquellen zu konstruieren. Es konnte gezeigt werden, daß der Punktstreuer dasselbe Streuverhalten wie eine dünne Potentialschwelle besitzt und damit die technischen Schwierigkeiten für den Fall eines absorptiven Punktstreuers überwunden werden können. An Hand dieses Beispiels konnte das Quantisierungsschema nach Knöll, Scheel und Welsch auf periodische und absorbierende Strukturen angewendet werden. Es ist bekannt, daß die Bestimmung der Modenstruktur für den Fall der Modenzerlegung des Strahlungsfeldes ein rein klassisches Problem darstellt. Mit Ausnahme des Vakuums ist eine zweckmäßige Modenzerlegung nur dann durchführbar, wenn mit einer reellen Polarisierbarkeit die Absorption vernachlässigt werden kann. Aus den Kramers-Kronig Relationen wird klar, daß solch eine Annahme nur in bestimmten Intervallen des Frequenzspektrums gerechtfertigt werden kann. Es wurde gezeigt, daß auch das quantisierte Strahlungsfeld in Anwesenheit der Punktstreuer in eben solchen Intervallen in Quasimoden entwickelt werden kann, wenn man neue Quasioperatoren als Erzeuger und Vernichter einführt. Die bosonischen Vertauschungsrelationen dieser Operatoren konnten bestätigt werden. Die allgemeine Vertauschungsrelation kanonisch konjugierter Variablen im Sinne der kanonischen Quantisierung kann für das elektrische Feld und das Vektorpotential beibehalten werden. In der Greens Funktion sind sämtliche Informationen über die dispersiven und absorptiven Eigenschaften des Dielektrikums sowie über die räumliche Struktur enthalten. Die wesentlichen Merkmale werden dabei durch den Reflexionskoeffizienten nach Boedecker und Henkel [3] bestimmt, der das Reflexionsverhalten an einem unendlich ausgedehnten Halbraum aus periodisch angeordneten Punktstreuern beschreibt. Mit Hilfe des Transfermatrixformalismus war es möglich einen allgemeinen Zugang zum Reflexionsverhalten zunächst endlicher Strukturen zu erhalten. Die Ausdehnung auf den Halbraum mit Hilfe der Klassifizierung in Untergruppen der Transfermatrizen nach ermöglichte es, den Reflexionskoeffizienten nach Boedecker und Henkel [3] auch geometrisch plausibel zu machen. Ein wesentlicher Aspekt von periodischen Systemen ist die Translationssymmetrie, die im Fall unendlich ausgedehnter, verlustfreier Systeme auf eine ideale Bandstruktur führt. Mit Hilfe der Untergruppenklassifizierung kann im verlustfreien Fall die Geometrie der Anordnung indirekt mit der Bandstruktur verknüpft werden. Es konnte nachgewiesen werden, daß auch der einzelne Punktstreuer immer in einer dieser Untergruppen zu finden ist. Dabei besitzt die Bandstruktur der unendlich periodischen Anordnung dieser Streuer immer eine von der Polarisierbarkeit abhängige Bandkante und eine von der Polarisierbarkeit unabhängige Bandkante. Die Bandstruktur, die mit den verlustbehafteten Feldern einhergeht, ist eine doppelt komplexe. Alternativ zu dieser nur schwer zu interpretierenden Bandstruktur wurden die Feldfluktuationen selektiv nach reellen Frequenzen und Wellenzahlen sondiert. Es zeigt sich, daß Absorption besonders in der Nähe der Bandkanten die Bänder verbreitert. Die Ergebnisse, die mit Hilfe der lokalen Zustandsdichtefunktion gewonnen wurden, konnten dabei bestätigt werden. [1] S. Scheel, L. Knöll and D. G. Welsch, Phys.Rev. A 58, 700 (1998). [2] B. Huttner and S. M. Barnett, Phys. Rev. A 46, 4306 (1992). [3] G. Boedecker and C. Henkel, OPTICS EXPRESS 11, 1590 (2003).
Aus dem Inhalt: 1. Einführung 2. Motivation für die nichtlineare Dynamik 3. Logistische Abbildung (Parabel-Abbildung) 4. Lorenz-Gleichungen 5. Fraktale Selbstähnlichkeit 6. Die Brownsche Bewegung 7. Stöße & Billards 8. Körper mit gravitativer Wechselwirkung 9. Glossar 10. Turbo-Pascal-Texte 11. IDL-Texte 12. Reduce-Texte
Wasserdampf in der Stratosphäre und Troposphäre ist eines der wichtigsten atmosphärischen Treibhausgase. Neben seiner Bedeutung für das Klima hat es großen Einfluss auf die Bildung von polaren stratosphärischen Wolken sowie auf die atmosphärische Chemie. Weltweit erstmalig soll innerhalb eines Forscherverbundes in Deutschland ein leistungsstarkes, mobiles, abtastendes Wasserdampf-DIAL zur dreidimensional hochaufgelösten Messung des atmosphärischen Wasserdampfs entwickelt werden. Mit dem Wasserdampf-DIAL können Wasserdampfkonzentrationen in der Atmosphäre mit hoher zeitlicher und räumlicher Auflösung gemessen werden. Das DIAL basiert auf einem Titan-Saphir-Laser oder einem dazu alternativen OPO-Laser (optisch parametrischer Oszillator). Der für das optische Pumpen dieser Laser nötige Pumplaser wurde im Rahmen dieser Arbeit in der Arbeitsgruppe Nichtlineare Optik des Instituts für Physik der Universität Potsdam entwickelt. Ein hochauflösendes, mobiles DIAL erfordert einen Pumplaser mit großen Pulsenergien, guter Strahlqualität und einer hohen Effizienz. Um diese Ziele zu erreichen, wurde ein MOPA-System (Master Oscillator Power Amplifier) mit Frequenzstabilisierung auf der Basis von doppelbrechungskompensierten, transversal diodengepumpten Laserstäben entwickelt und untersucht. Auf dem Weg dahin wurden unterschiedliche Realisierungsmöglichkeiten des MOPA-Systems geprüft. Im Rahmen dessen wurden die Festkörperlasermaterialien Yb:YAG [1], kerndotierte Nd:YAG-Keramik [2] und herkömmliches Nd:YAG vorgestellt und hinsichtlich ihrer Eignung für dieses MOPA-System untersucht. Nachdem die Entscheidung für Nd:YAG als laseraktives Material gefallen war, konnte darauf aufbauend die Konzeptionierung des Lasersystems auf der Basis von Verstärkungsrechnungen vorgenommen werden. Die entwickelte Verstärkungsrechnung trägt den Tatbeständen von realen Systemen Rechnung, indem radiusabhängige Intensitäten und eine radiale, nicht homogene Inversionsdichte berücksichtigt werden. Die Frequenzstabilisierung des gepulsten Oszillators (Frequenzstabilität von 1 MHz) wurde mittels des Pound-Drever-Hall-Verfahrens vorgenommen. Mit der Heterodynmethode wird die Frequenzstabilität des Oszillators gemessen. Nach Untersuchungen über verschiedene Konfigurationen für lineare und ringförmige Oszillatoren, wurde ein Ringoszillator mit zwei Laserköpfen aufgebaut, in welchen von außen mit einem Laser fester Frequenz eingestrahlt wird. Dieser emittiert bei einer Wiederholrate von 400 Hz eine Pulsenergie von Eout = 21 mJ bei nahezu beugungsbegrenzter Strahlqualität (M2 < 1,2). Die Verstärkung dieser Laserpulse erfolgte zunächst durch eine Vorverstärkerstufe und anschließend durch zwei doppelbrechungskompensierte Hauptverstärker im Doppeldurchgang. Eine gute Strahlqualität (M2 = 1,75) konnte unter anderem erzielt werden, indem der Doppeldurchgang durch die Hauptverstärker mit einem phasenkonjugierenden Spiegel (SF6), auf der Basis der stimulierten Brillouin Streuung, realisiert wurde. Der entwickelte Laser emittiert Pulse mit einer Länge von 25 ns und einer Energie von 250 mJ. Insgesamt wurde ein bisher einmaliges Lasersystem entwickelt. In der Literatur sind die erreichte Frequenzstabilität, Strahlqualität und Leistung in dieser Kombination bisher nicht dokumentiert. In der Zukunft soll durch den Einsatz von kerndotierten, keramischen Lasermaterialien, höheren Pumpleistungen der Hauptverstärker und phasenkonjugierenden Spiegeln aus Quarz die Pulsenergie des Systems weiter erhöht werden. [1] M. Ostermeyer, A. Straesser, “Theoretical investigation of Yb:YAG as laser material for nanosecond pulse emission with large energies in the joule range”, Optics Communications, Vol. 274, pp. 422-428 (2007) [2] A. Sträßer and M. Ostermeyer, “Improving the brightness of side pumped power amplifiers by using core doped ceramic rods”, Optics Express, Vol. 14, pp. 6687- 6693 (2006)
Im Rahmen der vorliegenden Arbeit ist es erstmals gelungen, mit einem ps-Pumplaser (10 ps) Weißlicht mit einer spektralen Breite von mehr als einer optischen Oktave in einer mikrostrukturierten Faser (MSF) bei einer Pumpwellenlänge von 1064 nm zu generieren. Es ließ sich, abgesehen von nichtkonvertierten Resten der Pumpstrahlung, ein unstrukturiertes und zeitlich stabiles Weißlichtspektrum von 700 nm bis 1650 nm generieren. Die maximale Ausgangsleistung dieser Weißlichtstrahlung betrug 3,1 W. Es konnten sehr gute Einkoppeleffizienzen von maximal 62 % erzielt werden. Die an der Weißlichterzeugung beteiligten dispersiven und nichtlinear optischen Effekte, wie z.B. Selbstphasenmodulation, Vierwellenmischung, Modulationsinstabilitäten oder Solitoneneffekte, werden detailliert theoretisch untersucht und erläutert. Die Arbeit beinhaltet ebenfalls eine umfangreiche Beschreibung der Wirkungsweise und Eigenschaften von mikrostrukturierten Fasern mit einem festen Faserkern. Aufgrund der großen Variationsvielfalt des mikrostrukturierten Fasermantels und der damit verbundenen Wellenleitereigenschaften ergeben sich, insbesondere für die Anwendung in der nichtlinearen Optik, eine Reihe von interessanten Eigenschaften. Es wurden insgesamt vier verschiedene mikrostrukturierte Fasern experimentell untersucht. Für die Interpretation der experimentellen Ergebnisse ist die Pulsausbreitung der ps-Pumppulse in einer dispersiven, nichtlinear optischen Faser anhand der verallgemeinerten nichtlinearen Schrödinger-Gleichung berechnet worden. Durch einen Vergleich der Berechnungen mit den Messdaten ließen sich verstärkte Modulationsinstabilitäten und verschiedene Solitoneneffekte als hauptsächlich für die Weißlichterzeugung bei ps-Anregungspulsen verantwortlich identifizieren. Auf der Basis der durchgeführten Untersuchungen wurde in Kooperation mit der Fa. Jenoptik Laser, Optik, Systeme GmbH eine kompakte und leistungsstarke Weißlichtquelle entwickelt. Diese wurde erfolgreich in einer Kohärenztomographiemessung (Optical Coherence Tomography - OCT) getestet: Es konnte in ex vivo-Untersuchungen gezeigt werden, dass sich mit dieser ps-Weißlichtquelle eine hohe Eindringtiefe von ca. 400 µm in die Netzhaut eines Affen erreichen lässt.
In dieser Arbeit wurde die Variabilität der Atmosphäre in einem neuen gekoppelten Klimamodell (ECHO-GiSP) untersucht, welches eine vereinfachte Stratosphärenchemie (bis 80 km Höhe) enthält. Es wurden 2 Simulationen über 150 Jahre durchgeführt. In einer der Simulationen wurde die atmosphärische Chemie modelliert, hatte aber keinen Einfluß auf die Dynamik des Klimamodelles. In der zweiten Simulation wurde hingegen die Wirkung der Chemie auf die Klimadynamik explizit berücksichtigt, die über die Strahlungsbilanz des Modelles erfolgt. Dies ist die erste Langzeitsimulation mit einem voll gekoppelten globalen Klimamodell mit interaktiver Chemie. Die Simulation mit rückgekoppelter Chemie zeigt eine Abschwächung des atmosphärischen Variabilitätsmusters der Arktischen Oszillation (AO). Zudem kommt es in der Troposphäre zu einer Reduzierung der mittleren Windgeschwindigkeiten der gemäßigten Breiten aufgrund verringerter Temperaturgegensätze zwischen den Tropen und den Polargebieten. Auch in der Stratosphäre ergibt sich eine Abschwächung und Erwärmung des Polarwirbels. Diese Auswirkungen der Kopplung zwischen der atmosphärischen Chemie und der Dynamik des Klimamodelles sind eine wichtige Erkenntnis, da in früheren Klimasimulationen die Variabilität der AO oft zu stark ausgeprägt war. In der Stratosphäre reduziert sich infolge des abgeschwächten Polarwirbels auch die großräumige Zirkulation zwischen den beiden Hemisphären der Erde. In der Troposphäre werden hingegen die allgemeine Zirkulation, und damit auch die subtropischen Strahlströme des Windes verstärkt. Zudem kommt es in den Tropen zu Temperaturänderungen durch stratosphärische Ozonschwankungen in Abhängigkeit von der AO. Allgemein verändert sich die Kopplung zwischen Troposphäre und Stratosphäre, einschließlich des durch die Anregung von langen atmosphärischen Wellen erfolgenden vertikalen Energieübertrages aus der Troposphäre in die Stratosphäre.
In der vorliegenden Arbeit werden Methoden der Erdsystemanalyse auf die Untersuchung der Habitabilität terrestrischer Exoplaneten angewandt. Mit Hilfe eines parametrisierten Konvektionsmodells für die Erde wird die thermische Evolution von terrestrischen Planeten berechnet. Bei zunehmender Leuchtkraft des Zentralsterns wird über den globalen Karbonat-Silikat-Kreislauf das planetare Klima stabilisiert. Für eine photosynthetisch-aktive Biosphäre, die in einem bestimmten Temperaturbereich bei hinreichender CO2-Konzentration existieren kann, wird eine Überlebenspanne abgeschätzt. Der Abstandsbereich um einen Stern, in dem eine solche Biosphäre produktiv ist, wird als photosynthetisch-aktive habitable Zone (pHZ) definiert und berechnet. Der Zeitpunkt, zu dem die pHZ in einem extrasolaren Planetensystem endgültig verschwindet, ist die maximale Lebenspanne der Biosphäre. Für Supererden, massereiche terrestrische Planeten, ist sie umso länger, je massereicher der Planet ist und umso kürzer, je mehr er mit Kontinenten bedeckt ist. Für Supererden, die keine ausgeprägten Wasser- oder Landwelten sind, skaliert die maximale Lebenspanne mit der Planetenmasse mit einem Exponenten von 0,14. Um K- und M-Sterne ist die Überlebensspanne einer Biosphäre auf einem Planeten immer durch die maximale Lebensspanne bestimmt und nicht durch das Ende der Hauptreihenentwicklung des Zentralsterns limitiert. Das pHZ-Konzept wird auf das extrasolare Planetensystem Gliese 581 angewandt. Danach könnte die 8-Erdmassen-Supererde Gliese 581d habitabel sein. Basierend auf dem vorgestellten pHZ-Konzept wird erstmals die von Ward und Brownlee 1999 aufgestellte Rare-Earth-Hypothese für die Milchstraße quantifiziert. Diese Hypothese besagt, dass komplexes Leben im Universum vermutlich sehr selten ist, wohingegen primitives Leben weit verbreitet sein könnte. Unterschiedliche Temperatur- und CO2-Toleranzen sowie ein unterschiedlicher Einfluss auf die Verwitterung für komplexe und primitive Lebensformen führt zu unterschiedlichen Grenzen der pHZ und zu einer unterschiedlichen Abschätzung für die Anzahl der Planeten, die mit den entsprechenden Lebensformen besiedelt sein könnten. Dabei ergibt sich, dass komplex besiedelte Planeten heute etwa 100-mal seltener sein müssten als primitiv besiedelte.
Anhand eines paradigmatischen Modellbeispiels werden die Konsequenzen der Koexistenz vieler Attraktoren auf die globale Dynamik schwach dissipativer Systeme studiert. Es wird gezeigt, dass diese Systeme eine sehr reichhaltige Dynamik besitzen und extrem sensitiv gegenüber Störungen in den Anfangsbedingungen sind. Diese Systeme zeichnen sich durch eine extrem hohe Flexibilität ihres Verhaltens aus.
Ziel dieser Arbeit ist die phänomenologische Untersuchung der Feuchteempfindlichkeit der elektrischen Eigenschaften dünner Polymerschichten. Diese Untersuchungen stellen gleichzeitig Vorarbeiten zur Entwicklung von Prototypen von zwei polymeren Dünnschicht-Feuchtesensoren dar, die sich durch die spezielle Auswahl der feuchtesensitiven Materialien jeweils durch eine besondere Eigenschaft gegenüber kommerziellen Massenprodukten auszeichnen. Ziel der Entwicklungsarbeiten für den ersten Prototypen war die Konstruktion eines schnellen Feuchtesensors, der plötzliche und sprunghafte Feuchteänderungen in der umgebenden Atmosphäre möglichst rasch detektieren kann. Dafür wurden dünne Schichten von Poly-DADMAC auf Interdigitalstrukturen aufgebracht, die einen möglichst direkten Kontakt zwischen feuchtesensitiver Schicht und umgebender, feuchter Atmosphäre gewährleisten. Als Messgrößen dienten die Wechselstromgrößen Widerstand und Kapazität der Schichten. Die Feuchtekennlinien der Schichten zeigen gute Konstanz und hohe Reproduzierbarkeit. Der Widerstand der Schichten ändert sich durch den Einfluss von Feuchte je nach Schichtdicke um 3 bis 5 Größenordnungen und eignet sich als Messgröße für die Feuchtigkeit im gesamten Feuchtebereich. Die Hysterese der Filme konnte auf kleiner als 2,5% r.F. bestimmt werden, die Reproduzierbarkeit auf besser als 1% r.F. Die Ansprechzeit der Schichten lässt sich schichtdickenabhängig zu 1 bis 10 Sekunden bestimmen. Hierbei zeigen besonders die dünnen Schichten kurze Ansprechzeiten. Zielstellung für den zweiten Feuchtesensor war die Entwicklung eines Prototypen, dessen sensitive Schicht sich biostatisch und biozid verhält, so dass er in biotischen Umgebungen eingesetzt werden kann. Es wurden fünf Polysulfobetaine synthetisiert, deren Biozidität und Biostatik mit dem Kontakttest nach Rönnpagel, dem ISO846-Test und Abbautests bestimmt wurde. Zwei Polymere – Poly-DMMAAPS (BT2) und Poly-[MSA-Styren-Sulfobetain] (BT5) – erwiesen sich als ausreichend biozid und biostatisch. Schichten dieser Polymere wurden auf Interdigitalstrukturen aufgezogen, anschließend wurden die Kennlinien dieser Proben aufgenommen. Die Messwerte zeigen für beide Polymere gute Konstanz und eine hohe Reproduzierbarkeit. BT2-Proben sind zwischen 20% und 80% r.F. besonders empfindlich und zeigen über einen Monat keine Langzeitdrift. Vernetzte Proben zeigen bis 50°C keinen temperaturbedingten Abfall der Feuchteempfindlichkeit. Der Einsatz vernetzter BT5-Schichten als kapazitiver Feuchtesensor ist bis etwa 70°C möglich, die Schichten sind selbst nach Lagerung im Hochvakuum und mehrfacher Betauung stabil. Damit liegen zwei funktionsfähige Prototypen von Feuchtesensoren vor, für die die meisten Kennwerte denen von vergleichbaren kommerziellen Feuchtesensoren entsprechen. Gleichzeitig zeichnen sie sich aber durch eine sehr niedrige Ansprechzeit bzw. eine ausreichende Lebensdauer unter biotischen Bedingungen aus.
Box-Simulationen von rotierender Magnetokonvektion im flüssigen Erdkern Numerische Simulationen der 3D-MHD Gleichungen sind mit Hilfe des Codes NIRVANA durchgeführt worden. Die Gleichungen für kompressible rotierende Magnetokonvektion wurden für erdähnliche Bedingungen numerisch in einer kartesischen Box gelöst. Charakteristische Eigenschaften mittlerer Größen, wie der Turbulenz-Intensität oder der turbulente Wärmefluss, die durch die kombinierte Wirkung kleinskaliger Fluktuationen entstehen, wurden bestimmt. Die Korrelationslänge der Turbulenz hängt signifikant von der Stärke und der Orientierung des Magnetfeldes ab, und das anisotrope Verhalten der Turbulenz aufgrund von Coriolis- und Lorentzkraft ist für schnellere Rotation wesentlich stärker ausgeprägt. Die Ausbildung eines isotropen Verhaltens auf kleinen Skalen unter dem Einfluss von Rotation alleine wird bereits durch ein schwaches Magnetfeld verhindert. Dies resultiert in einer turbulenten Strömung, die durch die vertikale Komponente dominiert wird. In Gegenwart eines horizontalen Magnetfeldes nimmt der vertikale turbulente Wärmefluss leicht mit zunehmender Feldstärke zu, so dass die Kühlung eines rotierenden Systems verbessert wird. Der horizontale Wärmetransport ist stets westwärts und in Richtung der Pole orientiert. Letzteres kann unter Umständen die Quelle für eine großskalige meridionale Strömung darstellen, während erstes in globalen Simulationen mit nicht axialsymmetrischen Randbedingungen für den Wärmefluss von Bedeutung ist. Die mittlere elektromotorische Kraft, die die Erzeugung von magnetischem Fluss durch die Turbulenz beschreibt, wurde unmittelbar aus den Lösungen für Geschwindigkeit und Magnetfeld berechnet. Hieraus konnten die entsprechenden α-Koeffizienten hergeleitet werden. Aufgrund der sehr schwachen Dichtestratifizierung ändert der α-Effekt sein Vorzeichen nahezu exakt in der Mitte der Box. Der α-Effekt ist positiv in der oberen Hälfte und negativ in der unteren Hälfte einer auf der Nordhalbkugel rotierenden Box. Für ein starkes Magnetfeld ergibt sich zudem eine deutliche abwärts orientierte Advektion von magnetischem Fluss. Ein Mean-Field Modell des Geodynamos wurde konstruiert, das auf dem α-Effekt basiert, wie er aus den Box-Simulationen berechnet wurde. Für eine äußerst beschränkte Klasse von radialen α-Profilen weist das lineare α^2-Modell Oszillationen auf einer Zeitskala auf, die durch die turbulente Diffusionszeit bestimmt wird. Die wesentlichen Eigenschaften der periodischen Lösungen werden präsentiert, und der Einfluss der Größe des inneren Kerns auf die Charakteristiken des kritischen Bereichs, innerhalb dessen oszillierende Lösungen auftreten, wurden untersucht. Reversals werden als eine halbe Oszillation interpretiert. Sie sind ein recht seltenes Ereignis, da sie lediglich dann stattfinden können, wenn das α-Profil ausreichend lange in dem periodische Lösungen erlaubenden Bereich liegt. Aufgrund starker Fluktuationen auf der konvektiven Zeitskala ist die Wahrscheinlichkeit eines solchen Reversals relativ klein. In einem einfachen nicht-linearen Mean-Field Modell mit realistischen Eingabeparametern, die auf den Box-Simulationen beruhen, konnte die Plausibilität des Reversal-Modells anhand von Langzeitsimulationen belegt werden.
Variationen der stratosphärischen Residualzirkulation und ihr Einfluss auf die Ozonverteilung
(2006)
Die Residualzirkulation entspricht der mittleren Massenzirkulation und beschreibt die im zonalen Mittel stattfindenden meridionalen Transportprozesse. Die Variationen der Residualzirkulation bestimmen gemeinsam mit dem anthropogen verursachten Ozonabbau die jährlichen Schwankungen der Ozongesamtsäule im arktischen Frühling. In der vorliegenden Arbeit wird die Geschwindigkeit des arktischen Astes der Residualzirkulation aus atmosphärischen Daten gewonnen. Zu diesem Zweck wird das diabatische Absinken im Polarwirbel mit Hilfe von Trajektorienrechnungen bestimmt. Die vertikalen Bewegungen der Luftpakete können mit vertikalen Windfeldern oder entsprechend einem neuen Ansatz mit diabatischen Heizraten angetrieben werden. Die Eingabedaten stammen aus dem 45 Jahre langen Reanalyse-Datensatz des "European Centre for Medium Range Weather Forecast" (ECMWF). Außerdem kann für die Jahre ab 1984 die operationelle ECMWF-Analyse verwendet werden. Die Qualität und Robustheit der Heizraten- und Trajektorienrechnungen werden durch Sensitivitätsstudien und Vergleiche mit anderen Modellen untermauert. Anschließend werden umfangreiche Trajektorienensemble statistisch ausgewertet, um ein detailliertes, zeit- und höhenaufgelöstes Bild des diabatischen Absinkens zu ermitteln. In diesem Zusammenhang werden zwei Methoden entwickelt, um das Absinken gemittelt im Polarwirbel oder als Funktion der äquivalenten Breite zu bestimmen. Es wird gezeigt, dass es notwendig ist den Lagrangeschen auf Trajektorienrechnungen basierenden Ansatz zu verfolgen, da die einfachen Eulerschen Mittel Abweichungen zu den Lagrangeschen Vertikalgeschwindigkeiten aufweisen. Das wirbelgemittelte Absinken wird für einzelne Winter mit dem beobachteten Absinken langlebiger Spurengase und anderen Modellstudien verglichen. Der Vergleich zeigt, dass das Absinken basierend auf den vertikalen Windfeldern der ECMWF-Datensätze den Nettoluftmassentransport durch die Residualzirkulation sehr stark überschätzt. Der neue Ansatz basierend auf den Heizraten ergibt hingegen realistische Ergebnisse und wird aus diesem Grund für alle Rechnungen verwendet. Es wird erstmalig eine Klimatologie des diabatischen Absinkens über einen fast fünf Jahrzehnte umfassenden Zeitraum erstellt. Die Klimatologie beinhaltet das vertikal und zeitlich aufgelöste diabatische Absinken gemittelt über den gesamten Polarwirbel und Informationen über die räumliche Struktur des vertikalen Absinkens. Die natürliche Jahr-zu-Jahr Variabilität des diabatischen Absinkens ist sehr stark ausgeprägt. Es wird gezeigt, dass zwischen der ECMWF-Zeitreihe des diabatischen Absinkens und der Zeitreihe aus einem unabhängig analysierten Temperaturdatensatz hohe Korrelationen bestehen. Erstmals wird der Einfluss von Transportprozessen auf die Ozongesamtsäule im arktischen Frühling direkt quantifiziert. Es wird gezeigt, dass die Jahr-zu-Jahr Variabilität der Ozongesamtsäule im arktischen Frühling zu gleichen Anteilen durch die Variabilität der dynamischen Komponente und durch die Variabilität der chemischen Komponente beeinflusst wird. Die gefundenen Variabilitäten von diabatischem Absinken und Ozoneintrag in hohen Breiten werden mit der vertikalen Ausbreitung planetarer Wellen aus der Troposphäre in die Stratosphäre in Beziehung gesetzt.
In Leuchtdioden wird Licht durch die Rekombination von injizierten Ladungsträgern erzeugt. Das kann einerseits in anorganischen Materialien geschehen. In diesem Fall ist es notwendig, hochgeordnete Kristallstrukturen herzustellen, die die Eigenschaften der Leuchtdioden bestimmen. Ein anderer Ansatz ist die Verwendung von organischen Molekülen und Polymeren. Auf Grund der Vielseitigkeit der organischen Chemie können die Eigenschaften der verwendeten halbleitenden Polymere schon während der Synthese beeinflusst werden. Außerdem weisen auch diese Polymere die bekannte mechanische Flexibilität auf. Die Herstellung von flexiblen, großflächigen Beleuchtungsquellen und Anzeigelementen ist so möglich. Die erste Leuchtdiode mit einem halbleitenden Polymer als Emitter wurde 1990 hergestellt. Seither hat das Forschungsgebiet eine rasante Entwicklung genommen. Auch erste kommerzielle Produkte sind erhältlich. Im Zuge dieser Entwicklung wurde deutlich, dass die Eigenschaften von polymeren Leuchtdioden – beispielsweise Farbe und Effizienz – durch die Verwendung mehrerer Komponenten in der aktiven Schicht deutlich verbessert werden können. Gleichzeitig ergeben sich neue Herausforderungen durch die Wechselwirkungen der verschiedenen Filmbestandteile. Während die Komponenten oft entweder zur Verbesserung des Ladungstransportes oder zur Beeinflussung der Emission zugegeben werden, muss darauf geachtet werden, dass die anderen Prozesse nicht negativ beeinflusst werden. In dieser Arbeit werden einige dieser Wechselwirkungen untersucht und mit einfachen physikalischen Modellen erklärt. So werden zunächst blau emittierende Leuchtdioden auf der Basis von Polyfluoren untersucht. Dieses Material ist zwar ein sehr effizienter blauer Emitter, jedoch ist es anfällig für chemische Defekte, diese sich nicht vollständig verhindern lassen. Die Defekte bilden Fallenzustände für Elektronen, ihr Einfluss lässt sich durch die Zugabe von Lochfallen unterdrücken. Der zugrunde liegende Prozess, die Beeinflussung der Ladungsträgerbalance, wird erklärt. Im Folgenden werden Mischsystemen mit dendronisierten Emittern, die gleichzeitig eine Falle für Elektronen bilden, untersucht. Hier wird die unterschiedliche Wirkung der isolierenden Hülle auf die Ladungs- und Energieübertragung zwischen Matrix und Farbstoffkern der Dendrimere untersucht. In Mischsystemen haben die Natur der angeregten Zustände sowie die Art und Weise des Ladungsträgertransportes einen großen Einfluss auf diese Transferprozesse. Außerden hat auch hier die Ladungsträgerbalance Auswirkungen auf die Emission. Um den Ladungsträgereinfang in Fallenzuständen zu charakterisieren, wird eine Methode auf Grundlage der Messung des zeitaufgelösten Photostroms in organischen Mischfilmen weiterentwickelt. Die erzielten Ergebnisse zeigen, dass die Übertragung der für geordnete Systeme entwickelten Modelle des Ladungsträgertransportes nicht ohne weiteres auf Polymersysteme mit hoher Unordnung übertragen werden können. Abschließend werden zeitaufgelöste Messungen der Phosphoreszenz in entsprechenden Mischungen aus Polymeren und organometallischen Verbindungen vorgestellt. Auch diese Systeme enthalten üblicherweise weitere Komponenten, die den Ladungstransport verbessern. In diesen Filmen kann es zu einer Übertragung der Tripletts vom Emitter auf die weiteren Filmbestandteile kommen. Bei Kenntnis der in Frage kommenden Wechselwirkungen können die unerwünschten Prozesse vermieden werden.
Bestimmung von Ozonabbauraten über der Arktis und Antarktis mittels Ozonsonden- und Satellitendaten
(2005)
Diese Arbeit beschäftigt sich mit der chemischen Ozonzerstörung im arktischen und antarktischen stratosphärischen Polarwirbel. Diese wird durch Abbauprodukte von anthropogen emittierten Fluorchlorkohlenwasserstoffen und Halonen, Chlor- und Bromradikale, verursacht. Studien in denen der gemessene und modellierte Ozonabbau verglichen wird zeigen, dass die Prozeße bekannt sind, der quantitative Verlauf allerdings nicht vollständig verstanden ist. Die Prozesse, die zur Ozonzerstörung führen sind in beiden Polarwirbeln ähnlich. Allerdings fällt als Konsequenz unterschiedlicher meteorologischer Bedingungen der chemische Ozonabbau im arktischen Polarwirbel weniger drastisch aus als über der Antarktis. Der arktische Polarwirbel ist im Mittel stärker dynamisch gestört als der antarktische und weist eine stärkere Jahr-zu-Jahr Variabilität auf. Das erschwert die Messung des chemischen Ozonabbaus. Zur Trennung des chemischen Ozonabbaus von der dynamischen Umverteilung des Ozons im arktischen Polarwirbel wurde die Matchmethode entwickelt. Bei dieser Methode werden Luftpakete innerhalb des Polarwirbels mehrfach beprobt, um den chemischen Anteil der Ozonänderung zu quantifizieren. Zur Identifizierung von doppelt beprobten Luftpaketen werden Trajektorien aus Windfeldern berechnet. Können zwei Messungen im Rahmen bestimmter Qualitätskriterien durch eine Trajektorie verbunden werden, kann die Ozondifferenz zwischen beiden Sondierungen berechnet und als chemischer Ozonabbau interpretiert werden. Eine solche Koinzidenz wird Match genannt. Der Matchmethode liegt ein statistischer Ansatz zugrunde, so dass eine Vielzahl solcher doppelt beprobter Luftmassen vorliegen muss, um gesicherte Aussagen über die Ozonzerstörung gewinnen zu können. So erhält man die Ozonzerstörung in einem bestimmten Zeitintervall, also Ozonabbauraten. Um die Anzahl an doppelt beprobten Luftpackten zu erhöhen wurde eine aktive Koordinierung der Ozonsondenaufstiege entwickelt. Im Rahmen dieser Arbeit wurden Matchkampagnen während des arktischen Winters 2002/2003 und zum ersten Mal während eines antarktischen Winter (2003) durchgeführt. Aus den gewonnenen Daten wurden Ozonabbauraten in beiden Polarwirbeln bestimmt. Diese Abbauraten dienen zum einen der Evaluierung von Modellen, ermöglichen aber auch den direkten Vergleich von Ozonabbauraten in beiden Polarwirbeln. Der Winter 2002/2003 war zu Beginn durch sehr tiefe Temperaturen in der mittleren und unteren Stratosphäre charakterisiert, so dass die Matchkampagne Ende November gestartet wurde. Ab Januar war der Polarwirbel zeitweise stark dynamisch gestört. Die Kampagne ging bis Mitte März. Für den Höhenbereich von 400 bis 550 K potentieller Temperatur (15-23 km) konnten Ozonabbauraten und der Verlust in der Gesamtsäule berechnet werden. Die Ozonabbauraten wurden in verschiedenen Tests auf ihre Stabilität überprüft. Der antarktische Polarwirbel war vom Beginn des Winters bis Mitte Oktober 2003 sehr kalt und stellte Ende September kurzzeitig den Rekord für die größte bisher aufgetretene Ozonloch-Fläche ein. Es konnten für den Kampagnenzeitraum, Anfang Juni bis Anfang Oktober, Ozonabbauraten im Höhenbereich von 400 bis 550 K potentieller Temperatur ermittelt werden. Der zeitliche Verlauf des Ozonabbaus war dabei auf fast allen Höhenniveaus identisch. Die Zunahme des Sonnenlichtes im Polarwirbel mit der Zeit führt zu einem starken Anwachsen der Ozonabbauraten. Ab Mitte September gingen die Ozonabbauraten auf Null zurück, da bis zu diesem Zeitpunkt das gesamte Ozon zwischen ca. 14 und 21 km zerstört wurde. Im letzten Teil der Arbeit wird ein neuer Algorithmus auf Basis der multivariaten Regression vorgestellt, mit dem Ozonabbauraten aus Ozonprofilen verschiedener Sensoren gleichzeitig berechnet werden können. Dabei können neben der Ozonabbaurate die systematischen Fehler zwischen den einzelnen Sensoren bestimmt werden. Dies wurde exemplarisch am antarktischen Winter 2003 für das 475 K potentielle Temperatur Niveau gezeigt. Neben den Ozonprofilen der Sonden wurden Daten von zwei Satellitenexperimenten verwendet. Die mit der multivariaten Matchtechnik berechneten Ozonabbauraten stimmen gut mit den Ozonabbauraten der Einzelsensor-Matchansätze überein.
Am Beispiel der Orgelpfeife wurde der Einfluss der Wandungsgeometrie des akustischen Wellenleiters auf die Schallabstrahlung untersucht. Für verschiedene Metalllegierungen wurden unterschiedliche Profile der Orgelpfeifenwandung verglichen: ein konisches Wandungsprofil mit zur Mündung hin abnehmender Wandungsstärke und ein paralleles Wandungsprofil mit konstanter Wandungsstärke. Für eine hohe statistische Sicherheit der Ergebnisse wurden sämtliche Untersuchungen an vier mal zehn Testpfeifen durchgeführt. Mit Ausnahme der beschriebenen Unterschiede sind die Pfeifen von gleichen Abmessungen und auf gleichen Klang intoniert. Die Überprüfung der Wandungseinflüsse auf den Klang besteht aus drei verschiedenen Untersuchungen: Erstens, einer subjektiven Hinterfragung der Wahrnehmbarkeit in einem Hörtest. Zweitens wurde der abgestrahlte Luftschall objektiv gemessen und das Spektrum der Pfeifen in seinen Komponenten (Teiltöne, Grundfrequenz) verglichen. Drittens wurde mit einer neuartigen Messtechnik die Oszillation des Pfeifenkörpers (ein einem akustischen Monopol entsprechendes "Atmen" des Querschnitts) untersucht. Die Ergebnisse belegen die Wahrnehmbarkeit unterschiedlicher Wandungsprofile als auch klare objektive Differenzen zwischen den emittierten Schallspektren. Ein Atmen mit guter Korrelation zur inneren Druckanregung bestätigt den Einfluss wandungsprofilabhängiger Oszillationen auf den Klang der Orgelpfeife. Schließlich wurde die Interaktion zweier in Abstand und Grundfrequenz nah beieinander liegender Orgelpfeifen überprüft. Als Ursache des dabei wahrnehmbaren Oktavsprung des Orgeltons konnte eine gegenphasiger Oszillation des Grundtons beider Pfeifen nachgewiesen werden.
Im Rahmen dieser Arbeit wurde ein besseres Verständnis der Kopplung der Troposphäre und der Stratosphäre in den mittleren und polaren Breiten der Nordhemisphäre (NH) auf Monatszeitskalen erzielt, die auf die Ausbreitung von quasi-stationären Wellen zurückzuführen ist. Der Schwerpunkt lag dabei auf den dynamisch aktiven Wintermonaten, welche die grösste Variabilität aufweisen. Die troposphärische Variabilität wird zum Grossteil durch bevorzugte Zirkulationsstrukturen, den Telekonnexionsmustern, bestimmt. Mittels einer rotierten EOF-Analyse der geopotenziellen Höhe in 500 hPa wurden die wichtigsten regionalen troposphärischen Telekonnexionsmuster der Nordhemisphäre berechnet. Diese lassen sich drei grossen geografischen Regionen zuordnen; dem nordatlantisch-europäischen Raum, Eurasien und dem pazifisch-nordamerikanischen Raum. Da es sich um die stärksten troposphärischen Variabilitätsmuster handelt, wurden sie als grundlegende troposphärische Grössen herangezogen, um dynamische Zusammenhänge zwischen der troposphärischen und der stratosphärischen Zirkulation zu untersuchen. Dabei wurde anhand von instantanen und zeitverzögerten Korrelationsanalysen der troposphärischen Muster mit stratosphärischen Variablen erstmalig gezeigt, dass unterschiedliche regionale troposphärische Telekonnexionsmuster unterschiedliche Auswirkungen auf die stratosphärische Zirkulation haben. Es ergaben sich für die pazifisch-nordamerikanischen Muster signifikante instantane Korrelationen mit quasi-barotropen Musterstrukturen und für die nordatlantisch-europäischen Muster zonalsymmetrische Ringstrukturen ab 1978 mit signifikanten Korrelationswerten über tropischen und subtropischen Breiten und inversen Korrelationswerten über polaren Gebieten. Bei einer Untersuchung des Einflusses der stratosphärischen Variabilität wurde gezeigt, dass sich die stärkste Kopplung von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation bei einem in Richtung Europa verschobenen Polarwirbel ergibt, wodurch die signifikanten Korrelationen ab 1978 erklärt werden können. Eine zonal gemittelte und vor allem lokale Untersuchung der Wellenausbreitungsbedingungen während dieser stratosphärischen Situation zeigt, dass es zu schwächeren Windgeschwindigkeiten in der Stratosphäre im Bereich von Nordamerika und des westlichen Nordatlantiks kommt und sich dadurch die Wellenausbreitungsbedingungen in diesem geografischen Bereich für planetare Wellen verbessern. Durch die stärkere Wellenausbreitung kommt es zu einer stärkeren Wechselwirkung mit dem Polarjet, wobei dieser abgebremst wird. Diese Abbremsung führt zu einer Verstärkung der meridionalen Residualzirkulation. D. h., wenn es zu einer verstärkten Wellenanregung im Nordatlantik und über Europa kommt, ist die Reaktion der Residualzirkulation bei einem nach Europa verschobenem Polarwirbel besonders stark. Die quasi-barotropen Korrelationsstrukturen, die sich bei den pazifisch-nordamerikanischen Mustern zeigen, weisen aufgrund von abnehmenden Störungsamplituden mit zunehmender Höhe, keiner Westwärtsneigung und einem negativen Brechungsindex im Pazifik auf verschwindende Wellen hin, die als Lösung der Wellengleichung bei negativem Brechungsindex auftreten. Dies wird durch den Polarjet, der im Bereich des Pazifiks stets sehr weit in Richtung Norden verlagert ist, verursacht. Abschliessend wurde in dieser Arbeit untersucht, ob die gefundenen Zusammenhänge von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation auch von einem Atmosphärenmodell wiedergegeben werden können. Dazu wurde ein transienter 40-Jahre-Klimalauf des ECHAM4.L39(DLR)/CHEM Modells mit möglichst realistischen Antrieben erstmalig auf die Kopplung der Troposphäre und der Stratosphäre analysiert. Dabei konnten sowohl die troposphärischen, als auch die stratosphärischen Variabilitätsmuster vom Modell simuliert werden. Allerdings zeigen sich in den stratosphärischen Mustern Phasenverschiebungen in den Wellenzahl-1-Strukturen und ihre Zeitreihen weisen keinen signifikanten Trend ab 1978 auf. Die Kopplung der nordatlantisch-europäischen Telekonnexionsmuster mit der stratosphärischen Zirkulation zeigt eine wesentlich schwächere Reaktion der meridionalen Residualzirkulation. Somit stellte sich heraus, dass insbesondere die stratosphärische Zirkulation im Modell starke Diskrepanzen zu den Beobachtungen zeigt, die wiederum Einfluss auf die Wellenausbreitungsbedingungen haben. Es wird damit deutlich, dass für eine richtige Wiedergabe der Wellenausbreitung und somit der Kopplung der Troposphäre und Stratosphäre die stratosphärische Zirkulation eine wichtige Rolle spielt.
Unter atmosphärischen Zirkulationsregimen versteht man bevorzugte quasi-stationäre Zustände der atmosphärischen Zirkulation auf der planetaren Skala, die für eine bis mehrere Wochen persistieren können. Klimaänderungen, ob natürlich entstanden oder anthropogen verursacht, äußern sich in erster Linie durch Änderungen der Auftrittswahrscheinlichkeiten der natürlichen Regime. In der vorliegenden Arbeit wurden dynamische Mechanismen des Regimeverhaltens und der dekadischen Klimavariabilität der Atmosphäre bei Abwesenheit zeitlich veränderlicher externer Einflussfaktoren untersucht. Das Hauptwerkzeug dafür war ein quasi-geostrophisches Dreischichtenmodell der winterlichen atmosphärischen Zirkulation auf der Nordhemisphäre, das eine spektrale T21-Auflösung, einen orographischen und einen zeitlich konstanten thermischen Antrieb mit nicht-zonalen Anteilen besitzt. Ein solches Modell vermag großskalige atmosphärische Strömungsvorgänge außerhalb der Tropen mit einiger Genauigkeit zu simulieren. Nicht berücksichtigt werden Feuchteprozesse, die Wechselwirkung der Atmosphäre mit anderen Teilen des Klimasystems sowie anthropogene Einflüsse. Für das Dreischichtenmodell wurde ein automatisiertes, iteratives Verfahren zur Anpassung des thermischen Modellantriebs neu entwickelt. Jede Iteration des Verfahrens besteht aus einer Testintegration des Modells, ihrer Auswertung, dem Vergleich der Ergebnisse mit den NCEP-NCAR-Reanalysedaten aus den Wintermonaten Dezember, Januar und Februar sowie einer auf diesem Vergleich basierenden Antriebskorrektur. Nach Konvergenz des Verfahrens stimmt das Modell sowohl bezüglich des zonal gemittelten Klimazustandes als auch bezüglich der zeitgemittelten nicht-zonalen außertropischen diabatischen Erwärmung nahezu perfekt mit den wintergemittelten Reanalysedaten überein. In einer 1000-jährigen Simulation wurden die beobachtete mittlere Zirkulation im Winter sowie ihre Variabilität realitätsnah reproduziert, insbesondere die Arktische Oszillation (AO) und ihre vertikale Ausdehnung. Der AO-Index des Modells weist deutliche dekadische Schwankungen auf, die allein durch die interne Modelldynamik bedingt sind. Darüber hinaus zeigt das Modell ein Regimeverhalten, das gut mit den Beobachtungsdaten übereintimmt. Es besitzt ein Regime, das in etwa der negativen Phase der Nordatlantischen Oszillation (NAO) entspricht und eines, das der positiven Phase der AO ähnelt. Eine weit verbreitete Hypothese ist die näherungsweise Übereinstimmung zwischen Regimen und stationären Lösungen der Bewegungsgleichungen. In der vorliegenden Arbeit wurde diese Hypothese für das Dreischichtenmodell überprüft, mit negativem Resultat. Es wurden mittels eines Funktionalminimierungsverfahrens sechs verschiedene stationäre Zustände gefunden. Diese sind allesamt durch eine äußerst unrealistische Zirkulation gekennzeichnet und sind daher weit vom Modellattraktor entfernt. Fünf der sechs Zustände zeichnen sich durch einen extrem starken subtropischen Jet in der mittleren und obereren Modellschicht aus. Da die Ursache des Regimeverhaltens des Dreischichtenmodells nach wie vor unklar war, wurde auf ein einfacheres Modell, nämlich ein barotropes Modell mit T21-Auflösung zurückgegriffen. Für die Anpassung des Oberflächenantriebs wurde eine modifizierte Form der iterativen Prozedur verwendet. Die zeitgemittelte Zirkulation des barotropen Modells stimmt sehr gut mit der zeitlich und vertikal gemittelten Zirkulation des Dreischichtenmodells überein. Das dominierende räumliche Muster der Variabilität besitzt eine AO-ähnliche Struktur. Zudem besitzt das barotrope Modell zwei Regime, die näherungsweise der positiven und negativen Phase der AO entsprechen und somit auch den Regimen des Dreischichtenmodells ähneln. Im Verlauf der Justierung des Oberflächenantriebs konnte beobachtet werden, dass die zwei Regime des barotropen Modells durch die Vereinigung zweier koexistierender Attraktoren entstanden. Der wahrscheinliche Mechanismus der Attraktorvereinigung ist eine Randkrise eines der beiden Attraktoren, gefolgt von einer explosiven Bifurkation des anderen Attraktors. Es wird die Hypothese aufgestellt, dass der beim barotropen Modell vorgefundene Mechanismus der Regimeentstehung für atmosphärische Zirkulationsmodelle mit realitätsnahem Regimeverhalten Allgemeingültigkeit besitzt. Gestützt wird die Hypothese durch vier Experimente mit dem Dreischichtenmodell, bei denen jeweils der Parameter der Bodenreibung verringert und die Antriebsanpassung wiederholt wurde. Bei diesen Experimenten erhöhte sich die Persistenz und die Separiertheit der Regime bei abnehmender Reibung drastisch und damit auch der Anteil dekadischer Zeitskalen an der Variabilität. Die Zunahme der Persistenz der Regime ist charakteristisch für die Annäherung an eine inverse innere Krise, deren Existenz aber nicht nachgewiesen werden konnte.