Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (229)
- Wissenschaftlicher Artikel (137)
- Monographie/Sammelband (84)
- Masterarbeit (3)
- Lehrmaterial (2)
- Habilitation (2)
- Sonstiges (2)
- Postprint (1)
- Preprint (1)
Sprache
- Deutsch (461) (entfernen)
Schlagworte
- Reflexion (7)
- Physik (4)
- Physikdidaktik (4)
- physics (4)
- Ellipsometrie (3)
- Fluoreszenz (3)
- Lehrkräftebildung (3)
- Ozon (3)
- Reflexivität (3)
- Resonanzenergietransfer (3)
Institut
- Institut für Physik und Astronomie (461) (entfernen)
Es wird ein Überblick über verschiedene spektroskopische Techniken, mit denen dünne organische Schichten, wie sie in der Fotovoltaik, bei Leuchtdioden oder organischen Halbleitern Anwendung finden, gegeben. Mit einfachen Zusatzgeräten lassen sich Schichtdicke, Schichtaufbau und Zusammensetzung untersuchen. Die Schichtdicke kann monomolekular sein. Unter bestimmten Voraussetzungen sind einzelne Moleküle in einer Schicht charakterisierbar.
Reflexion ist eine Schlüsselkategorie für die professionelle Entwicklung von Lehrkräften, welche als Ausbildungsziel in den Bildungsstandards für die Lehrkräftebildung verankert ist. Eine Verstetigung universitär geprägter Forschung und Modellierung in der praxisnahen Anwendung im schulischen Kontext bietet Potentiale nachhaltiger Professionalisierung. Die Stärkung reflexionsbezogener Kompetenzen durch Empirie und Anwendung scheint eine phasenübergreifende Herausforderung der Lehrkräftebildung zu sein, die es zu bewältigen gilt. Ziele des Tagungsbandes Reflexion in der Lehrkräftebildung sind eine theoretische Schärfung des Konzeptes „Reflexive Professionalisierung“ und der Austausch über Fragen der Einbettung wirksamer reflexionsbezogener Lerngelegenheiten in die Lehrkräftebildung. Forschende und Lehrende der‚ drei Phasen (Studium, Referendariat sowie Fort- und Weiterbildung) der Lehrkräftebildung stellen Lehrkonzepte und Forschungsprojekte zum Thema Reflexion in der Lehrkräftebildung vor und diskutieren diese. Gemeinsam mit Teilnehmenden aller Phasen und von verschiedenen Standorten der Lehrkräftebildung werden zukünftige Herausforderungen identifiziert und Lösungsansätze herausgearbeitet.
Reflexion wird als notwendig für die professionelle Entwicklung von Lehrer:innen und die Verbesserung von Unterricht angesehen, wenngleich aus theoretischer Sicht große Uneinigkeit über den Begriff selbst, den Reflexionsprozess und die damit verbundenen Kompetenzen herrscht.
Ziel dieser Arbeit war die Entwicklung, Untersuchung und Weiterentwicklung eines Reflexionsmodells mit einem theoriebasierten, klaren Konzept des Reflexionsprozesses und einem passenden Anspruch an die Reflexionsleistung der Reflektierenden. Grundlage für die empirische Untersuchung waren N = 132 Selbstreflexionstexte von N = 22 Studierenden aus dem Praxissemester Physik. Zur Codierung der Texte wurden vier mittels qualitativer Inhaltsanalyse entwickelte Manuale angewandt. Mit quantitativen Methoden wurden Zusammenhänge zwischen strukturellen Elementen, Begründungen, Inhalten und dem Qualitätsmerkmal Reflexionstiefe überprüft.
Es zeigte sich ein "Überhang an Negativität": negative Bewertungen, negative Reflexionsauslöser und negative Inhalte hängen signifikant positiv mit größerer Reflexionstiefe zusammen. Auf Grundlage der empirischen Ergebnisse wurde das Reflexionsmodell mit externaler und internaler Zielorientierung (REIZ) entwickelt. Zudem wurde darauf aufbauend eine Definition für Reflexionstiefe in vier Argumentationsclustern formuliert. Für die Lehrkräftebildung wird der in REIZ dargestellte differenzierte Ansatz der Zielorientierung von Reflexion empfohlen.
Reflexion und Reflexivität
(2023)
Reflexion gilt in der Lehrkräftebildung als eine Schlüsselkategorie der professionellen Entwicklung. Entsprechend wird auf vielfältige Weise die Qualität reflexionsbezogener Kompetenzen untersucht. Eine Herausforderung hierbei kann in der Annahme bestehen, von der Analyse schriftlicher Reflexionen unmittelbar auf die Reflexivität einer Person zu schließen, da Reflexion stets kontextspezifisch als Abbild reflexionsbezogener Argumentationsprozesse angesehen werden sollte und reflexionsbezogenen Dispositionen unterliegt. Auch kann die Qualität einer Reflexion auf mehreren Dimensionen bewertet werden, ohne quantifizierbare, absolute Aussagen treffen zu können.
Daher wurden im Rahmen einer Physik-Videovignette N = 134 schriftliche Fremdreflexionen verfasst und kontextspezifische reflexionsbezogene Dispositionen erhoben. Expert*innen erstellten theoriegeleitet Qualitätsbewertungen zur Breite, Tiefe, Kohärenz und Spezifität eines jeden Reflexionstextes. Unter Verwendung computerbasierter Klassifikations- und Analyseverfahren wurden weitere Textmerkmale erhoben. Mittels explorativer Faktorenanalyse konnten die Faktoren Qualität, Quantität und Deskriptivität gefunden werden. Da alle konventionell eingeschätzten Qualitätsbewertungen durch einen Faktor repräsentiert wurden, konnte ein maximales Qualitätskorrelat kalkuliert werden, zu welchem jede schriftliche Fremdreflexion im Rahmen der vorliegenden Vignette eine computerbasiert bestimmbare Distanz aufweist. Diese Distanz zum maximalen Qualitätskorrelat konnte validiert werden und kann die Qualität der schriftlichen Reflexionen unabhängig von menschlichen Ressourcen quantifiziert repräsentieren. Abschließend konnte identifiziert werden, dass ausgewählte Dispositionen in unterschiedlichem Maße mit der Reflexionsqualität zusammenhängen. So konnten beispielsweise bezogen auf das Physik-Fachwissen minimale Zusammenhänge identifiziert werden, wohingegen Werthaltung sowie wahrgenommene Unterrichtsqualität eng mit der Qualität einer schriftlichen Reflexion in Verbindung stehen können.
Es wird geschlussfolgert, dass reflexionsbezogene Dispositionen moderierenden Einfluss auf Reflexionen nehmen können. Es wird empfohlen bei der Erhebung von Reflexion mit dem Ziel der Kompetenzmessung ausgewählte Dispositionen mit zu erheben. Weiter verdeutlicht diese Arbeit die Möglichkeit, aussagekräftige Quantifizierungen auch in der Analyse komplexer Konstrukte vorzunehmen. Durch computerbasierte Qualitätsabschätzungen können objektive und individuelle Analysen und differenzierteres automatisiertes Feedback ermöglicht werden.
Schulpraktische Phasen stellen eine bedeutende praxisnahe Lerngelegenheit im Lehramtsstudium dar, da sie Raum für umfangreiche Reflexionen der eigenen Lernerfahrung bieten. Das im Studium erworbene theoretisch-formale Wissen steht hierbei dem praktischen Wissen und Können gegenüber. Mit der professionellen Entwicklung im Referendariat, besonders im Kompetenzbereich des Unterrichtens, kann geschlussfolgert werden, dass sich eine Reflexion über eher fachliche Aspekte unter den Studierenden im Referendariat auf eine Reflexion über eher überfachliche und pädagogische Aspekte weitet. Infolge der Analyse von N = 55 schriftlichen Fremdreflexionen von angehenden Physiklehrkräften aus Studium und Referendariat konnte diese Hypothese für den Bereich der Unterrichtsanalyse und -reflexion unterstützt werden. Weiter wurde aus der Videovignette ein Workshopangebot für Lehrkräfte der zweiten und dritten Phase der Lehrkräftebildung entwickelt, erprobt und evaluiert.
Für die Entwicklung professioneller Handlungskompetenzen angehender Lehrkräfte stellt die Unterrichtsreflexion ein wichtiges Instrument dar, um Theoriewissen und Praxiserfahrungen in Beziehung zu setzen. Die Auswertung von Unterrichtsreflexionen und eine entsprechende Rückmeldung stellt Forschende und Dozierende allerdings vor praktische wie theoretische Herausforderungen. Im Kontext der Forschung zu Künstlicher Intelligenz (KI) entwickelte Methoden bieten hier neue Potenziale. Der Beitrag stellt überblicksartig zwei Teilstudien vor, die mit Hilfe von KI-Methoden wie dem maschinellen Lernen untersuchen, inwieweit eine Auswertung von Unterrichtsreflexionen angehender Physiklehrkräfte auf Basis eines theoretisch abgeleiteten Reflexionsmodells und die automatisierte Rückmeldung hierzu möglich sind. Dabei wurden unterschiedliche Ansätze des maschinellen Lernens verwendet, um modellbasierte Klassifikation und Exploration von Themen in Unterrichtsreflexionen umzusetzen. Die Genauigkeit der Ergebnisse wurde vor allem durch sog. Große Sprachmodelle gesteigert, die auch den Transfer auf andere Standorte und Fächer ermöglichen. Für die fachdidaktische Forschung bedeuten sie jedoch wiederum neue Herausforderungen, wie etwa systematische Verzerrungen und Intransparenz von Entscheidungen. Dennoch empfehlen wir, die Potenziale der KI-basierten Methoden gründlicher zu erforschen und konsequent in der Praxis (etwa in Form von Webanwendungen) zu implementieren.
Reflexion – unhinterfragt eines der wichtigsten Worte im Kontext der Lehrkräftebildung. Fest verankert in den bundesdeutschen Bildungsstandards sind in Forschung und Lehre die Suche nach Evidenz und die Unterstützung (angehender) Lehrkräfte ständiger Antrieb unzähliger Akteur:innen aller Phasen der Lehrkräftebildung. Wenngleich begriff liche Unklarheiten die Kommunikation von Forschungsergebnissen nicht immer intuitiv und die Unterstützung in der Lehre nicht immer praktikabel werden lassen, besteht Einigkeit darüber, dass ein Diskurs zur reflexiven Professionalisierung von Lehrkräften geführt werden muss. Aus diesem Grund veranstalteten die beiden QLB-Projekte PSI-Potsdam der Universität Potsdam und K2teach der Freien Universität Berlin vom 5. bis 7. Oktober 2022 die Onlinetagung „Reflexion in der Lehrkräftebildung. Empirisch – Phasenübergreifend – Interdisziplinär“. Ausgehend von den verschiedensten Fachdisziplinen diskutierten Akteur:innen aller Phasen der Lehrkräftebildung unterschiedlicher Standorte Ergebnisse empirischer Studien und Erfahrungen aus der Arbeit mit (angehenden) Lehrkräften. Beiträge der Tagung sind in diesem Buch festgehalten und sind als Momentaufnahme eines sich ständig entwickelnden Themenfelds zu verstehen. Forschende und Lehrende haben mit dieser Momentaufnahme die Möglichkeit, Eindrücke für die eigene Arbeit aufzunehmen und weiterzuentwickeln.
Beim Resonanzenergietransfer werden Fotonen von einem angeregten Donator über einen Wechselwirkungsabstand auf einen Akzeptor übertragen. Nach der quantenmechanischen Theorie von FÖRSTER kann dieser Abstand mit Hilfe des Überlappungsintegrals von Fluoreszenzspektrum des Donators und Absorp-tionsspektrum des Akzeptors berechnet werden.
Eine andere Möglichkeit der Bestimmung erhält man mit Hilfe von statistischen Modellen, die in einem Überblick zusammengestellt sind. Dabei kann der Abstand durch Auswertung der Löschkurve bestimmt werden.
In dieser Arbeit wird dazu eine weitere statistische Variante der Bestimmung des Wechselwirkungsradius hinzugefügt und an einem Beispiel ausführlich demonstriert.
Beim Resonanzenergietransfer werden Fotonen von einem angeregten Donator über einen Wechselwirkungsabstand auf einen Akzeptor übertragen. Nach der quantenmechanischen Theorie von FÖRSTER kann dieser Abstand mit Hilfe des Überlappungsintegrals von Fluoreszenzspektrum des Donators und Absorp-tionsspektrum des Akzeptors berechnet werden.
Eine andere Möglichkeit der Bestimmung erhält man mit Hilfe von statistischen Modellen, die in einem Überblick zusammengestellt sind. Dabei kann der Abstand durch Auswertung der Löschkurve bestimmt werden.
In dieser Arbeit wird dazu eine weitere statistische Variante der Bestimmung des Wechselwirkungsradius hinzugefügt und an einem Beispiel ausführlich demonstriert.
Proteine sind an praktisch allen Prozessen in lebenden Zellen maßgeblich beteiligt. Auch in der Biotechnologie werden Proteine in vielfältiger Weise eingesetzt.
Ein Protein besteht aus einer Kette von Aminosäuren. Häufig lagern sich mehrere dieser Ketten zu größeren Strukturen und Funktionseinheiten, sogenannten Proteinkomplexen,
zusammen. Kürzlich wurde gezeigt, dass eine Proteinkomplexbildung bereits während der Biosynthese der Proteine (co-translational) stattfinden kann
und nicht stets erst danach (post-translational) erfolgt. Da Fehlassemblierungen von Proteinen zu Funktionsverlusten und adversen Effekten führen, ist eine präzise und verlässliche Proteinkomplexbildung sowohl für zelluläre Prozesse als auch für biotechnologische Anwendungen essenziell. Mit experimentellen Methoden lassen sich zwar u.a. die Stöchiometrie und die Struktur von Proteinkomplexen bestimmen,
jedoch bisher nicht die Dynamik der Komplexbildung auf unterschiedlichen Zeitskalen. Daher sind grundlegende Mechanismen der Proteinkomplexbildung noch nicht vollständig verstanden. Die hier vorgestellte, auf experimentellen Erkenntnissen aufbauende, computergestützte Modellierung der Proteinkomplexbildung erlaubt eine umfassende Analyse des Einflusses physikalisch-chemischer Parameter
auf den Assemblierungsprozess. Die Modelle bilden möglichst realistisch die experimentellen Systeme der Kooperationspartner (Bar-Ziv, Weizmann-Institut, Israel; Bukau und Kramer, Universität Heidelberg) ab, um damit die Assemblierung von Proteinkomplexen einerseits in einem quasi-zweidimensionalen synthetischen Expressionssystem (in vitro) und andererseits im Bakterium Escherichia coli (in vivo) untersuchen zu können. Mit Hilfe eines vereinfachten Expressionssystems, in dem die Proteine nur an die Chip-Oberfläche, aber nicht aneinander binden können, wird das theoretische Modell parametrisiert. In diesem vereinfachten in-vitro-System durchläuft die Effizienz der Komplexbildung drei Regime – ein bindedominiertes Regime, ein Mischregime und ein produktionsdominiertes Regime. Ihr Maximum erreicht die Effizienz dabei kurz nach dem Übergang vom bindedominierten ins Mischregime und fällt anschließend monoton ab. Sowohl im nicht-vereinfachten in-vitro- als auch im in-vivo-System koexistieren je zwei konkurrierende Assemblierungspfade: Im in-vitro-System erfolgt die Komplexbildung entweder spontan in wässriger Lösung (Lösungsassemblierung) oder aber in einer definierten Schrittfolge an der Chip-Oberfläche (Oberflächenassemblierung); Im in-vivo-System konkurrieren hingegen die co- und die post-translationale Komplexbildung. Es zeigt sich, dass die Dominanz der Assemblierungspfade im in-vitro-System zeitabhängig ist und u.a. durch die Limitierung und Stärke der Bindestellen auf der Chip-Oberfläche beeinflusst werden kann. Im in-vivo-System hat der räumliche Abstand zwischen den Syntheseorten der beiden Proteinkomponenten nur dann einen Einfluss auf die Komplexbildung, wenn die Untereinheiten schnell degradieren. In diesem Fall dominiert die co-translationale Assemblierung auch auf kurzen Zeitskalen deutlich, wohingegen es bei stabilen Untereinheiten zu einem Wechsel von der Dominanz der post- hin zu einer geringen Dominanz der co-translationalen Assemblierung kommt. Mit den in-silico-Modellen lässt sich neben der Dynamik u.a. auch die Lokalisierung der Komplexbildung und -bindung darstellen, was einen Vergleich der theoretischen Vorhersagen mit experimentellen Daten und somit eine Validierung der Modelle ermöglicht. Der hier präsentierte in-silico Ansatz ergänzt die experimentellen Methoden, und erlaubt so, deren Ergebnisse zu interpretieren und neue Erkenntnisse davon abzuleiten.
Im Lehramtsstudium sollen Studierende grundlegende Fähigkeiten zur theoriegeleiteten Unterrichtsplanung erwerben.
In Übereinstimmung mit Modellen zur professionellen Handlungskompetenz von Lehrkräften wird hierbei meist angenommen, dass das im Studienverlauf erworbene Professionswissen eine wesentliche Grundlage für den Aufbau von Fähigkeiten zur Unterrichtsplanung bildet.
Lerngelegenheiten zur Anwendung dieses Professionswissens bieten vor allem schulpraktische Phasen im fortgeschrittenen Studienverlauf. Es wird aber ebenso angenommen, dass gerade Erfahrungen mit der Unterrichtsplanung den Aufbau von Professionswissen unterstützen.
Der Zusammenhang zwischen dem Ausmaß des Professionswissens und der Entwicklung von Planungsfähigkeit ist bisher unzureichend empirisch geklärt. Eine besondere methodische Herausforderung besteht darin, Planungsfähigkeiten sowohl möglichst authentisch als auch auf standardisierte Weise zu erfassen. Zur Untersuchung des genannten Zusammenhangs wurde eine längsschnittliche Studie im Prä-Post-Design bei angehenden Physiklehrkräften (N = 68 im Längsschnitt) an vier Universitäten durchgeführt.
Die Unterrichtsplanungsfähigkeit wurde mit Hilfe eines standardisierten Performanztests vor und nach dem Absolvieren eines Praxissemesters erfasst, indem als Standardsituation der Entwurf einer Unterrichtsstunde zum 3. Newton’schen Axiom unter definierten Zeitvorgaben im Praxissemester simuliert wurde. Zusätzlich wurden das fachliche, fachdidaktische und pädagogische Wissen der Studierenden mit Hilfe standardisierter Instrumente zu beiden Zeitpunkten erhoben, sowie die einschlägigen Lerngelegenheiten im Praxissemester über einen Fragebogen erfasst.
Sowohl für Unterrichtsplanungsfähigkeit als auch für alle Wissensvariablen können Zuwächse im Praxissemester beobachtet werden. Cross-Lagged-Panel-Analysen zeigen, dass insbesondere die Ausprägung des fachdidaktischen und pädagogischen Wissens der Studierenden am Beginn des Praxissemesters die Entwicklung von Unterrichtsplanungsfähigkeit begünstigt.
Das Manuskript dient der Vorbereitung der Prüfung der Fachkunde zum Strahlenschutz für Lehrer. Es enthält wichtige Grundlagen der Kernphysik, insbesondere die Eigenschaften der Alpha-, Beta-, Gamma-, Neutronen- und Röntgenstrahlen. Es folgt eine kurze Beschreibung des Einflusses der Strahlung auf belebte Materie. Wichtige Paragrafen der Strahlenschutzverordnung werden beschrieben. Eine Aufgabensammlung dient zur Illustration und Übung.
Das Professionswissen einer Lehrkraft gilt als Voraussetzung für erfolgreichen Unterricht. Trotz großer Unterschiede der Professionswissensmodelle ist die Forschung sich aus theoretischer Sicht weitestgehend einig darüber, dass das fachliche und fachdidaktische Wissen wichtige Bestandteile des Professionswissens und damit bedeutsam für Unterrichtserfolg sind. Zurecht gibt es daher die Forderung, dass Lehrkräfte unter anderem ein ausgeprägtes fachliches Wissen benötigen, das sie in den verschiedensten Situationen ihres Berufslebens, wie z.B. dem Erklären von Konzepten und dem Planen von Unterricht einsetzen. Die Forschung untersucht aus diesem Grund schon seit über 30 Jahren die Bedeutung des Fachwissens einer Lehrkraft. Dabei werden die Betrachtungen des Fachwissens immer differenzierter. So hat sich in vielen Forschungsansätzen der Physikdidaktik eine Dreiteilung des Fachwissens in schulisches Wissen, vertieftes Schulwissen und universitäres Wissen durchgesetzt. Während das Schulwissen als jenes Wissen verstanden wird, das in der Schule gelehrt und gelernt wird, beschreibt die Facette des universitären Wissens die stark akademisch geprägte Wissensform, die zukünftige Physiklehrkräfte in den Fachveranstaltungen an der Universität erwerben sollen. Das vertiefte Schulwissen ist hingegen eine spezielle Form des fachlichen Wissens, die aus Forschungssicht als besonders wichtig für Lehrkräfte angenommen wird. Zusammengenommen sollen angehende Physiklehrkräfte alle genannten Facetten des Fachwissens, also Schulwissen, vertieftes Schulwissen und universitäres Wissen, während des Lehramtsstudiums Physik erwerben. Neben dem fachlichen Wissen benötigt eine Lehrkraft als wichtigen Bestandteil des Professionswissens auch noch fachdidaktisches Wissen, welches ebenfalls während des Studiums erworben werden soll. Gleichzeitig geht man in der Forschung davon aus, dass für die Entwicklung des fachdidaktischen Wissens fachliches Wissen eine Grundvoraussetzung ist. Es ist jedoch empirisch nahezu ungeklärt, wie sich das beschriebene Fachwissen und das fachdidaktische Wissen im Verlauf des Lehramtsstudiums Physik entwickeln oder wie sich diese Wissensformen gegenseitig beeinflussen. Darüber hinaus ist unklar, welche Herausforderungen sich aus der Leistungsheterogenität der Studienanfänger:innen ergeben. Bisherige Untersuchungen aus der Studienerfolgsforschung legen nahe, dass besonders das Vorwissen prognostisch für Studienerfolg ist. Die vorliegende Arbeit untersucht daher zunächst, wie sich das fachliche Wissen (Schulwissen, vertieftes Schulwissen, universitäres Wissen) von Lehrkräften im Verlauf des Bachelor- und Masterstudiums entwickelt. In einem nächsten Schritt wurde untersucht, wie sich Studierende mit einem geringen, mittleren bzw. hohen Fachwissen zum Beginn des Studiums über das Bachelorstudium entwickeln. Darüber hinaus wurde die Entwicklung des fachdidaktischen Wissens betrachtet und Zusammenhänge zum fachlichen Wissen in den Blick genommen. Durchgeführt wurde die vorliegende Studie im Längsschnitt im Verlauf von drei Jahren an 11 Hochschulen mit 145 Bachelorstudierenden und 73 Masterstudierenden. Die Bachelorstudierenden haben jährlich an einer Testung des fachlichen und fachdidaktischen Wissens teilgenommen. Die Masterstudierenden nahmen jeweils vor und nach einem einsemestrigen Schulpraktikum an den Erhebungen teil. Zur Testung wurde jeweils ein schriftliches Testinstrument verwendet. Das weiterentwickelte Fachwissensinstrument wurde zusätzlich ausführlichen Validierungsuntersuchungen unterzogen. Die Ergebnisse zeigen, dass sich das Schulwissen, das vertiefte Schulwissen und das universitäre Wissen sowohl im Bachelor- als auch Masterstudium signifikant weiterentwickeln. Auch für das fachdidaktische Wissen können signifikante Zuwächse über das Bachelor- und Masterstudium berichtet werden. Interessant ist dabei, dass eine starke Korrelation zwischen dem fachlichen Wissen zu Beginn des Studiums und dem Zuwachs des fachdidaktischen Wissens vom ersten zum dritten Semester erkennbar ist. Es liegen also erste Hinweise dafür vor, dass – wie in der Forschung vermutet – das fachliche Wissen eine Voraussetzung für die Entwicklung von fachdidaktischem Wissen ist. Die angesprochene Leistungsheterogenität zu Beginn des Studiums stellt dabei jedoch ein Hindernis für die Entwicklung des fachlichen Wissens dar. So holt die Gruppe der zu Beginn schwächeren Studierenden nicht einmal das Mittelfeld im Lauf des Studiums ein. Gleichzeitig ist zu beobachten, dass die Gruppe der stärksten Studierenden im Vergleich zu den übrigen Studierenden vom ersten zum dritten Semester überproportional dazulernt. Insgesamt bleibt das heterogene Leistungsbild im Verlauf des Studiums erhalten, was die Forderung nach Unterstützung für leistungsschwächere Studierende gerade zu Beginn des Studiums betont. Wie sich innerhalb der vorliegenden Untersuchung zeigte, könnte insbesondere ein ausgeprägtes mathematisches Vorwissen hilfreich sein, um fachliches Wissen zu entwickeln. Die bisher angebotenen Vorkurse scheinen dem Bedarf nicht gerecht zu werden und so könnte es lohnenswert sein, zusätzliche Veranstaltungen auch in Bezug auf fachliches Wissen in der gesamten Studieneingangsphase anzubieten. Forschungsergebnisse deuten darauf hin, dass insbesondere schwächere Studierende von einer klaren Strukturierung innerhalb dieser zusätzlichen Kurse profitieren könnten. Auch ein allgemeines Vorstudium könnte helfen, die Vorkenntnisse anzugleichen.
Aufgrund der Bedeutung von Experimenten im physikalischen Erkenntnisprozess, sind diese ein wesentlicher Bestandteil des Physikunterrichts. Um den Einsatz von Experimenten im Physikunterricht zu fördern, sind kompetenzorientiertes Experimentieren und die Reflexion des Einsatzes von Experimenten wichtige Ziele in Lehrkräftebildungsprogrammen. Ablaufmodelle für kompetenzorientiertes Experimentieren unterscheiden typischerweise Phasen der Fragen- und Hypothesenentwicklung, der Planung, der Erforschung und der Schlussfolgerungen. Es ist allerdings unklar, auf welche Weise angehende Physiklehrkräfte Aspekte des kompetenzorientierten Experimentierens in ihrem Unterricht in schulpraktischen Ausbildungsphasen einsetzen, auf welche Weise sie solche Unterrichtsversuche mit Experimentierbezug reflektieren und wie strukturiert (im Sinne der Ablaufmodelle) sie dabei vorgehen.
In der vorliegenden Studie wurde deshalb untersucht, auf welche Weise Praxissemesterstudierende Experimentierprozesse in ihren Unterrichtsversuchen reflektieren. Hierfür wurde betrachtet, zu welchen Anteilen die Experimentierphasen in den Reflexionen adressiert werden. Um weiterhin herauszufinden, mit welcher Qualität die Experimentplanung reflektiert wird und inwiefern sich Vorstrukturierung für die Planungsphase zeigt, wurde diese differenzierter betrachtet. Auf Basis empirischer Vorarbeiten wurde vermutet, dass Fragenentwicklung, Hypothesenbildung und Experimentplanung seltener thematisiert werden als die anderen Teilkompetenzen und dass die Planungsphase hauptsächlich stark vorstrukturierte Elemente enthält, statt den Lernenden Freiräume für selbstständige Planungen zu lassen.
Zur Untersuchung der Fragestellung wurden Kodiermanuale zur Erfassung experimentierbezogener Kompetenzen in schriftlichen Reflexionen entwickelt und validiert. Analysiert wurden 40 Reflexionstexte von 14 Studierenden des Physik-Lehramts im Praxissemester an der Universität Potsdam. Als Untersuchungsmethode wurde die qualitative Inhaltsanalyse genutzt. Die Texte wurden bezüglich der Umsetzung eines Reflexionsmodells und auf das Vorkommen der Teilkompetenzen des Experimentierzyklus untersucht.
Die Ergebnisse bestätigten das geringe Vorkommen der Fragenentwicklung und Hypothesenbildung sowie die tendenziell geschlossenen Planungsinhalte. Zudem konnte festgestellt werden, dass die Planungsphase eher oberflächlich reflektiert und vor allem Arbeitsaufträge wiedergegeben wurden. Allgemein zeigten sich hauptsächlich beschreibende Tendenzen in den Reflexionen und eher wenige Alternativen und Konsequenzen. Aus den Ergebnissen werden Implikationen für die Lehrkräftebildung im Fach Physik abgeleitet. Um die Reflexionskompetenz der angehenden Lehrkräfte zu fördern, sind Hilfestellungen während des Reflexionsprozesses und eine inhaltliche Rückmeldung notwendig. Des Weiteren sollten die angehenden Lehrkräfte für eine ausgewogenere Förderung der Teilkompetenzen in ihrem Unterricht sensibilisiert werden.
Medientechnisches Wissen
(2020)
Das mehrbändige Lehrbuch vermittelt Studierenden und Medienwissenschaftlern eine Einführung aus den Naturwissenschaften, Ingenieurwissenschaften und Technik-Disziplinen. Dabei steht im Zentrum, die Lesekompetenz für die jeweilige Disziplin zu etablieren und zu verbessern, damit innerhalb medien- und kulturwissenschaftlicher Studienprogramme Fachtexte der einzelnen Disziplinen diskutiert werden können
In der vorliegenden Arbeit wird untersucht, in wie weit physikalische Experimente ein flow-Erleben bei Lernenden hervorrufen. Flow-Erleben wird als Motivationsursache gesehen und soll den Weg zu Freude und Glück darstellen. Insbesondere wegen dem oft zitierten Fachkräftemangel in naturwissenschaftlichen und technischen Berufen ist eine Motivationssteigerung in naturwissenschaftlichen Unterrichtsfächern wichtig. Denn trotz Leistungssteigerungen in internationalen Vergleichstests möchten in Deutschland deutlich weniger Schüler*innen einen solchen Beruf ergreifen als in anderen Industriestaaten. Daher gilt es, möglichst früh Schüler*innen für naturwissenschaftlich-technische Fächer zu begeistern und insbesondere im regelrecht verhassten Physikunterricht flow-Erleben zu erzeugen.
Im Rahmen dieser Arbeit wird das flow-Erleben von Studierenden in klassischen Laborexperimenten und FELS (Forschend-Entdeckendes Lernen mit dem Smartphone) als Lernumgebung untersucht. FELS ist eine an die Lebenswelt der Schüler*innen angepasste Lernumgebung, in der sie mit Smartphones ihre eigene Lebenswelt experimentell untersuchen.
Es zeigt sich, dass sowohl klassische Laborexperimente als auch in der Lebenswelt durchgeführte, smartphonebasierte Experimente flow-Erleben erzeugen. Allerdings verursachen die smartphonebasierten Experimente kaum Stressgefühle.
Die in dieser Arbeit herausgefundenen Ergebnisse liefern einen ersten Ansatz, der durch Folgestudien erweitert werden sollte.
In dieser Arbeit wurden Nano-Elektroden-Arrays zur Einzel-Objekt-Immobilisierung mittels Dielektrophorese verwendet. Hierbei wurden fluoreszenzmarkierte Nano-Sphären als Modellsystem untersucht und die gewonnenen Ergebnisse auf biologische Proben übertragen. Die Untersuchungen in Kombination mit verschiedenen Elektrodenlayouts führten zu einer deterministischen Vereinzelung der Nano-Sphären ab einem festen Größenverhältnis zwischen Nano-Sphäre und Durchmesser der Elektrodenspitzen. An den Proteinen BSA und R-PE konnte eine dielektrophoretische Immobilisierung ebenfalls demonstriert und R-PE Moleküle zur Vereinzelung gebracht werden. Hierfür war neben einem optimierten Elektrodenlayout, das durch Feldsimulationen den Feldgradienten betreffend gesucht wurde, eine Optimierung der Feldparameter, insbesondere von Spannung und Frequenz, erforderlich.
Neben der Dielektrophorese erfolgten auch Beobachtungen anderer Effekte des elektrischen Feldes, wie z.B. Elektrolyse an Nano-Elektroden und Strömungen über dem Elektroden-Array, hervorgerufen durch Joulesche Wärme und AC-elektroosmotischen Fluss. Zudem konnte Dielektrophorese an Silberpartikeln beobachtet werden und mittels Fluoreszenz-, Atom-Kraft-, Raster-Elektronen-Mikroskopie und energiedispersiver Röntgenspektroskopie untersucht werden. Schließlich wurden die verwendeten Objektive und Kameras auf ihre Lichtempfindlichkeit hin analysiert, so dass die Vereinzelung von Biomolekülen an Nano-Elektroden nachweisbar war.
Festzuhalten bleibt also, dass die Vereinzelung von Nano-Objekten und Biomolekülen an Nano-Elektroden-Arrays gelungen ist. Durch den parallelen Ansatz erlaubt dies, Aussagen über das Verhalten von Einzelmolekülen mit guter Statistik zu treffen.
Angehende Physiklehrkräfte sollen im Rahmen ihres Studiums fachliches und fachdidaktisches Wissen erwerben, welches die Gestaltung lernförderlichen Unterrichts ermöglicht. Es ist allerdings empirisch nur wenig geklärt, wie sich dieses Wissen im Laufe des Studiums entwickelt und ob es zur Ausbildung von Handlungsfähigkeiten beiträgt. Um derartige Wirkungsaussagen treffen zu können, müssen Instrumente entwickelt werden, die eine valide Testwertinterpretation zulassen. In diesem Beitrag werden auf Basis von im Projekt Profile-P+ entwickelten Instrumenten Validitätsanalysen zur längsschnittlichen Entwicklung des Professionswissens von Physiklehramtsstudierenden im Verlauf des Bachelorstudiums und ihrer Fähigkeiten zur Planung und Reflexion von Physikunterricht sowie zum Erklären von physikalischen Sachverhalten vor und nach dem Praxissemester dargestellt. Neben Wissenstests kamen standardisierte Performanztests zum Einsatz. Die vorliegenden Ergebnisse sprechen dafür, dass die erhobenen Messwerte im Sinne von Wirkungsaussagen interpretiert werden können.
Kosmologie beschreibt die Entwicklung des Universums als Ganzes. Kosmologische Entdeckungen in Theorie und Praxis haben daher unser modernes wissenschaftliches Weltbild entscheidend geprägt. Die Vermittlung eines modernen Weltbildes durch Unterricht ist ein häufiger Wunsch in der naturwissenschaftlichen Bildungsdiskussion. Dennoch existieren weiterhin Forschungs- und Entwicklungsbedarfe. Kosmologische Themen finden sich häufig in den Medien und sind gleichzeitig weiter vom Alltag entfernt, so dass sich hier besonders leicht wissenschaftlich inkorrekte Vorstellungen entwickeln können, die zu Problemen im Unterricht führen können.
Das Ziel dieser wissenschaftlichen Arbeit ist es, zu diesem Forschungsgebiet beizutragen und die Voraussetzungen hinsichtlich vorhandener Vorkenntnisse und Präkonzepte in Kosmologie, mit denen Schülerinnen und Schüler in den Unterricht kommen, zu untersuchen und anschließend mit denen anderer Länder zu vergleichen. Dies erfolgt anhand einer qualitativen Inhaltsanalyse eines offenen Fragebogens. Auf dieser Grundlage wird schließlich ein Multiple-Choice Fragebogen entwickelt, angewendet und evaluiert.
Die Ergebnisse zeigen große Wissenslücken im Bereich der Kosmologie auf und geben erste Hinweise auf vorhandene Unterschiede zwischen den Ländern. Es existieren ebenfalls einige teils weit verbreitete wissenschaftlich inkorrekte Vorstellungen wie beispielsweise die Assoziation des Urknalls mit einer Explosion, der Urknall verursacht durch eine Kollision von Teilchen oder größeren Objekten, oder die Vorstellung der Ausdehnung des Universums als neue Entdeckungen und/oder Wissen. Des Weiteren gab nur etwa jeder Fünfte das korrekte Alter des Universums oder die Ausdehnung des Universums als einen der drei Belege der Urknalltheorie an, während fast 40% keinen einzigen Beleg nennen konnten. Für den geschlossenen Fragebogen konnten gute Hinweise für verschiedene Validitätsaspekte herausgearbeitet werden und es existieren erste Hinweise darauf, dass der Fragebogen Wissenszuwachs messen kann und damit wahrscheinlich zur Untersuchung der Wirksamkeit von Lerneinheiten eingesetzt werden kann. Auch ein entsprechendes Modell zur Verständnisentwicklung der Ausdehnung des Universums zeigte sich vielversprechend.
Diese Arbeit liefert insgesamt einen Forschungsbeitrag zum Schülervorwissen und Vorstellungen in der Kosmologie und deren Large Scale Assessment. Dies eröffnet die Möglichkeit zukünftiger Forschungen im Bereich von Gruppenvergleichen insbesondere hinsichtlich objektiver Ländervergleiche sowie der Untersuchungen der Wirksamkeit von einzelnen Lerneinheiten als auch Vergleiche verschiedener Lerneinheiten untereinander.
Carbonfasern haben sich in der Luft- und Raumfahrt etabliert und gewinnen in Alltagsanwendungen wie dem Automobilbereich, Windkraft- und Sportbereich durch ihre hohen Zugfestigkeiten, insbesondere ihrer hohen E-Moduli, und ihrer geringen Dichte immer mehr an Bedeutung. Auf Grund ihrer hohen Kosten, welche sich zur Hälfte aus der Precursorherstellung, inklusive seiner Synthese und seinem Verspinnprozess, dem Lösungsspinnverfahren, ergeben, erhalten zunehmend alternative und schmelzspinnbare Precursoren Interesse. Für die Carbonfaserherstellung wird fast ausschließlich Polyacrylnitril (PAN) verwendet, das vor dem Schmelzen irreversible exotherme Zyklisierungsreaktionen aufweist, welchen sich seine Zersetzung anschließt. Eine Möglichkeit der Reduzierung der Schmelztemperatur von Polymeren ist die Einbringung von Comonomeren zur Erhöhung des freien Volumens und die Reduzierung der intermolekularen Wechselwirkungen als interne Weichmacher. Wie am Fraunhofer IAP gezeigt wurde, kann mittels 2-Methoxyethylacrylat (MEA) die Schmelztemperatur zu neuartigen PAN-basierten Precursoren verringert werden. Um den PAN-co-MEA-Precursor für die nachfolgenden Prozessschritte der Carbonfaserherstellung zu verwenden, müssen die thermoplastischen Fasern in thermisch stabile Fasern ohne thermoplastisches Verhalten überführt werden. Es wurde ein neuer Prozessschritt (Prästabilisierung) eingeführt, welcher unter alkalischen Bedingungen zur Abspaltung der Comonomerseitenkette führt. Neben der Esterhydrolyse finden Reaktionen statt, welche an diesem Material noch nicht hinreichend untersucht wurden. Weiterhin stellt sich die Frage nach der Kinetik der Prästabilisierung und der Ermittlung einer geeigneten Prozessführung.
Hierzu wurde die Prästabilisierung in den Labormaßstab überführt und die möglichen Zusammensetzungen des aus DMSO und einer KOH-Lösung bestehenden Reaktionsmediums evaluiert. Weiterhin wurde die Behandlung bei verschiedenen Prästabilisierungszeiten von maximal 30 min und Temperaturen von 40, 50 und 60 °C durchgeführt, um primär mittels NMR-Spektroskopie die chemischen Strukturänderungen aufzuklären. Die Esterhydrolyse des Comonomers, welche zur Abspaltung des 2-Methoxyethanols führt, wurde mittels 1H-NMR-spektroskopischer Untersuchungen detektiert.
Es wurde ein Modell aufgestellt, das die chemisch-physikalischen Strukturänderungen während der Prästabilisierung aufzeigt. Die zuerst ablaufende Reaktion ist die Esterhydrolyse am Comonomer, welche vom Faserrand nach innen verläuft und durch die Präsenz des DMSO in Kombination mit der KOH-Lösung (Superbase) initiiert wird. Der zeitliche Reaktionsverlauf der Esterhydrolyse kann in drei Bereiche eingeteilt werden. Der erste Bereich ab dem Prästabilisierungsbeginn wird durch die Diffusion der basischen Anionen in die Faser, der zweite Bereich durch die Reaktion an der Estergruppe des Comonomers und der dritte Bereich durch letzte Reaktionen im Faserinneren und diffusiven Prozessen der Produkte und Edukte charakterisiert. Der zweite Bereich kann mit einer Reaktion pseudo 1. Ordnung abgebildet werden, da in diesem Bereich bereits eine ausreichende Diffusion der Edukte in die Faser stattgefunden hat. Bei 50 °C spielt die Diffusion im ersten Bereich im Vergleich zur Reaktion eine untergeordnete Rolle. Mit Erhöhung der Temperatur auf 60 °C kann eine im Verhältnis geringere Diffusions- als Reaktionsgeschwindigkeit beobachtet werden. Die Nebenreaktionen wurden mittels 13C-CP/MAS-NMR-spektroskopischen, elementaranlaytischen Untersuchungen sowie Doppelbrechungsmessungen charakterisiert. Während der alkalischen Esterhydrolyse beginnt die Reduzierung der Nitrilgruppen unter der Bildung von primären Carbonsäureamiden und Carbonsäuren. Zur Beschreibung dieser Umsetzung wurde eine Methode entwickelt, welche die Addition von 13C-CP/MAS-NMR-Spektren der Modellsubstanzen PAN, PAM und PAA beinhaltet. Weitere stattfindende Reaktionen sind die Bildung von konjugierten Doppelbindungen, welche insbesondere auf eine Zyklisierung der Nitrile hinweisen. Die nasschemisch initiierte Zyklisierung der Nitrilgruppen kann zu kürzeren Stabilisierungszeiten und einem besser kontrollierbaren Stabilisierungsprozess durch geringere Wärmefreisetzung und schlussendlich zu einer Kostenersparnis des gesamten Verfahrens führen. Die Umsetzung der Nitrilgruppen konnte mit einer Reaktion pseudo 1. Ordnung gut abgebildet werden. DMSO initiiert die Esterhydrolyse, wobei die KOH-Konzentration einen höheren Einfluss auf die Reaktionsgeschwindigkeit der Ester- und Nitrilhydrolyse als die DMSO-Konzentration besitzt. Beide Reaktionen zeigen eine vergleichbare Abhängigkeit von der Temperatur. Die Erhöhung der Prästabilisierungszeit und der KOH- bzw. DMSO-Konzentration führt zur Migration niedermolekularer Bestandteile des Fasermaterials an die Oberfläche und der Bildung punktueller Ablagerungen bis hin zu miteinander verbundenen Einzelfasern. Eine weitere Erhöhung der Prästabilisierungszeit bzw. der Konzentration führt zu einem steigenden Carbonsäureanteil und zur Quellung des Fasermaterials, wodurch die Ablagerungen in das Reaktionsmedium diffundieren. Die Ablagerungen enthalten Chlor, welches durch den Waschvorgang mit HCl in das Materialsystem gelangt ist und durch Parameteranpassungen reduziert wurde. Die schmelzbaren Fasern konnten durch die Prästabilisierung erfolgreich über eine Kern-Mantel-Struktur in nicht-thermoplastische Fasern überführt werden.
Zur Ermittlung eines geeigneten Prozessfensters für nachfolgende thermische Beanspruchungen der prästabilisierten Fasern wurden drei Kriterien identifiziert, anhand welcher die Evaluation erfolgte. Das erste Kriterium beinhaltet die Notwendigkeit der vollständigen Aufhebung der thermoplastischen Eigenschaft der Fasern. Als zweites Kriterium diente die Fasermorphologie. Anhand von REM-Aufnahmen wurden Faserbündel mit separierten Einzelfasern ohne Ablagerungen für die nachfolgende Stabilisierung ausgewählt. Das dritte Kriterium bezieht sich auf eine möglichst geringe Umsetzung der Nitrilgruppen, um Prästabilisierungsbedingungen mit Nebenreaktionen zu vermeiden.
Aus den Untersuchungen konnte eine Prästabilisierungstemperatur von 60 °C als geeignet identifiziert werden. Weiterhin führen hoch alkalische Zusammensetzungen des Reaktionsmediums mit KOH-Konzentrationen von 1, 1,5 und 2 M, vorzugsweise 1,5 M und 50 vol% DMSO mit Reaktionszeiten von unter 10 min zu geeigneten Fasern. Ein MEA-Anteil unterhalb von 2 mol% bewirkt eine Überführung in die Unschmelzbarkeit. Thermisch stabile und für die nachfolgende Stabilisierung geeignete Fasern besitzen weiterhin 68 – 80 mol% Nitrilgruppen, 20 – 25 mol% Carbonsäuren, bis zu 15 mol% primäre Carbonsäureamide und zyklisierte Strukturen.
Shaping via binding
(2018)
Die Klangeigenschaften von Musikinstrumenten werden durch das Zusammenwirken der auf ihnen anregbaren akustischen Schwingungsmoden bestimmt, welche sich wiederum aus der geometrischen Struktur des Resonators in Kombination mit den verwendeten Materialien ergeben. In dieser Arbeit wurde das Schwingungsverhalten von Streichinstrumenten durch den Einsatz minimal-invasiver piezoelektrischer Polymerfilmsensoren untersucht. Die studierten Kopplungsphänomene umfassen den sogenannten Wolfton und Schwingungstilger, die zu dessen Abschwächung verwendet werden, sowie die gegenseitige Beeinflussung von Bogen und Instrument beim Spielvorgang. An Dielektrischen Elastomeraktormembranen wurde dagegen der Einfluss der elastischen Eigenschaften des Membranmaterials auf das akustische und elektromechanische Schwingungsverhalten gezeigt. Die Dissertation gliedert sich in drei Teile, deren wesentliche Ergebnisse im Folgenden zusammengefasst werden.
In Teil I wurde die Funktionsweise eines abstimmbaren Schwingungstilgers zur Dämpfung von Wolftönen auf Streichinstrumenten untersucht. Durch Abstimmung der Resonanzfrequenz des Schwingungstilgers auf die Wolftonfrequenz kann ein Teil der Saitenschwingungen absorbiert werden, so dass die zu starke Anregung der Korpusresonanz vermieden wird, die den Wolfton verursacht. Der Schwingungstilger besteht aus einem „Wolftöter“, einem Massestück, welches auf der Nachlänge der betroffenen Saite (zwischen Steg und Saitenhalter) installiert wird. Hier wurde gezeigt, wie die Resonanzen dieses Schwingungstilgers von der Masse des Wolftöters und von dessen Position auf der Nachlänge abhängen. Aber auch die Geometrie des Wolftöters stellte sich als ausschlaggebend heraus, insbesondere bei einem nicht-rotationssymmetrischen Wolftöter: In diesem Fall entsteht – basierend auf den zu erwartenden nicht-harmonischen Moden einer massebelasteten Saite – eine zusätzliche Mode, die von der Polarisationsrichtung der Saitenschwingung abhängt.
Teil II der Dissertation befasst sich mit Elastomermembranen, die als Basis von Dielektrischen Elastomeraktoren dienen, und die wegen der Membranspannung auch akustische Resonanzen aufweisen. Die Ansprache von Elastomeraktoren hängt unter anderem von der Geschwindigkeit der elektrischen Anregung ab. Die damit zusammenhängenden viskoelastischen Eigenschaften der hier verwendeten Elastomere, Silikon und Acrylat, wurden einerseits in einer frequenzabhängigen dynamisch-mechanischen Analyse des Elastomers erfasst, andererseits auch optisch an vollständigen Aktoren selbst gemessen. Die höhere Viskosität des Acrylats, das bei tieferen Frequenzen höhere Aktuationsdehnungen als das Silikon zeigt, führt zu einer Verminderung der Dehnungen bei höheren Frequenzen, so dass über etwa 40 Hertz mit Silikon größere Aktuationsdehnungen erreicht werden. Mit den untersuchten Aktoren konnte die Gitterkonstante weicher optischer Beugungsgitter kontrolliert werden, die als zusätzlicher Film auf der Membran installiert wurden. Über eine Messung der akustischen Resonanzfrequenz von Elastomermebranen aus Acrylat in 1Abhängigkeit von ihrer Vorstreckung konnte in Verbindung mit einer Modellierung des hyperelastischen Verhaltens des Elastomers (Ogden-Modell) der Schermodul bestimmt werden.
Schließlich wird in Teil III die Untersuchung von Geigen und ihrer Streichanregung mit Hilfe minimal-invasiver piezoelektrischer Polymerfilme geschildert. Es konnten am Bogen und am Steg von Geigen – unter den beiden Füßen des Stegs – jeweils zwei Filmsensoren installiert werden. Mit den beiden Sensoren am Steg wurden Frequenzgänge von Geigen gemessen, welche eine Bestimmung der frequenzabhängigen Stegbewegung erlaubten. Diese Methode ermöglicht damit auch eine umfassende Charakterisierung der Signaturmoden in Bezug auf die Stegdynamik. Die Ergebnisse der komplementären Methoden von Impulsanregung und natürlichem Spielen der Geigen konnten dank der Sensoren verglichen werden. Für die Nutzung der Sensoren am Bogen – insbesondere für eine Messung des Bogendrucks – wurde eine Kalibrierung des Bogen-Sensor-Systems mit Hilfe einer Materialprüfmaschine durchgeführt. Bei einer Messung während des natürlichen Spielens wurde mit den Sensoren am Bogen einerseits die Übertragung der Saitenschwingung auf den Bogen festgestellt. Dabei konnten außerdem longitudinale Bogenhaarresonanzen identifiziert werden, die von der Position der Saite auf dem Bogen abhängen. Aus der Analyse dieses Phänomens konnte die longitudinale Wellengeschwindigkeit der Bogenhaare bestimmt werden, die eine wichtige Größe für die Kopplung zwischen Saite und Bogen ist. Mit Hilfe des Systems aus Sensoren an Bogen und Steg werden auf Grundlage der vorliegenden Arbeit Studien an Streichinstrumenten vorgeschlagen, in denen die Bespielbarkeit der Instrumente zu den jeweils angeregten Steg- und Bogenschwingungen in Beziehung gesetzt werden kann. Damit könnte nicht zuletzt auch die bisher nicht vollständig geklärte Rolle des Bogens für Klang und Bespielbarkeit besser beurteilt werden
Die Arktis erwärmt sich schneller als der Rest der Erde. Die Auswirkungen manifestieren sich unter Anderem in einer verstärkten Erwärmung der arktischen Grenzschicht. Diese Arbeit befasst sich mit Wechselwirkungen zwischen synoptischen Zyklonen und der arktischen Atmosphäre auf lokalen bis überregionalen Skalen. Ausgangspunkt dafür sind Messdaten und Modellsimulationen für den Zeitraum der N-ICE2015 Expedition, die von Anfang Januar bis Ende Juni 2015 im arktischen Nordatlantiksektor stattgefunden hat.
Anhand von Radiosondenmessungen lassen sich Auswirkungen von synoptischen Zyklonen am deutlichsten im Winter erkennen, da sie durch die Advektion warmer und feuchter Luftmassen in die Arktis den Zustand der Atmosphäre von einem strahlungs-klaren in einen strahlungs-opaken ändern. Obwohl dieser scharfe Kontrast nur im Winter existiert, zeigt die Analyse, dass der integrierte Wasserdampf als Indikator für die Advektion von Luftmassen aus niedrigen Breiten in die Arktis auch im Frühjahr geeignet ist. Neben der Advektion von Luftmassen wird der Einfluss der Zyklonen auf die statische Stabilität charakterisiert. Beim Vergleich der N-ICE2015 Beobachtungen mit der SHEBA Kampagne (1997/1998), die über dickerem Eis stattfand, finden sich trotz der unterschiedlichen Meereisregime Ähnlichkeiten in der statischen Stabilität der Atmosphäre. Die beobachteten Differenzen in der Stabilität lassen sich auf Unterschiede in der synoptischen Aktivität zurückführen. Dies lässt vermuten, dass die dünnere Eisdecke auf saisonalen Zeitskalen nur einen geringen Einfluss auf die thermodynamische Struktur der arktischen Troposphäre besitzt, solange eine dicke Schneeschicht sie bedeckt. Ein weiterer Vergleich mit den parallel zur N-ICE2015 Kampagne gestarteten Radiosonden der AWIPEV Station in Ny-Åesund, Spitzbergen, macht deutlich, dass die synoptischen Zyklonen oberhalb der Orographie auf saisonalen Zeitskalen das Wettergeschehen bestimmen.
Des Weiteren werden für Februar 2015 die Auswirkungen von in der Vertikalen variiertem Nudging auf die Entwicklung der Zyklonen am Beispiel des hydrostatischen regionalen Klimamodells HIRHAM5 untersucht. Es zeigt sich, dass die Unterschiede zwischen den acht Modellsimulationen mit abnehmender Anzahl der genudgten Level zunehmen. Die größten Differenzen resultieren vornehmlich aus dem zeitlichen Versatz der Entwicklung synoptischer Zyklonen. Zur Korrektur des Zeitversatzes der Zykloneninitiierung genügt es bereits, Nudging in den unterstem 250 m der Troposphäre anzuwenden. Daneben findet sich zwischen den genudgten HIRHAM5-Simulation und den in situ Messungen der gleiche positive Temperaturbias, den auch ERA-Interim besitzt. Das freie HIRHAM hingegen reproduziert das positive Ende der N-ICE2015 Temperaturverteilung gut, besitzt aber einen starken negativen Bias, der sehr wahrscheinlich aus einer Unterschätzung des Feuchtegehalts resultiert. An Beispiel einer Zyklone wird gezeigt, dass Nudging Einfluss auf die Lage der Höhentiefs besitzt, die ihrerseits die Zyklonenentwicklung am Boden beeinflussen. Im Weiteren wird mittels eines für kleine Ensemblegrößen geeigneten Varianzmaßes eine statistische Einschätzung der Wirkung des Nudgings auf die Vertikale getroffen. Es wird festgestellt, dass die Ähnlichkeit der Modellsimulationen in der unteren Troposphäre generell höher ist als darüber und in 500 hPa ein lokales Minimum besitzt.
Im letzten Teil der Analyse wird die Wechselwirkung der oberen und unteren Stratosphäre anhand zuvor betrachteter Zyklonen mit Daten der ERA-Interim Reanalyse untersucht. Lage und Ausrichtung des Polarwirbels erzeugten ab Anfang Februar 2015 eine ungewöhnlich große Meridionalkomponente des Tropopausenjets, die Zugbahnen in die zentrale Arktis begünstigte. Am Beispiel einer Zyklone wird die Übereinstimmung der synoptischen Entwicklung mit den theoretischen Annahmen über den abwärts gerichteten Einfluss der Stratosphäre auf die Troposphäre hervorgehoben. Dabei spielt die nicht-lineare Wechselwirkung zwischen der Orographie Grönlands, einer Intrusion stratosphärischer Luft in die Troposphäre sowie einer in Richtung Arktis propagierender Rossby-Welle eine tragende Rolle. Als Indikator dieser Wechselwirkung werden horizontale Signaturen aus abwechselnd aufsteigender und absinkender Luft innerhalb der Troposphäre identifiziert.
Die Femtosekundendynamik nach resonanten Photoanregungen mit optischen und Röntgenpulsen ermöglicht eine selektive Verformung von chemischen N‐H‐ und N‐C‐Bindungen in 2‐Thiopyridon in wässriger Lösung. Die Untersuchung der orbitalspezifischen elektronischen Struktur und ihrer Dynamik auf ultrakurzen Zeitskalen mit resonanter inelastischer Röntgenstreuung an der N1s‐Resonanz am Synchrotron und dem Freie‐Elektronen‐Laser LCLS in Kombination mit quantenchemischen Multikonfigurationsberechnungen erbringen den direkten Nachweis dieser kontrollierten photoinduzierten Molekülverformungen und ihrer ultrakurzen Zeitskala.
Im Rahmen der vorliegenden Studie wurde untersucht, ob das pädagogisch-psychologische Wissen von Lehrkräften die prozessuale Qualität des Physikunterrichts mit Blick auf die Klassenführung und den Lernzuwachs der Schülerinnen und Schüler beeinflusst. Das pädagogisch-psychologische Professionswissen, konzeptualisiert als ein fächerübergreifendes, handlungsleitendes Wissen über Strategien und Mittel zur Unterrichtsgestaltung, wurde über einen Paper-Pencil-Test, bestehend aus einer Skala zum deklarativen und einer Skala zum konditional-prozeduralen Wissen erhoben (Lenske et al. 2015). Als ein grundlegendes Merkmal prozessualer Unterrichtsqualität wurde die Klassenführung anhand von Videoratings zu zwei Messzeitpunkten (zwei Unterrichtsstunden) erfasst. Der Lernzuwachs der Schülerinnen und Schüler wurde über standardisierte Fachwissenstests im Prä-Post-Testdesign gemessen. Die Stichprobe umfasst 34 Gymnasiallehrkräfte und deren Schülerinnen und Schüler (N = 993). Auf Basis eines Complex-Bootstrap-Mediations-Modells zeigte sich, dass das pädagogisch-psychologische Professionswissen über die Klassenführung vermittelt den Lernzuwachs der Schüler und Schülerinnen positiv beeinflusst.
In the present study it was investigated whether the pedagogical knowledge of teachers has an influence on the process quality of physics instruction and on the learning achievement of students as well. Pedagogical knowledge, conceptualized as knowledge about strategies in classroom instruction that is domain-general and relevant for teaching behaviors, was measured using a paper-and-pencil test with two scales: one scale on declarative knowledge, the other on conditional-procedural knowledge (Lenske et al. 2015). As a basic aspect of the process quality of classroom instruction, classroom management was assessed using video ratings of two lessons from each participating teacher. Students’ learning achievement was assessed using standardized domain-specific knowledge tests in a pretest-posttest design. The sample included 34 teachers from higher-track secondary schools and their students (N = 993). A complex bootstrapping mediation model shows that teachers’ pedagogical knowledge, mediated by their classroom management, has a positive effect on their students’ learning achievement.
In der vorliegenden Arbeit wird die planetare Grenzschicht in Ny-Ålesund, Spitzbergen, sowohl bezüglich kleinskaliger („mikrometeorologischer“) Effekte als auch in ihrer Kopplung mit der Synoptik untersucht. Dazu werden verschiedene Beobachtungsdaten aus der Säule und in Bodennähe zusammengezogen und bewertet. Die so gewonnenen Datensätze werden dann zur Validierung eines nicht-hydrostatischen, regionalen Klimamodells genutzt. Weiterhin werden orographisch bedingte Einflüsse, die Untergrundbeschaffenheit und die lokale Heterogenität der Unterlage untersucht. Hierzu werden meteorologische Größen, wie die Variabilität der Temperatur und insbesondere die jährliche Windverteilung in Bodennähe untersucht und es erfolgt ein Vergleich von in-situ gemessenen turbulenten Flüssen von den Eddy-Kovarianz-Messkomplexen bei Ny-Ålesund und im Bayelva-Tal unter demselben Aspekt. Es zeigt sich, dass der Eddy-Kovarianz-Messkomplex im Bayelva-Tal sehr stark durch eine orographisch bedingte Kanalisierung der Strömung beeinflusst ist und sich nicht für Vergleiche mit regionalen Klimamodellen mit horizontalen Auflösungen von <1km eignet. Die hohe Bodenfeuchte im Bayelva-Tal führt zudem zu einem deutlich kleineren Bowen-Verhältnis, als es für diese Region zu erwarten ist. Der Eddy-Kovarianz-Messkomplex bei Ny-Ålesund erweist sich hingegen als geeigneter für solche Modellvergleiche, aufgrund der typischen, küstennahen Windverteilung und des repräsentativen Footprints. Letzteres wird durch die Bestimmung der Footprint-Klimatologie des Jahres 2013 mit einem aktuellen Footprint-Modell erarbeitet.
Weiterhin wird die Auswirkung von (Anti-) Zyklonen über den Archipel auf die zeitliche Variabilität der lokalen Grenzschichteigenschaften untersucht und bewertet. Dazu wird ein Zyklonen-Detektions-Algorithmus auf ERA-Interim-Reanalysedatensätze angewendet, wodurch die Häufigkeit von nahezu ideal konzentrischen Hoch- und die Tiefdruckgebieten für drei Jahre bestimmt wird. Aus dieser Verteilung werden insgesamt drei interessante Zeiträume zu verschiedenen Jahreszeiten ausgewählt und im Rahmen von Prozessstudien die lokalen bodennahen meteorologischen Messungen, der turbulente Austausch an der Oberfläche und die Grenzschichtdynamik in der Säule untersucht. Die zeitliche Variabilität der dynamischen Grenzschichtstabilität in der Säule wird anhand von zeitlich hoch aufgelösten vertikalen Profilen der Bulk-Richardson-Zahl aus Kompositprofilen aus Fernerkundungsinstrumenten (Radiometer, Wind-LIDAR) sowie Mastdaten (BSRN-Mast) untersucht und die Grenzschichthöhe ermittelt. Aus diesen Analysen ergibt sich eine deutliche Abhängigkeit der thermischen Stabilität beim Durchzug von Fronten, eine damit einhergehende erhebliche Abhängigkeit der Grenzschichtdynamik und der Grenzschichthöhe sowie des turbulenten Austauschs von der zeitlichen Variabilität der Windgeschwindigkeit in der Säule.
Auf Grundlage der Standortanalysen und Prozessstudien erfolgt ein Vergleich der bodennahen Messungen und den Beobachtungen aus der Säule, sowohl von den genannten Fernerkundungsinstrumenten als auch von In-situ-Messungen (Radiosonden) für den Zeitraum einer Radiosondierungskampagne mit dem nicht-hydrostatischen, regionalen Klimamodel WRF (ARW). Auf Grundlage der Fragestellung, inwieweit aktuelle Schemata die Grenzschichtcharakteristika in orographisch stark gegliedertem Gelände in der Arktis reproduzieren können, werden zwei Grenzschichtparametrisierungsschemata mit verschiedenen Ordnungen der Schließung validiert. Hierzu wird die zeitliche Variabilität der Temperatur, der Feuchte und des Windfeldes in der Säule bis 2000m in den Simulationen mit den Beobachtungsdaten vergleichen. Es wird gezeigt, dass durch Modifikation der Initialwertfelder eine sehr gute Übereinstimmung zwischen den Simulationen und den Beobachtungen bereits bei einer horizontalen Auflösung von 1km erreicht werden kann und die Wahl des Grenzschichtschemas nur untergeordneten Einfluss hat. Hieraus werden Ansätze der Weiterentwicklung der Parametrisierungen, aber auch Empfehlungen bezüglich der Initialwertfelder, wie der Landmaske und der Orographie, vorgeschlagen.
In this contribution we present innovative methods for broadband and resonance-free sensing and emitting of ultrasound. The sensing method uses a polyethylene foil and a laser vibrometer as a broadband and resonance-free sound receiver. In general, this method enables absolute measurement of sound particle velocity and sound pressure in arbitrary, laser beam transparent liquids and gases with known density and sound velocity. The resonance-free emitting method is based on the electro-thermo-acoustic principle and enables, contrary to conventional ultrasound transducers, generation of arbitrary shaped acoustic signals without resonances and post-oscillations.
For improving teacher education, there has been an increasing interest in describing teachers' professional competencies and their development in the course of implementing educational programs. The focus of the present project is on modeling and measuring domain-specific and generic competencies that future physics teachers acquire during their university studies. The model comprises characteristics and relationships between physics content knowledge, pedagogical content knowledge, and skills for explaining physics phenomena. Based on the model, assessment instruments were developed and applied as paper-and-pencil-tests and videotaped expert-novice dialogues for measuring the competencies in a large sample of physics student teachers. Trials and validation suggest that our instruments are valid in terms of content and construct validities.
Unstetige Galerkin-Diskretisierung niedriger Ordnung in einem atmosphärischen Multiskalenmodell
(2014)
Die Dynamik der Atmosphäre der Erde umfasst einen Bereich von mikrophysikalischer Turbulenz über konvektive Prozesse und Wolkenbildung bis zu planetaren Wellenmustern. Für Wettervorhersage und zur Betrachtung des Klimas über Jahrzehnte und Jahrhunderte ist diese Gegenstand der Modellierung mit numerischen Verfahren. Mit voranschreitender Entwicklung der Rechentechnik sind Neuentwicklungen der dynamischen Kerne von Klimamodellen, die mit der feiner werdenden Auflösung auch entsprechende Prozesse auflösen können, notwendig. Der dynamische Kern eines Modells besteht in der Umsetzung (Diskretisierung) der grundlegenden dynamischen Gleichungen für die Entwicklung von Masse, Energie und Impuls, so dass sie mit Computern numerisch gelöst werden können. Die vorliegende Arbeit untersucht die Eignung eines unstetigen Galerkin-Verfahrens niedriger Ordnung für atmosphärische Anwendungen. Diese Eignung für Gleichungen mit Wirkungen von externen Kräften wie Erdanziehungskraft und Corioliskraft ist aus der Theorie nicht selbstverständlich. Es werden nötige Anpassungen beschrieben, die das Verfahren stabilisieren, ohne sogenannte „slope limiter” einzusetzen. Für das unmodifizierte Verfahren wird belegt, dass es nicht geeignet ist, atmosphärische Gleichgewichte stabil darzustellen. Das entwickelte stabilisierte Modell reproduziert eine Reihe von Standard-Testfällen der atmosphärischen Dynamik mit Euler- und Flachwassergleichungen in einem weiten Bereich von räumlichen und zeitlichen Skalen. Die Lösung der thermischen Windgleichung entlang der mit den Isobaren identischen charakteristischen Kurven liefert atmosphärische Gleichgewichtszustände mit durch vorgegebenem Grundstrom einstellbarer Neigung zu(barotropen und baroklinen)Instabilitäten, die für die Entwicklung von Zyklonen wesentlich sind. Im Gegensatz zu früheren Arbeiten sind diese Zustände direkt im z-System(Höhe in Metern)definiert und müssen nicht aus Druckkoordinaten übertragen werden.Mit diesen Zuständen, sowohl als Referenzzustand, von dem lediglich die Abweichungen numerisch betrachtet werden, und insbesondere auch als Startzustand, der einer kleinen Störung unterliegt, werden verschiedene Studien der Simulation von barotroper und barokliner Instabilität durchgeführt. Hervorzuheben ist dabei die durch die Formulierung von Grundströmen mit einstellbarer Baroklinität ermöglichte simulationsgestützte Studie des Grades der baroklinen Instabilität verschiedener Wellenlängen in Abhängigkeit von statischer Stabilität und vertikalem Windgradient als Entsprechung zu Stabilitätskarten aus theoretischen Betrachtungen in der Literatur.
In dieser Arbeit werden nichtlineare Kopplungsmechanismen von akustischen Oszillatoren untersucht, die zu Synchronisation führen können. Aufbauend auf die Fragestellungen vorangegangener Arbeiten werden mit Hilfe theoretischer und experimenteller Studien sowie mit Hilfe numerischer Simulationen die Elemente der Tonentstehung in der Orgelpfeife und die Mechanismen der gegenseitigen Wechselwirkung von Orgelpfeifen identifiziert. Daraus wird erstmalig ein vollständig auf den aeroakustischen und fluiddynamischen Grundprinzipien basierendes nichtlinear gekoppeltes Modell selbst-erregter Oszillatoren für die Beschreibung des Verhaltens zweier wechselwirkender Orgelpfeifen entwickelt. Die durchgeführten Modellrechnungen werden mit den experimentellen Befunden verglichen. Es zeigt sich, dass die Tonentstehung und die Kopplungsmechanismen von Orgelpfeifen durch das entwickelte Oszillatormodell in weiten Teilen richtig beschrieben werden. Insbesondere kann damit die Ursache für den nichtlinearen Zusammenhang von Kopplungsstärke und Synchronisation des gekoppelten Zwei-Pfeifen Systems, welcher sich in einem nichtlinearen Verlauf der Arnoldzunge darstellt, geklärt werden. Mit den gewonnenen Erkenntnissen wird der Einfluss des Raumes auf die Tonentstehung bei Orgelpfeifen betrachtet. Dafür werden numerische Simulationen der Wechselwirkung einer Orgelpfeife mit verschiedenen Raumgeometrien, wie z. B. ebene, konvexe, konkave, und gezahnte Geometrien, exemplarisch untersucht. Auch der Einfluss von Schwellkästen auf die Tonentstehung und die Klangbildung der Orgelpfeife wird studiert. In weiteren, neuartigen Synchronisationsexperimenten mit identisch gestimmten Orgelpfeifen, sowie mit Mixturen wird die Synchronisation für verschiedene, horizontale und vertikale Pfeifenabstände in der Ebene der Schallabstrahlung, untersucht. Die dabei erstmalig beobachteten räumlich isotropen Unstetigkeiten im Schwingungsverhalten der gekoppelten Pfeifensysteme, deuten auf abstandsabhängige Wechsel zwischen gegen- und gleichphasigen Sychronisationsregimen hin. Abschließend wird die Möglichkeit dokumentiert, das Phänomen der Synchronisation zweier Orgelpfeifen durch numerische Simulationen, also der Behandlung der kompressiblen Navier-Stokes Gleichungen mit entsprechenden Rand- und Anfangsbedingungen, realitätsnah abzubilden. Auch dies stellt ein Novum dar.
Organische Halbleiter besitzen neue, bemerkenswerte Materialeigenschaften, die sie für die grundlegende Forschung wie auch aktuelle technologische Entwicklung (bsw. org. Leuchtdioden, org. Solarzellen) interessant werden lassen. Aufgrund der starken konformative Freiheit der konjugierten Polymerketten führt die Vielzahl der möglichen Anordnungen und die schwache intermolekulare Wechselwirkung für gewöhnlich zu geringer struktureller Ordnung im Festkörper. Die Morphologie hat gleichzeitig direkten Einfluss auf die elektronische Struktur der organischen Halbleiter, welches sich meistens in einer deutlichen Reduktion der Ladungsträgerbeweglichkeit gegenüber den anorganischen Verwandten zeigt. So stellt die Beweglichkeit der Ladungen im Halbleiter einen der limitierenden Faktoren für die Leistungsfähigkeit bzw. den Wirkungsgrad von funktionellen organischen Bauteilen dar. Im Jahr 2009 wurde ein neues auf Naphthalindiimid und Bithiophen basierendes Dornor/Akzeptor Copolymer vorgestellt [P(NDI2OD‑T2)], welches sich durch seine außergewöhnlich hohe Ladungsträgermobilität auszeichnet. In dieser Arbeit wird die Ladungsträgermobilität in P(NDI2OD‑T2) bestimmt, und der Transport durch eine geringe energetischer Unordnung charakterisiert. Obwohl dieses Material zunächst als amorph beschrieben wurde zeigt eine detaillierte Analyse der optischen Eigenschaften von P(NDI2OD‑T2), dass bereits in Lösung geordnete Vorstufen supramolekularer Strukturen (Aggregate) existieren. Quantenchemische Berechnungen belegen die beobachteten spektralen Änderungen. Mithilfe der NMR-Spektroskopie kann die Bildung der Aggregate unabhängig von optischer Spektroskopie bestätigt werden. Die Analytische Ultrazentrifugation an P(NDI2OD‑T2) Lösungen legt nahe, dass sich die Aggregation innerhalb der einzelnen Ketten unter Reduktion des hydrodynamischen Radius vollzieht. Die Ausbildung supramolekularen Strukturen nimmt auch eine signifikante Rolle bei der Filmbildung ein und verhindert gleichzeitig die Herstellung amorpher P(NDI2OD‑T2) Filme. Durch chemische Modifikation der P(NDI2OD‑T2)-Kette und verschiedener Prozessierungs-Methoden wurde eine Änderung des Kristallinitätsgrades und gleichzeitig der Orientierung der kristallinen Domänen erreicht und mittels Röntgenbeugung quantifiziert. In hochauflösenden Elektronenmikroskopie-Messungen werden die Netzebenen und deren Einbettung in die semikristallinen Strukturen direkt abgebildet. Aus der Kombination der verschiedenen Methoden erschließt sich ein Gesamtbild der Nah- und Fernordnung in P(NDI2OD‑T2). Über die Messung der Elektronenmobilität dieser Schichten wird die Anisotropie des Ladungstransports in den kristallographischen Raumrichtungen von P(NDI2OD‑T2) charakterisiert und die Bedeutung der intramolekularen Wechselwirkung für effizienten Ladungstransport herausgearbeitet. Gleichzeitig wird deutlich, wie die Verwendung von größeren und planaren funktionellen Gruppen zu höheren Ladungsträgermobilitäten führt, welche im Vergleich zu klassischen semikristallinen Polymeren weniger sensitiv auf die strukturelle Unordnung im Film sind.
Physik für alle
(2014)
In dieser Arbeit werden Konzepte für die Diagnostik der großskaligen Zirkulation in der Troposphäre und Stratosphäre entwickelt. Der Fokus liegt dabei auf dem Energiehaushalt, auf der Wellenausbreitung und auf der Interaktion der atmosphärischen Wellen mit dem Grundstrom. Die Konzepte werden hergeleitet, wobei eine neue Form des lokalen Eliassen-Palm-Flusses unter Einbeziehung der Feuchte eingeführt wird. Angewendet wird die Diagnostik dann auf den Reanalysedatensatz ERA-Interim und einen durch beobachtete Meerestemperatur- und Eisdaten angetriebenen Lauf des ECHAM6 Atmosphärenmodells. Die diagnostischen Werkzeuge zur Analyse der großskaligen Zirkulation sind einerseits nützlich, um das Verständnis der Dynamik des Klimasystems weiter zu fördern. Andererseits kann das gewonnene Verständnis des Zusammenhangs von Energiequellen und -senken sowie deren Verknüpfung mit synoptischen und planetaren Wellensystemen und dem resultierenden Antrieb des Grundstroms auch verwendet werden, um Klimamodelle auf die korrekte Wiedergabe dieser Beobachtungen zu prüfen. Hier zeigt sich, dass die Abweichungen im untersuchten ECHAM6-Modelllauf bezüglich des Energiehaushalts klein sind, jedoch teils starke Abweichungen bezüglich der Ausbreitung von atmosphärischen Wellen existieren. Planetare Wellen zeigen allgemein zu große Intensitäten in den Eliassen-Palm-Flüssen, während innerhalb der Strahlströme der oberen Troposphäre der Antrieb des Grundstroms durch synoptische Wellen verfälscht ist, da deren vertikale Ausbreitung gegenüber den Beobachtungen verschoben ist. Untersucht wird auch der Einfluss von arktischen Meereisänderungen ausgehend vom Bedeckungsminimum im August/September bis in den Winter. Es werden starke positive Temperaturanomalien festgestellt, welche an der Oberfläche am größten sind. Diese führen vor allem im Herbst zur Intensivierung von synoptischen Systemen in den arktischen Breiten, da die Stabilität der troposphärischen Schichtung verringert ist. Im darauffolgenden Winter stellen sich barotrope bis in die Stratosphäre reichende Änderungen der großskaligen Zirkulation ein, welche auf Meereisänderungen zurückzuführen sind. Der meridionale Druckgradient sinkt und führt so zu einem Muster ähnlich einer negativen Phase der arktischen Oszillation in der Troposphäre und einem geschwächten Polarwirbel in der Stratosphäre. Diese Zusammenhänge werden ebenfalls in einem ECHAM6-Modelllauf untersucht, wobei vor allem der Erwärmungstrend in der Arktis zu gering ist. Die großskaligen Veränderungen im Winter können zum Teil auch im Modelllauf festgestellt werden, jedoch zeigen sich insbesondere in der Stratosphäre Abweichungen für die Periode mit der geringsten Eisausdehnung. Die vertikale Ausbreitung planetarer Wellen von der Troposphäre in die Stratosphäre ist in ECHAM6 mit sehr großen Abweichungen wiedergegeben. Somit stellt die Wellenausbreitung insgesamt den größten in dieser Arbeit festgestellten Mangel in ECHAM6 dar.
Unter geeigneten Wachstumsbedingungen weisen Algenkulturen oft eine größere Produktivität der Zellen auf, als sie bei höheren Pflanzen zu beobachten ist. Chlamydomonas reinhardtii-Zellen sind vergleichsweise klein. So beträgt das Zellvolumen während des vegetativen Zellzyklus etwa 50–3500 µm³. Im Vergleich zu höheren Pflanzen ist in einer Algensuspension die Konzentration der Biomasse allerdings gering. So enthält beispielsweise 1 ml einer üblichen Konzentration zwischen 10E6 und 10E7 Algenzellen. Quantifizierungen von Metaboliten oder Makromolekülen, die zur Modellierung von zellulären Prozessen genutzt werden, werden meist im Zellensemble vorgenommen. Tatsächlich unterliegt jedoch jede Algenzelle einer individuellen Entwicklung, die die Identifizierung charakteristischer allgemeingültiger Systemparameter erschwert. Ziel dieser Arbeit war es, biochemisch relevante Messgrößen in-vivo und in-vitro mit Hilfe optischer Verfahren zu identifizieren und zu quantifizieren. Im ersten Teil der Arbeit wurde ein Puls-Amplituden-Modulation(PAM)-Fluorimetriemessplatz zur Messung der durch äußere Einflüsse bedingten veränderlichen Chlorophyllfluoreszenz an einzelnen Zellen vorgestellt. Die Verwendung eines kommerziellen Mikroskops, die Implementierung empfindlicher Nachweiselektronik und einer geeignete Immobilisierungsmethode ermöglichten es, ein Signal-zu-Rauschverhältnis zu erreichen, mit dem Fluoreszenzsignale einzelner lebender Chlamydomonas-Zellen gemessen werden konnten. Insbesondere wurden das Zellvolumen und der als Maß für die Effizienz des Photosyntheseapparats bzw. die Zellfitness geltende Chlorophyllfluoreszenzparameter Fv/Fm ermittelt und ein hohes Maß an Heterogenität dieser zellulären Parameter in verschiedenen Entwicklungsstadien der synchronisierten Chlamydomonas-Zellen festgestellt. Im zweiten Teil der Arbeit wurden die bildgebende Laser-Scanning-Mikroskopie und anschließende Bilddatenanalyse zur quantitativen Erfassung der wachstumsabhängigen zellulären Parameter angewandt. Ein kommerzielles konfokales Mikroskop wurde um die Möglichkeit der nichtlinearen Mikroskopie erweitert. Diese hat den Vorteil einer lokalisierten Anregung, damit verbunden einer höheren Ortsauflösung und insgesamt geringeren Probenbelastung. Weiterhin besteht neben der Signalgewinnung durch Fluoreszenzanregung die Möglichkeit der Erzeugung der Zweiten Harmonischen (SHG) an biophotonischen Strukturen, wie der zellulären Stärke. Anhand der Verteilungsfunktionen war es möglich mit Hilfe von modelltheoretischen Ansätzen zelluläre Parameter zu ermitteln, die messtechnisch nicht unmittelbar zugänglich sind. Die morphologischen Informationen der Bilddaten ermöglichten die Bestimmung der Zellvolumina und die Volumina subzellularer Strukturen, wie Nuclei, extranucleäre DNA oder Stärkegranula. Weiterhin konnte die Anzahl subzellulärer Strukturen innerhalb einer Zelle bzw. eines Zellverbunds ermittelt werden. Die Analyse der in den Bilddaten enthaltenen Signalintensitäten war Grundlage einer relativen Konzentrationsbestimmung von zellulären Komponenten, wie DNA bzw. Stärke. Mit dem hier vorgestellten Verfahren der nichtlinearen Mikroskopie und nachfolgender Bilddatenanalyse konnte erstmalig die Verteilung des zellulären Stärkegehalts in einer Chlamydomonas-Population während des Wachstums bzw. nach induziertem Stärkeabbau verfolgt werden. Im weiteren Verlauf wurde diese Methode auch auf Gefrierschnitte höherer Pflanzen, wie Arabidopsis thaliana, angewendet. Im Ergebnis wurde gezeigt, dass viele zelluläre Parameter, wie das Volumen, der zelluläre DNA- und Stärkegehalt bzw. die Anzahl der Stärkegranula durch eine Lognormalverteilung, mit wachstumsabhängiger Parametrisierung, beschrieben werden. Zelluläre Parameter, wie Stoffkonzentration und zelluläres Volumen, zeigen keine signifikanten Korrelationen zueinander, woraus geschlussfolgert werden muss, dass es ein hohes Maß an Heterogenität der zellulären Parameter innerhalb der synchronisierten Chlamydomonas-Populationen gibt. Diese Aussage gilt sowohl für die als homogenste Form geltenden Synchronkulturen von Chlamydomonas reinhardtii als auch für die gemessenen zellulären Parameter im intakten Zellverbund höherer Pflanzen. Dieses Ergebnis ist insbesondere für modelltheoretische Betrachtungen von Relevanz, die sich auf empirische Daten bzw. zelluläre Parameter stützen welche im Zellensemble gemessen wurden und somit nicht notwendigerweise den zellulären Status einer einzelnen Zelle repräsentieren.
In dieser Arbeit werden die Effekte der Synchronisation nichtlinearer, akustischer Oszillatoren am Beispiel zweier Orgelpfeifen untersucht. Aus vorhandenen, experimentellen Messdaten werden die typischen Merkmale der Synchronisation extrahiert und dargestellt. Es folgt eine detaillierte Analyse der Übergangsbereiche in das Synchronisationsplateau, der Phänomene während der Synchronisation, als auch das Austreten aus der Synchronisationsregion beider Orgelpfeifen, bei verschiedenen Kopplungsstärken. Die experimentellen Befunde werfen Fragestellungen nach der Kopplungsfunktion auf. Dazu wird die Tonentstehung in einer Orgelpfeife untersucht. Mit Hilfe von numerischen Simulationen der Tonentstehung wird der Frage nachgegangen, welche fluiddynamischen und aero-akustischen Ursachen die Tonentstehung in der Orgelpfeife hat und inwiefern sich die Mechanismen auf das Modell eines selbsterregten akustischen Oszillators abbilden lässt. Mit der Methode des Coarse Graining wird ein Modellansatz formuliert.
Um Extremereignisse in der Dynamik des indischen Sommermonsuns (ISM) in der geologischen Vergangenheit zu identifizieren, schlage ich einen neuartigen Ansatz basierend auf der Quantifikation von Fluktuationen in einem nichtlinearen Ähnlichkeitsmaß vor. Dieser reagiert empfindlich auf Zeitabschnitte mit deutlichen Veränderungen in der dynamischen Komplexität kurzer Zeitreihen. Ein mathematischer Zusammenhang zwischen dem neuen Maß und dynamischen Invarianten des zugrundeliegenden Systems wie fraktalen Dimensionen und Lyapunovexponenten wird analytisch hergeleitet. Weiterhin entwickle ich einen statistischen Test zur Schätzung der Signifikanz der so identifizierten dynamischen Übergänge. Die Stärken der Methode werden durch die Aufdeckung von Bifurkationsstrukturen in paradigmatischen Modellsystemen nachgewiesen, wobei im Vergleich zu den traditionellen Lyapunovexponenten eine Identifikation komplexerer dynamischer Übergänge möglich ist. Wir wenden die neu entwickelte Methode zur Analyse realer Messdaten an, um ausgeprägte dynamische Veränderungen auf Zeitskalen von Jahrtausenden in Klimaproxydaten des südasiatischen Sommermonsunsystems während des Pleistozäns aufzuspüren. Dabei zeigt sich, dass viele dieser Übergänge durch den externen Einfluss der veränderlichen Sonneneinstrahlung, sowie durch dem Klimasystem interne Einflussfaktoren auf das Monsunsystem (Eiszeitzyklen der nördlichen Hemisphäre und Einsatz der tropischenWalkerzirkulation) induziert werden. Trotz seiner Anwendbarkeit auf allgemeine Zeitreihen ist der diskutierte Ansatz besonders zur Untersuchung von kurzen Paläoklimazeitreihen geeignet. Die während des ISM über dem indischen Subkontinent fallenden Niederschläge treten, bedingt durch die zugrundeliegende Dynamik der atmosphärischen Zirkulation und topographische Einflüsse, in äußerst komplexen, raumzeitlichen Mustern auf. Ich stelle eine detaillierte Analyse der Sommermonsunniederschläge über der indischen Halbinsel vor, die auf Ereignissynchronisation (ES) beruht, einem Maß für die nichtlineare Korrelation von Punktprozessen wie Niederschlagsereignissen. Mit hierarchischen Clusteringalgorithmen identifiziere ich zunächst Regionen mit besonders kohärenten oder homogenen Monsunniederschlägen. Dabei können auch die Zeitverzögerungsmuster von Regenereignissen rekonstruiert werden. Darüber hinaus führe ich weitere Analysen auf Basis der Theorie komplexer Netzwerke durch. Diese Studien ermöglichen wertvolle Einsichten in räumliche Organisation, Skalen und Strukturen von starken Niederschlagsereignissen oberhalb der 90% und 94% Perzentilen während des ISM (Juni bis September). Weiterhin untersuche ich den Einfluss von verschiedenen, kritischen synoptischen Systemen der Atmosphäre sowie der steilen Topographie des Himalayas auf diese Niederschlagsmuster. Die vorgestellte Methode ist nicht nur geeignet, die Struktur extremer Niederschlagsereignisse zu visualisieren, sondern kann darüber hinaus über der Region atmosphärische Transportwege von Wasserdampf und Feuchtigkeitssenken auf dekadischen Skalen identifizieren.Weiterhin wird ein einfaches, auf komplexen Netzwerken basierendes Verfahren zur Entschlüsselung der räumlichen Feinstruktur und Zeitentwicklung von Monsunniederschlagsextremen während der vergangenen 60 Jahre vorgestellt.
Eumelanin ist ein Fluorophor mit teilweise recht ungewöhnlichen spektralen Eigenschaften. Unter anderem konnten in früheren Veröffentlichungen Unterschiede zwischen dem 1- und 2-photonen-angeregtem Fluoreszenzspektrum beobachtet werden, weshalb im nichtlinearen Anregungsfall ein schrittweiser Anregungsprozess vermutet wurde. Um diese und weitere optische Eigenschaften des Eumelanins besser zu verstehen, wurden in der vorliegenden Arbeit vielfältige messmethodische Ansätze der linearen und nichtlinearen Optik an synthetischem Eumelanin in 0,1M NaOH verfolgt. Aus den Ergebnissen wurde ein Modell abgeleitet, welches die beobachteten photonischen Eigenschaften konsistent beschreibt. In diesem kaskadierten Zustandsmodell (Kaskaden-Modell) wird die aufgenommene Photonenenergie schrittweise von Anregungszuständen hoher Übergangsenergien zu Anregungszuständen niedrigerer Übergangsenergien transferiert. Messungen der transienten Absorption ergaben dominante Anteile mit kurzen Lebensdauern im ps-Bereich und ließen damit auf eine hohe Relaxationsgeschwindigkeit entlang der Kaskade schließen. Durch Untersuchung der nichtlinear angeregten Fluoreszenz von verschieden großen Eumelanin-Aggregaten konnte gezeigt werden, dass Unterschiede zwischen dem linear und nichtlinear angeregten Fluoreszenzspektrum nicht nur durch einen schrittweisen Anregungsprozess bei nichtlinearer Anregung sondern auch durch Unterschiede in den Verhältnissen der Quantenausbeuten zwischen kleinen und großen Aggregaten beim Wechsel von linearer zu nichtlinearer Anregung begründet sein können. Durch Bestimmung des Anregungswirkungsquerschnitts und der Anregungspulsdauer-Abhängigkeit der nichtlinear angeregten Fluoreszenz von Eumelanin konnte jedoch ein schrittweiser 2-Photonen-Anregungsprozess über einen Zwischenzustand mit Lebendsdauern im ps-Bereich nachgewiesen werden.
Physiklehrer bestimmen durch die Gestaltung des Unterrichts und damit durch ihr professionelles Handeln maßgeblich mit, wie die individuellen Lernprozesse der Schüler zu Inhalten der Physik ablaufen. Für die Entwicklung ihrer professionellen Handlungskompetenz müssen zukünftige Physiklehrer einerseits physikalisches, physikdidaktisches und pädagogisches Wissen erwerben und andererseits motiviert sein, dieses Wissen auch anzuwenden. In ihrer Vorlesung geht Thorid Rabe der Frage nach, welche physikdidaktischen Kompetenzen Studierende im Rahmen der universitären Ausbildung erwerben sollten. Am Beispiel der Lehrveranstaltung "Physikalische Schulexperimente" zeigt sie, wie physikdidaktische Theorie und praktisches Lehrerhandeln aufeinander bezogen werden können. Zudem wird sie ein Forschungsprojekt vorstellen, das einem bisher vernachlässigten Aspekt professioneller Handlungskompetenz nachgeht, nämlich den domänenspezifischen Selbstwirksamkeitserwartungen - dem Zutrauen in sich selbst, als Physiklehrer angemessen und erfolgreich handeln zu können.
Mathematik spielt im Physikunterricht eine nicht unerhebliche Rolle - wenn auch eine zwiespältige. Oft wird sie sogar zum Hindernis beim Lernen von Physik und kann ihr emanzipatorisches Potenzial nicht entfalten. Die vorliegende Arbeit stellt zwei Bausteine für eine begründete Konzeption zum Umgang mit Mathematik beim Lernen von Physik zur Verfügung. Im Theorieteil der Arbeit werden zum Einen wissenschaftstheoretische Aspekte der Rolle der Mathematik in der Physik aufgearbeitet und der physikdidaktischen Forschungsgemeinschaft im Zusammenhang zugänglich gemacht. Zum anderen werden Forschungsergebnisse zu Vorstellungen Lernender über Physik und Mathematik sowie im Bereich der Epistemologie zusammengestellt. Im empirischen Teil der Arbeit werden Vorstellungen zur Rolle der Mathematik in der Physik von Schülerinnen und Schülern der Klassenstufen 10 und 12 sowie Physik-Lehramtstudierenden im Grundstudium mit Hilfe eines Fragebogens erhoben und unter Verwendung inhaltsanalytischer bzw. statistischer Methoden ausgewertet. Die Ergebnisse zeigen unter Anderem, dass Mathematik im Physikunterricht entgegen gängiger Meinungen bei den Lernenden nicht negativ, aber zumindest bei jüngeren Lernenden formal und algorithmisch konnotiert ist.
Ein neuentwickeltes azobenzenhaltiges Material, das auf einem supramolekularen Konzept basiert, wird bezüglich seiner Strukturbildung während einer holografischen Belichtung bei 488 nm untersucht. Im Mittelpunkt stehen dabei eindimensionale, sinusförmige Reliefs mit Periodizitäten kleiner 500 nm. Es wird gezeigt, wie der Grad der Vernetzung der photosensitiven Schicht die Strukturbildung in diesem Größenbereich beeinflusst. Zur Maximierung der Strukturtiefe werden gezielt Prozessparameter der Belichtung sowie Materialparameter variiert. Unter Standardbedingungen und moderaten Belichtungsintensitäten von ca. 200 mW/cm² bilden sich innerhalb weniger Minuten bei einer Periode von 400 nm Strukturtiefen von bis zu 80nm aus. Durch die Beeinflussung von Materialparametern, wie Oberflächenspannung und Viskosität, wird die maximale Strukturtiefe auf 160nm verdoppelt. Durch Mehrfachbelichtungen wird auch die Bildung von zweidimensionalen Gittern untersucht. Die Originalstrukturen werden in einem Abformverfahren kopiert und in Schichten von unter UV-Licht aushärtenden Polymeren übertragen. Durch das Abformen kommt es zu einer geringfügigen Verschlechterung der Oberflächenqualität sowie Abnahme der Strukturtiefe. Dieser Verlust wird durch eine Verringerung der Prozesstemperatur verringert. Mithilfe kopierter Oberflächengitter werden organische Distributed Feedback-(DFB)-Laser zweiter Ordnung hergestellt, um den Einfluss von Gitterparametern auf die Emissionseigenschaften dieser Laser zu untersuchen. Dazu erfolgt zunächst die Charakterisierung der optischen Verstärkungseigenschaften ausgewählter organischer Emittermaterialien mittels der Variablen Strichlängenmethode. Das mit dem Laserfarbstoff Pyrromthen567 (PM567) dotierte Polystyrol (PS) zeigt dabei trotz konzentrationsbedingter geringer Absorption eine vergleichsweise geringe Gewinnschwelle von 50µJ/cm² bei ca. 575 nm. Das aktive Gast-Wirt-System der konjugierten Polymere MEH-PPV und F8BT* weist eine hohe Absorption und eine kleine Gewinnschwelle von 2,5 µJ/cm² bei 630 nm auf. Dieses Verhalten spiegelt sich auch in den Emissionseigenschaften der damit hergestellten DFB-Laser wieder. Die Dicke der aktiven Schichten liegen im Bereich hunderter Nanometer und wird so eingestellt, dass sich nur die transversalen Grundmoden im Wellenleiter ausbreiten können. Die Gitterperiode sind so gewählt, dass ein Lichtmode im Verstärkungsbereich des Emittermaterials liegt. Die Emissionslinien der Laser sind mit FWHM-Werten von bis zu 0,3 nm spektral sehr schmalbandig und weisen auf eine sehr gute Gitterqualität hin. Die Untersuchungen liefern minimale Laserschwellen und maximale differentielle Effizienzen von 4,0µJ/cm² und 8,4% für MEH-PPV in F8BT* (bei ca. 640nm) sowie 80 µJ/cm² und 0,9% für PM567 in PS (bei ca. 575 nm). Die Vergrößerung der Strukturtiefe von 40nm auf 80nm in mit MEH-PPV dotierten F8BT*-Lasern zu einem deutlichen Anstieg der ausgekoppelten Energie sowie der differentiellen Effizienz und einem geringen Absinken der Laserschwelle. Dies ist ein Resultat der erhöhten Kopplung von Lasermode und Gitter. Die Emission von DFB-Lasern mit zweidimensionalen Oberflächengittern zeigen eine Verringerung der Divergenz aber kein Einfluss auf die Laserschwelle. Abschließend erfolgt eine Vermessung der Photostabilität von DFB-Lasern unter verschiedenen Bedingungen. Das Einbringen eines konjugierten Polymers in eine aktive Matrix sowie der Betrieb in einer Stickstoffatmosphäre führen dabei zu einer Erhöhung der Lebensdauer auf über eine Million Pulse. Durch die Kombination von Oberflächengittern in PDMS-Filmen mit elektroaktiven Substraten wird eine elektrisch steuerbare Deformation des Beugungsgitters erreicht und auf einen DFB-Laser übertragen. Die spannungsinduzierte Verformung wird zunächst in Beugungsexperimenten charakterisiert und ein optimaler Arbeitspunkt bestimmt. Mit den beiden Elastomeren SEBS12 und VHB4910 werden in den Gittern maximale Periodenänderungen von 1,3% bzw. 3,4% bei einer Steuerspannung von 2 kV erreicht. Der Unterschied resultiert aus den verschiedenen Elastizitätsmoduln der Materialien. Übertragen auf DFB-Laser resultiert eine Variation der Gitterperiode senkrecht zu den Gitterlinien in einer kontinuierlichen Verschiebung der Emissionswellenlänge. Mit einem Spannungssignal von 3,25 kV wird die schmalbandige Emission eines elastischen DFB-Lasers kontinuierlich um fast 50nm von 604 nm zu 557 nm hin verschoben. Aus dem Deformationsverhalten sowohl der reinen Beugungsgitter als auch der Laser werden Rückschlüsse auf die Elastizität der verwendeten Materialien gezogen und erlauben Verbesserungen der Bauteile.
Die vorliegende Arbeit versammelt zwei einleitende Kapitel und zehn Essays, die sich als kritisch-konstruktive Beiträge zu einem "erlebenden Verstehen" (Buck) von Physik lesen lassen. Die traditionelle Anlage von Schulphysik zielt auf eine systematische Darstellung naturwissenschaftlichen Wissens, das dann an ausgewählten Beispielen angewendet wird: Schulexperimente beweisen die Aussagen der Systematik (oder machen sie wenigstens plausibel), ausgewählte Phänomene werden erklärt. In einem solchen Rahmen besteht jedoch leicht die Gefahr, den Bezug zur Lebenswirklichkeit oder den Interessen der Schüler zu verlieren. Diese Problematik ist seit mindestens 90 Jahren bekannt, didaktische Antworten - untersuchendes Lernen, Kontextualisierung, Schülerexperimente etc. - adressieren allerdings eher Symptome als Ursachen. Naturwissenschaft wird dadurch spannend, dass sie ein spezifisch investigatives Weltverhältnis stiftet: man müsste gleichsam nicht Wissen, sondern "Fragen lernen" (und natürlich auch, wie Antworten gefunden werden...). Doch wie kann dergleichen auf dem Niveau von Schulphysik aussehen, was für einen theoretischen Rahmen kann es hier geben? In den gesammelten Arbeiten wird einigen dieser Spuren nachgegangen: Der Absage an das zu modellhafte Denken in der phänomenologischen Optik, der Abgrenzung formal-mathematischen Denkens gegen wirklichkeitsnähere Formen naturwissenschaftlicher Denkbewegungen und Evidenz, dem Potential alternativer Interpretationen von "Physikunterricht", der Frage nach dem "Verstehen" u.a. Dabei werden nicht nur Bezüge zum modernen bildungstheoretischen Paradigma der Kompetenz sichtbar, sondern es wird auch versucht, eine ganze Reihe konkrete (schul-)physikalische Beispiele dafür zu geben, was passiert, wenn nicht schon gewusste Antworten Thema werden, sondern Expeditionen, die sich der physischen Welt widmen: Die Schlüsselbegriffe des Fachs, die Methoden der Datenerhebung und Interpretation, die Such- und Denkbewegungen kommen dabei auf eine Weise zur Sprache, die sich nicht auf die Fachsystematik abstützen möchte, sondern diese motivieren, konturieren und verständlich machen will.
Der Einfluss der Dynamik auf die stratosphärische Ozonvariabilität über der Arktis im Frühwinter
(2010)
Der frühwinterliche Ozongehalt ist ein Indikator für den Ozongehalt im Spätwinter/Frühjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivität von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilität weitestgehend auf dynamische Prozesse während der Wirbelbildungsphase des arktischen Polarwirbels zurückgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem früh- und spätwinterlichen Ozongehalt bezüglich Dynamik und Chemie aufgezeigt. Für die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die über die Fläche (45–75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fläche zeigt eine Verbindung zwischen der frühwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur für die untere Stratosphäre gültig, da die Vertikalkomponente die sich innerhalb der Stratosphäre ändernden Wellenausbreitungsbedingungen nicht erfasst. Für eine verbesserte Höhendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Größe definiert. Diese neue Größe verbindet die Wellenaktivität während der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung über die Breite. Eine verstärkte Wellenaktivität führt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Frühwinter zerstören chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablität, die durch dynamische Prozesse während der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter ermöglicht eine Abschätzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden für den Winter 1999–2000 Modellläufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen über den Erhalt der künstlichen Ozonvariabilität hinsichtlich Zeit, Höhe und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilität während der Wirbelbildungsphase länger im Inneren als im Äußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilität. In darunterliegenden Höhenbereichen ist der Anteil an der ursprünglichen Störung groß, bis zu 90% auf der 450K. Innerhalb dieses Höhenbereiches üben die dynamischen Prozesse während der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus.
Das Ziel dieser Arbeit ist die Untersuchung der aktiven Komponenten und ihrer Wechselwirkungen in teilorganischen Hybrid-Solarzellen. Diese bestehen aus einer dünnen Titandioxidschicht, kombiniert mit einer dünnen Polymerschicht. Die Effizienz der Hybrid-Solarzellen wird durch die Lichtabsorption im Polymer, die Dissoziation der gebildeten Exzitonen an der aktiven Grenzfläche zwischen TiO2 und Polymer, sowie durch Generation und Extraktion freier Ladungsträger bestimmt. Zur Optimierung der Solarzellen wurden grundlegende physikalische Wechselwirkungen zwischen den verwendeten Materialen sowie der Einfluss verschiedener Herstellungsparameter untersucht. Unter anderem wurden Fragen zum optimalen Materialeinsatz und Präparationsbedingungen beantwortet sowie grundlegende Einflüsse wie Schichtmorphologie und Polymerinfiltration näher betrachtet. Zunächst wurde aus unterschiedlich hergestelltem Titandioxid (Akzeptor-Schicht) eine Auswahl für den Einsatz in Hybrid-Solarzellen getroffen. Kriterium war hierbei die unterschiedliche Morphologie aufgrund der Oberflächenbeschaffenheit, der Film-Struktur, der Kristallinität und die daraus resultierenden Solarzelleneigenschaften. Für die anschließenden Untersuchungen wurden mesoporöse TiO2–Filme aus einer neuen Nanopartikel-Synthese, welche es erlaubt, kristalline Partikel schon während der Synthese herzustellen, als Elektronenakzeptor und konjugierte Polymere auf Poly(p-Phenylen-Vinylen) (PPV)- bzw. Thiophenbasis als Donatormaterial verwendet. Bei der thermischen Behandlung der TiO2-Schichten erfolgt eine temperaturabhängige Änderung der Morphologie, jedoch nicht der Kristallstruktur. Die Auswirkungen auf die Solarzelleneigenschaften wurden dokumentiert und diskutiert. Um die Vorteile der Nanopartikel-Synthese, die Bildung kristalliner TiO2-Partikel bei tiefen Temperaturen, nutzen zu können, wurden erste Versuche zur UV-Vernetzung durchgeführt. Neben der Beschaffenheit der Oxidschicht wurde auch der Einfluss der Polymermorphologie, bedingt durch Lösungsmittelvariation und Tempertemperatur, untersucht. Hierbei konnte gezeigt werden, dass u.a. die Viskosität der Polymerlösung die Infiltration in die TiO2-Schicht und dadurch die Effizienz der Solarzelle beeinflusst. Ein weiterer Ansatz zur Erhöhung der Effizienz ist die Entwicklung neuer lochleitender Polymere, welche möglichst über einen weiten spektralen Bereich Licht absorbieren und an die Bandlücke des TiO2 angepasst sind. Hierzu wurden einige neuartige Konzepte, z.B. die Kombination von Thiophen- und Phenyl-Einheiten näher untersucht. Auch wurde die Sensibilisierung der Titandioxidschicht in Anlehnung an die höheren Effizienzen der Farbstoffzellen in Betracht gezogen. Zusammenfassend konnten im Rahmen dieser Arbeit wichtige Einflussparameter auf die Funktion hybrider Solarzellen identifiziert und z.T. näher diskutiert werden. Für einige limitierende Faktoren wurden Konzepte zur Verbesserung bzw. Vermeidung vorgestellt.
Auf der Grundlage von Sonnenphotometermessungen an drei Messstationen (AWIPEV/ Koldewey in Ny-Ålesund (78.923 °N, 11.923 °O) 1995–2008, 35. Nordpol Driftstation – NP-35 (84.3–85.5 °N, 41.7–56.6 °O) März/April 2008, Sodankylä (67.37 °N, 26.65 °O) 2004–2007) wird die Aerosolvariabilität in der europäischen Arktis und deren Ursachen untersucht. Der Schwerpunkt liegt dabei auf der Frage des Zusammenhanges zwischen den an den Stationen gemessenen Aerosolparametern (Aerosol optische Dicke, Angström Koeffizient, usw.) und dem Transport des Aerosols sowohl auf kurzen Zeitskalen (Tagen) als auch auf langen Zeitskalen (Monate, Jahre). Um diesen Zusammenhang herzustellen, werden für die kurzen Zeitskalen mit dem Trajektorienmodell PEP-Tracer 5-Tage Rückwärtstrajektorien in drei Starthöhen (850 hPa, 700 hPa, 500 hPa) für die Uhrzeiten 00, 06, 12 und 18 Uhr berechnet. Mit Hilfe der nicht-hierarchischen Clustermethode k-means werden die berechneten Rückwärtstrajektorien dann zu Gruppen zusammengefasst und bestimmten Quellgebieten und den gemessenen Aerosol optischen Dicken zugeordnet. Die Zuordnung von Aerosol optischer Dicke und Quellregion ergibt keinen eindeutigen Zusammenhang zwischen dem Transport verschmutzter Luftmassen aus Europa oder Russland bzw. Asien und erhöhter Aerosol optischer Dicke. Dennoch ist für einen konkreten Einzelfall (März 2008) ein direkter Zusammenhang von Aerosoltransport und hohen Aerosol optischen Dicken nachweisbar. In diesem Fall gelangte Waldbrandaerosol aus Südwestrussland in die Arktis und konnte sowohl auf der NP-35 als auch in Ny-Ålesund beobachtet werden. In einem weiteren Schritt wird mit Hilfe der EOF-Analyse untersucht, inwieweit großskalige atmosphärische Zirkulationsmuster für die Aerosolvariabilität in der europäischen Arktis verantwortlich sind. Ähnlich wie bei der Trajektorienanalyse ist auch die Verbindung der atmosphärischen Zirkulation zu den Photometermessungen an den Stationen in der Regel nur schwach ausgeprägt. Eine Ausnahme findet sich bei der Betrachtung des Jahresganges des Bodendruckes und der Aerosol optischen Dicke. Hohe Aerosol optische Dicken treten im Frühjahr zum einen dann auf, wenn durch das Islandtief und das sibirische Hochdruckgebiet Luftmassen aus Europa oder Russland/Asien in die Arktis gelangen, und zum anderen, wenn sich ein kräftiges Hochdruckgebiet über Grönland und weiten Teilen der Arktis befindet. Ebenso zeigt sich, dass der Übergang zwischen Frühjahr und Sommer zumindest teilweise bedingt ist durch denWechsel vom stabilen Polarhoch im Winter und Frühjahr zu einer stärker von Tiefdruckgebieten bestimmten arktischen Atmosphäre im Sommer. Die geringere Aerosolkonzentration im Sommer kann zum Teil mit einer Zunahme der nassen Deposition als Aerosolsenke begründet werden. Für Ny-Ålesund wird neben den Transportmustern auch die chemische Zusammensetzung des Aerosols mit Hilfe von Impaktormessungen an der Zeppelinstation auf dem Zeppelinberg (474m ü.NN) nahe Ny-Ålesund abgeleitet. Dabei ist die positive Korrelation der Aerosoloptischen Dicke mit der Konzentration von Sulfationen und Ruß sehr deutlich. Beide Stoffe gelangen zu einem Großteil durch anthropogene Emissionen in die Atmosphäre. Die damit nachweisbar anthropogen geprägte Zusammensetzung des arktischen Aerosols steht im Widerspruch zum nicht eindeutig herstellbaren Zusammenhang mit dem Transport des Aerosols aus Industrieregionen. Dies kann nur durch einen oder mehrere gleichzeitig stattfindende Transformationsprozesse (z. B. Nukleation von Schwefelsäurepartikeln) während des Transportes aus den Quellregionen (Europa, Russland) erklärt werden.
Föhlisch wird in seinem Vortrag die großen Zukunftsthemen der Mensch streifen: Energie, Umwelt und Struktur der Materie. Die Komplexität ihrer elementaren Prozesse erfordert die komplementäre Betrachtung der damit verbundene Dimensionen von Energie, Zeit und Raum. Dies lässt sich inzwischen mit Synchrotronstrahlungsquellen in größter Präision darstellen.
In der vorliegenden Dissertation wird eine Beschreibung der Phasendynamik irregulärer Oszillationen und deren Wechselwirkungen vorgestellt. Hierbei werden chaotische und stochastische Oszillationen autonomer dissipativer Systeme betrachtet. Für eine Phasenbeschreibung stochastischer Oszillationen müssen zum einen unterschiedliche Werte der Phase zueinander in Beziehung gesetzt werden, um ihre Dynamik unabhängig von der gewählten Parametrisierung der Oszillation beschreiben zu können. Zum anderen müssen für stochastische und chaotische Oszillationen diejenigen Systemzustände identifiziert werden, die sich in der gleichen Phase befinden. Im Rahmen dieser Dissertation werden die Werte der Phase über eine gemittelte Phasengeschwindigkeitsfunktion miteinander in Beziehung gesetzt. Für stochastische Oszillationen sind jedoch verschiedene Definitionen der mittleren Geschwindigkeit möglich. Um die Unterschiede der Geschwindigkeitsdefinitionen besser zu verstehen, werden auf ihrer Basis effektive deterministische Modelle der Oszillationen konstruiert. Hierbei zeigt sich, dass die Modelle unterschiedliche Oszillationseigenschaften, wie z. B. die mittlere Frequenz oder die invariante Wahrscheinlichkeitsverteilung, nachahmen. Je nach Anwendung stellt die effektive Phasengeschwindigkeitsfunktion eines speziellen Modells eine zweckmäßige Phasenbeziehung her. Wie anhand einfacher Beispiele erklärt wird, kann so die Theorie der effektiven Phasendynamik auch kontinuierlich und pulsartig wechselwirkende stochastische Oszillationen beschreiben. Weiterhin wird ein Kriterium für die invariante Identifikation von Zuständen gleicher Phase irregulärer Oszillationen zu sogenannten generalisierten Isophasen beschrieben: Die Zustände einer solchen Isophase sollen in ihrer dynamischen Entwicklung ununterscheidbar werden. Für stochastische Oszillationen wird dieses Kriterium in einem mittleren Sinne interpretiert. Wie anhand von Beispielen demonstriert wird, lassen sich so verschiedene Typen stochastischer Oszillationen in einheitlicher Weise auf eine stochastische Phasendynamik reduzieren. Mit Hilfe eines numerischen Algorithmus zur Schätzung der Isophasen aus Daten wird die Anwendbarkeit der Theorie anhand eines Signals regelmäßiger Atmung gezeigt. Weiterhin zeigt sich, dass das Kriterium der Phasenidentifikation für chaotische Oszillationen nur approximativ erfüllt werden kann. Anhand des Rössleroszillators wird der tiefgreifende Zusammenhang zwischen approximativen Isophasen, chaotischer Phasendiffusion und instabilen periodischen Orbits dargelegt. Gemeinsam ermöglichen die Theorien der effektiven Phasendynamik und der generalisierten Isophasen eine umfassende und einheitliche Phasenbeschreibung irregulärer Oszillationen.
Ziel dieser Arbeit ist die Überwindung einer Differenz, die zwischen der Theorie der Phase bzw. der Phasendynamik und ihrer Anwendung in der Zeitreihenanalyse besteht: Während die theoretische Phase eindeutig bestimmt und invariant unter Koordinatentransformationen bzw. gegenüber der jeweils gewählten Observable ist, führen die Standardmethoden zur Abschätzung der Phase aus gegebenen Zeitreihen zu Resultaten, die einerseits von den gewählten Observablen abhängen und so andererseits das jeweilige System keineswegs in eindeutiger und invarianter Weise beschreiben. Um diese Differenz deutlich zu machen, wird die terminologische Unterscheidung von Phase und Protophase eingeführt: Der Terminus Phase wird nur für Variablen verwendet, die dem theoretischen Konzept der Phase entsprechen und daher das jeweilige System in invarianter Weise charakterisieren, während die observablen-abhängigen Abschätzungen der Phase aus Zeitreihen als Protophasen bezeichnet werden. Der zentrale Gegenstand dieser Arbeit ist die Entwicklung einer deterministischen Transformation, die von jeder Protophase eines selbsterhaltenden Oszillators zur eindeutig bestimmten Phase führt. Dies ermöglicht dann die invariante Beschreibung gekoppelter Oszillatoren und ihrer Wechselwirkung. Die Anwendung der Transformation bzw. ihr Effekt wird sowohl an numerischen Beispielen demonstriert - insbesondere wird die Phasentransformation in einem Beispiel auf den Fall von drei gekoppelten Oszillatoren erweitert - als auch an multivariaten Messungen des EKGs, des Pulses und der Atmung, aus denen Phasenmodelle der kardiorespiratorischen Wechselwirkung rekonstruiert werden. Abschließend wird die Phasentransformation für autonome Oszillatoren auf den Fall einer nicht vernachlässigbaren Amplitudenabhängigkeit der Protophase erweitert, was beispielsweise die numerischen Bestimmung der Isochronen des chaotischen Rössler Systems ermöglicht.
Komplexe Systeme reichen von "harten", physikalischen, wie Klimaphysik, Turbulenz in Fluiden oder Plasmen bis zu so genannten "weichen", wie man sie in der Biologie, der Physik weicher Materie, Soziologie oder Ökonomie findet. Die Ausbildung von Verständnis zu einem solchen System beinhaltet eine Beschreibung in Form von Statistiken und schlussendlich mathematischen Gleichungen. Moderne Datenanalyse stellt eine große Menge von Werkzeugen zur Analyse von Komplexität auf verschiedenen Beschreibungsebenen bereit. In diesem Kurs werden statistische Methoden mit einem Schwerpunkt auf dynamischen Systemen diskutiert und eingeübt. Auf der methodischen Seite werden lineare und nichtlineare Ansätze behandelt, inklusive der Standard-Werkzeuge der deskriptiven und schlussfolgernden Statistik, Wavelet Analyse, Nichtparametrische Regression und der Schätzung nichtlinearer Maße wie fraktaler Dimensionen, Entropien und Komplexitätsmaßen. Auf der Modellierungsseite werden deterministische und stochastische Systeme, Chaos, Skalierung und das Entstehen von Komplexität durch Wechselwirkung diskutiert - sowohl für diskrete als auch für ausgedehnte Systeme. Die beiden Ansätze werden durch Systemanalyse jeweils passender Beispiele vereint.
Komplexe Systeme reichen von "harten", physikalischen, wie Klimaphysik, Turbulenz in Fluiden oder Plasmen bis zu so genannten "weichen", wie man sie in der Biologie, der Physik weicher Materie, Soziologie oder Ökonomie findet. Die Ausbildung von Verständnis zu einem solchen System beinhaltet eine Beschreibung in Form von Statistiken und schlussendlich mathematischen Gleichungen. Moderne Datenanalyse stellt eine große Menge von Werkzeugen zur Analyse von Komplexität auf verschiedenen Beschreibungsebenen bereit. In diesem Kurs werden statistische Methoden mit einem Schwerpunkt auf dynamischen Systemen diskutiert und eingeübt. Auf der methodischen Seite werden lineare und nichtlineare Ansätze behandelt, inklusive der Standard-Werkzeuge der deskriptiven und schlussfolgernden Statistik, Wavelet Analyse, Nichtparametrische Regression und der Schätzung nichtlinearer Maße wie fraktaler Dimensionen, Entropien und Komplexitätsmaßen. Auf der Modellierungsseite werden deterministische und stochastische Systeme, Chaos, Skalierung und das Entstehen von Komplexität durch Wechselwirkung diskutiert - sowohl für diskrete als auch für ausgedehnte Systeme. Die beiden Ansätze werden durch Systemanalyse jeweils passender Beispiele vereint.
Komplexe Systeme reichen von "harten", physikalischen, wie Klimaphysik, Turbulenz in Fluiden oder Plasmen bis zu so genannten "weichen", wie man sie in der Biologie, der Physik weicher Materie, Soziologie oder Ökonomie findet. Die Ausbildung von Verständnis zu einem solchen System beinhaltet eine Beschreibung in Form von Statistiken und schlussendlich mathematischen Gleichungen. Moderne Datenanalyse stellt eine große Menge von Werkzeugen zur Analyse von Komplexität auf verschiedenen Beschreibungsebenen bereit. In diesem Kurs werden statistische Methoden mit einem Schwerpunkt auf dynamischen Systemen diskutiert und eingeübt. Auf der methodischen Seite werden lineare und nichtlineare Ansätze behandelt, inklusive der Standard-Werkzeuge der deskriptiven und schlussfolgernden Statistik, Wavelet Analyse, Nichtparametrische Regression und der Schätzung nichtlinearer Maße wie fraktaler Dimensionen, Entropien und Komplexitätsmaßen. Auf der Modellierungsseite werden deterministische und stochastische Systeme, Chaos, Skalierung und das Entstehen von Komplexität durch Wechselwirkung diskutiert - sowohl für diskrete als auch für ausgedehnte Systeme. Die beiden Ansätze werden durch Systemanalyse jeweils passender Beispiele vereint.
Komplexe Systeme reichen von "harten", physikalischen, wie Klimaphysik, Turbulenz in Fluiden oder Plasmen bis zu so genannten "weichen", wie man sie in der Biologie, der Physik weicher Materie, Soziologie oder Ökonomie findet. Die Ausbildung von Verständnis zu einem solchen System beinhaltet eine Beschreibung in Form von Statistiken und schlussendlich mathematischen Gleichungen. Moderne Datenanalyse stellt eine große Menge von Werkzeugen zur Analyse von Komplexität auf verschiedenen Beschreibungsebenen bereit. In diesem Kurs werden statistische Methoden mit einem Schwerpunkt auf dynamischen Systemen diskutiert und eingeübt. Auf der methodischen Seite werden lineare und nichtlineare Ansätze behandelt, inklusive der Standard-Werkzeuge der deskriptiven und schlussfolgernden Statistik, Wavelet Analyse, Nichtparametrische Regression und der Schätzung nichtlinearer Maße wie fraktaler Dimensionen, Entropien und Komplexitätsmaßen. Auf der Modellierungsseite werden deterministische und stochastische Systeme, Chaos, Skalierung und das Entstehen von Komplexität durch Wechselwirkung diskutiert - sowohl für diskrete als auch für ausgedehnte Systeme. Die beiden Ansätze werden durch Systemanalyse jeweils passender Beispiele vereint.
Komplexe Systeme reichen von "harten", physikalischen, wie Klimaphysik, Turbulenz in Fluiden oder Plasmen bis zu so genannten "weichen", wie man sie in der Biologie, der Physik weicher Materie, Soziologie oder Ökonomie findet. Die Ausbildung von Verständnis zu einem solchen System beinhaltet eine Beschreibung in Form von Statistiken und schlussendlich mathematischen Gleichungen. Moderne Datenanalyse stellt eine große Menge von Werkzeugen zur Analyse von Komplexität auf verschiedenen Beschreibungsebenen bereit. In diesem Kurs werden statistische Methoden mit einem Schwerpunkt auf dynamischen Systemen diskutiert und eingeübt. Auf der methodischen Seite werden lineare und nichtlineare Ansätze behandelt, inklusive der Standard-Werkzeuge der deskriptiven und schlussfolgernden Statistik, Wavelet Analyse, Nichtparametrische Regression und der Schätzung nichtlinearer Maße wie fraktaler Dimensionen, Entropien und Komplexitätsmaßen. Auf der Modellierungsseite werden deterministische und stochastische Systeme, Chaos, Skalierung und das Entstehen von Komplexität durch Wechselwirkung diskutiert - sowohl für diskrete als auch für ausgedehnte Systeme. Die beiden Ansätze werden durch Systemanalyse jeweils passender Beispiele vereint.
Im Rahmen der vorliegenden Arbeit ist es erstmals gelungen, mit einem ps-Pumplaser (10 ps) Weißlicht mit einer spektralen Breite von mehr als einer optischen Oktave in einer mikrostrukturierten Faser (MSF) bei einer Pumpwellenlänge von 1064 nm zu generieren. Es ließ sich, abgesehen von nichtkonvertierten Resten der Pumpstrahlung, ein unstrukturiertes und zeitlich stabiles Weißlichtspektrum von 700 nm bis 1650 nm generieren. Die maximale Ausgangsleistung dieser Weißlichtstrahlung betrug 3,1 W. Es konnten sehr gute Einkoppeleffizienzen von maximal 62 % erzielt werden. Die an der Weißlichterzeugung beteiligten dispersiven und nichtlinear optischen Effekte, wie z.B. Selbstphasenmodulation, Vierwellenmischung, Modulationsinstabilitäten oder Solitoneneffekte, werden detailliert theoretisch untersucht und erläutert. Die Arbeit beinhaltet ebenfalls eine umfangreiche Beschreibung der Wirkungsweise und Eigenschaften von mikrostrukturierten Fasern mit einem festen Faserkern. Aufgrund der großen Variationsvielfalt des mikrostrukturierten Fasermantels und der damit verbundenen Wellenleitereigenschaften ergeben sich, insbesondere für die Anwendung in der nichtlinearen Optik, eine Reihe von interessanten Eigenschaften. Es wurden insgesamt vier verschiedene mikrostrukturierte Fasern experimentell untersucht. Für die Interpretation der experimentellen Ergebnisse ist die Pulsausbreitung der ps-Pumppulse in einer dispersiven, nichtlinear optischen Faser anhand der verallgemeinerten nichtlinearen Schrödinger-Gleichung berechnet worden. Durch einen Vergleich der Berechnungen mit den Messdaten ließen sich verstärkte Modulationsinstabilitäten und verschiedene Solitoneneffekte als hauptsächlich für die Weißlichterzeugung bei ps-Anregungspulsen verantwortlich identifizieren. Auf der Basis der durchgeführten Untersuchungen wurde in Kooperation mit der Fa. Jenoptik Laser, Optik, Systeme GmbH eine kompakte und leistungsstarke Weißlichtquelle entwickelt. Diese wurde erfolgreich in einer Kohärenztomographiemessung (Optical Coherence Tomography - OCT) getestet: Es konnte in ex vivo-Untersuchungen gezeigt werden, dass sich mit dieser ps-Weißlichtquelle eine hohe Eindringtiefe von ca. 400 µm in die Netzhaut eines Affen erreichen lässt.
Die Arbeit beschreibt die Analyse von Beobachtungen zweier Sonnenflecken in zweidimensionaler Spektro-Polarimetrie. Die Daten wurden mit dem Fabry-Pérot-Interferometer der Universität Göttingen am Vakuum-Turm-Teleskop auf Teneriffa erfasst. Von der aktiven Region NOAA 9516 wurde der volle Stokes-Vektor des polarisierten Lichts in der Absorptionslinie bei 630,249 nm in Einzelaufnahmen beobachtet, und von der aktiven Region NOAA 9036 wurde bei 617,3 nm Wellenlänge eine 90-minütige Zeitserie des zirkular polarisierten Lichts aufgezeichnet. Aus den reduzierten Daten werden Ergebniswerte für Intensität, Geschwindigkeit in Beobachtungsrichtung, magnetische Feldstärke sowie verschiedene weitere Plasmaparameter abgeleitet. Mehrere Ansätze zur Inversion solarer Modellatmosphären werden angewendet und verglichen. Die teilweise erheblichen Fehlereinflüsse werden ausführlich diskutiert. Das Frequenzverhalten der Ergebnisse und Abhängigkeiten nach Ort und Zeit werden mit Hilfe der Fourier- und Wavelet-Transformation weiter analysiert. Als Resultat lässt sich die Existenz eines hochfrequenten Bandes für Geschwindigkeitsoszillationen mit einer zentralen Frequenz von 75 Sekunden (13 mHz) bestätigen. In größeren photosphärischen Höhen von etwa 500 km entstammt die Mehrheit der damit zusammenhängenden Schockwellen den dunklen Anteilen der Granulen, im Unterschied zu anderen Frequenzbereichen. Die 75-Sekunden-Oszillationen werden ebenfalls in der aktiven Region beobachtet, vor allem in der Lichtbrücke. In den identifizierten Bändern oszillatorischer Power der Geschwindigkeit sind in einer dunklen, penumbralen Struktur sowie in der Lichtbrücke ausgeprägte Strukturen erkennbar, die sich mit einer Horizontalgeschwindigkeit von 5-8 km/s in die ruhige Sonne bewegen. Diese zeigen einen deutlichen Anstieg der Power, vor allem im 5-Minuten-Band, und stehen möglicherweise in Zusammenhang mit dem Phänomen der „Evershed-clouds“. Eingeschränkt durch ein sehr geringes Signal-Rausch-Verhältnis und hohe Fehlereinflüsse werden auch Magnetfeldvariationen mit einer Periode von sechs Minuten am Übergang von Umbra zu Penumbra in der Nähe einer Lichtbrücke beobachtet. Um die beschriebenen Resultate zu erzielen, wurden bestehende Visualisierungsverfahren der Frequenzanalyse verbessert oder neu entwickelt, insbesondere für Ergebnisse der Wavelet-Transformation.
Was lebt ist in Bewegung. Diese einfache Assoziation gilt nicht nur für ausgewachsene Organismen, sondern auch für einzelne Zellen, die kleinsten lebenden Bausteine der Natur. Die Beweglichkeit von Zellen spielt eine zentrale Rolle bei einer Vielzahl biologischer Vorgänge, wie zum Beispiel der Embryonalentwicklung, der Heilung von Wunden oder der krankhaften Ausbreitung von Krebszellen im Körper. Am Beispiel der Beweglichkeit einer einfachen Amöbe können grundlegende Mechanismen der Zelldynamik untersucht und auf der Grundlage physikalischer Konzepte erklärt werden.
Alexander der Große
(2007)