Refine
Year of publication
Document Type
- Doctoral Thesis (229)
- Article (136)
- Monograph/Edited Volume (84)
- Master's Thesis (3)
- Course Material (2)
- Habilitation Thesis (2)
- Other (2)
- Postprint (1)
- Preprint (1)
Language
- German (460) (remove)
Keywords
- Reflexion (7)
- Physikdidaktik (4)
- Ellipsometrie (3)
- Fluoreszenz (3)
- Lehrkräftebildung (3)
- Ozon (3)
- Physik (3)
- Reflexivität (3)
- Resonanzenergietransfer (3)
- Synchronisation (3)
Institute
- Institut für Physik und Astronomie (460) (remove)
Komplexe Systeme reichen von "harten", physikalischen, wie Klimaphysik, Turbulenz in Fluiden oder Plasmen bis zu so genannten "weichen", wie man sie in der Biologie, der Physik weicher Materie, Soziologie oder Ökonomie findet. Die Ausbildung von Verständnis zu einem solchen System beinhaltet eine Beschreibung in Form von Statistiken und schlussendlich mathematischen Gleichungen. Moderne Datenanalyse stellt eine große Menge von Werkzeugen zur Analyse von Komplexität auf verschiedenen Beschreibungsebenen bereit. In diesem Kurs werden statistische Methoden mit einem Schwerpunkt auf dynamischen Systemen diskutiert und eingeübt. Auf der methodischen Seite werden lineare und nichtlineare Ansätze behandelt, inklusive der Standard-Werkzeuge der deskriptiven und schlussfolgernden Statistik, Wavelet Analyse, Nichtparametrische Regression und der Schätzung nichtlinearer Maße wie fraktaler Dimensionen, Entropien und Komplexitätsmaßen. Auf der Modellierungsseite werden deterministische und stochastische Systeme, Chaos, Skalierung und das Entstehen von Komplexität durch Wechselwirkung diskutiert - sowohl für diskrete als auch für ausgedehnte Systeme. Die beiden Ansätze werden durch Systemanalyse jeweils passender Beispiele vereint.
Komplexe Systeme reichen von "harten", physikalischen, wie Klimaphysik, Turbulenz in Fluiden oder Plasmen bis zu so genannten "weichen", wie man sie in der Biologie, der Physik weicher Materie, Soziologie oder Ökonomie findet. Die Ausbildung von Verständnis zu einem solchen System beinhaltet eine Beschreibung in Form von Statistiken und schlussendlich mathematischen Gleichungen. Moderne Datenanalyse stellt eine große Menge von Werkzeugen zur Analyse von Komplexität auf verschiedenen Beschreibungsebenen bereit. In diesem Kurs werden statistische Methoden mit einem Schwerpunkt auf dynamischen Systemen diskutiert und eingeübt. Auf der methodischen Seite werden lineare und nichtlineare Ansätze behandelt, inklusive der Standard-Werkzeuge der deskriptiven und schlussfolgernden Statistik, Wavelet Analyse, Nichtparametrische Regression und der Schätzung nichtlinearer Maße wie fraktaler Dimensionen, Entropien und Komplexitätsmaßen. Auf der Modellierungsseite werden deterministische und stochastische Systeme, Chaos, Skalierung und das Entstehen von Komplexität durch Wechselwirkung diskutiert - sowohl für diskrete als auch für ausgedehnte Systeme. Die beiden Ansätze werden durch Systemanalyse jeweils passender Beispiele vereint.
Komplexe Systeme reichen von "harten", physikalischen, wie Klimaphysik, Turbulenz in Fluiden oder Plasmen bis zu so genannten "weichen", wie man sie in der Biologie, der Physik weicher Materie, Soziologie oder Ökonomie findet. Die Ausbildung von Verständnis zu einem solchen System beinhaltet eine Beschreibung in Form von Statistiken und schlussendlich mathematischen Gleichungen. Moderne Datenanalyse stellt eine große Menge von Werkzeugen zur Analyse von Komplexität auf verschiedenen Beschreibungsebenen bereit. In diesem Kurs werden statistische Methoden mit einem Schwerpunkt auf dynamischen Systemen diskutiert und eingeübt. Auf der methodischen Seite werden lineare und nichtlineare Ansätze behandelt, inklusive der Standard-Werkzeuge der deskriptiven und schlussfolgernden Statistik, Wavelet Analyse, Nichtparametrische Regression und der Schätzung nichtlinearer Maße wie fraktaler Dimensionen, Entropien und Komplexitätsmaßen. Auf der Modellierungsseite werden deterministische und stochastische Systeme, Chaos, Skalierung und das Entstehen von Komplexität durch Wechselwirkung diskutiert - sowohl für diskrete als auch für ausgedehnte Systeme. Die beiden Ansätze werden durch Systemanalyse jeweils passender Beispiele vereint.
Komplexe Systeme reichen von "harten", physikalischen, wie Klimaphysik, Turbulenz in Fluiden oder Plasmen bis zu so genannten "weichen", wie man sie in der Biologie, der Physik weicher Materie, Soziologie oder Ökonomie findet. Die Ausbildung von Verständnis zu einem solchen System beinhaltet eine Beschreibung in Form von Statistiken und schlussendlich mathematischen Gleichungen. Moderne Datenanalyse stellt eine große Menge von Werkzeugen zur Analyse von Komplexität auf verschiedenen Beschreibungsebenen bereit. In diesem Kurs werden statistische Methoden mit einem Schwerpunkt auf dynamischen Systemen diskutiert und eingeübt. Auf der methodischen Seite werden lineare und nichtlineare Ansätze behandelt, inklusive der Standard-Werkzeuge der deskriptiven und schlussfolgernden Statistik, Wavelet Analyse, Nichtparametrische Regression und der Schätzung nichtlinearer Maße wie fraktaler Dimensionen, Entropien und Komplexitätsmaßen. Auf der Modellierungsseite werden deterministische und stochastische Systeme, Chaos, Skalierung und das Entstehen von Komplexität durch Wechselwirkung diskutiert - sowohl für diskrete als auch für ausgedehnte Systeme. Die beiden Ansätze werden durch Systemanalyse jeweils passender Beispiele vereint.
Komplexe Systeme reichen von "harten", physikalischen, wie Klimaphysik, Turbulenz in Fluiden oder Plasmen bis zu so genannten "weichen", wie man sie in der Biologie, der Physik weicher Materie, Soziologie oder Ökonomie findet. Die Ausbildung von Verständnis zu einem solchen System beinhaltet eine Beschreibung in Form von Statistiken und schlussendlich mathematischen Gleichungen. Moderne Datenanalyse stellt eine große Menge von Werkzeugen zur Analyse von Komplexität auf verschiedenen Beschreibungsebenen bereit. In diesem Kurs werden statistische Methoden mit einem Schwerpunkt auf dynamischen Systemen diskutiert und eingeübt. Auf der methodischen Seite werden lineare und nichtlineare Ansätze behandelt, inklusive der Standard-Werkzeuge der deskriptiven und schlussfolgernden Statistik, Wavelet Analyse, Nichtparametrische Regression und der Schätzung nichtlinearer Maße wie fraktaler Dimensionen, Entropien und Komplexitätsmaßen. Auf der Modellierungsseite werden deterministische und stochastische Systeme, Chaos, Skalierung und das Entstehen von Komplexität durch Wechselwirkung diskutiert - sowohl für diskrete als auch für ausgedehnte Systeme. Die beiden Ansätze werden durch Systemanalyse jeweils passender Beispiele vereint.
Kosmologie beschreibt die Entwicklung des Universums als Ganzes. Kosmologische Entdeckungen in Theorie und Praxis haben daher unser modernes wissenschaftliches Weltbild entscheidend geprägt. Die Vermittlung eines modernen Weltbildes durch Unterricht ist ein häufiger Wunsch in der naturwissenschaftlichen Bildungsdiskussion. Dennoch existieren weiterhin Forschungs- und Entwicklungsbedarfe. Kosmologische Themen finden sich häufig in den Medien und sind gleichzeitig weiter vom Alltag entfernt, so dass sich hier besonders leicht wissenschaftlich inkorrekte Vorstellungen entwickeln können, die zu Problemen im Unterricht führen können.
Das Ziel dieser wissenschaftlichen Arbeit ist es, zu diesem Forschungsgebiet beizutragen und die Voraussetzungen hinsichtlich vorhandener Vorkenntnisse und Präkonzepte in Kosmologie, mit denen Schülerinnen und Schüler in den Unterricht kommen, zu untersuchen und anschließend mit denen anderer Länder zu vergleichen. Dies erfolgt anhand einer qualitativen Inhaltsanalyse eines offenen Fragebogens. Auf dieser Grundlage wird schließlich ein Multiple-Choice Fragebogen entwickelt, angewendet und evaluiert.
Die Ergebnisse zeigen große Wissenslücken im Bereich der Kosmologie auf und geben erste Hinweise auf vorhandene Unterschiede zwischen den Ländern. Es existieren ebenfalls einige teils weit verbreitete wissenschaftlich inkorrekte Vorstellungen wie beispielsweise die Assoziation des Urknalls mit einer Explosion, der Urknall verursacht durch eine Kollision von Teilchen oder größeren Objekten, oder die Vorstellung der Ausdehnung des Universums als neue Entdeckungen und/oder Wissen. Des Weiteren gab nur etwa jeder Fünfte das korrekte Alter des Universums oder die Ausdehnung des Universums als einen der drei Belege der Urknalltheorie an, während fast 40% keinen einzigen Beleg nennen konnten. Für den geschlossenen Fragebogen konnten gute Hinweise für verschiedene Validitätsaspekte herausgearbeitet werden und es existieren erste Hinweise darauf, dass der Fragebogen Wissenszuwachs messen kann und damit wahrscheinlich zur Untersuchung der Wirksamkeit von Lerneinheiten eingesetzt werden kann. Auch ein entsprechendes Modell zur Verständnisentwicklung der Ausdehnung des Universums zeigte sich vielversprechend.
Diese Arbeit liefert insgesamt einen Forschungsbeitrag zum Schülervorwissen und Vorstellungen in der Kosmologie und deren Large Scale Assessment. Dies eröffnet die Möglichkeit zukünftiger Forschungen im Bereich von Gruppenvergleichen insbesondere hinsichtlich objektiver Ländervergleiche sowie der Untersuchungen der Wirksamkeit von einzelnen Lerneinheiten als auch Vergleiche verschiedener Lerneinheiten untereinander.
Alexander der Große
(2007)
In der Nanotechnologie und der molekularen Biologie werden immer kleinere Strukturelemente, wie beispielsweise einzelne Atomlagen oder Molekülgruppen, manipuliert, um bestimmte Funktionen zu erzielen. Veränderungen in solchen Systemen laufen auf atomarer Längen- und Zeitskala ab. Für das physikalische Verständnis dieser ultraschnellen Prozesse ist ein anschauliches Bild wichtig. Dank ihrer hohen Struktur- und Zeitauflösung liefert die Femtosekunden-Röntgenbeugung Bildsequenzen atomarer Bewegung von Molekülen und Festkörpern und ermöglicht somit Rückschlüsse über die komplexe Wechselwirkung zwischen Elektronen- und Kernbewegungen. Die aktuellen und zukünftigen Möglichkeiten, Atomen bei ihren Bewegungen zuzusehen, diskutiert der Referent an aktuellen Beispielen.
Carbonfasern haben sich in der Luft- und Raumfahrt etabliert und gewinnen in Alltagsanwendungen wie dem Automobilbereich, Windkraft- und Sportbereich durch ihre hohen Zugfestigkeiten, insbesondere ihrer hohen E-Moduli, und ihrer geringen Dichte immer mehr an Bedeutung. Auf Grund ihrer hohen Kosten, welche sich zur Hälfte aus der Precursorherstellung, inklusive seiner Synthese und seinem Verspinnprozess, dem Lösungsspinnverfahren, ergeben, erhalten zunehmend alternative und schmelzspinnbare Precursoren Interesse. Für die Carbonfaserherstellung wird fast ausschließlich Polyacrylnitril (PAN) verwendet, das vor dem Schmelzen irreversible exotherme Zyklisierungsreaktionen aufweist, welchen sich seine Zersetzung anschließt. Eine Möglichkeit der Reduzierung der Schmelztemperatur von Polymeren ist die Einbringung von Comonomeren zur Erhöhung des freien Volumens und die Reduzierung der intermolekularen Wechselwirkungen als interne Weichmacher. Wie am Fraunhofer IAP gezeigt wurde, kann mittels 2-Methoxyethylacrylat (MEA) die Schmelztemperatur zu neuartigen PAN-basierten Precursoren verringert werden. Um den PAN-co-MEA-Precursor für die nachfolgenden Prozessschritte der Carbonfaserherstellung zu verwenden, müssen die thermoplastischen Fasern in thermisch stabile Fasern ohne thermoplastisches Verhalten überführt werden. Es wurde ein neuer Prozessschritt (Prästabilisierung) eingeführt, welcher unter alkalischen Bedingungen zur Abspaltung der Comonomerseitenkette führt. Neben der Esterhydrolyse finden Reaktionen statt, welche an diesem Material noch nicht hinreichend untersucht wurden. Weiterhin stellt sich die Frage nach der Kinetik der Prästabilisierung und der Ermittlung einer geeigneten Prozessführung.
Hierzu wurde die Prästabilisierung in den Labormaßstab überführt und die möglichen Zusammensetzungen des aus DMSO und einer KOH-Lösung bestehenden Reaktionsmediums evaluiert. Weiterhin wurde die Behandlung bei verschiedenen Prästabilisierungszeiten von maximal 30 min und Temperaturen von 40, 50 und 60 °C durchgeführt, um primär mittels NMR-Spektroskopie die chemischen Strukturänderungen aufzuklären. Die Esterhydrolyse des Comonomers, welche zur Abspaltung des 2-Methoxyethanols führt, wurde mittels 1H-NMR-spektroskopischer Untersuchungen detektiert.
Es wurde ein Modell aufgestellt, das die chemisch-physikalischen Strukturänderungen während der Prästabilisierung aufzeigt. Die zuerst ablaufende Reaktion ist die Esterhydrolyse am Comonomer, welche vom Faserrand nach innen verläuft und durch die Präsenz des DMSO in Kombination mit der KOH-Lösung (Superbase) initiiert wird. Der zeitliche Reaktionsverlauf der Esterhydrolyse kann in drei Bereiche eingeteilt werden. Der erste Bereich ab dem Prästabilisierungsbeginn wird durch die Diffusion der basischen Anionen in die Faser, der zweite Bereich durch die Reaktion an der Estergruppe des Comonomers und der dritte Bereich durch letzte Reaktionen im Faserinneren und diffusiven Prozessen der Produkte und Edukte charakterisiert. Der zweite Bereich kann mit einer Reaktion pseudo 1. Ordnung abgebildet werden, da in diesem Bereich bereits eine ausreichende Diffusion der Edukte in die Faser stattgefunden hat. Bei 50 °C spielt die Diffusion im ersten Bereich im Vergleich zur Reaktion eine untergeordnete Rolle. Mit Erhöhung der Temperatur auf 60 °C kann eine im Verhältnis geringere Diffusions- als Reaktionsgeschwindigkeit beobachtet werden. Die Nebenreaktionen wurden mittels 13C-CP/MAS-NMR-spektroskopischen, elementaranlaytischen Untersuchungen sowie Doppelbrechungsmessungen charakterisiert. Während der alkalischen Esterhydrolyse beginnt die Reduzierung der Nitrilgruppen unter der Bildung von primären Carbonsäureamiden und Carbonsäuren. Zur Beschreibung dieser Umsetzung wurde eine Methode entwickelt, welche die Addition von 13C-CP/MAS-NMR-Spektren der Modellsubstanzen PAN, PAM und PAA beinhaltet. Weitere stattfindende Reaktionen sind die Bildung von konjugierten Doppelbindungen, welche insbesondere auf eine Zyklisierung der Nitrile hinweisen. Die nasschemisch initiierte Zyklisierung der Nitrilgruppen kann zu kürzeren Stabilisierungszeiten und einem besser kontrollierbaren Stabilisierungsprozess durch geringere Wärmefreisetzung und schlussendlich zu einer Kostenersparnis des gesamten Verfahrens führen. Die Umsetzung der Nitrilgruppen konnte mit einer Reaktion pseudo 1. Ordnung gut abgebildet werden. DMSO initiiert die Esterhydrolyse, wobei die KOH-Konzentration einen höheren Einfluss auf die Reaktionsgeschwindigkeit der Ester- und Nitrilhydrolyse als die DMSO-Konzentration besitzt. Beide Reaktionen zeigen eine vergleichbare Abhängigkeit von der Temperatur. Die Erhöhung der Prästabilisierungszeit und der KOH- bzw. DMSO-Konzentration führt zur Migration niedermolekularer Bestandteile des Fasermaterials an die Oberfläche und der Bildung punktueller Ablagerungen bis hin zu miteinander verbundenen Einzelfasern. Eine weitere Erhöhung der Prästabilisierungszeit bzw. der Konzentration führt zu einem steigenden Carbonsäureanteil und zur Quellung des Fasermaterials, wodurch die Ablagerungen in das Reaktionsmedium diffundieren. Die Ablagerungen enthalten Chlor, welches durch den Waschvorgang mit HCl in das Materialsystem gelangt ist und durch Parameteranpassungen reduziert wurde. Die schmelzbaren Fasern konnten durch die Prästabilisierung erfolgreich über eine Kern-Mantel-Struktur in nicht-thermoplastische Fasern überführt werden.
Zur Ermittlung eines geeigneten Prozessfensters für nachfolgende thermische Beanspruchungen der prästabilisierten Fasern wurden drei Kriterien identifiziert, anhand welcher die Evaluation erfolgte. Das erste Kriterium beinhaltet die Notwendigkeit der vollständigen Aufhebung der thermoplastischen Eigenschaft der Fasern. Als zweites Kriterium diente die Fasermorphologie. Anhand von REM-Aufnahmen wurden Faserbündel mit separierten Einzelfasern ohne Ablagerungen für die nachfolgende Stabilisierung ausgewählt. Das dritte Kriterium bezieht sich auf eine möglichst geringe Umsetzung der Nitrilgruppen, um Prästabilisierungsbedingungen mit Nebenreaktionen zu vermeiden.
Aus den Untersuchungen konnte eine Prästabilisierungstemperatur von 60 °C als geeignet identifiziert werden. Weiterhin führen hoch alkalische Zusammensetzungen des Reaktionsmediums mit KOH-Konzentrationen von 1, 1,5 und 2 M, vorzugsweise 1,5 M und 50 vol% DMSO mit Reaktionszeiten von unter 10 min zu geeigneten Fasern. Ein MEA-Anteil unterhalb von 2 mol% bewirkt eine Überführung in die Unschmelzbarkeit. Thermisch stabile und für die nachfolgende Stabilisierung geeignete Fasern besitzen weiterhin 68 – 80 mol% Nitrilgruppen, 20 – 25 mol% Carbonsäuren, bis zu 15 mol% primäre Carbonsäureamide und zyklisierte Strukturen.
Energie
(2001)
Am Beispiel der Orgelpfeife wurde der Einfluss der Wandungsgeometrie des akustischen Wellenleiters auf die Schallabstrahlung untersucht. Für verschiedene Metalllegierungen wurden unterschiedliche Profile der Orgelpfeifenwandung verglichen: ein konisches Wandungsprofil mit zur Mündung hin abnehmender Wandungsstärke und ein paralleles Wandungsprofil mit konstanter Wandungsstärke. Für eine hohe statistische Sicherheit der Ergebnisse wurden sämtliche Untersuchungen an vier mal zehn Testpfeifen durchgeführt. Mit Ausnahme der beschriebenen Unterschiede sind die Pfeifen von gleichen Abmessungen und auf gleichen Klang intoniert. Die Überprüfung der Wandungseinflüsse auf den Klang besteht aus drei verschiedenen Untersuchungen: Erstens, einer subjektiven Hinterfragung der Wahrnehmbarkeit in einem Hörtest. Zweitens wurde der abgestrahlte Luftschall objektiv gemessen und das Spektrum der Pfeifen in seinen Komponenten (Teiltöne, Grundfrequenz) verglichen. Drittens wurde mit einer neuartigen Messtechnik die Oszillation des Pfeifenkörpers (ein einem akustischen Monopol entsprechendes "Atmen" des Querschnitts) untersucht. Die Ergebnisse belegen die Wahrnehmbarkeit unterschiedlicher Wandungsprofile als auch klare objektive Differenzen zwischen den emittierten Schallspektren. Ein Atmen mit guter Korrelation zur inneren Druckanregung bestätigt den Einfluss wandungsprofilabhängiger Oszillationen auf den Klang der Orgelpfeife. Schließlich wurde die Interaktion zweier in Abstand und Grundfrequenz nah beieinander liegender Orgelpfeifen überprüft. Als Ursache des dabei wahrnehmbaren Oktavsprung des Orgeltons konnte eine gegenphasiger Oszillation des Grundtons beider Pfeifen nachgewiesen werden.
Was lebt ist in Bewegung. Diese einfache Assoziation gilt nicht nur für ausgewachsene Organismen, sondern auch für einzelne Zellen, die kleinsten lebenden Bausteine der Natur. Die Beweglichkeit von Zellen spielt eine zentrale Rolle bei einer Vielzahl biologischer Vorgänge, wie zum Beispiel der Embryonalentwicklung, der Heilung von Wunden oder der krankhaften Ausbreitung von Krebszellen im Körper. Am Beispiel der Beweglichkeit einer einfachen Amöbe können grundlegende Mechanismen der Zelldynamik untersucht und auf der Grundlage physikalischer Konzepte erklärt werden.
Der Einfluss der Dynamik auf die stratosphärische Ozonvariabilität über der Arktis im Frühwinter
(2010)
Der frühwinterliche Ozongehalt ist ein Indikator für den Ozongehalt im Spätwinter/Frühjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivität von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilität weitestgehend auf dynamische Prozesse während der Wirbelbildungsphase des arktischen Polarwirbels zurückgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem früh- und spätwinterlichen Ozongehalt bezüglich Dynamik und Chemie aufgezeigt. Für die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die über die Fläche (45–75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fläche zeigt eine Verbindung zwischen der frühwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur für die untere Stratosphäre gültig, da die Vertikalkomponente die sich innerhalb der Stratosphäre ändernden Wellenausbreitungsbedingungen nicht erfasst. Für eine verbesserte Höhendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Größe definiert. Diese neue Größe verbindet die Wellenaktivität während der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung über die Breite. Eine verstärkte Wellenaktivität führt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Frühwinter zerstören chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablität, die durch dynamische Prozesse während der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter ermöglicht eine Abschätzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden für den Winter 1999–2000 Modellläufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen über den Erhalt der künstlichen Ozonvariabilität hinsichtlich Zeit, Höhe und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilität während der Wirbelbildungsphase länger im Inneren als im Äußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilität. In darunterliegenden Höhenbereichen ist der Anteil an der ursprünglichen Störung groß, bis zu 90% auf der 450K. Innerhalb dieses Höhenbereiches üben die dynamischen Prozesse während der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus.
In der vorliegenden Arbeit werden Methoden der Erdsystemanalyse auf die Untersuchung der Habitabilität terrestrischer Exoplaneten angewandt. Mit Hilfe eines parametrisierten Konvektionsmodells für die Erde wird die thermische Evolution von terrestrischen Planeten berechnet. Bei zunehmender Leuchtkraft des Zentralsterns wird über den globalen Karbonat-Silikat-Kreislauf das planetare Klima stabilisiert. Für eine photosynthetisch-aktive Biosphäre, die in einem bestimmten Temperaturbereich bei hinreichender CO2-Konzentration existieren kann, wird eine Überlebenspanne abgeschätzt. Der Abstandsbereich um einen Stern, in dem eine solche Biosphäre produktiv ist, wird als photosynthetisch-aktive habitable Zone (pHZ) definiert und berechnet. Der Zeitpunkt, zu dem die pHZ in einem extrasolaren Planetensystem endgültig verschwindet, ist die maximale Lebenspanne der Biosphäre. Für Supererden, massereiche terrestrische Planeten, ist sie umso länger, je massereicher der Planet ist und umso kürzer, je mehr er mit Kontinenten bedeckt ist. Für Supererden, die keine ausgeprägten Wasser- oder Landwelten sind, skaliert die maximale Lebenspanne mit der Planetenmasse mit einem Exponenten von 0,14. Um K- und M-Sterne ist die Überlebensspanne einer Biosphäre auf einem Planeten immer durch die maximale Lebensspanne bestimmt und nicht durch das Ende der Hauptreihenentwicklung des Zentralsterns limitiert. Das pHZ-Konzept wird auf das extrasolare Planetensystem Gliese 581 angewandt. Danach könnte die 8-Erdmassen-Supererde Gliese 581d habitabel sein. Basierend auf dem vorgestellten pHZ-Konzept wird erstmals die von Ward und Brownlee 1999 aufgestellte Rare-Earth-Hypothese für die Milchstraße quantifiziert. Diese Hypothese besagt, dass komplexes Leben im Universum vermutlich sehr selten ist, wohingegen primitives Leben weit verbreitet sein könnte. Unterschiedliche Temperatur- und CO2-Toleranzen sowie ein unterschiedlicher Einfluss auf die Verwitterung für komplexe und primitive Lebensformen führt zu unterschiedlichen Grenzen der pHZ und zu einer unterschiedlichen Abschätzung für die Anzahl der Planeten, die mit den entsprechenden Lebensformen besiedelt sein könnten. Dabei ergibt sich, dass komplex besiedelte Planeten heute etwa 100-mal seltener sein müssten als primitiv besiedelte.
In dieser Arbeit wurde die Variabilität der Atmosphäre in einem neuen gekoppelten Klimamodell (ECHO-GiSP) untersucht, welches eine vereinfachte Stratosphärenchemie (bis 80 km Höhe) enthält. Es wurden 2 Simulationen über 150 Jahre durchgeführt. In einer der Simulationen wurde die atmosphärische Chemie modelliert, hatte aber keinen Einfluß auf die Dynamik des Klimamodelles. In der zweiten Simulation wurde hingegen die Wirkung der Chemie auf die Klimadynamik explizit berücksichtigt, die über die Strahlungsbilanz des Modelles erfolgt. Dies ist die erste Langzeitsimulation mit einem voll gekoppelten globalen Klimamodell mit interaktiver Chemie. Die Simulation mit rückgekoppelter Chemie zeigt eine Abschwächung des atmosphärischen Variabilitätsmusters der Arktischen Oszillation (AO). Zudem kommt es in der Troposphäre zu einer Reduzierung der mittleren Windgeschwindigkeiten der gemäßigten Breiten aufgrund verringerter Temperaturgegensätze zwischen den Tropen und den Polargebieten. Auch in der Stratosphäre ergibt sich eine Abschwächung und Erwärmung des Polarwirbels. Diese Auswirkungen der Kopplung zwischen der atmosphärischen Chemie und der Dynamik des Klimamodelles sind eine wichtige Erkenntnis, da in früheren Klimasimulationen die Variabilität der AO oft zu stark ausgeprägt war. In der Stratosphäre reduziert sich infolge des abgeschwächten Polarwirbels auch die großräumige Zirkulation zwischen den beiden Hemisphären der Erde. In der Troposphäre werden hingegen die allgemeine Zirkulation, und damit auch die subtropischen Strahlströme des Windes verstärkt. Zudem kommt es in den Tropen zu Temperaturänderungen durch stratosphärische Ozonschwankungen in Abhängigkeit von der AO. Allgemein verändert sich die Kopplung zwischen Troposphäre und Stratosphäre, einschließlich des durch die Anregung von langen atmosphärischen Wellen erfolgenden vertikalen Energieübertrages aus der Troposphäre in die Stratosphäre.
Feuchtesensor
(1994)