550 Geowissenschaften
Refine
Year of publication
Document Type
- Review (109)
- Article (106)
- Doctoral Thesis (55)
- Part of Periodical (14)
- Report (13)
- Conference Proceeding (10)
- Monograph/Edited Volume (9)
- Master's Thesis (6)
- Bachelor Thesis (4)
- Other (4)
Language
- German (332) (remove)
Keywords
- Brandenburg (8)
- Umweltschutz (7)
- Klimaanpassung (6)
- GIS (4)
- Starkregen (4)
- Erosion (3)
- Fernerkundung (3)
- Geochemie (3)
- Klimaschutz (3)
- Klimawandel (3)
Leitfaden für die Erstellung von kommunalen Aktionsplänen zur Steigerung der urbanen Klimaresilienz
(2024)
Die durch Klimaveränderungen hervorgerufenen Auswirkungen auf Menschen und Umwelt werden immer offensichtlicher: Neben der gesundheitlichen Gefährdung durch Hitzewellen, die deutschlandweit seit einigen Jahren eine steigende Rate an Todes- und Krankheitsfällen zur Folge hat sind in den letzten Jahren zunehmend Starkniederschläge und daraus resultierenden Überschwemmungen bzw. Sturzfluten aufgetreten. Diese ziehen zum Teil immensen wirtschaftlichen Schäden, aber auch Beeinträchtigungen für die menschliche Gesundheit – sowohl physisch als auch psychisch – sowie gar Todesopfer nach sich. Es ist davon auszugehen, dass diese Extremwetterereignisse zukünftiger noch häufiger auftreten werden.
Um die Bevölkerung besser vor den Folgen dieser Wetterextreme zu schützen, sind neben Klimaschutzmaßnahmen auch Vorsorge- und Anpassungsmaßnahmen zur Steigerung der kommunalen Klimaresilienz dringend notwendig. Dazu bedarf es einerseits einer Auseinandersetzung mit den eigenen kommunalen Risiken und daraus resultierenden Handlungsbedarfen, und andererseits eines interdisziplinären, querschnittsorientierten und prozessorientierten Planens und Handelns. Aktionspläne sollen diese beiden Aspekte bündeln.
In den letzten Jahren sind einige kommunale und kommunenübergreifende (Hitze-) aufgestellt worden. Diese unterscheiden sich jedoch in ihrem Inhalt und Umfang zum Teil erheblich. Mit dem vorliegenden Leitfaden soll eine effektive Hilfestellung geschaffen werden, um Kommunen bzw. die kommunale Verwaltung auf dem Weg zum eigenen Aktionsplan zu unterstützt. Dabei fokussiert der Leitfaden auf die Herausforderungen, die sich durch vermehrte Hitze- und Starkregenereignisse ergeben. Er stützt sich auf schon vorhandene Arbeitshilfen, Handlungsempfehlungen, Leitfäden und weitere Hinweise und verweist an vielen Stellen auch darauf. So soll ein praxistauglicher Leitfaden entstehen, der flexibel anwendbar ist. Mit Hilfe des vorliegenden Leitfadens können Kommunen ihre Aktivitäten auf Hitze oder Starkregen fokussieren oder einen umfassenden Aktionsplan für beide Themenbereiche erstellen.
Mehrphasige DNAPL-Pools zählen zu den häufigsten Ursachen für Grundwasserkontaminationen und sind bekannt für ihre Langlebigkeit. Obwohl Untersuchungen bereits gezeigt haben, dass die Phasen sich in ihrer Wasserlöslichkeit gegenseitig beeinflussen, werden diese Interaktionen von bisherigen Modellen vernachlässigt. Aus diesem Grund wurde ein semi-analytisches Berechnungsmodell entwickelt, welches die Poolzusammensetzung als zeitlich variabel behandelt. Basierend auf dem Raoult’schen Gesetz werden für jede Komponente Molanteil, effektive Wasserlöslichkeit und schließlich der Schadstoffaustrag infolge Advektion, Dispersion und Diffusion bestimmt. Die Ergebnisse unterscheiden sich deutlich von Studien an einphasigen Pools. So wird gezeigt, dass Schadstofffrachten über die Zeit sowohl zu- als auch abnehmen können und dass ohne Berücksichtigung des Raoult’schen Gesetzes sowohl die Langlebigkeit von DNAPL-Pools als auch die Dauer bis zur Unterschreitung von Grenzwerten teils deutlich unterschätzt wird. Eine Sensitivitätsanalyse zeigt zudem, dass schwer lösliche Nebenbestandteile nicht vernachlässigt werden dürfen, leicht lösliche hingegen schon.
Küstennahe Niedermoore wurden durch den Menschen verändert, bspw. durch das Anlegen von Entwässerungsgräben, dem Bau von Küstenschutzdeichen oder aktuell einer Renaturierung. Außerdem ist es wichtig die komplexe Interaktion mit der See zu verstehen, um Aussagen über die zukünftige Entwicklung treffen zu können. In der vorliegenden Studie wurde die ober- und unterirdische Strömung in einem Feuchtgebiet an der mecklenburgischen Ostseeküste nahe Warnemünde
(Deutschland) untersucht, um dessen wechselseitigen Austausch mit der Ostsee zu quantifizieren und zu analysieren, wie sich ein Sturmhochwasserereignis auf den Salzeintrag ins Gebiet auswirkt. Hierfür wurde ein dreidimensionales
instationäres Grundwassermodell erstellt, mit einem eindimensionalen Modell des Grabensystems gekoppelt und mit Messungen im Gebiet kalibriert und verglichen. Die Ergebnisse zeigen, dass neben der oberirdischen Entwässerung auch der
Grundwasserabstrom in Richtung Ostsee eine wesentliche Komponente der Wasserbilanz darstellt. Das Verhalten entlang der Küste wird deutlich durch die Dynamik der Ostseewasserstände geprägt, wobei ein Grundwasserabstrom mit einem
Zustrom von Ostseewasser bei hohen Küstenwasserständen innerhalb täglicher bis wöchentlicher Zeitskalen wechselt.
Die Hochwasserkatastrophe im Juli 2021 in Westdeutschland erfordert eine kritische Diskussion über die Abschätzung der Hochwassergefährdung, Aktualisierung von Hochwassergefahrenkarten und Kommunikation von extremen Hochwasserszenarien. In der vorliegenden Arbeit wurde die Extremwertstatistik für die jährlichen maximalen Spitzenabflüsse am Pegel Altenahr im Ahrtal mit und ohne Berücksichtigung historischer Hochwasser berechnet und verglichen. Die Schätzung der Wiederkehrperiode für das aktuelle Hochwasser mittels Generalisierter Extremwertverteilung (GEV) unter Berücksichtigung historischer Hochwasser schwankt zwischen etwa 2.600 und über 58.700 Jahren (90%-Konfidenzintervall) mit einem Median bei etwa 8.600 Jahren, wogegen die Schätzung, die nur auf der systematisch gemessenen Abflusszeitreihe von 74 Jahren basiert, theoretisch eine Wiederkehrperiode von über 100 Millionen Jahren ergeben würde. Die Berücksichtigung der historischen Hochwasser führt zu einer dramatischen Änderung der Hochwasserquan-
tile, die für eine Gefahrenkartierung zugrunde gelegt werden. Die Anpassung der GEV an die Zeitreihe mit historischen Hochwassern zeigt dennoch, dass das GEV-Modell möglicherweise die Grundgesamtheit der Hochwasser im Ahrtal nicht adäquat abbilden kann. Es könnte sich im vorliegenden Fall um eine gemischte Stichprobe handeln, in der die extremen Hochwasser im Vergleich zu kleineren Ereignissen durch besondere Prozesse hervorgerufen werden. Somit könnten die Wahrscheinlichkeiten von extremen Hochwassern deutlich größer sein, als aus dem GEV-Modell hervorgeht. Hier sollte in Zukunft die Anwendung einer prozessbasierten Mischverteilung
untersucht werden. Der Vergleich von amtlichen Gefahrenkarten zu Extremhochwassern (HQextrem) im Ahrtal mit den Überflutungsflächen vom Juli 2021
zeigt eine deutliche Diskrepanz in den betroffenen Gebieten und die Notwendigkeit, die Grundlagen zur Erstellung der Extremszenarien zu überdenken. Die hydrodynamisch-numerischen Simulationen von 1.000-jährlichen Hochwassern (HQ1000) unter Berücksichtigung historischer Ereignisse und des größten historischen Hochwassers 1804 können die Gefährdung des Juli-Hochwassers 2021 deutlich besser widerspiegeln, wenngleich auch diese beiden Szenarien die Überflutungsflächen unterschätzen. Besondere Effekte wie die Verklausung von Brücken und die geomorphologischen Änderungen im Flussschlauch führten zu noch größeren Überflutungs- flächen im Juli 2021, als die Simulationsergebnisse zeigten. Basierend auf dieser Analyse wird eine einheitliche Festlegung von HQextrem bei Hochwassergefahrenkartierungen in Deutschland vorgeschlagen, die sich an höheren Hochwasserquantilen im Bereich von HQ1000 orientiert. Zusätzlich sollen simulationsbasierte Rekonstruktionen von den größten verlässlich dokumentierten historischen Hochwassern und/oder synthetische Worst-Case-Szenarien in den Hochwassergefahrenkarten gesondert dargestellt werden. Damit wird ein wichtiger Beitrag geleistet, um die potenziell betroffene Bevölkerung und das Katastrophenmanagement vor Überraschungen durch sehr seltene und extreme Hochwasser in Zukunft besser zu schützen.
In Forschungsprogrammen werden zahlreiche Akteure mit unterschiedlichen Hintergründen und fachlichen Expertisen in Einzel- oder Verbundvorhaben vereint, die jedoch weitestgehend unabhängig voneinander durchgeführt werden. Vor dem Hintergrund, dass gesamtgesellschaftliche Herausforderungen wie die globale Erwärmung zunehmend disziplinübergreifende Lösungsansätze erfordern, sollten Vernetzungs- und Transferprozesse in Forschungsprogrammen stärker in den Fokus rücken. Mit der Implementierung einer Begleitforschung kann dieser Forderung Rechnung getragen werden. Begleitforschung unterscheidet sich in ihrer Herangehensweise und ihrer Zielvorstellung von den „üblichen“ Projekten und kann in unterschiedlichen theoretischen Reinformen auftreten. Verkürzt dargestellt agiert sie entweder (1) inhaltlich komplementär zu den jeweiligen Forschungsprojekten, (2) auf einer Metaebene mit Fokus auf die Prozesse im Forschungsprogramm oder (3) als integrierende, synthetisierende Instanz, für die die Vernetzung der Projekte im Forschungsprogramm sowie der Wissenstransfer von Bedeutung sind. Zwar sind diese Formen analytisch in theoretische Reinformen trennbar, in der Praxis ergibt sich in der Regel jedoch ein Mix aus allen dreien.
In diesem Zusammenhang schließt die vorliegende Dissertation als ergänzende Studie an bisherige Ansätze zum methodischen Handwerkszeug der Begleitforschung an und fokussiert auf folgende Fragestellungen: Auf welcher Basis kann die Vernetzung der Akteure in einem Forschungsprogramm durchgeführt werden, um diese effektiv zusammenzubringen? Welche weiteren methodischen Elemente sollten daran ansetzen, um einen Mehrwert zu generieren, der die Summe der Einzelergebnisse des Forschungsprogrammes übersteigt? Von welcher Art kann dann ein solcher Mehrwert sein und welche Rolle spielt dabei die Begleitforschung?
Das erste methodische Element bildet die Erhebung und Aufbereitung einer Ausgangsdatenbasis. Durch eine auf semantischer Analyse basierenden Verschlagwortung projektbezogener Texte lässt sich eine umfassende Datenbasis aus den Inhalten der Forschungsprojekte generieren. Die Schlagwörter werden dabei anhand eines kontrollierten Vokabulars in einem Schlagwortkatalog strukturiert. Parallel dazu werden sie wiederum den jeweiligen Projekten zugeordnet, wodurch diese thematische Merkmale erhalten. Um thematische Überschneidungen zwischen Forschungsprojekten sichtbar und interpretierbar zu machen, beinhaltet das zweite Element Ansätze zur Visualisierung. Dazu werden die Informationen in einen Netzwerkgraphen transferiert, der sowohl alle im Forschungsprogramm involvierten Projekte als auch die identifizierten Schlagwörter in Relation zueinander abbilden kann. So kann zum Beispiel sichtbar gemacht werden, welche Forschungsprojekte sich auf Basis ihrer Inhalte „näher“ sind als andere. Genau diese Information wird im dritten methodischen Element als Planungsgrundlage für unterschiedliche Veranstaltungsformate wie Arbeitstagungen oder Transferwerkstätten genutzt. Das vierte methodische Element umfasst die Synthesebildung. Diese gestaltet sich als Prozess über den gesamten Zeitraum der Zusammenarbeit zwischen Begleitforschung und den weiteren Forschungsprojekten hinweg, da in die Synthese unter anderem Zwischen-, Teil- und Endergebnisse der Projekte einfließen, genauso wie Inhalte aus den unterschiedlichen Veranstaltungen. Letztendlich ist dieses vierte Element auch das Mittel, um aus den integrierten und synthetisierten Informationen Handlungsempfehlungen für zukünftige Vorhaben abzuleiten.
Die Erarbeitung der methodischen Elemente erfolgte im laufenden Prozess des Begleitforschungsprojektes KlimAgrar, welches der vorliegenden Dissertation als Fallbeispiel dient und dessen Hintergründe in der Thematik Klimaschutz und Klimaanpassung in der Landwirtschaft im Text ausführlich erläutert werden.
Städte sind aufgrund ihrer Agglomeration von Bevölkerung, Sachwerten und Infrastrukturen in besonderem Maße von extremen Wetterereignissen wie Starkregen und Hitze betroffen. Zahlreiche Überflutungsereignisse infolge von Starkregen traten in den letzten Jahren in verschiedenen Regionen Deutschlands auf und führten nicht nur zu Schäden in zwei- bis dreistelliger Millionenhöhe, sondern auch zu Todesopfern. Und auch Hitzewellen, wie sie in den vergangenen Jahren vermehrt aufgetreten sind, bergen gesundheitliche Risiken, welche sich auch in verschiedenen Schätzungen zu Hitzetodesfällen wiederfinden.
Um diesen Risiken zu begegnen und Schäden infolge von Wetterextremen zu reduzieren, entwickeln viele Kommunen bereits Strategien und Konzepte im Kontext der Klimaanpassung und/oder setzen Anpassungsmaßnahmen um. Neben der Entwicklung und Umsetzung eigener Ideen orientieren sich Städte dabei u. a. an Leitfäden und Beispielen aus der Literatur, Erfahrungen aus anderen Städten oder an Ergebnissen aus Forschungsprojekten. Dieser Lern- und Transferprozess, der eine Übertragung von Maßnahmen oder Instrumenten der Klimaanpassung von einem Ort auf einen anderen beinhaltet, ist bislang noch unzureichend erforscht und verstanden.
Der vorliegende Bericht untersucht deshalb ebendiesen Lern- und Transferprozess zwischen sowie innerhalb von Städten sowie das Transferpotenzial konkreter Wissenstransfer-Medien, Instrumente und Maßnahmen. Damit wird das Ziel verfolgt, ein besseres Verständnis dieser Prozesse zu entwickeln und einen Beitrag zur Verbesserung des Transfers von kommunalen Klimaanpassungsaktivitäten zu leisten. Der vorliegende Inhalt baut dabei auf einer vorangegangenen Analyse des Forschungsstands zum Transfer von Policies durch Haupt et al. (2021) auf und versucht, den bereits generierten Wissensstand auf der Ebene von Policies nun um die Ebene konkreter Instrumente und Maßnahmen zu ergänzen sowie durch empirische Befunde zu ausgewählten Maßnahmen zu untermauern. Die Wissens- und Datengrundlage dieses Berichts umfasst einen Mix aus verschiedenen (Online)-Befragungen und Interviews mit Vertreter:innen relevanter Akteursgruppen, vor allem Vertreter:innen von Stadtverwaltungen, sowie den Erfahrungswerten der drei ExTrass-Fallstudienstädte Potsdam, Remscheid und Würzburg.
Nach einer Einleitung beschäftigt sich Kapitel 2 mit übergeordneten Faktoren der Übertragbarkeit bzw. des Transfers. Kapitel 2.1 bietet hierbei eine Zusammenfassung zum aktuellen Wissensstand hinsichtlich des Transfers von Policies im Bereich der städtischen Klimapolitik gemäß Haupt et al. (2021). Hier werden zentrale Kriterien für einen erfolgreichen Transfer herausgearbeitet, um einen Anknüpfungspunkt für die folgenden Inhalte und empirischen Befunde auf der Ebene konkreter Instrumente und Maßnahmen zu bieten. Kapitel 2.2 schließt hieran an und präsentiert Erkenntnisse aus einer weitreichenden Kommunalbefragung. Hierbei wurde untersucht ob und welche Klimaanpassungsmaßnahmen in den Städten bereits umgesetzt werden, welche fördernden und hemmenden Aspekte es dabei gibt und welche Erfahrungen beim Transfer von Wissen und Ideen bereits vorliegen.
Kapitel 3 untersucht die Rolle verschiedener Medien des Wissenstransfers und widmet sich dabei beispielhaft Leitfäden zur Klimaanpassung und Maßnahmensteckbriefen. Kapitel 3.1 beantwortet dabei Fragen nach der Relevanz und Zugänglichkeit von Leitfäden, deren Stärken und Schwächen, sowie konkreten Anforderungen vonseiten befragter Personen. Außerdem werden acht ausgewählte Leitfäden vorgestellt und komprimiert auf ihre Transferpotenziale hin eingeschätzt. Kapitel 3.2 betrachtet Maßnahmensteckbriefe als Medien des Wissenstransfers und arbeitet zentrale Aspekte für einen praxisrelevanten inhaltlichen Aufbau heraus, um basierend darauf einen Muster-Maßnahmensteckbrief für Klimaanpassungsmaßnahmen zu entwickeln und vorzuschlagen.
Kapitel 4 beschäftigt sich mit sehr konkreten kommunalen Erfahrungen rund um den Transfer von sieben ausgewählten Instrumenten und Maßnahmen und bietet zahlreiche empirische Befunde aus den Kommunen, basierend auf der Kommunalbefragung, verschiedenen Interviews und den Erfahrungen aus der Projektarbeit. Die folgenden sieben Instrumente und Maßnahmen wurden ausgewählt, um eine große Breite städtischer Klimaanpassungsaktivitäten zu betrachten: 1) Klimafunktionskarten (Stadtklimakarten), 2) Starkregengefahrenkarten, 3) Checklisten zur Klimaanpassung in der Bauleitplanung, 4) Verbot von Schottergärten in Bebauungsplänen, 5) Fassadenbegrünungen, 6) klimaangepasste Gestaltung von Grün- und Freiflächen sowie 7) Handlungsempfehlungen für Betreuungseinrichtungen zum Umgang mit Hitze und Starkregen. Für jede dieser Klimaanpassungsaktivitäten wird auf Ebene der Kommunen Ziel, Verbreitung und Erscheinungsformen, Umsetzung anhand konkreter Beispiele, fördernde und hemmende Faktoren sowievorliegende Erfahrungen zu und Hinweisen auf Transfer dargestellt.
Kapitel 5 schließt den vorliegenden Bericht ab, indem zentrale Transfer-Barrieren aus den gewonnenen Erkenntnissen aufgegriffen und entsprechende Empfehlungen an verschiedene Ebenen der Politik ausgesprochen werden. Diese Empfehlungen zur Verbesserung des Transfers von klimaanpassungsrelevanten Instrumenten, Strategien und Maßnahmen umfassen 1) die Verbesserung des Austauschs zwischen verschiedenen Städten, 2) die Verbesserung der Zugänglichkeit von Wissen und Erfahrungen, 3) die Schaffung von Vernetzungsstrukturen innerhalb von Städten sowie 4) bestehende Wissenslücken zu schließen.
Die Autor:innen des vorliegenden Berichts hoffen, durch die vielfältigen Untersuchungsaspekte einen Beitrag zum besseren Verständnis der Lern- und Transferprozesse und zur Verbesserung des Transfers kommunaler Klimaanpassungsaktivitäten zu leisten.
Die Regierung des Waldes
(2022)
Wie verändert sich die Beziehung von Gesellschaften zu ihrer natürlichen Umgebung über die Zeit? Wie werden natürliche Systeme »in Wert« gesetzt? Und welchen Einfluss hat das auf die von uns so bezeichnete »Natur«? Am Beispiel eines Korkeichenwaldes in Marokko geht Juliane Schumacher diesen Fragen nach. Unter Bezugnahme auf Ansätze der Politischen Ökologie, der Science and Technology Studies und Foucaults Gouvernementalitätsanalyse zeigt sie, wie sich seit der Kolonialzeit die Bewirtschaftung des Waldes verändert hat. Dabei wird deutlich, wie Programme zur Integration der Wälder in globale Finanz- und Kohlenstoffmärkte zu neuen, experimentellen Formen der »Regierung des Waldes« führen.
Aufgrund der hohen Konzentration von Bevölkerung, ökonomischen Werten und Infrastrukturen können Städte stark von extremen Wetterereignissen getroffen werden. Insbesondere Hitzewellen und Überflutungen in Folge von Starkregen verursachen in Städten immense gesundheitliche und finanzielle Schäden. Um Schäden zu verringern oder gar zu vermeiden, ist es notwendig, entsprechende Vorsorge- und Klimaanpassungsmaßnahmen zu implementieren.
Im Projekt „Urbane Resilienz gegenüber extremen Wetterereignissen – Typologien und Transfer von Anpassungsstrategien in kleinen Großstädten und Mittelstädten” (ExTrass) lag der Fokus auf den beiden extremen Wetterereignissen Hitze und Starkregen sowie auf kleineren Großstädten (100.000 bis 500.000 Einwohner:innen) und kreisfreien Mittelstädten mit mehr als 50.000 Einwohner:innen. Im Projekt wurde die Stärkung der Klimaresilienz als Verbesserung der Fähigkeiten von Städten, aus vergangenen Ereignissen zu lernen sowie sich an antizipierte Gefahren anzupassen, verstanden. Klimaanpassung wurde demnach als ein Prozess aufgefasst, der durch die Umsetzung von potenziell schadensreduzierenden Maßnahmen beschreib- und operationalisierbar wird.
Das Projekt hatte zwei Ziele: Erstens sollte die Klimaresilienz in den drei Fallstudienstädten Potsdam, Remscheid und Würzburg messbar gestärkt werden. Zweitens sollten Transferpotenziale zwischen Groß- und Mittelstädten in Deutschland identifiziert und besser nutzbar gemacht werden, damit die Wirkung von Pilotvorhaben über die direkt involvierten Städte hinausgehen kann. Im Projekt standen folgende vier Leitfragen im Fokus:
• Wie verbreitet sind Klimaanpassungsaktivitäten in Großstädten und größeren kreisfreien Mittelstädten in Deutschland?
• Welche hemmenden und begünstigenden Faktoren beeinflussen die Klimaanpassung?
• Welche Maßnahmen der Klimaanpassung werden tatsächlich umgesetzt, und wie kann die Umsetzung verbessert werden? Was behindert?
• Inwiefern lassen sich Beispiele guter Praxis auf andere Städte übertragen, adaptieren oder weiterentwickeln?
Die Hauptergebnisse zu diesen Fragestellungen sind im vorliegenden Bericht zusammengefasst.
Am Abend des 29. Mai 2016 wurde der Ort Braunsbach im Landkreis Schwäbisch-Hall (Baden-Württemberg) von einer Sturzflut getroffen, bei der mehrere Häuser stark beschädigt oder zerstört wurden. Die Sturzflut war eine der Unwetterfolgen, die im Frühsommer 2016 vom Tiefdruckgebiet Elvira ausgelöst wurden. Der vorliegende Bericht ist der zweite Teil einer Doppelveröffentlichung, welche die Ergebnisse zur Untersuchung des Sturzflutereignisses im Rahmen des DFG-Graduiertenkollegs “Naturgefahren und Risiken in einer sich verändernden Welt” (NatRiskChange, GRK 2043/1) der Universität Potsdam präsentiert. Während Teil 1 die meteorologischen und hydrologischen Ereignisse analysiert, fokussiert Teil 2 auf die geomorphologischen Prozesse und die verursachten Gebäudeschäden. Dazu wurden Ursprung und Ausmaß des während des Sturzflutereignisses mobilisierten und in den Ort getragenen Materials untersucht. Des Weiteren wurden zu 96 betroffenen Gebäuden Daten zum Schadensgrad sowie Prozess- und Gebäudecharakteristika aufgenommen und ausgewertet. Die Untersuchungen zeigen, dass bei der Betrachtung von Hochwassergefährdung die Berücksichtigung von Sturzfluten und ihrer speziellen Charakteristika, wie hoher Feststofftransport und sprunghaftes Verhalten insbesondere in bebautem Gelände, wesentlich ist, um effektive Schutzmaßnahmen ergreifen zu können.
Entlang der Küstenniederung des Naturschutzgebietes „Hütelmoor und Heiligensee“, ca. 6 km nordöstlich von Rostock-Warnemünde gelegen, wird seit dem Jahr 2000 die Küstendüne nicht mehr instand gehalten. Im Rahmen der Renaturierung des Gebietes werden so grundsätzlich wieder Überflutungen bei Ostseehochwassern zugelassen, was bisher jedoch noch nicht eingetreten ist. Am 4./5. Januar 2017 ereignete sich ein Sturmhochwasser der Ostsee, mit einem Scheitelwasserstand in Warnemünde, der sich zwischen dem 10- und 20-jährlichen Hochwasserstand einordnet. Dennoch kam es bei diesem Ereignis nicht zum Dünendurchbruch und zur seeseitigen Überflutung, wohl aber zum binnenseitigen Einstrom von Salz- bzw. Brackwasser. Dieser erfolgte über den Graben, durch den das Gebiet normalerweise über die Warnow in die Ostsee entwässert. Durch das Einströmen über die Sohlschwelle, sonst Auslass des Gebietes, stiegen die Wasserstände und Salzkonzentrationen in der südwestlichen Hälfte der Niederung an. Mit zunehmender Entfernung zur Sohlschwelle waren diese Auswirkungen jedoch geringer spürbar. Dies gilt wegen der Retentionswirkung der Niederung mehr für den Wasserstand als für die Salzkonzentration. Während der Wasserstand durch den Einstau der Niederung und Überschwemmungen flächenhaft anstieg, breitete sich die Salzfront präferentiell in den ehemaligen Entwässerungsgräben, die trotz des Einstaus nach wie vor hydraulisch aktiv sind, eher linienhaft aus. Diese Interpretation beruht auf Messergebnissen von Wasserstand, elektrischer Leitfähigkeit und Wassertemperatur.
Eine Zunahme der allgemeinen Temperatur auf Grund des Klimawandels und die damit einhergehende Zunahme von Hitzewellen führten dazu, dass das Landesamt für Umwelt und Verbraucherschutz Nordrhein-Westfalen (LANUV) einen Leitfaden für den Schutz der positiven Klimafunktion urbaner Böden herausgab. Darauf aufbauend wurde auf regionaler Ebene für die Stadt Düsseldorf die Kühlleistung der urbanen Böden quantifiziert, um besonders schutzwürdige Bereiche zu identifizieren. Im Rahmen des Projektes ExTrass sollte nun die Kühlleistung urbaner Böden innerhalb Remscheids quantifiziert werden, jedoch auf Basis von frei zugänglichen Daten. Eine solche Datengrundlage schließt eine Modellierung des Bodenwasserhaushaltes, welches die Grundlage der Quantifizierung in Düsseldorf war, für Remscheid aus. Jedoch bietet der vorgestellte Ansatz die Möglichkeit, eine solche Untersuchung auch in anderen Gemeinden innerhalb Deutschlands mit relativ wenig Aufwand durchzuführen.
Die Kühlleistung der Böden wurde über die nutzbare Feldkapazität abgeschätzt, welche das Wasserspeichervolumen der obersten durchwurzelten Bodenzone angibt. Es ist der Bodenwasserspeicher, der Wasser für die Evapotranspiration zur Verfügung stellt und damit maßgeblich die Kühlleistung eines Bodens definiert, d.h. durch direkte Evaporation des Bodenwassers sowie durch die Transpiration von Wasser durch Pflanzen. In die Erstellung der Karte sind eingegangen: (a) die Bodenkarte Nordrhein-Westfalens (BK50), um die nutzbare Feldkapazität (nFK) je Fläche zu bestimmen; (b) der Landnutzungsdatensatz UrbanAtlas 2012, in Verbindung mit einer Literaturrecherche, um den Einfluss der Landnutzung auf die Werte der nFK, insbesondere im Hinblick auf Versiegelung und Verdichtung herzuleiten; und (c) OpenStreetMap (OSM), um den Anteil der versiegelten Flächen genauer zu bestimmen, als dies auf Basis des UrbanAtlas möglich gewesen wäre.
Es hat sich gezeigt, dass dieser Ansatz geeignet ist, um die räumliche Verteilung der potenziellen Bodenkühlfunktion innerhalb einer Stadt zu untersuchen. Es ist zu beachten, dass der Einfluss des Grundwassers in Remscheid nicht berücksichtigt werden konnte. Denn es ist damit zu rechnen, dass die Grundwasserverhältnisse aufgrund der geologischen und topographischen Situation in Remscheid kleinräumig Variationen unterliegen und es somit
keinen durchgängigen und kartierten Aquifer gibt.
Kleingartenanlagen, Parks und Friedhöhe im innerstädtischen Bereich und allgemein die Landnutzungsklassen Wald und Grünland wurden als Flächen mit einem besonders hohem potenziellen Bodenkühlpotenzial identifiziert. Solche Flächen sind besonders schützenswert. Die Analyse der Speicherfüllstände der oberen Bodenzone, basierend auf der erstellten Karte der potenziellen Bodenkühlfunktion und der klimatischen Wasserbilanz, ergab, dass besonders innerstädtische Flächen, die einen kleinen Bodenwasserspeicher haben, in einem trockenen Jahr bereits früh im Sommer ihre Kühlfunktion verlieren und bei Hitzewellen somit eine verringerte positive Klimafunktion haben. Gestützt wird diese Aussage durch eine Auswertung des normalisierten differenzierten Vegetationsindex (NDVI), der genutzt wurde, um die Veränderung der Pflanzenvitalität vor und nach einer Hitzeperiode im Juni/Juli 2018 zu untersuchen.
Messungen mit Meteobikes, einer Vorrichtung, die dazu geeignet ist, während einer Radfahrt kontinuierlich die Temperatur zu messen, stützen die Erkenntnis, dass innerstädtische Grünflächen wie Parks eine positive Wirkung auf das urbane Mikroklima haben. Weiterhin zeigen diese Messungen, dass die Topographie innerhalb des Untersuchungsgebietes die Aufheizung einzelner Flächen und die Temperaturverteilung vermutlich mitbestimmt. Die hier vorgestellte Karte der potenziellen Kühlfunktion für Remscheid sollte als Ergänzung in die Klimafunktionskarte für Remscheid eingehen und den bestehenden Layer „flächenhafte Klimafunktion“, der nur die Landnutzung berücksichtigt, ersetzen.
Durch das anhaltende Rückschmelzen von Gletschern werden mehr Sedimentdepots freigesetzt, wodurch diese anfälliger für Erosion werden. Erhöhte Sedimentaustragsraten gefährden die Wasserqualität sowie die Wasserversorgung durch Stauraumverlandung. Um diese Gefahren und deren Abläufe besser verstehen zu können, müssen Erosionsprozesse vor allem in hochalpinen Einzugsgebieten erforscht werden. In dieser Bachelorarbeit wurden Sedimentkonzentrationen sowie weitere Umgebungsvariablen (Abfluss, Niederschlag und Temperatur) im Rofental, Ötztaler Alpen und in einem stark vergletscherten Teileinzugsgebiet des Rofentals gemessen. Um den Zusammenhang zwischen der Sedimentkonzentration und den gemessenen Umgebungsbedingungen zu ermitteln, wurde das Quantile Regression Forest Modell verwendet. Dabei wurden die Variablen zu unterschiedlichen Zeitstufen aggregiert, wodurch vergangene hydroklimatische Bedingungen berücksichtigt werden konnten. Mit der Kenntnis über den Einfluss der verschiedenen Einflussfaktoren konnte die Sedimentkonzentration rückwirkend mithilfe eines Monte Carlo Ansatzes kontinuierlich modelliert werden, wodurch Aussagen über die jährlichen Sedimentexportraten getätigt werden konnten. Weiterhin wurde auch die Trübung, welche als Indikator für die Sedimentkonzentration angesehen werden kann, gemessen. Durch die Bestimmung der Korrelation zwischen modellierten Daten und der gemessenen Trübung konnte der Aussagegehalt des Modells beurteilt werden. Es konnte gezeigt werden, dass das Quantile Regression Forest Modell geeignet ist, um die Sedimentdynamik im Rofental zu rekonstruieren. Es stellte sich weiterhin heraus, dass der Abfluss in beiden Untersuchungsgebieten den größten Einfluss auf die Sedimentdynamik hat, wobei sich die Relevanz verschiedener Variablen in beiden Untersuchungsgebieten stark unterschied. Gemessene Trübungsdaten und die modellierten Sedimentkonzentrationen korrelierten stark positiv, wobei Murgänge, Messfehler und die Anzapfung neuer Sedimentdepots zur Verschlechterung der Modellgüte führten.
Starkregen in Berlin
(2021)
In den Sommern der Jahre 2017 und 2019 kam es in Berlin an mehreren Orten zu Überschwemmungen in Folge von Starkregenereignissen. In beiden Jahren führte dies zu erheblichen Beeinträchtigungen im Alltag der Berliner:innen sowie zu hohen Sachschäden. Eine interdisziplinäre Taskforce des DFG-Graduiertenkollegs NatRiskChange untersuchte (1) die meteorologischen Eigenschaften zweier besonders eindrücklicher Unwetter, sowie (2) die Vulnerabilität der Berliner Bevölkerung gegenüber Starkregen.
Eine vergleichende meteorologische Rekonstruktion der Starkregenereignisse von 2017 und 2019 ergab deutliche Unterschiede in der Entstehung und den Überschreitungswahrscheinlichkeiten der beiden Unwetter. So war das Ereignis von 2017 mit einer relativ großen räumlichen Ausdehnung und langer Dauer ein untypisches Starkregenereignis, während es sich bei dem Unwetter von 2019 um ein typisches, kurzzeitiges Starkregenereignis mit ausgeprägter räumlicher Heterogenität handelte. Eine anschließende statistische Analyse zeigte, dass das Ereignis von 2017 für längere Niederschlagsdauern (>=24 h) als großflächiges Extremereignis mit Überschreitungswahrscheinlichkeiten von unter 1 % einzuordnen ist (d.h. Wiederkehrperioden >=100 Jahre). Im Jahr 2019 wurden dagegen ähnliche Überschreitungswahrscheinlichkeiten nur lokal und für kürzere Zeiträume (1-2 h) berechnet.
Die Vulnerabilitätsanalyse basiert auf einer von April bis Juni 2020 in Berlin durchgeführten Onlinebefragung. Diese richtete sich an Personen, die bereits von vergangenen Starkregenereignissen betroffen waren und thematisierte das Schadensereignis selbst, daraus entstandene Beeinträchtigungen und Schäden, Risikowahrnehmung sowie Notfall- und Vorsorgemaßnahmen. Die erhobenen Umfragedaten (n=102) beziehen sich vornehmlich auf die Ereignisse von 2017 und 2019 und zeigen, dass die Berliner Bevölkerung sowohl im Alltag (z.B. bei der Beschaffung von Lebensmitteln) als auch im eigenen Haushalt (z.B. durch Überschwemmungsschäden) von den Unwettern beeinträchtigt war. Zudem deuteten die Antworten der Betroffenen auf Möglichkeiten hin, die Vulnerabilität der Gesellschaft gegenüber Starkregen weiter zu reduzieren - etwa durch die Unterstützung besonders betroffener Gruppen (z.B. Pflegende), durch gezielte Informationskampagnen zum Schutz vor Starkregen oder durch die Erhöhung der Reichweite von Unwetterwarnungen. Eine statistische Analyse zur Effektivität privater Notfall- und Vorsorgemaßnahmen auf Grundlage der Umfragedaten bestätigte vorherige Studienergebnisse.
So gab es Anhaltspunkte dafür, dass durch das Umsetzen von Vorsorgemaßnahmen wie beispielsweise das Installieren von Rückstauklappen, Barriere-Systemen oder Pumpen Starkregenschäden reduziert werden können.
Die Ergebnisse dieses Berichts unterstreichen die Notwendigkeit für ein integriertes Starkregenrisikomanagment, das die Risikokomponenten Gefährdung, Vulnerabilität und Exposition ganzheitlich und auf mehreren Ebenen (z.B. staatlich, kommunal, privat) betrachtet.
Der Klimawandel
(2020)
Der zentralasiatische Naturraum, wie er sich uns heute präsentiert, ist das Ergebnis eines Zusammenwirkens vieler verschiedener Faktoren über Jahrmillionen hinweg. Im aktuellen Kontext des Klimawandels zeigt sich jedoch, wie stark sich Stoffflüsse auch kurzfristig ändern und dabei das Gesicht der Landschaft verwandeln können. Die Gobi-Wüste in der Inneren Mongolei (China), als Teil der gleichnamigen Trockenregionen Nordwestchinas, ist aufgrund der Ausgestaltung ihrer landschaftsprägenden Elemente sowie ihrer Landschaftsdynamik, im Zusammenhang mit der Lage zum Tibet-Plateau, in den Fokus der klimageschichtlichen Grundlagenforschung gerückt. Als großes Langzeitarchiv unterschiedlichster fluvialer, lakustriner und äolischer Sedimente stellt sie eine bedeutende Lokalität zur Rekonstruktion von lokalen und regionalen Stoffflüssen dar.. Andererseits ist die Gobi-Wüste zugleich auch eine bedeutende Quelle für den überregionalen Staubtransport, da sie aufgrund der klimatischen Bedingungen insbesondere der Erosion durch Ausblasung preisgegeben wird. Vor diesem Hintergrund erfolgten zwischen 2011 und 2014, im Rahmen des BMBF-Verbundprogramms WTZ Zentralasien – Monsundynamik & Geoökosysteme (Förderkennzeichen 03G0814), mehrere deutsch-chinesische Expeditionen in das Ejina-Becken (Innere Mongolei) und das Qilian Shan-Vorland. Im Zuge dieser Expeditionen wurden für eine Bestimmung potenzieller Sedimentquellen erstmals zahlreiche Oberflächenproben aus dem gesamten Einzugsgebiet des Heihe (schwarzer Fluss) gesammelt. Zudem wurden mit zwei Bohrungen im inneren des Ejina-Beckens, ergänzende Sedimentbohrkerne zum bestehenden Bohrkern D100 (siehe Wünnemann (2005)) abgeteuft, um weit reichende, ergänzende Informationen zur Landschaftsgeschichte und zum überregionalen Sedimenttransfer zu erhalten. Gegenstand und Ziel der vorliegenden Doktorarbeit ist die sedimentologisch-mineralogische Charakterisierung des Untersuchungsgebietes in Bezug auf potenzielle Sedimentquellen und Stoffflüsse des Ejina-Beckens sowie die Rekonstruktion der Ablagerungsgeschichte eines dort erbohrten, 19m langen Sedimentbohrkerns (GN100). Schwerpunkt ist hierbei die Klärung der Sedimentherkunft innerhalb des Bohrkerns sowie die Ausweisung von Herkunftssignalen und möglichen Sedimentquellen bzw. Sedimenttransportpfaden. Die methodische Herangehensweise basiert auf einem Multi-Proxy-Ansatz zur Charakterisierung der klastischen Sedimentfazies anhand von Geländebeobachtungen, lithologisch-granulometrischen und mineralogisch-geochemischen Analysen sowie statistischen Verfahren. Für die mineralogischen Untersuchungen der Sedimente wurde eine neue, rasterelektronenmikroskopische Methode zur automatisierten Partikelanalyse genutzt und den traditionellen Methoden gegenübergestellt. Die synoptische Betrachtung der granulometrischen, geochemischen und mineralogischen Befunde der Oberflächensedimente ergibt für das Untersuchungsgebiet ein logisches Kaskadenmodell mit immer wiederkehrenden Prozessbereichen und ähnlichen Prozesssignalen. Die umfangreichen granulometrischen Analysen deuten dabei auf abnehmende Korngrößen mit zunehmender Entfernung vom Qilian Shan hin und ermöglichen die Identifizierung von vier texturellen Signalen: den fluvialen Sanden, den Dünensanden, den Stillwassersedimenten und Stäuben. Diese Ergebnisse können als Interpretationsgrundlage für die Korngrößenanalysen des Bohrkerns genutzt werden. Somit ist es möglich, die Ablagerungsgeschichte der Bohrkernsedimente zu rekonstruieren und in Verbindung mit eigenen und literaturbasierten Datierungen in einen Gesamtkontext einzuhängen. Für das Untersuchungsgebiet werden somit vier Ablagerungsphasen ausgewiesen, die bis in die Zeit des letzten glazialen Maximums (LGM) zurückreichen. Während dieser Ablagerungsphasen kam es im Zuge unterschiedlicher Aktivitäts- und Stabilitätsphasen zu einer kontinuierlichen Progradation und Überprägung des Schwemmfächers. Eine besonders aktive Phase kann zwischen 8 ka und 4 ka BP festgestellt werden, während der es aufgrund zunehmender fluvialer Aktivitäten zu einer deutlich verstärkten Schwemmfächerdynamik gekommen zu sein scheint. In den Abschnitten davor und danach waren es vor allem äolische Prozesse, die zu einer Überprägung des Schwemmfächers geführt haben. Hinsichtlich der mineralogischen Herkunftssignale gibt es eine große Variabilität. Dies spiegelt die enorme Heterogenität der Geologie des Untersuchungsgebietes wider, wodurch die räumlichen Signale nicht sehr stark ausgeprägt sind. Dennoch, können für das Einzugsgebiet drei größere Bereiche deklariert werden, die als Herkunftsgebiet in Frage kommen. Das östliche Qilian Shan Vorland zeichnet sich dabei durch deutlich höhere Chloritgehalte als primäre Quelle für die Sedimente im Ejina-Becken aus. Sie unterscheiden sich insbesondere durch stark divergierende Chloritgehalte in der Tonmineral- und Gesamtmineralfraktion, was das östliche Qilian Shan Vorland als primäre Quelle für die Sedimente im Ejina-Becken auszeichnet. Dies steht in Zusammenhang mit den Grünschiefern, Ophioliten und Serpentiniten in diesem Bereich. Geochemisch deutet vor allem das Cr/Rb-Verhältnis eine große Variabilität innerhalb des Einzugsgebietes an. Auch hier ist es das östliche Vorland, welches aufgrund seines hohen Anteils an mafischen Gesteinen reich an Chromiten und Spinellen ist und sich somit vom restlichen Untersuchungsgebiet abhebt. Die zeitliche aber auch die generelle Variabilität der Sedimentherkunft lässt sich in den Bohrkernsedimenten nicht so deutlich nachzeichnen. Die mineralogisch-sedimentologischen Eigenschaften der erbohrten klastischen Sedimente zeugen zwar von zwischenzeitlichen Änderungen bei der Sedimentherkunft, diese sind jedoch nicht so deutlich ausgeprägt, wie es die Quellsignale in den Oberflächensedimenten vermuten lassen. Ein Grund dafür scheint die starke Vermischung unterschiedlichster Sedimente während des Transportes zu sein. Die Kombination der Korngrößenergebnisse mit den Befunden der Gesamt- und Schwermineralogie deuten darauf hin, dass es zwischenzeitlich eine Phase mit überwiegend äolischen Prozessen gegeben hat, die mit einem Sedimenteintrag aus dem westlichen Bei Shan in Verbindung stehen. Neben der Zunahme ultrastabiler Schwerminerale wie Zirkon und Granat und der Abnahme opaker Schwerminerale, weisen vor allem die heutigen Verhältnisse darauf hin. Der Vergleich der traditionellen Schwermineralanalyse mit der Computer-Controlled-Scanning-Electron-Microscopy (kurz: CCSEM), die eine automatisierte Partikelauswertung der Proben ermöglicht, zeigt den deutlichen Vorteil der modernen Analysemethode. Neben einem zeitlichen Vorteil, den man durch die automatisierte Abarbeitung der vorbereiteten Proben erlangen kann, steht vor allem die deutlich größere statistische Signifikanz des Ergebnisses im Vordergrund. Zudem können mit dieser Methode auch chemische Varietäten einiger Schwerminerale bestimmt werden, die eine noch feinere Klassifizierung und sicherere Aussagen zu einer möglichen Sedimentherkunft ermöglichen. Damit ergeben sich außerdem verbesserte Aussagen zu Zusammensetzungen und Entstehungsprozessen der abgelagerten Sedimente. Die Studie verdeutlicht, dass die Sedimentherkunft innerhalb des Untersuchungsgebietes sowie die ablaufenden Prozesse zum Teil stark von lokalen Gegebenheiten abhängen. Die Heterogenität der Geologie und die Größe des Einzugsgebietes sowie die daraus resultierende Komplexität der Sedimentgenese, machen exakte Zuordnungen zu klar definierten Sedimentquellen sehr schwer. Dennoch zeigen die Ergebnisse, dass die Sedimentzufuhr in das Ejina-Becken in erster Linie durch fluviale klastische Sedimente des Heihe aus dem Qilian Shan erfolgt sein muss. Die Untersuchungsergebnisse zeigen jedoch ebenso die Notwendigkeit einer ergänzenden Bearbeitung angrenzender Untersuchungsgebiete, wie beispielsweise den Gobi-Altai im Norden oder den Beishan im Westen, sowie die Verdichtung der Oberflächenbeprobung zur feineren Auflösung von lokalen Sedimentquellen.
Der Porenraum eines Karbonatgesteins ist zumeist aus einer spezifischen Vergesellschaftung verschiedenster Porentypen aufgebaut, die eine unterschiedliche Herkunft aufweisen und zusätzlich in ihrer Form und Größe stark variieren können (e.g., Melim et al., 2001; Lee et al., 2009; He et al., 2014; Dernaika & Sinclair, 2017; Zhang et al., 2017). Diese für Karbonate typischen multimodalen Porensysteme entstehen sowohl durch primäre Ablagerungsprozesse, als auch durch mehrmalige Modifikation des Porenraumes nach Ablagerung des Sediments. Dies führt zu einer ungleichen Verteilung der Porenraumeigenschaften auf engstem Raum und das zeitgleiche Auftreten von effektiven und ineffektiven Poren. Diese immanenten Unterschiede in der Effektivität einzelner Porentypen sind der Hauptgrund für die häufig sehr niedrige Korellation zwischen Porosität und Permeabilität in Karbonaten (e.g., Mazzullo 2004; Ehrenberg & Nadeau, 2005; Hollis et al., 2010; He et al., 2014; Rashid et al., 2015; Dernaika & Sinclair, 2017). Durch die Extraktion von miteinander verbundenen und somit effektiven Porentypen jedoch kann das Verständnis und die Vorhersage der Permeabilität für einen gegeben Porositätswert stark verbessert werden (e.g., Melim et al., 2001; Zhang et al., 2017). Dazu wird in dieser Arbeit eine auf der digitalen Bildanalyse (DIA) beruhende Methode vorgestellt, mit der schrittweise die Effektivität von Poren aus den analysierten mittelmiozänen lakustrinen Karbonaten des Nördlinger Ries Kratersees (Süddeutschland) berechnet werden kann. Mithilfe des Porenformfaktors (sensu Anselmetti et al., 1998), der als Parameter zur Quantifizierung der Interkonnektivität zwischen Poren dient, wird der potentiellen Beitrag an Permeabilität jedes Porentyps zur Gesamtpermeabilität bestimmt. Somit können die effektivsten Porentypen innerhalb der analysierten Karbonate identifiziert werden. Desweiteren wird die digitale Bildanalyse dazu benutzt, zementierte Porenräume zu extrahieren, um den Einfluss der Zementation auf die Porenraumeigenschaften zu quantifizieren. Durch eine unabhängige Methode (Fluid-Flow-Simulation), deren Ergebnisse wiederum mit der digitalen Bildanalyse ausgewertet werden, können die vorherigen Erkentnisse bestätigt werden: Interpeloidale Poren und Lösungsporen sind die beiden effektivsten Porentypen im Porenraum der Riesseekarbonate. Die Extraktion des miteinander verbundenen (d.h. effektiven) Porennetzwerkes führt schließlich zu einer erheblich verbesserten Korrelation zwischen Porosität und Permeabilität in den analysierten Karbonaten. Die in dieser Arbeit beschriebene Methode bietet ein quantitatives petrographisches Werkzeug, mit dessen Hilfe die effektive Porosität eines Porenraumes extrahiert werden kann. Dies führt zu einem besseren Verständnis darüber, wie Porensysteme von Karbonaten Permeabilität erzeugen. Diese Dissertation zeigt auch, dass die Formkomplexität von Poren einer der wichtigsten Parameter ist, der die Interkonnektivität zwischen einzelnen Poren und somit die Entstehung von effektiver Porosität steuert. Außerdem erweist sich die digitale Bildanalyse als ausgezeichnetes Werkzeug um die Porosität und Permeabilität direkt an ihren gemeinsamen Ursprung zu knüpfen: die Gesteinstextur und die damit assoziierte Porenstruktur.
Diverse Entwicklungen der letzten Jahrzehnte zeigten die Relevanz am Diskurs um eine sogenannte „nachhaltige Entwicklung“ auf. Nachhaltiger Entwicklung wird dabei eine immer größere Bedeutung zugesprochen und zudem wird die Bildung als eine der wichtigsten Kräfte, um eine nachhaltige Entwicklung voranzutreiben, angesehen. Im Rahmen der Bachelorarbeit soll deshalb untersucht werden, welches Verständnis Schülerinnen und Schüler vom Begriff Nachhaltigkeit haben. Zunächst wird der theoretische Hintergrund zu nachhaltiger Entwicklung und einer „Bildung für nachhaltige Entwicklung“ geklärt. Auf Basis dieser theoretischen Fundierung wird dann ein leitfadengestütztes Interview entwickelt. Aus den Ergebnissen sollen unter Verwendung der zusammenfassenden Inhaltsanalyse nach Mayring Rückschlüsse über das Verständnis der Schüler*innen gezogen werden. Auf der Basis der Ergebnisse und Interpretationen sollen abschließend Überlegungen gemacht werden, wie das Verständnis der Schüler*innen erweitert werden kann. Im Rahmen der Untersuchung wurden schließlich sechs Schülerinnen und Schüler der Jahrgangsstufe zehn einer Gesamtschule mit einem Interview befragt. Es wurde festgestellt, dass ein Verständnis von Nachhaltigkeit nur bei vier der sechs Befragten vorhanden war und auch dort größtenteils in Bezug auf ökologische und soziale Aspekte. Dabei konnten das persönliche Interesse, der Lebensweltbezug, und auch der Unterricht als Grund für beide Seiten ausgemacht werden.
Unterschiedliche Verfahren zur Ermittlung von Georadar-Wellengeschwindigkeiten wurden entwickelt und erfolgreich angewendet. Für die Verfahren wurden statistische Methoden und Schwarmintelligenz-Algorithmen benutzt. Es wurde gezeigt, dass die neuen Verfahren schneller, präziser und besser reproduzierbare Ergebnisse für Georadar-Wellengeschwindigkeit erzielen als herkömmliche Verfahren.
Mit verbesserten Werten der Georadar-Wellengeschwindigkeit lassen sich die verzerrten dreidimensionalen Abbilder der obersten zehn Meter des Untergrundes, welche sich mit Georadar-Daten erzeugen lassen, korrigieren. In diesen korrigierten Abbildern sind dann realistische Tiefen von Schichten oder Objekten im Untergrund besser messbar. Außerdem verbessern präzisere Wellengeschwindigkeiten die Bestimmung von Bodenparametern, wie Wassergehalt oder Tonanteil. Die präsentierten Verfahren erlauben eine quantitative Angabe von Fehlern der bestimmten Wellengeschwindigkeit und der daraus folgenden Tiefen und Bodenparametern im Untergrund. Die Vorteile dieser neu entwickelten Verfahren zur Charakterisierung des Untergrundes der oberen Meter wurde an Feldbeispielen demonstriert.
Der Rangsdorfer See (A = 2,44 km² , z(max) = 6 m, z(mean) = 1,930 m) im Landkreis Teltow Fläming ist einer von vielen Gewässern in Brandenburg, die derzeit den nach EU-Wasserrahmenrichtlinie geforderten guten Zustand nicht erreichen. Bekanntlich gilt Phosphor für viele Gewässer als der bedeutendste produktionslimitierende Nährstoff und ist somit aussichtsreicher Steuerfaktor für eine erfolgreiche Seentherapie.
Ziel dieser Arbeit war es, die Gewässergüte des Rangsdorfer Sees nach trophischen Aspekten zu bewerten, Phosphor-Eintragspfade zu identifizieren, welche die höchsten Frachten verursachen sowie Therapiemaßnahmen zu finden, die eine langfristige Zustandsverbesserung ermöglichen. In einer Szenarioanalyse wurde das modifizierte Einbox Modell angewendet, um die Wirksamkeit externer und interner Therapiemaßnahmen abzuschätzen. Nach Abschluss der Studienarbeiten können folgende Schlüsse gezogen werden:
Der Rangsdorfer See ist aufgrund seiner Morphometrie ein naturgegebenes nährstoffreiches Gewässer und war das auch schon, bevor anthropogene Einflüsse auf ihn einwirkten. Langjährige Nährstoffeinträge verschiedener Herkunft (Abwassereinleitungen, Fischintensivhaltung, Rieselfelder) führten jedoch zu einer übermäßigen Produktivität. Viele Belastungsquellen wurden ausgeschaltet, es findet jedoch immer noch ein relevanter Nährstoffaustrag aus dem Einzugsgebiet statt. Unter Verwendung von Phosphor-Bilanzmodellen und seetypspezifischen kritischen Phosphor-Seekonzentrationen zeigt sich, dass die aktuell stattfindende externe Phosphor-Belastung den kritischen Phosphor-Eintrag zur mutmaßlichen Erreichung des guten ökologischen Zustandes überschreitet. Anteilig die größte Fracht wird über den natürlichen Hauptzufluss in den Rangsdorfer See transportiert. Sanierungsmaßnahmen in dessen Einzugsgebiet stellen ein effektives Mittel dar. Eine technische Lösung zur Nährstoffminderung im Zufluss (Eliminierungsanlage) kann unterstützend eingesetzt werden, muss aber dann bei unveränderter hoher Phosphor-Konzentration im Zufluss dauerhaft betrieben werden. Das Einbox Modell stellte sich als hilfreiches Instrument zur Vorauswahl geeigneter Therapiemaßnahmen heraus.
Hydrologie
()
Dieses Buch vermittelt die Grundlagen des Wasserkreislaufs mit seinen räumlichen und zeitlichen Mustern. Dabei werden u.a. der Einfluss der Landnutzung und des Klimas beschrieben, landschaftliche und regionale Besonderheiten erläutert und ein Einblick in die hydrologische Praxis der Bewässerung, der Risikovorsorge und des Flussgebietsmanagements gegeben. Rund 200 Abbildungen und 45 Tabellen veranschaulichen die komplexen Sachverhalte.
Veränderungen im thermalen Regime des Permafrosts verursachen Störungen der Erdoberfläche. Diese Veränderungen werden durch die in der Arktis seit Jahrzehnten ansteigenden Temperaturen verstärkt. Thermokarst ist ein Prozess, welcher die Erdoberfläche durch Schmelzen von Grundeis, oder Auftauen von Permafrost absacken lässt, wodurch charakteristische Landformen entstehen. Thermokarst ist vor allem entlang von Hängen weit verbreitet und die Anzahl der damit verbundenen Landformen in der Arktis steigt stetig an. Dieser Prozess mobilisiert große Mengen an Material, welche in Richtung Meer transportiert oder entlang von Hängen akkumuliert werden. Während entlang von Hängen auftretender Thermokarst terrestrische sowie aquatische Ökosysteme stark verändert, ist dessen Einfluss auf regionaler Skala zurzeit noch Gegenstand der Forschung.
In dieser Arbeit quantifizieren wir die Auswirkungen von Thermokarstprozessen entlang von Hängen auf die umliegenden Ökosysteme der küstennahen Täler und Nahküstenbereiche entlang der Yukon Küste in Kanada. Mittels überwachtem maschinellen Lernen haben wir geomorphische Faktoren identifiziert, welche die Entwicklung von retrogressiven Auftaurutschungen (RTS) begünstigen. RTS sind eine Erscheinungsform von Thermokarst entlang von Hängen. Die Küstengeomorphologie, sowie der Grundeistyp und -inhalt sind die wesentlichen bestimmenden Faktoren für das Auftreten von RTS. Wir haben Luftbildaufnahmen und Satellitenbilder genutzt, um die Evolution von RTS im Zeitraum von 1952 bis 2011 zu verfolgen. Während dieser Zeit ist die Anzahl und Ausdehnung von RTS linear angestiegen. Wir zeigen, dass 56% der RTS welche entlang der Küste in 2011 identifiziert wurden, 16.6 × 106 m3 an Material erodiert haben. Hiervon wurden 45% durch Küstenprozesse entlang der Küste transportiert. RTS tragen wesentlich zu dem Kohlenstoff-Budget des Nahküstenbereiches bei: 17% der in 2011 identifizierten RTS, haben 0.6% des organischen Kohlenstoffes transportiert, welcher durch Küstenerosion entlang der Yukon Küste jährlich freigesetzt wird. Um den Einfluss von Thermokarst entlang von Hängen auf das terrestrische Ökosystem zu beurteilen, haben wir die räumliche Verteilung von organischem Bodenkohlenstoff und Stickstoff (SOC, TN) entlang von Hangprofilen in drei arktischen Tälern analysiert.Wir weisen auf eine hohe räumliche Variabilität in der Verteilung von SOC und TN hin, welche auf komplexe Bodenprozesse zurückzuführen ist, welche entlang von Hängen auftreten. Thermokarst entlang von Hängen hat einen großen Einfluss auf die Degradierung von organischem Material und die Speicherung von SOC und TN.
Weltweit verursachen Städte etwa 70 % der Treibhausgasemissionen und sind daher wichtige Akteure im Klimaschutz bzw. eine wichtige Zielgruppe von Klimapolitiken. Gleichzeitig sind Städte besonders stark von möglichen Auswirkungen des Klimawandels betroffen: Insbesondere extreme Wetterereignisse wie Hitzewellen oder Starkregenereignisse mit Überflutungen verursachen in Städten hohe Sachschäden und wirken sich negativ auf die Gesundheit der städtischen Bevölkerung aus. Daher verfolgt das Projekt ExTrass das Ziel, die städtische Resilienz gegenüber extremen Wetterereignissen in enger Zusammenarbeit mit Stadtverwaltungen, Strukturen des Bevölkerungsschutzes und der Zivilgesellschaft zu stärken. Im Fokus stehen dabei (kreisfreie) Groß- und Mittelstädte mit 50.000 bis 500.000 Einwohnern, insbesondere die Fallstudienstädte Potsdam, Remscheid und Würzburg.
Der vorliegende Bericht beinhaltet die Ergebnisse der 14-monatigen Definitionsphase von ExTrass, in der vor allem die Abstimmung eines Arbeitsprogramms im Mittelpunkt stand, das in einem nachfolgenden dreijährigen Forschungsprojekt (F+E-Phase) gemeinsam von Wissenschaft und Praxispartnern umgesetzt werden soll. Begleitend wurde eine Bestandsaufnahme von Klimaanpassungs- und Klimaschutzstrategien/-plänen in 99 deutschen Groß- und Mittelstädten vorgenommen. Zudem wurden für Potsdam und Würzburg Pfadanalysen für die Klimapolitik durchgeführt. Darin wird insbesondere die Bedeutung von Schlüsselakteuren deutlich. Weiterhin wurden im Rahmen von Stakeholder-Workshops Anpassungsherausforderungen und aktuelle Handlungsbedarfe in den Fallstudienstädten identifiziert und Lösungsansätze erarbeitet, die in der F+E-Phase entwickelt und getestet werden sollen. Neben Maßnahmen auf gesamtstädtischer Ebene und auf Stadtteilebene wurden Maßnahmen angestrebt, die die Risikowahrnehmung, Vorsorge und Selbsthilfefähigkeit von Unternehmen und Bevölkerung stärken können. Daher wurde der Stand der Risikokommunikation in Deutschland für das Projekt aufgearbeitet und eine erste Evaluation von Risikokommunikationswerkzeugen durchgeführt. Der Bericht endet mit einer Kurzfassung des Arbeitsprogramms 2018-2021.
Schwarz-Rot-Geil
(2018)
Die Atmosphäre im Karli
(2018)
Räume, Linien, Punkte
(2018)
„Auf engstem Raum“
(2018)
Geographien des Fußballs
(2018)
In Deutschland erscheint Fußball als omnipräsent: Fußballprofis gelten als Vorbilder und Werbeträger, Fußballvereine fungieren als regionale und teilweise als globale Wirtschaftsunternehmen, Fußballspiele als gesellschaftliche Ereignisse und Fußballmannschaften – sowohl auf regionaler als auch auf nationaler Ebene – als identitätsstiftend. Unbestritten weist das Phänomen Fußball eine große Gesellschaftsrelevanz auf, und so verwundert es nicht, dass es als Gegenstand wissenschaftlicher und eben auch geographischer Abhandlungen fungiert.
Der vorliegende Band richtet sich nun an Geographiestudenten und Fußballinteressierte, die sich verwundert fragen mögen, was Geographien des Fußballs bedeuten könnte. Der Band veranschaulicht exemplarisch, was geographische Perspektiven auf den Forschungsgegenstand Fußball auszeichnen und welche Themenfelder und Fragestellungen sich für eine Erforschung anbieten. Dabei reicht das in diesem Band vorgestellte Themenspektrum von raumbezogenen Sprachcodierungen in Spielanalysen über Stadionatmosphäre und Fanidentitäten bis hin zu medial erzeugten Unsicherheitsräumen.
Die genauen Einsatzzeiten seismischer P-Phasen von Erdbeben werden in SeisComP3 und anderen Auswerteprogrammen standardmäßig und in Echtzeit automatisch bestimmt. S-Phasen stellen dagegen eine weit größere Herausforderung dar. Nur mit genauen Picks der P- bzw. S-Phasen können die Erdbebenlokationen korrekt und stabil bestimmt werden. Darum besteht erhebliches Interesse, diese mit hoher Genauigkeit zu bestimmen. Das Ziel der vorliegenden Bachelorarbeit war es, vier verschiedene, bereits vorhandene S-Phasenpicker auf ausgewählte Parameter optimal zu konfigurieren, auf Testdaten anzuwenden und deren Leistungsfähigkeit objektiv zu bewerten. Dazu wurden ein S-Picker (S-L2) aus dem OpenSource SeisComp3-Programmpaket, zwei S-Picker (S-AIC, S-AIC-V) als kommerzielles Modul der Firma gempa GmbH für SeisComP3 und ein S-Picker (Frequenzband) aus dem OpenSource PhasePaPy-Paket ausgewählt. Die Bewertung erfolgte durch Vergleich automatischer Picks mit manuell bestimmten Einsatzzeiten. Alle vier Picker wurden separat konfiguriert und auf drei verschiedene Datensätze von Erdbeben in N-Chile und im Vogtland, Deutschland, angewandt. Dazu wurden regional bzw. lokal typische Erdbeben zufällig ausgewählt und die P- und S-Phasen manuell bestimmt. Mit den zu testenden S-Pickeralgorithmen wurden dieselben Daten durchsucht und die Picks automatisch bestimmt. Die Konfigurationen der Picker wurden gleichzeitig automatisch und objektiv durch iterative Anpassung optimiert. Ein neu erstelltes Bewertungssystem vergleicht die manuellen und die automatisch gefundenen S-Picks anhand von definierten Qualitätsfaktoren. Die Qualitätsfaktoren sind: der Mittelwert und die Standardabweichung der zeitlichen Differenzen zwischen den S-Picks, die Anzahl an übereinstimmenden S-Picks, die Prozentangaben über mögliche S-Picks und die benötigt Rechenzeit. Die objektive Bewertung erfolgte anhand eines Scores. Der Scorewert ergibt sich aus der gewichteten Summe folgender normierter Qualitätsfaktoren: Standardabweichung (20%), Mittelwert (20%) und Prozentangabe über mögliche S-Picks (60%). Konfigurationen mit hohem Score werden bevorzugt. Die bevorzugten Konfigurationen der verschiedenen Picker wurden miteinander verglichen, um den am besten geeigneten S-Pickeralgorithmus zu bestimmen. Allgemein zeigt sich, dass der S-AIC Picker für jeden der drei Datensätze die höchsten Scores und damit die besten Ergebnisse liefert. Dabei wurde für jeden Datensatz ein andere Konfiguration der Parameter des S-AIC Pickers als die am besten geeignete bezeichnet. Daher ist für jede Erdbebenregion eine andere Konfigurationen erforderlich, um optimale Ergebnisse mit diesem S-Picker zu bekommen.
Im Graduiertenkolleg NatRiskChange der Universität Potsdam und anderen Forschungseinrichtungen werden beobachtete sowie zukünftig mögliche Veränderungen von Naturgefahren untersucht. Teil des strukturierten Doktorandenprogramms sind sogenannte Task-Force-Einsätze, bei denen die Promovierende zeitlich begrenzt ein aktuelles Ereignis auswerten. Im Zuge dieser Aktivität wurde die Sturzflut vom 29.05.2016 in Braunsbach (Baden-Württemberg) untersucht.
In diesem Bericht werden erste Auswertungen zur Einordnung der Niederschläge, zu den hydrologischen und geomorphologischen Prozessen im Einzugsgebiet des Orlacher Bachs sowie zu den verursachten Schäden beleuchtet.
Die Region war Zentrum extremer Regenfälle in der Größenordnung von 100 mm innerhalb von 2 Stunden. Das 6 km² kleine Einzugsgebiet hat eine sehr schnelle Reaktionszeit, zumal bei vorgesättigtem Boden. Im steilen Bachtal haben mehrere kleinere und größere Hangrutschungen über 8000 m³ Geröll, Schutt und Schwemmholz in das Gewässer eingetragen und möglicherweise kurzzeitige Aufstauungen und Durchbrüche verursacht. Neben den großen Wassermengen mit einer Abflussspitze in einer Größenordnung von 100 m³/s hat gerade die Geschiebefracht zu großen Schäden an den Gebäuden entlang des Bachlaufs in Braunsbach geführt.
Das Wissen um die lokale Struktur von Seltenen Erden Elementen (SEE) in silikatischen und aluminosilikatischen Schmelzen ist von fundamentalem Interesse für die Geochemie der magmatischen Prozesse, speziell wenn es um ein umfassendes Verständnis der Verteilungsprozesse von SEE in magmatischen Systemen geht. Es ist allgemein akzeptiert, dass die SEE-Verteilungsprozesse von Temperatur, Druck, Sauerstofffugazität (im Fall von polyvalenten Kationen) und der Kristallchemie kontrolliert werden. Allerdings ist wenig über den Einfluss der Schmelzzusammensetzung selbst bekannt. Ziel dieser Arbeit ist, eine Beziehung zwischen der Variation der SEE-Verteilung mit der Schmelzzusammensetzung und der Koordinationschemie dieser SEE in der Schmelze zu schaffen.
Dazu wurden Schmelzzusammensetzungen von Prowatke und Klemme (2005), welche eine deutliche Änderung der Verteilungskoeffizienten zwischen Titanit und Schmelze ausschließlich als Funktion der Schmelzzusammensetzung zeigen, sowie haplogranitische bzw. haplobasaltische Schmelzzusammensetzungen als Vertreter magmatischer Systeme mit La, Gd, Yb und Y dotiert und als Glas synthetisiert. Die Schmelzen variierten systematisch im Aluminiumsättigungsindex (ASI), welcher bei den Prowatke und Klemme (2005) Zusammensetzungen einen Bereich von 0.115 bis 0.768, bei den haplogranitischen Zusammensetzungen einen Bereich von 0.935 bis 1.785 und bei den haplobasaltischen Zusammensetzungen einen Bereich von 0.368 bis 1.010 abdeckt. Zusätzlich wurden die haplogranitischen Zusammensetzungen mit 4 % H2O synthetisiert, um den Einfluss von Wasser auf die lokale Umgebung von SEE zu studieren. Um Informationen über die lokalen Struktur von Gd, Yb und Y zu erhalten wurde die Röntgenabsorptionsspektroskopie angewendet. Dabei liefert die Untersuchung der Feinstruktur mittels der EXAFS-Spektroskopie (engl. Extended X-Ray Absorption Fine Structure) quantitative Informationen über die lokale Umgebung, während RIXS (engl. resonant inelastic X-ray scattering), sowie die daraus extrahierte hoch aufgelöste Nahkantenstruktur, XANES (engl. X-ray absorption near edge structure) qualitative Informationen über mögliche Koordinationsänderungen von La, Gd und Yb in den Gläsern liefert. Um mögliche Unterschiede der lokalen Struktur oberhalb der Glastransformationstemperatur (TG) zur Raumtemperatur zu untersuchen, wurden exemplarisch Hochtemperatur Y-EXAFS Untersuchungen durchgeführt.
Für die Auswertung der EXAFS-Messungen wurde ein neu eingeführter Histogramm-Fit verwendet, der auch nicht-symmetrische bzw. nichtgaußförmige Paarverteilungsfunktionen beschreiben kann, wie sie bei einem hohen Grad der Polymerisierung bzw. bei hohen Temperaturen auftreten können. Die Y-EXAFS-Spektren für die Prowatke und Klemme (2005) Zusammensetzungen zeigen mit Zunahme des ASI, eine Zunahme der Asymmetrie und Breite der Y-O Paarverteilungsfunktion, welche sich in sich in der Änderung der Koordinationszahl von 6 nach 8 und einer Zunahme des Y-O Abstand um 0.13Å manifestiert. Ein ähnlicher Trend lässt sich auch für die Gd- und Yb-EXAFS-Spektren beobachten. Die hoch aufgelösten XANESSpektren für La, Gd und Yb zeigen, dass sich die strukturellen Unterschiede zumindest halb-quantitativ bestimmen lassen. Dies gilt insbesondere für Änderungen im mittleren Abstand zu den Sauerstoffatomen. Im Vergleich zur EXAFS-Spektroskopie liefert XANES jedoch keine Informationen über die Form und Breite von Paarverteilungsfunktionen. Die Hochtemperatur EXAFS-Untersuchungen von Y zeigen Änderungen der lokalen Struktur oberhalb der Glasübergangstemperatur an, welche sich vordergründig auf eine thermisch induzierte Erhöhung des mittleren Y-O Abstandes zurückführen lassen. Allerdings zeigt ein Vergleich der Y-O Abstände für Zusammensetzungen mit einem ASI von 0.115 bzw. 0.755, ermittelt bei Raumtemperatur und TG, dass der im Glas beobachtete strukturelle Unterschied entlang der Zusammensetzungsserie in der Schmelze noch stärker ausfallen kann, als bisher für die Gläser angenommen wurde.
Die direkte Korrelation der Verteilungsdaten von Prowatke und Klemme (2005) mit den strukturellen Änderungen der Schmelzen offenbart für Y eine lineare Korrelation, wohingegen Yb und Gd eine nicht lineare Beziehung zeigen. Aufgrund seines Ionenradius und seiner Ladung wird das 6-fach koordinierte SEE in den niedriger polymerisierten Schmelzen bevorzugt durch nicht-brückenbildende Sauerstoffatome koordiniert, um stabile Konfigurationen zu bilden. In den höher polymerisierten Schmelzen mit ASI-Werten in der Nähe von 1 ist 6-fache Koordination nicht möglich, da fast nur noch brückenbildende Sauerstoffatome zur Verfügung stehen. Die Überbindung von brückenbildenden Sauerstoffatomen um das SEE wird durch Erhöhung der Koordinationszahl und des mittleren SEE-O Abstandes ausgeglichen. Dies bedeutet eine energetisch günstigere Konfiguration in den stärker depolymerisierten Zusammensetzungen, aus welcher die beobachtete Variation des Verteilungskoeffizienten resultiert, welcher sich jedoch für jedes Element stark unterscheidet. Für die haplogranitischen und haplobasaltischen Zusammensetzungen wurde mit Zunahme der Polymerisierung auch eine Zunahme der Koordinationszahl und des durchschnittlichen Bindungsabstands, einhergehend mit der Zunahme der Schiefe und der Asymmetrie der Paarverteilungsfunktion, beobachtet. Dies impliziert, dass das jeweilige SEE mit Zunahme der Polymerisierung auch inkompatibler in diesen Zusammensetzungen wird. Weiterhin zeigt die Zugabe von Wasser, dass die Schmelzen depolymerisieren, was in einer symmetrischeren Paarverteilungsfunktion resultiert, wodurch die Kompatibilität wieder zunimmt.
Zusammenfassend zeigt sich, dass die Veränderungen der Schmelzzusammensetzungen in einer Änderung der Polymerisierung der Schmelzen resultieren, die dann einen signifikanten Einfluss auf die lokale Umgebung der SEE hat. Die strukturellen Änderungen lassen sich direkt mit Verteilungsdaten korrelieren, die Trends unterscheiden sich aber stark zwischen leichten, mittleren und schweren SEE. Allerdings konnte diese Studie zeigen, in welcher Größenordnung die Änderungen liegen müssen, um einen signifikanten Einfluss auf den Verteilungskoeffizenten zu haben. Weiterhin zeigt sich, dass der Einfluss der Schmelzzusammensetzung auf die Verteilung der Spurenelemente mit Zunahme der Polymerisierung steigt und daher nicht vernachlässigt werden darf.
Die Elbe und ihr Einzugsgebiet sind vom Klimawandel betroffen. Um die Wirkkette von projizierten Klimaveränderungen auf den Wasserhaushalt und die daraus resultierenden Nährstoffeinträge und -frachten für große Einzugsgebiete wie das der Elbe zu analysieren, können integrierte Umweltmodellsysteme eingesetzt werden. Fallstudien, die mit diesen Modellsystemen ad hoc durchgeführt werden, repräsentieren den Istzustand von Modellentwicklungen und -unsicherheiten und sind damit statisch.
Diese Arbeit beschreibt den Einstieg in die Dynamisierung von Klimafolgenanalysen im Elbegebiet. Dies umfasst zum einen eine Plausibilitätsprüfung von Auswirkungsrechnungen, die mit Szenarien des statistischen Szenariengenerators STARS durchgeführt wurden, durch den Vergleich mit den Auswirkungen neuerer Klimaszenarien aus dem ISI-MIP Projekt, die dem letzten Stand der Klimamodellierung entsprechen. Hierfür wird ein integriertes Modellsystem mit "eingefrorenem Entwicklungsstand" verwendet. Die Klimawirkungsmodelle bleiben dabei unverändert. Zum anderen wird ein Bestandteil des integrierten Modellsystems – das ökohydrologische Modell SWIM – zu einer "live"-Version weiterentwickelt. Diese wird durch punktuelle Testung an langjährigen Versuchsreihen eines Lysimeterstandorts sowie an aktuellen Abflussreihen validiert und verbessert.
Folgende Forschungsfragen werden bearbeitet: (i) Welche Effekte haben unterschiedliche Klimaszenarien auf den Wasserhaushalt im Elbegebiet und ist eine Neubewertung der Auswirkung des Klimawandels auf den Wasserhaushalt notwendig?, (ii) Was sind die Auswirkungen des Klimawandels auf die Nährstoffeinträge und -frachten im Elbegebiet sowie die Wirksamkeit von Maßnahmen zur Reduktion der Nährstoffeinträge?, (iii) Ist unter der Nutzung (selbst einer sehr geringen Anzahl) verfügbarer tagesaktueller Witterungsdaten in einem stark heterogenen Einzugsgebiet eine valide Ansprache der aktuellen ökohydrologischen Situation des Elbeeinzugsgebiets möglich?
Die aktuellen Szenarien bestätigen die Richtung, jedoch nicht das Ausmaß der Klimafolgen: Die Rückgänge des mittleren jährlichen Gesamtabflusses und der monatlichen Abflüsse an den Pegeln bis Mitte des Jahrhunderts betragen für das STARS-Szenario ca. 30 %. Die Rückgänge bei den auf dem ISI-MIP-Szenario basierenden Modellstudien liegen hingegen nur bei ca. 10 %. Hauptursachen für diese Divergenz sind die Unterschiede in den Niederschlagsprojektionen sowie die Unterschiede in der jahreszeitlichen Verteilung der Erwärmung. Im STARS-Szenario gehen methodisch bedingt die Niederschläge zurück und der Winter erwärmt sich stärker als der Sommer. In dem ISI-MIP-Szenario bleiben die Niederschläge nahezu stabil und die Erwärmung im Sommer und Winter unterscheidet sich nur geringfügig.
Generell nehmen die Nährstoffeinträge und -frachten mit den Abflüssen in beiden Szenarien unterproportional ab, wobei die Frachten jeweils stärker als die Einträge zurückgehen. Die konkreten Effekte der Abflussänderungen sind gering und liegen im einstelligen Prozentbereich. Gleiches gilt für die Unterschiede zwischen den Szenarien. Der Effekt von zwei ausgewählten Maßnahmen zur Reduktion der Nährstoffeinträge und -frachten unterscheidet sich bei verschiedenen Abflussverhältnissen, repräsentiert durch unterschiedliche Klimaszenarien in unterschiedlich feuchter Ausprägung, ebenfalls nur geringfügig.
Die Beantwortung der ersten beiden Forschungsfragen zeigt, dass die Aktualisierung von Klimaszenarien in einem ansonsten "eingefrorenen" Verbund von ökohydrologischen Daten und Modellen eine wichtige Prüfoption für die Plausibilisierung von Klimafolgenanalysen darstellt. Sie bildet die methodische Grundlage für die Schlussfolgerung, dass bei der Wassermenge eine Neubewertung der Klimafolgen notwendig ist, während dies bei den Nährstoffeinträgen und -frachten nicht der Fall ist.
Die zur Beantwortung der dritten Forschungsfrage mit SWIM-live durchgeführten Validierungsstudien ergeben Diskrepanzen am Lysimeterstandort und bei den Abflüssen aus den Teilgebieten Saale und Spree. Sie lassen sich zum Teil mit der notwendigen Interpolationsweite der Witterungsdaten und dem Einfluss von Wasserbewirtschaftungsmaßnahmen erklären. Insgesamt zeigen die Validierungsergebnisse, dass schon die Pilotversion von SWIM-live für eine ökohydrologische Ansprache des Gebietswasserhaushaltes im Elbeeinzugsgebiet genutzt werden kann. SWIM-live ermöglicht eine unmittelbare Betrachtung und Beurteilung simulierter Daten. Dadurch werden Unsicherheiten bei der Modellierung direkt offengelegt und können infolge dessen reduziert werden. Zum einen führte die Verdichtung der meteorologischen Eingangsdaten durch die Verwendung von nun ca. 700 anstatt 19 Klima- bzw. Niederschlagstationen zu einer Verbesserung der Ergebnisse. Zum anderen wurde SWIM-live beispielhaft für einen Zyklus aus punktueller Modellverbesserung und flächiger Überprüfung der Simulationsergebnisse genutzt.
Die einzelnen Teilarbeiten tragen jeweils zur Dynamisierung von Klimafolgenanalysen im Elbegebiet bei. Der Anlass hierfür war durch die fehlerhaften methodischen Grundlagen von STARS gegeben. Die Sinnfälligkeit der Dynamisierung ist jedoch nicht an diesen konkreten Anlass gebunden, sondern beruht auf der grundlegenden Einsicht, dass Ad-hoc-Szenarienanalysen immer auch pragmatische Vereinfachungen zugrunde liegen, die fortlaufend überprüft werden müssen.
Untersuchungen zur räumlichen Analyse und Visualisierung von Mietpreisdaten für Immobilienportale
(2015)
Die vorliegende Arbeit verfolgt das Ziel, aus geoinformatischer Sicht eine konzeptionelle Grundlage zur räumlichen Optimierung von Immobilienportalen zu schaffen. Die Arbeit geht dabei von zwei Hypothesen aus:
1. Verfahren der räumlichen Statistik und des Maschinellen Lernens zur Mietpreisschätzung sind den bisher eingesetzten Verfahren der hedonischen Regression überlegen und eignen sich zur räumlichen Optimierung von Immobilienportalen.
2. Die von Immobilienportalen publizierten webbasierten Mietpreiskarten geben nicht die tatsächlichen räumlichen Verhältnisse auf Immobilienmärkten wieder. Alternative webbasierte Darstellungsformen, wie z.B. Gridmaps, sind dem Status Quo der Immobilienpreiskarten von Immobilienportalen überlegen und visualisieren die tatsächlichen räumlichen Verhältnisse von Immobilienpreisen zweckmäßiger.
Beide Thesen können bewiesen werden.
Es erfolgt zunächst eine umfangreiche Erhebung des Forschungsbedarfs mittels Literaturstudien und technologischer Recherche. Zur Beantwortung der Forschungsfragen wird als quantitative Datenbasis ein 74.098 Mietangebote umfassender Datensatz (von Januar 2007 bis September 2013) eines Immobilienportals akquiriert. Dieser reicht jedoch nicht in vollem Umfang zur Beantwortung der Fragestellungen aus. Deshalb führt der Autor Experteninterviews zur Erhebung einer qualitativen Datenbasis. Deren Analyse ergibt in Kombination mit der Literaturstudie und der technologischen Recherche ein umfassendes, bisher so nicht verfügbares Bild. Es stellt den Status Quo der räumlichen Sicht sowie der raumanalytischen und geovisuellen Defizite von Immobilienportalen dar.
Zur Optimierung der raumanalytischen und geovisuellen Defizite werden forschungsbasierte Lösungsansätze herausgearbeitet und teilimplementiert. Methoden des Maschinellen Lernens und räumliche Schätzverfahren werden als Alternativen zu den von Immobilienportalen bisher genutzten „nicht räumlichen“ Analyseverfahren zur Preismodellierung untersucht. Auf Grundlage eines hierfür konzipierten Validierungsrahmens werden diese Methoden für die Nutzung im Kontext von Immobilienportalen adaptiert. Die prototypische Teilimplementierung zeigt die programmiertechnische Umsetzung des Konzeptes auf. Eine umfassende Analyse geeigneter Sekundärvariablensets zur Mietpreisschätzung liefert als methodisches Resultat, dass Interpolatoren, die Sekundärvariablen benötigen (Kriging with external drift, Ordinary Cokriging), kaum zu valideren Mietpreisschätzergebnissen gelangen als die Methode des Ordinary Kriging, die keine Sekundärvariablen benötigt. Die Methoden Random Forest aus dem Maschinellen Lernen und die Geographisch Gewichtete Regression hingegen bergen großes Potential zur Nutzung der räumlichen Mietpreisschätzung im Kontext von Immobilien-portalen. Die Forschungsergebnisse der räumlichen Preismodellierung werden in die räumliche Visualisierung von Mietpreisen transferiert.
Für die webbasierte Mietpreisdarstellung wird ein Set alternativer Darstellungsmethoden entwickelt, um Mietpreiskarten-Prototypen abzuleiten. Ein methodisches Ergebnis der Entwicklung der Mietpreiskarten-Prototypen ist die Entwicklung eines geeigneten Ansatzes der Loslösung des Preisbezugs von fachfremd verwendeten Bezugsgeometrien. Hierfür wird vom Autor der Begriff der zonenlosen Preiskarte geprägt. Diese werden mit Methoden des Gridmapping erstellt. Es werden optimale Rasterauflösungen zur Darstellung interpolierter Rastergrößen ermittelt. Zonenlose Preiskarten mit Methoden des Gridmapping, gepaart mit einer optionalen gebäudescharfen Darstellung in größeren Maßstäben, sind als Resultate der Forschung die bestmögliche, sich an realen Verhältnissen orientierende, räumliche Mietpreisdarstellung. Die entstandenen Prototypen sind eine Annäherung der wahren Verteilung des Mietpreises im Raum und um einiges schärfer, als die auf der hedonischen Regression basierenden Darstellungen. Somit kann die wahre „Topographie“ der Mietpreislandschaft abgebildet werden. Ein Einsatz der Karten für Nutzergruppen wie Makler, Investoren oder Kommunen zur Analyse städtischer Mietmärkte ist denkbar. Alle entstandenen Prototypen sind unter der Nutzung von Map APIs umgesetzt. Ein Ergebnis dessen ist, dass Map APIs noch an diversen „Kinderkrankheiten“ leiden und derart umgesetzte Mietpreiskarten noch einen weiten Weg vor sich haben, bis sie das Niveau thematischer Karten von Immhof oder Arnberger erreichen.
Die konzeptionellen Überlegungen und Teilimplementierungen münden in drei Prozessketten, die Umsetzungsoptionen für eine räumliche Optimierung von Immobilienportalen darstellen. Dabei werden zwei Szenarien für eine räumlich optimierte Mietpreisschätzung und ein Szenario für eine räumlich optimierte Mietpreisdarstellung herausgearbeitet.
In der vorliegenden Arbeit werden verschiedene Experimente zur Untersuchung der elektrischen Leitfähigkeit von Sutur- und Kollisionszonen im Zusammenhang diskutiert, um die Möglichkeiten, die die moderne Magnetotellurik (MT) für das Abbilden fossiler tektonischer Systeme bietet, aufzuzeigen. Aus den neuen hochauflösenden Abbildern der elektrischen Leitfähigkeit können potentielle Gemeinsamkeiten verschiedener tektonischer Einheiten abgeleitet werden. Innerhalb der letzten Dekade haben sich durch die Weiterentwicklung der Messgeräte und der Auswerte- und Interpretationsmethoden völlig neue Perspektiven für die geodynamische Tiefensondierung ergeben. Dies wird an meinen Forschungsarbeiten deutlich, die ich im Rahmen von Projekten selbst eingeworben und am Deutschen GeoForschungsZentrum Potsdam durchgeführt habe. In Tabelle A habe ich die in dieser Arbeit berücksichtigten Experimente aufgeführt, die in den letzten Jahren entweder als Array- oder als Profilmessungen durchgeführt wurden. Für derart große Feldexperimente benötigt man ein Team von WissenschaftlerInnen, StudentInnen und technischem Personal. Das bedeutet aber auch, dass von mir betreute StudentInnen und DoktorandInnen Teilaspekte dieser Experimente in Form von Diplom-, Bachelor- und Mastersarbeiten oder Promotionsschriften verarbeitet haben. Bei anschließender Veröffentlichung der Arbeiten habe ich als Co-Autor mitgewirkt. Die beiliegenden Veröffentlichungen enthalten eine Einführung in die Methode der Magnetotellurik und gegebenenfalls die Beschreibung neu entwickelter Methoden. Eine allgemeine Darstellung der theoretischen Grundlagen der Magnetotellurik findet man zum Beispiel in Chave & Jones (2012); Simpson & Bahr (2005); Kaufman & Keller (1981); Nabighian (1987); Weaver (1994). Die Arbeit beinhaltet zudem ein Glossar, in dem einige Begriffe und Abkürzungen erklärt werden. Ich habe mich entschieden, Begriffe, für die es keine adäquate deutsche Übersetzung gibt oder die im Deutschen eine andere oder missverständliche Bedeutung bekommen, auf Englisch in der Arbeit zu belassen. Sie sind durch eine kursive Schreibweise gekennzeichnet.
In der vorliegenden Dissertation werden Migrationsdiskurse in der deutschen Grenzregion zu Polen im Vorfeld der EU-Erweiterung zum 1. Mai 2004 exemplarisch in drei deutschen Grenzstädten, der jeweils westliche Teil der ehemals gemeinsamen, seit 1945 durch eine nationalstaatliche Grenze mit dem jeweils zeitspezifischen Grenzregime geteilten, deutsch-polnischen Zwillingsstädte Frankfurt (Oder) – Słubice, Guben – Gubin und Görlitz – Zgorzelec, analysiert.
Ausgewählt wurde der Untersuchungsraum mit Blick auf die tiefgreifenden europäischen Transformationsprozesse seit den späten 1980er Jahren, die für die örtliche Bevölkerung gravierende lebensweltliche Strukturumbrüche zur Folge hatten. Die Region wurde mit der Vereinigung der beiden deutschen Staaten überdies zu einem zentralen Aktionsraum nationaler und internationaler Migrationspolitik; ihr wurde eine wichtige stellvertretende Funktion betreffend die Zutrittsregelung zugewiesen. Mit der EU-Erweiterung waren für die Region neuerliche, unmittelbare Veränderungen verbunden, die vor Ort gerade auch aufgrund damit (mutmaßlich) einhergehender Migration eher als Bedrohung denn als Chance gedeutet wurden.
Den diskurstheoretischen Hintergrund der Untersuchungen stellen in erster Linie die Arbeiten von Michel Foucault und die von Siegfried Jäger darauf aufruhend konzipierte Kritische Diskursanalyse bereit. Diskurs wird – grob vereinfacht – als Fluss von sozialen Wissensbeständen und Bewusstseinsinhalten durch die Zeit verstanden, der individuelles und kollektives Handeln von Menschen bestimmt; Diskurse sind der Ort, an dem (Be-)Deutungen von Menschen ausgehandelt, verändert und der Wirklichkeit zugewiesen werden. Der Forschungszugang versteht sich als Teil der Neuen Kulturgeographie, die konsequent nicht-essentialistisch und erkenntnistheoretisch nicht-fundamentalistisch ist.
Die Datenbasis der empirischen Analysen repräsentieren zwei Ebenen bzw. Teilsektoren des Diskurses. Zum einen die Berichterstattung der jeweils monopolartigen regionalen Tageszeitung in Frankfurt (Oder), Guben und Görlitz (Märkische Oderzeitung/Frankfurter Stadtbote, Lausitzer Rundschau/Lokalausgabe Guben, Sächsische Zeitung/Görlitzer Zeitung). Zum anderen ein Sample von insgesamt 17 Experteninterviews mit lokalen Funktionsträgern, die mit Blick auf ihr, an ihre spezifische professionelle und/oder ehrenamtliche Tätigkeit gebundenes, praxisgesättigtes Sonder- bzw. Insiderwissen zum Thema Migration ausgewählt und befragt wurden.
Die durchgeführten Analysen verdeutlichen unter anderem die Bedeutung diskurssemantischer Grundfiguren des deutschen Migrationsdiskurses im Sinne politisch und alltagskulturell konservierter migrationskritischer Vorstellungsinhalte und Bedeutungszuweisungen zu Kategorien des Fremden und Konstruktionen von Wir und/vs. Sie. Ebenso explizieren sie eine gravierende Diskrepanz zwischen dem lokalen Staat und der Lebenswelt der lokalen Bevölkerung.
Umweltdaten aus Brandenburg
(2002)
Umweltdaten aus Brandenburg
(2003)
Umweltdaten aus Brandenburg
(2004)
Umweltdaten aus Brandenburg
(2005)
Umweltdaten aus Brandenburg
(2006)
Umweltdaten aus Brandenburg
(2007)
Methanhydrate sind besonders in Verbindung mit den steigenden Weltmarktpreisen für Öl und Gas in den vergangenen Jahren mehr und mehr in den Fokus der Energiewirtschaft geraten, was zu einer starken Zunahme der angewandten Forschungsprojekte auf diesem Gebiet führte. Da Methanhydrat nur unter hohem Druck und niedrigen Temperaturen stabil ist, ist die Gewinnung natürlicher Proben für Laboruntersuchungen technisch sehr aufwendig und vor allem teuer. Zur Charakterisierung der Eigenschaften hydratführender Reservoire ist man häufig auf die Herstellung synthetischer Proben angewiesen. Die Eigenschaften der synthetisierten Proben sind dabei abhängig von der Herstellungsmethode und man ist noch immer auf der Suche nach Verfahren, mit denen sich möglichst „naturnahe“ Proben mit vertretbarem Aufwand erzeugen lassen.
In der vorliegenden Arbeit wurde eine neue, relativ schnell durchführbare Methode getestet, die im Porenraum von Sedimenten schwimmende bzw. gefügestützende Hydrate bildet, wie sie in der Natur vorkommen. Gleichzeitig erzeugt sie eine gleichmäßige Verteilung des Hydrats über die Probe und bietet gute Kontrolle über den Hydratgehalt. Sie funktioniert wie folgt: Eine mit einer KCl-Lösung gesättigte Sedimentprobe wird zu einem bestimmten Teil ausgefroren und das übrige Wasser mit Methan verdrängt. Durch Anlegen eines Methandrucks im Stabilitätsbereich wird das Eis zu Methanhydrat umgesetzt. Im Anschluss wird die Probe erneut mit einer KCl-Lösung gesättigt. Anhand seismischer Messungen konnte bestätigt werden, dass Hydrat mit dem gewünschten Hydrathabitus erzeugt wurde. Des Weiteren wurde gezeigt, dass die eishaltigen Proben aufgrund ähnlicher physikalischer Eigenschaften bereits vor der Umsetzung des Eises zu Methanhydrat als Näherung für Proben mit Porenraumhydrat verwendet werden können.
Auswirkungen und Schäden
(2015)
Einleitung
(2015)
Danksagung
(2015)
Indonesien zählt zu den weltweit führenden Ländern bei der Nutzung von geothermischer Energie. Die geothermischen Energiequellen sind im Wesentlichen an den aktiven Vulkanismus gebunden, der durch die Prozesse an der indonesischen Subduktionszone verursacht wird. Darüber hinaus sind geotektonische Strukturen wie beispielsweise die Sumatra-Störung als verstärkende Faktoren für das geothermische Potenzial von Bedeutung. Bei der geophysikalischen Erkundung der indonesischen Geothermie-Ressourcen konzentrierte man sich bisher vor allem auf die Magnetotellurik. Passive Seismologie wurde dahingegen ausschließlich für die Überwachung von im Betrieb befindlichen Geothermie-Anlagen verwendet. Jüngste Untersuchungungen z.B. in Island und in den USA haben jedoch gezeigt, dass seismologische Verfahren bereits in der Erkundungsphase wichtige Informationen zu den physikalischen Eigenschaften, zum Spannungsfeld und zu möglichen Fluid- und Wärmetransportwegen liefern können. In der vorgelegten Doktorarbeit werden verschiedene moderne Methoden der passiven Seismologie verwendet, um beispielhaft ein neues, von der indonesischen Regierung für zukünftige geothermische Energiegewinnung ausgewiesenes Gebiet im nördlichen Teil Sumatras (Indonesien) zu erkunden. Die konkreten Ziele der Untersuchungen umfassten (1) die Ableitung von 3D Strukturmodellen der P- und S-Wellen Geschwindigkeiten (Parameter Vp und Vs), (2) die Bestimmung der Absorptionseigenschaften (Parameter Qp), und (3) die Kartierung und Charakterisierung von Störungssystemen auf der Grundlage der Seismizitätsverteilung und der Herdflächenlösungen. Für diese Zwecke habe ich zusammen mit Kollegen ein seismologisches Netzwerk in Tarutung (Sumatra) aufgebaut und über einen Zeitraum von 10 Monaten (Mai 2011 – Februar 2012) betrieben. Insgesamt wurden hierbei 42 Stationen (jeweils ausgestattet mit EDL-Datenlogger, 3-Komponenten, 1 Hz Seismometer) über eine Fläche von etwa 35 x 35 km verteilt. Mit dem Netzwerk wurden im gesamten Zeitraum 2568 lokale Erdbeben registriert. Die integrierte Betrachtung der Ergebnisse aus den verschiedenen Teilstudien (Tomographie, Erdbebenverteilung) erlaubt neue Einblicke in die generelle geologische Stukturierung sowie eine Eingrenzung von Bereichen mit einem erhöhten geothermischen Potenzial. Das tomographische Vp-Modell ermöglicht eine Bestimmung der Geometrie von Sedimentbecken entlang der Sumatra-Störung. Für die Geothermie besonders interessant ist der Bereich nordwestlich des Tarutung-Beckens. Die dort abgebildeten Anomalien (erhöhtes Vp/Vs, geringes Qp) habe ich als mögliche Aufstiegswege von warmen Fluiden interpretiert. Die scheinbar asymetrische Verteilung der Anomalien wird hierbei im Zusammenhang mit der Seismizitätsverteilung, der Geometrie der Beben-Bruchflächen, sowie struktur-geologischen Modellvorstellungen diskutiert. Damit werden wesentliche Informationen für die Planung einer zukünftigen geothermischen Anlage bereitgestellt.
Da geologische Störungen können als Grundwasserleiter, -Barrieren oder als gemischte leitende /stauende Fluidsysteme wirken. Aufgrund dessen können Störungen maßgeblich den Grundwasserfluss im Untergrund beeinflussen, welcher deutliche Veränderungen des tiefen thermischen Feldes bewirken kann. Grundwasserdynamik und Temperaturveränderungen sind wiederum entscheidende Faktoren für die Exploration geothermischer Energie. Diese Studie untersuchte den Einfluss von Störungen auf das Fluidsystem und das thermische Feld im Untergrund. Sie erforschte die physikalischen Prozesse, welche das Fluidverhalten und die Temperaturverteilung in Störungen und in den umgebenden Gesteinen. Dazu wurden 3D Finite Elemente Simulationen des gekoppelten Fluid und Wärmetransports für synthetische sowie reale Modelszenarien auf unterschiedlichen Skalen durchgeführt. Um den Einfluss einer schräg einfallenden Störung systematisch durch die schrittweise Veränderung der hydraulischen Öffnungsweite und der Permeabilität, zu untersuchen, wurde ein klein-skaliges synthetisches Modell entwickelt. Ein inverser linearer Zusammenhang wurde festgestellt, welcher zeigt, dass sich die Fluidgeschwindigkeit in der Störung jeweils um ~1e-01 m/s verringert, wenn die Öffnungsweite der Störung um jeweils eine Magnitude vergrößert wird. Ein hoher Permeabilitätskontrast zwischen Störung und umgebender Matrix begünstigt die Fluidadvektion hin zur Störung und führt zu ausgeprägten Druck- und Temperaturveränderungen innerhalb und um die Störung herum. Bei geringem Permeabilitätskontrast zwischen Störung und umgebendem Gestein findet hingegen kein Fluidfluss in der Störung statt, wobei das hydrostatische Druck- sowie das Temperaturfeld unverändert bleiben. Auf Grundlage der synthetischen Modellierungsergebnisse wurde der Einfluss von Störungen auf einer größeren Skala anhand eines komplexeren (realen) geologischen Systems analysiert. Dabei handelt es sich um ein 3D Modell des Geothermiestandortes Groß Schönebeck, der ca. 40 km nördlich von Berlin liegt. Die Integration von einer permeablen und drei impermeablen Hauptstörungen, zeigte unterschiedlich starke Einflüsse auf Fluidzirkulation, Temperatur – und Druckfeld. Die modellierte konvektive Zirkulation in der permeablen Störung verändert das thermische Feld stark (bis zu 15 K). In den gering durchlässigen Störungen wird die Wärme ausschließlich durch Diffusion geleitet. Der konduktive Wärmetransport beeinflusst das thermische Feld nicht, bewirkt jedoch lokale Veränderungen des hydrostatischen Druckfeldes. Um den Einfluss großer Störungszonen mit kilometerweitem vertikalen Versatz auf das geothermische Feld der Beckenskala zu untersuchen, wurden gekoppelte Fluid- und Wärmetransportsimulationen für ein 3D Strukturmodell des Gebietes Brandenburg durchgeführt (Noack et al. 2010; 2013). Bezüglich der Störungspermeabilität wurden verschiedene geologische Szenarien modelliert, von denen zwei Endgliedermodelle ausgewertet wurden. Die Ergebnisse zeigten, dass die undurchlässigen Störungen den Fluidfluss nur lokal beeinflussen. Da sie als hydraulische Barrieren wirken, wird der Fluidfluss mir sehr geringen Geschwindigkeiten entlang der Störungen innerhalb eines Bereichs von ~ 1 km auf jeder Seite umgelenkt. Die modellierten lokalen Veränderungen des Grundwasserzirkulationssystems haben keinen beobachtbaren Effekt auf das Temperaturfeld. Hingegen erzeugen permeable Störungszonen eine ausgeprägte thermische Signatur innerhalb eines Einflussbereichs von ~ 2.4-8.8 km in -1000 m Tiefe und ~6-12 km in -3000 m Tiefe. Diese thermische Signatur, in der sich kältere und wärmere Temperaturbereiche abwechseln, wird durch auf- und abwärts gerichteten Fluidfluss innerhalb der Störung verursacht, der grundsätzlich durch existierende Gradienten in der hydraulischen Druckhöhe angetrieben wird. Alle Studien haben gezeigt, dass Störungen einen beachtlichen Einfluss auf den Fluid-, und Wärmefluss haben. Es stellte sich heraus, dass die Permeabilität in der Störung und in den umgebenden geologischen Schichten so wie der spezifische geologische Rahmen entscheidende Faktoren in der Ausbildung verschiedener Wärmetransportmechanismen sind, die sich in Störungen entwickeln können. Die von permeablen Störungen verursachten Temperaturveränderungen können lokal, jedoch groß sein, genauso wie die durch hydraulisch leitende und nichtleitende Störungen hervorgerufenen Veränderungen des Fluidystems. Letztlich haben die Simulationen für die unterschiedlich skalierten Modelle gezeigt, dass die Ergebnisse sich nicht aufeinander übertragen lassen und dass es notwendig ist, jeden geologischen Rahmen hinsichtlich Konfiguration und Größenskala gesondert zu betrachten. Abschließend hat diese Studie demonstriert, dass die Betrachtung von Störungen in 3D Finiten Elementen Modellen für die Simulation von gekoppeltem Fluid- und Wärmetransport auf unterschiedlichen Skalen möglich ist. Da diese Art von numerischen Simulationen sowohl die geologische Struktur des Untergrunds sowie die im Erdinnern ablaufenden physikalischen Prozesse integriert, können sie einen wertvollen Beitrag leisten, indem sie Feld- und Laborgestützte Untersuchungen vervollständigen.
Die automatisierte Objektidentifikation stellt ein modernes Werkzeug in den Geoinformationswissenschaften dar (BLASCHKE et al., 2012). Um bei thematischen Kartierungen untereinander vergleichbare Ergebnisse zu erzielen, sollen aus Sicht der Geoinformatik Mittel für die Objektidentifikation eingesetzt werden. Anstelle von Feldarbeit werden deshalb in der vorliegenden Arbeit multispektrale Fernerkundungsdaten als Primärdaten verwendet. Konkrete natürliche Objekte werden GIS-gestützt und automatisiert über große Flächen und Objektdichten aus Primärdaten identifiziert und charakterisiert. Im Rahmen der vorliegenden Arbeit wird eine automatisierte Prozesskette zur Objektidentifikation konzipiert. Es werden neue Ansätze und Konzepte der objektbasierten Identifikation von natürlichen isolierten terrestrischen Oberflächenformen entwickelt und implementiert. Die Prozesskette basiert auf einem Konzept, das auf einem generischen Ansatz für automatisierte Objektidentifikation aufgebaut ist. Die Prozesskette kann anhand charakteristischer quantitativer Parameter angepasst und so umgesetzt werden, womit das Konzept der Objektidentifikation modular und skalierbar wird. Die modulbasierte Architektur ermöglicht den Einsatz sowohl einzelner Module als auch ihrer Kombination und möglicher Erweiterungen. Die eingesetzte Methodik der Objektidentifikation und die daran anschließende Charakteristik der (geo)morphometrischen und morphologischen Parameter wird durch statistische Verfahren gestützt. Diese ermöglichen die Vergleichbarkeit von Objektparametern aus unterschiedlichen Stichproben. Mit Hilfe der Regressionsund Varianzanalyse werden Verhältnisse zwischen Objektparametern untersucht. Es werden funktionale Abhängigkeiten der Parameter analysiert, um die Objekte qualitativ zu beschreiben. Damit ist es möglich, automatisiert berechnete Maße und Indizes der Objekte als quantitative Daten und Informationen zu erfassen und unterschiedliche Stichproben anzuwenden. Im Rahmen dieser Arbeit bilden Thermokarstseen die Grundlage für die Entwicklungen und als Beispiel sowie Datengrundlage für den Aufbau des Algorithmus und die Analyse. Die Geovisualisierung der multivariaten natürlichen Objekte wird für die Entwicklung eines besseren Verständnisses der räumlichen Relationen der Objekte eingesetzt. Kern der Geovisualisierung ist das Verknüpfen von Visualisierungsmethoden mit kartenähnlichen Darstellungen.
Lamprophyre sind porphyrische, aus Mantelschmelzen gebildete Gesteine, die meist in Form von Gängen auftreten. Sie zeichnen sich durch auffällige und charakteristische texturelle, chemische und mineralogische Eigenschaften aus. Als ehemalige Mantelschmelzen liefern sie Information sowohl über Bedingungen der Schmelzbildung im Mantel als auch über geodynamische Prozesse, die zu metasomatischer Veränderung des Mantels geführt haben. Im Saxothuringikum Mitteleuropas, am Nordrand des Böhmischen Massivs, gibt es zahlreiche Lamprophyrvorkommen, die hier zur Charakterisierung der Mantelentwicklung während der variszischen Orogenese dienen. Die vorliegende Arbeit befaßt sich mit den mineralogischen, geochemischen und isotopischen (Sr-Nd-Pb) Signaturen von spätvariszischen kalkalkalischen Lamprophyren, von postvariszischen ultramafischen Lamprophyren, von Alkalibasalten der Lausitz und, zum Vergleich, von prävariszischen Gabbros. Darüberhinaus nutzt die Arbeit Lithium-Isotopensignaturen kombiniert mit Sr-Nd-Pb–Isotopendaten spätvariszischer kalkalkalischer Lamprophyre aus drei variszischen Domänen (Erzgebirge, Lausitz, Sudeten) zur Erkundung der lokalen Mantelüberprägungen während der variszischen Orogenese.
Low molecular weight organic acids (LMWOAs) are important nutrients for microbes. However, most LMWOAs do not exist freely in the environment but are bound to macromolecular organic matter, e.g. kerogen, lignite and coal. During burial and geological maturation of sedimentary macromolecular organic matter biological and abiological processes promote the liberation of LMWOAs into the surrounding sediment. Through this process, microbes in sedimentary subsurface environments are supplied with essential nutrients. To estimate the feedstock potential of buried macromolecular organic matter to many environments it is important to determine the amount of LMWOAs that are bound to such a matrix. However, high-pressure and high temperature are a key feature of deep subsurface environments, and these physical parameters have a profound influence on chemical reaction kinetics. Therefore it is essential for the estimation of the feedstock potential to generate high-pressure and high temperature for the liberation of LMWOAs to recreate true in-situ conditions. This work presents a newly developed, inexpensive incubation system for biological and geological samples. It allows the application of high-pressure and high temperature as well as a subsampling of the liquid phase without loss of pressure, thereby not disturbing the on-going processes. When simulating the liberation of LMWOAs from sedimentary organic matter, the newly developed incubation system produces more realistic results than other extraction systems like Soxhlet. The extraction products remain in the extraction medium throughout the extraction, influencing the chemical conditions of the extraction medium. Sub-bituminous coal samples from New Zealand as well as lignite samples from Germany were extracted at elevated temperature (90˚C) and pressure (5 MPa). The main LMWOAs released from these low rank coals were formate, acetate and oxalate. Extraction efficiency was increased by two to four times for formate, acetate and oxalate in comparison to existing extraction methods without pressurisation and with demineralised water. This shows the importance of pressure for the simulation of true in-situ conditions and suggests that the amount of bioavailable LMWOAs is higher than previously thought. With the increase in carbon capture and storage (CCS) and the enhanced recovery of oil and gas (EOR/EGR), more and more CO2 becomes injected into the underground. However, the effects of elevated concentrations of carbon dioxide on sedimentary organic matter are rarely investigated. As the incuabtion system allows the manipulation of the composition and partial pressure of dissolved gasses, the effect of highly gas-enriched (CO2, CO2/SO2, CO2/NO2; to simulate flue gas conditions) waters on the extraction yield of LMWOAs from macromolecular organic matter was evaluated. For sub-bituminous coal the concentrations of all LMWAOs decreased upon the addition of gas, irrespective of its composition, whereas for lignite formate always and acetate mostly increased, while oxalate decreased. This suggests an positive effect on the nutrient supply for the subsurface microbiota of lignite layers, as formate and acetate are the most common LMWOAs used for microbial metabolism. In terrestrial mud volcanoes (TMVs), sedimentary material is rapidly ascending from great depth to the surface. Therefore LMWOAs that were produced from buried macromolecular organic matter at depth are also brought up to the surface, and fuel heterotrophic microbial ecosystems at the surface. TMVs represent geochemically and microbiologically diverse habitats, which are supplied with organic substrates and electron acceptors from deep-seated hydrocarbon-generating systems and intersected shallow aquifers, respectively. The main electron donor in TMVs in Azerbaijan is sulphate, and microbial sulphate reduction leads to the production of a wide range of reduced sulphur species that are key players in several biological processes. In our study we estimated the effect of LMWOAs on the sulphur metabolising activity of microorganims in TMVs from Azerbaijan. The addition of a mixture of volatile fatty acids containing acetate and other LMWOAs showed significant positive response to the sulphate reduction rate (SRR) of samples of several mud volcanoes. Further investigations on the temperature dependency of the SRR and the characterisation of thermophilic sulphate-reducing bacteria (SRB) showed a connection between the deep hot subsurface and the surface.
Die Kartierung planetarer Körper stellt ein wesentliches Mittel der raumfahrtgestützten Exploration der Himmelskörper dar. Aktuell kommen zur Erstellung der planetaren Karten Geo-Informationssysteme (GIS) zum Einsatz. Ziel dieser Arbeit ist es, eine GIS-orientierte Prozesskette (Planetary Mapping System (PMS)) zu konzipieren, mit dem Schwerpunkt geologische und geomorphologische Karten planetarer Oberflächen einheitlich durchführen zu können und nachhaltig zugänglich zu machen.
Predictability of hydrologic response at the plot and catchment scales: Role of initial conditions
(2004)
This paper examines the effect of uncertain initial soil moisture on hydrologic response at the plot scale (1 m2) and the catchment scale (3.6 km2) in the presence of threshold transitions between matrix and preferential flow. We adopt the concepts of microstates and macrostates from statistical mechanics. The microstates are the detailed patterns of initial soil moisture that are inherently unknown, while the macrostates are specified by the statistical distributions of initial soil moisture that can be derived from the measurements typically available in field experiments. We use a physically based model and ensure that it closely represents the processes in the Weiherbach catchment, Germany. We then use the model to generate hydrologic response to hypothetical irrigation events and rainfall events for multiple realizations of initial soil moisture microstates that are all consistent with the same macrostate. As the measures of uncertainty at the plot scale we use the coefficient of variation and the scaled range of simulated vertical bromide transport distances between realizations. At the catchment scale we use similar statistics derived from simulated flood peak discharges. The simulations indicate that at both scales the predictability depends on the average initial soil moisture state and is at a minimum around the soil moisture value where the transition from matrix to macropore flow occurs. The predictability increases with rainfall intensity. The predictability increases with scale with maximum absolute errors of 90 and 32% at the plot scale and the catchment scale, respectively. It is argued that even if we assume perfect knowledge on the processes, the level of detail with which one can measure the initial conditions along with the nonlinearity of the system will set limits to the repeatability of experiments and limits to the predictability of models at the plot and catchment scales.
Küsten und Klimawandel in den Augen von Touristen : eine Wahrnehmungsanalyse an der deutschen Ostsee
(2011)
Aufgrund seiner wirtschaftlichen Bedeutung spielt der Tourismus in Mecklenburg-Vorpommern eine große Rolle. Insbesondere die Küstengebiete sind beliebte Reiseziele. In den letzten Jahren konnte ein kontinuierlicher Anstieg der Ankünfte und Übernachtungen verzeichnet werden. Neben anderen Faktoren werden die regionalen Auswirkungen des Klimawandels jedoch in Zukunft eine Herausforderung für den Tourismussektor darstellen. Die globale Erwärmung wird für den Strand- und Badetourismus sowohl negative, als auch positive Folgen haben, auf die reagiert werden muss. Neben vorbeugenden Klimaschutzmaßnahmen werden künftig auch Anpassungsstrategien entwickelt werden müssen, die den zu erwartenden Veränderungen Rechnung tragen. Doch zu welchen tourismusrelevanten Veränderungen wird es überhaupt kommen und was geschieht bereits aktuell? Sind die Folgen des Klimawandels durch Touristen schon jetzt wahrnehmbar? Wie reagieren die Urlauber auf eventuelle Veränderungen? Diese und andere Fragen soll die vorliegende Arbeit, die innerhalb des RAdOST-Vorhabens (Regionale Anpassungsstrategien für die deutsche Ostseeküste) angesiedelt ist, beantworten. Dazu wurde zum einen eine Literaturrecherche zu tourismusrelevanten Klimawandelfolgen an der deutschen Ostseeküste durchgeführt. Zum anderen erfolgte in den Sommermonaten 2010 eine Befragung der Strandgäste in Markgrafenheide, Warnemünde und Nienhagen an der mecklenburgischen Ostseeküste. Im Mittelpunkt der Umfrage stand die Wahrnehmung von Erscheinungen (z.B. viele Quallen oder warmes Ostseewasser) sowie kurz- oder langfristigen Veränderungen an der Küste (z.B. schmalere Strände, vermehrter Strandanwurf) durch die Urlauber. Außerdem wurden die Einstellung und der Informationsgrad der Gäste zum Thema Klimawandel an der Ostseeküste analysiert. Ziel war es, aus den Umfrageergebnissen Handlungsempfehlungen für das lokale Strandmanagement hinsichtlich künftiger Anpassungsstrategien abzuleiten. Die Literaturrecherche zeigte, dass in einigen Bereichen schon jetzt Veränderungen (z.B. der Luft- und Wassertemperatur oder des Meeresspiegels) nachweisbar sind und laut verschiedener Modellprojektionen von weiteren Veränderungen ausgegangen werden kann. Wie die Umfrage deutlich machte, sind die Veränderungen momentan durch Touristen jedoch kaum oder gar nicht wahrnehmbar. Dementsprechend gering ist auch ihre Reaktion auf die einzelnen Phänomene. Generell ist die Wahrnehmung der Urlauber sehr subjektiv und selektiv. Manche Gegebenheiten wie beispielsweise existierende Küstenschutzmaßnahmen werden von einem großen Teil der Touristen gar nicht wahrgenommen. Hinsichtlich anderer Erscheinungen wie Strandanwurf und Quallen sind viele Besucher wiederum sehr sensibel. Es zeigte sich außerdem, dass es für die meisten Urlauber schwierig ist, zu beurteilen, ob bestimmte Gegebenheiten am Strand und an der Küste mit der globalen Erwärmung in Verbindung stehen oder nicht. Es besteht eine große Unsicherheit zu diesem Thema und oft wird der Klimawandel als Ursache für Erscheinungen genannt, auch wenn der kausale Zusammenhang wissenschaftlich nicht nachzuweisen ist. Es zeigte sich, dass die Urlauber sehr wenig über die regionalen Auswirkungen des Klimawandels informiert sind, sich aber Informationen wünschen. Folglich sollte zunächst die Aufklärung und Information der Urlauber über die Folgen der Veränderung des Klimas im Vordergrund stehen. Denn manche Aspekte, wie der Verlust von Strandabschnitten durch Erosion oder eine eventuelle Zunahme von Blaualgen in der Sommersaison, können nicht gänzlich vermieden werden. Durch gezielte Aufklärung könnte jedoch beispielsweise eine Akzeptanz für naturnahe Strände oder für den Rückzug aus einzelnen Gebieten geschaffen werden. Darüber hinaus sollte die zu erwartende Saisonverlängerung systematisch genutzt werden, um sowohl die Küste, als auch das Hinterland durch gezielte Angebote für Touristen attraktiv zu machen. Auf diese Weise könnte eine Entzerrung der Hauptsaison und eine bessere Auslastung der Beherbergungsbetriebe sowie der touristischen Infrastruktur erreicht werden.
In dieser Arbeit wird das regionale Klimamodell HIRHAM mit einer horizontalen Auflösung von 50 km und 19 vertikalen Schichten erstmals auf den asiatischen Kontinent angewendet, um die indische Monsunzirkulation unter rezenten und paläoklimatischen Bedingungen zu simulieren. Das Integrationsgebiet des Modells erstreckt sich von etwa 0ºN - 50ºN und 42ºE - 110ºE und bedeckt dabei sowohl die hohe Topographie des Himalajas und Tibet Plateaus als auch den nördlichen Indischen Ozean. Das Ziel besteht in der Beschreibung der regionalen Kopplung zwischen der Monsunzirkulation und den orographischen sowie diabatischen Antriebsmechanismen. Eine 44-jährige Modellsimulation von 1958-2001, die am seitlichen und unteren Rand von ECMWF Reanalysen (ERA40) angetrieben wird, bildet die Grundlage für die Validierung der Modellergebnisse mit Beobachtungen auf der Basis von Stations- und Gitterdatensätzen. Der Fokus liegt dabei auf der atmosphärischen Zirkulation, der Temperatur und dem Niederschlag im Sommer- und Wintermonsun, wobei die Qualität des Modells sowohl in Bezug zur langfristigen und dekadischen Klimatologie als auch zur interannuellen Variabilität evaluiert wird. Im Zusammenhang mit einer realistischen Reproduktion der Modelltopographie kann für die Muster der Zirkulation und Temperatur eine gute Übereinstimmung zwischen Modell und Daten nachgewiesen werden. Der simulierte Niederschlag zeigt eine bessere Übereinstimmung mit einem hoch aufgelösten Gitterdatensatz über der Landoberfläche Zentralindiens und in den Hochgebirgsregionen, der den Vorteil des Regionalmodells gegenüber der antreibenden Reanalyse hervorhebt. In verschiedenen Fall- und Sensitivitätsstudien werden die wesentlichen Antriebsfaktoren des indischen Monsuns (Meeresoberflächentemperaturen, Stärke des winterlichen Sibirischen Hochs und Anomalien der Bodenfeuchte) untersucht. Die Ergebnisse machen deutlich, dass die Simulation dieser Mechanismen auch mit einem Regionalmodell sehr schwierig ist, da die Komplexität des Monsunsystems hochgradig nichtlinear ist und die vor allem subgridskalig wirkenden Prozesse im Modell noch nicht ausreichend parametrisiert und verstanden sind. Ein paläoklimatisches Experiment für eine 44-jährige Zeitscheibe im mittleren Holozän (etwa 6000 Jahre vor heute), die am Rand von einer globalen ECHAM5 Simulation angetrieben wird, zeigt markante Veränderungen in der Intensität des Monsuns durch die unterschiedliche solare Einstrahlung, die wiederum Einflüsse auf die SST, die Zirkulation und damit auf die Niederschlagsmuster hat.
Entsprechend der Zielstellung wurden zunächst verschiedene Varianten der Kompostierung von Holzsubstanz getestet, um eine optimale Technologie, die auch für Entwicklungsländer realisierbar ist, herauszufinden. Hierzu sind in Pflanztöpfe Holzspäne (Woodchips) von zwei verschieden Holzarten (Laub- und Nadelholz) gefüllt und mit verschiedenen natürlichen Stickstoffquellen gemischt worden. Diese Ansätze wurden regelmäßig mit Kompostwasser appliziert. Nach vier Wochen sind zwei verschiedene Wurmarten (Dendrobaena veneta und Eisenia fetida) hinzugegeben worden. Die Feuchthaltung erfolgte ab diesem Zeitpunkt durch Frischwasser. Die qualitativ beste Versuchsvariante ist im nächsten Schritt mit weiteren natürlichen Stickstoffquellen, die in Entwicklungsländern zur Verfügung gestellt werden könnten, getestet worden. Von allen Kompostvarianten sind im Labor eine Vielzahl von bodenphysikalischen (z.B. Dichte, Wasserhaltekapazität) und bodenchemischen Zustandsgrößen (z.B. Elektrische Leitfähigkeit, Totalgehalte biophiler Elemente, Bodenreaktion, organische Substanzgehalte, Kationenaustauschkapazität) bestimmt worden. Die Wiederum qualitativ beste Mischung ist in einer weiteren Versuchsreihe in verschiedenen Mengenverhältnissen mit tertiärerem Abraumsand des Braunkohlebergbaus gemischt worden. In diese Versuchsmischungen wurde die Grasmischung RSM 7.2.1 eingesät und regelmäßig bewässert sowie die Wuchshöhe gemessen. Nach 42 Tagen wurden das Gras geerntet und die biometrischen Parameter, die Nährstoffgehalte (pflanzenverfügbare Fraktionen), die Bodenreaktion, die effektive bzw. potentielle Kationenaustauschkapazität sowie die Pufferkapazitäten der Mischsubstrate bestimmt. Die nächsten Versuchsvarianten sind als Feldversuche in der Niederlausitz durchgeführt worden. Für ihre Realisierung wurde als weiterer Zuschlagsstoff Arkadolith® zugemischt. Die Plotflächen sind sowohl auf Abraumsanden des Tertiärs als auch Quartärs angelegt worden. In jeweils eine Subvariante ist RSM 7.2.1, in die andere eine autochthone Grasmischung eingesät worden. Diese Experimente wurden nach 6 Monaten beendet, die Bestimmung aller Parameter erfolgte in gleicher Weise wie bei den Gewächshausversuchen. Auf Basis aller Versuchsreihen konnten die besten Kompostqualitäten und ihre optimalen Herstellungsvarianten ermittelt werden. Eine weitere Aufgabe war es zu untersuchen, wie im Vergleich zur Verbrennung von Holzmasse die CO2-Emission in die Atmosphäre durch Holzkompostierung verringert werden kann. Hierzu wurde während der verschiedenen Kompostierungsvarianten die CO2-Freisetzung gemessen. Im Vergleich dazu ist jeweils die gleiche Masse an Holzsubstanz verbrannt worden. Die Ergebnisse zeigten, dass im Vergleich zu der thermischen Verwertung von Holsubstanz die CO2-Emission bis zu 50 % verringert werden kann. Dem Boden kann darüber hinaus energiereiche organische Substanz zugeführt werden, die eine Entwicklung der Bodenorganismen ermöglicht. Ein weiteres Experiment zielte darauf ab, die Stabilität der Holzkomposte zu bestimmen. Darüber hinaus sollte untersucht werden, ob durch die Zufuhr von pyrogenem Kohlenstoff eine Vergrößerung der Stabilität zu erreichen ist. Diese Untersuchungen wurden mit Hilfe der Thermogravimetrie vorgenommen. Alle wichtigen Kompostierungsvarianten sind sowohl mit verschiedenen Zusatzmengen als auch ohne Zusatz von pyrogenem Kohlenstoff vermessen worden. Als Vergleichssubstanz diente der Oberboden eines Niedermoorgleys, der naturgemäß einen relativ hohen Anteil an organischer Substanz aufweist. Die Ergebnisse zeigten, dass im Bereich niedriger Temperaturen die Wasserbindung im Naturboden fester ist. In der Fraktion der oxidierbaren organischen Substanz, im mittleren Temperaturbereich gemessen, ist die natürliche Bodensubstanz ebenfalls stabiler, was auf eine intensivere Bindung zwischen den organischen und anorganischen Bestandteilen, also auf stabilere organisch-mineralische Komplexe, schlussfolgern lässt. Im Bereich höherer Temperaturen (T> 550° C) waren im Naturboden keine nennenswerten organischen Bestandteile mehr nachweisbar. Hingegen wiesen die Kompostvarianten einen hohen Anteil stabiler Fraktionen, vor allem aromatische Verbindungen, auf. Diese Aussagen erscheinen vor allem für die praktische Anwendung der Holzkomposte in Hinblick auf ihre Langzeitwirkung bedeutsam. Der Zusatz von pyrogenem Kohlenstoff zeigte keine zusätzliche Stabilisierungswirkung.
In den letzten drei Jahrzehnten wurden in einigen Seen und Feuchtgebieten in bewaldeten Einzugsgebieten Nordost-Brandenburgs sinkende Wasserstände beobachtet. In diesen Gebieten bestimmt die Grundwasserneubildung im Einzugsgebiet maßgeblich das Wasserdargebot der Seen und Feuchtgebiete, die deshalb hier als grundwasserabhängige Landschaftselemente bezeichnet werden. Somit weisen die sinkenden Wasserstände auf einen Rückgang der wegen des geringen Niederschlagsdargebotes ohnehin schon geringen Grundwasserneubildung hin. Die Höhe der Grundwasserneubildung ist neben den hydroklimatischen Randbedingungen auch von der Landnutzung abhängig. Veränderungen in der Waldvegetation und der hydroklimatischen Randbedingungen bewirken Änderungen der Grundwasserneubildung und beeinflussen somit auch den Wasserhaushalt der Seen und Feuchtgebiete. Aktuell wird die Waldvegetation durch Kiefernmonokulturen dominiert, mit im Vergleich zu anderen Baumarten höherer Evapotranspiration. Entwicklungen in der Forstwirtschaft streben die Verringerung von Kiefernmonokulturen an. Diese sollen langfristig auf geeigneten Standorten durch Laubmischwälder ersetzt werden. Dadurch lassen sich eine geringere Evapotranspiration und damit eine höhere Grundwasserneubildung erreichen. In der vorliegenden Arbeit werden am Beispiel des Redernswalder Sees und des Briesensees die Ursachen der beobachteten sinkenden Wasserstände analysiert. Ihre Wasserstände nahmen in den letzten 25 Jahren um mehr als 3 Meter ab. Weiterhin wird untersucht, wie die erwarteten Klimaänderungen und Veränderungen in der Waldbewirtschaftung die zukünftige Grundwasserneubildung und den Wasserhaushalt von Seen beeinflussen können. Die Entwicklung der Grundwasserneubildung im Untersuchungsgebiet wurde mit dem Wasserhaushaltsmodell WaSiM-ETH simuliert. Die Analyse der Wechselwirkungen der Seen mit dem regionalen quartären Grundwasserleitersystem erfolgte mit dem 3D-Grundwassermodell FEFLOW. Mögliche zukünftige Veränderungen der Grundwasserneubildung und der Seewasserstände durch Klimaänderungen und Waldumbau wurden mit Szenarienrechnungen bis zum Jahr 2100 analysiert. Die modellgestützte Analyse zeigte, dass die beobachteten abnehmenden Wasserstände zu etwa gleichen Anteilen durch Veränderungen der hydroklimatischen Randbedingungen sowie durch Veränderungen in der Waldvegetation und damit abnehmenden Grundwasserneubildungsraten zu erklären sind. Die zukünftigen Entwicklungen der Grundwasserneubildung und der Wasserstände sind geprägt von sich ändernden hydroklimatischen Randbedingungen und einem sukzessiven Wandel der Kiefernbestände zu Laubwäldern. Der Waldumbau hat positive Wirkungen auf die Grundwasserneubildung und damit auf die Wasserstände. Damit können die Einflüsse des eingesetzten REMO-A1B-Klimaszenarios zum Ende des Modellzeitraumes durch den Waldumbau nicht kompensiert werden, das Sinken des Wasserstandes wird jedoch wesentlich reduziert. Bei dem moderateren REMO-B1-Klimaszenario werden die Wasserstände des Jahres 2008 durch den Waldumbau bis zum Jahr 2100 überschritten.
Gegenstand dieser Arbeit ist die Konzeption, Entwicklung und exemplarische Implementierung eines generischen Verfahrens zur Erfassung, Verarbeitung, Auswertung und kartographischen Visualisierung urbaner Strukturen im altweltlichen Trockengürtel mittels hochauflösender operationeller Fernerkundungsdaten. Das Verfahren wird am Beispiel der jemenitischen Hauptstadt Sanaa einer Vertreterin des Typus der Orientalischen Stadt angewandt und evaluiert. Das zu entwickelnde Verfahren soll auf Standardverfahren und Systemen der raumbezogenen Informationsverarbeitung basieren und in seinen wesentlichen Prozessschritten automatisiert werden können. Daten von hochauflösenden operationellen Fernerkundungssystemen (wie z.B. QuickBird, Ikonos u. a.) erlauben die Erkennung und Kartierung urbaner Objekte, wie Gebäude, Straßen und sogar Autos. Die mit ihnen erstellten Karten und den daraus gewonnenen Informationen können zur Erfassung von Urbanisierungsprozessen (Stadt- und Bevölkerungswachstum) herangezogen werden. Sie werden auch zur Generierung von 3D-Stadtmodellen genutzt. Diese dienen z.B. der Visualisierung für touristische Anwendungen, für die Stadtplanung, für Lärmanalysen oder für die Standortplanung von Mobilfunkantennen. Bei dem in dieser Arbeit erzeugten 3D-Visualisierung wurden jedoch keine Gebäudedetails erfasst. Entscheidend war vielmehr die Wiedergabe der Siedlungsstruktur, die im Vorhandensein und in der Anordnung der Gebäude liegt. In dieser Arbeit wurden Daten des Satellitensensors Quickbird von 2005 verwendet. Sie zeigen einen Ausschnitt der Stadt Sanaa in Jemen. Die Fernerkundungsdaten wurden durch andere Daten, u.a. auch Geländedaten, ergänzt und verifiziert. Das ausgearbeitete Verfahren besteht aus der Klassifikation der Satellitenbild-aufnahme, die u.a. pixelbezogen und für jede Klasse einzeln (pixelbezogene Klassifikation auf Klassenebene) durchgeführt wurde. Zusätzlich fand eine visuelle Interpretation der Satellitenbildaufnahme statt, bei der einzelne Flächen und die Straßen digitalisiert und die Objekte mit Symbolen gekennzeichnet wurden. Die aus beiden Verfahren erstellten Stadtkarten wurden zu einer fusioniert. Durch die Kombination der Ergebnisse werden die Vorteile beider Karten in einer vereint und ihre jeweiligen Schwächen beseitigt bzw. minimiert. Die digitale Erfassung der Konturlinien auf der Orthophotomap von Sanaa erlaubte die Erstellung eines Digitalen Geländemodells, das der dreidimensionalen Darstellung des Altstadtbereichs von Sanaa diente. Die 3D-Visualisierung wurde sowohl von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene als auch von der digitalen Erfassung der Objekte erstellt. Die Ergebnisse beider Visualisierungen wurden im Anschluss in einer Stadtkarte vereint. Bei allen Klassifikationsverfahren wurden die asphaltierten Straßen, die Vegetation und einzeln stehende Gebäude sehr gut erfasst. Die Klassifikation der Altstadt gestaltete sich aufgrund der dort für die Klassifikation herrschenden ungünstigen Bedingungen am problematischsten. Die insgesamt besten Ergebnisse mit den höchsten Genauigkeitswerten wurden bei der pixelbezogenen Klassifikation auf Klassenebene erzielt. Dadurch, dass jede Klasse einzeln klassifiziert wurde, konnte die zu einer Klasse gehörende Fläche besser erfasst und nachbearbeitet werden. Die Datenmenge wurde reduziert, die Bearbeitungszeit somit kürzer und die Speicherkapazität geringer. Die Auswertung bzw. visuelle Validierung der pixel-bezogenen Klassifikationsergebnisse auf Klassenebene mit dem Originalsatelliten-bild gestaltete sich einfacher und erfolgte genauer als bei den anderen durch-geführten Klassifikationsverfahren. Außerdem war es durch die alleinige Erfassung der Klasse Gebäude möglich, eine 3D-Visualisierung zu erzeugen. Bei einem Vergleich der erstellten Stadtkarten ergibt sich, dass die durch die visuelle Interpretation erstellte Karte mehr Informationen enthält. Die von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene erstellte Karte ist aber weniger arbeits- und zeitaufwendig zu erzeugen. Zudem arbeitet sie die Struktur einer orientalischen Stadt mit den wesentlichen Merkmalen besser heraus. Durch die auf Basis der 2D-Stadtkarten erstellte 3D-Visualisierung wird ein anderer räumlicher Eindruck vermittelt und bestimmte Elemente einer orientalischen Stadt deutlich gemacht. Dazu zählen die sich in der Altstadt befindenden Sackgassen und die ehemalige Stadtmauer. Auch die für Sanaa typischen Hochhäuser werden in der 3D-Visualisierung erkannt. Insgesamt wurde in der Arbeit ein generisches Verfahren entwickelt, dass mit geringen Modifikationen auch auf andere städtische Räume des Typus orientalische Stadt angewendet werden kann.
Das Parallel-Seismik-Verfahren dient vor allem der nachträglichen Längenmessung von Fundamentpfählen oder ähnlichen Elementen zur Gründung von Bauwerken. Eine solche Messung wird beispielsweise notwendig, wenn ein Gebäude verstärkt, erhöht oder anders als bisher genutzt werden soll, aber keine Unterlagen mehr über die Fundamente vorhanden sind. Das Messprinzip des schon seit einigen Jahrzehnten bekannten Verfahrens ist relativ einfach: Auf dem Pfahlkopf wird meist durch Hammerschlag eine Stoßwelle erzeugt, die durch den Pfahl nach unten läuft. Dabei wird Energie in den Boden abgegeben. Die abgestrahlten Wellen werden von Sensoren in einem parallel zum Pfahl hergestellten Bohrloch registriert. Aus den Laufzeiten lassen sich die materialspezifischen Wellengeschwindigkeiten im Pfahl und im Boden sowie die Pfahllänge ermitteln. Bisher wurde meist ein sehr einfaches Verfahren zur Datenauswertung verwendet, das die Länge der Pfähle systematisch überschätzt. In der vorliegenden Dissertation wurden die mathematisch-physikalischen Grundlagen beleuchtet und durch Computersimulation die Wellenausbreitung in Pfahl und Boden genau untersucht. Weitere Simulationen klärten den Einfluss verschiedener Mess- und Strukturparameter, beispielsweise den Einfluss von Bodenschichtung oder Fehlstellen im Pfahl. So konnte geklärt werden, in welchen Fällen mit dem Parallel-Seismik-Verfahren gute Ergebnisse erzielt werden können (z. B. bei Fundamenten in Sand oder Ton) und wo es an seine Grenzen stößt (z. B. bei Gründung im Fels). Auf Basis dieser Ergebnisse entstand ein neuer mathematischer Formalismus zur Auswertung der Laufzeiten. In Verbindung mit einem Verfahren zur Dateninversion, d. h. der automatischen Anpassung der Unbekannten in den Gleichungen an die Messergebnisse, lassen sich sehr viel genauere Werte für die Pfahllänge ermitteln als mit allen bisher publizierten Verfahren. Zudem kann man nun auch mit relativ großen Abständen zwischen Bohrloch und Pfahl (2 - 3 m) arbeiten. Die Methode wurde an simulierten Daten ausführlich getestet. Die Messmethode und das neue Auswerteverfahren wurden in einer Reihe praktischer Anwendungen getestet – und dies fast immer erfolgreich. Nur in einem Fall komplizierter Fundamentgeometrie bei gleichzeitig sehr hoher Anforderung an die Genauigkeit war schon nach Simulationen klar, dass hier ein Einsatz nicht sinnvoll ist. Dafür zeigte es sich, dass auch die Länge von Pfahlwänden und Spundwänden ermittelt werden kann. Die Parallel-Seismik-Methode funktioniert als einziges verfügbares Verfahren zur Fundamentlängenermittlung zugleich in den meisten Bodenarten sowie an metallischen und nichtmetallischen Fundamenten und kommt ohne Kalibrierung aus. Sie ist nun sehr viel breiter einsetzbar und liefert sehr viel genauere Ergebnisse. Die Simulationen zeigten noch Potential für Erweiterungen, zum Beispiel durch den Einsatz spezieller Sensoren, die zusätzliche Wellentypen empfangen und unterscheiden können.
Ermittlung historischer Parameter eines kleinen Einzugsgebietes am Beispiel des Pfefferfließes
(2010)
Am Beispiel eines Fließgewässers (Pfefferfließ) wurde unter Verwendung verschiedener Methoden die hydrologische Situation eines naturnahen Zustandes des 18. Jh. dargestellt bzw. ermittelt. Die Grundlage zur Ermittlung eines naturnahen Zustandes des 18. Jh. waren historische Daten wie z.B. Karten, Handschriften, Meliorationspläne. Die Detektierung bzw. Aufnahme historischer Querschnitte sowie die Modellierung des Abflusses im 18 Jh. tragen ebenfalls zu einer Generierung des Gesamtbildes im 18.Jh. bei. Die aus diesen Daten gewonnenen Erkenntnisse wurden auf die weitere Anwendung als Leitbild für Renaturierungsmaßnahmen überprüft.
Die verschiedenen Meßverfahren zur Bestimmung von Bodenwassergehalten und der Bodenfeuchte konnten während ihres Einsatzes im Uvs-Nuur-Becken über einen längeren Zeitraum hinweg erprobt werden. Dabei stellte sich heraus, daß die Thetasonde und die Stechzylinderproben sich zur Bestimmung des volumetrischen Bodenwassergehalts gut eignen. An den Standorten, an denen parallele Messungen mit beiden Verfahren möglich waren, zeigten Vergleiche der Meßreihen, daß sich die beiden Methoden gegenseitig bestätigen. Nur in Einzelfällen traten größere Abweichungen zwischen den Tageswerten auf. Einschränkend auf die Anwendbarkeit der Verfahren und die Genauigkeit der Meßergebnisse kann sich die Bodenbeschaffenheit auswirken. In stark verdichteten oder skelettreichen Böden ist das Einbringen der Sondenmeßstäbe schwierig und stellenweise nicht möglich. Derartige Böden sind auch für die Entnahme von Stechzylinderproben problematisch, da es schwierig ist Materialverluste bei der Entnahme gering zuhalten. Die Verfahren zur Bestimmung der Bodenfeuchte, Tensiometer und Gipsblocksensoren, hatten gegenüber den anderen Verfahren den Vorteil, daß sie automatisiert waren. Auf diese Weise konnte auch ohne intensive Betreuung eine hohe zeitliche Meßdichte erzielt werden. Über eine Eichkurve, die im Labor erstellt wurde, konnten den Wasserspannungen die entsprechenden Bodenwassergehalte zugeordnet werden. Für Station S 2 sind die Tensiometermeßwerte gut geeignet, um zusammen mit den Stechzylinderproben die Bodenwasserdynamik zu beschreiben. An den anderen Standorten liegen die Wassergehalte, die man über die Eichkurve erhält, verglichen mit Thetasonden- und Stechzylinderwerten sehr viel höher. Beim Einsatz von Tensiometern und Gipsblocksensoren in diesem Gebiet muß aufgrund des geringen Bodenwassergehalts vieler Standorte besonders darauf geachtet werden, daß die Sensoren bzw. die Kerzen eng vom Boden umschlossen sind, ansonsten kann es zu erheblichen Beeinträchtigungen der Meßgenauigkeit kommen. Bei den Tensiometern muß zusätzlich darauf geachtet werden, daß der Meßbereich nicht überschritten wird. Die Variabilität zwischen den Bodenwassergehalten der Standorte ergibt sich aus ihrer Lage im Untersuchungsgebiet und dem Witterungsgeschehen. Die deutlichsten Unterschiede zeigen sich beim Vergleich der Standorte der Ebenen und der Hangbereiche. An den Standorten in der Ebene ist die potentielle Evapotranspiration höher als an den Hangstandorten, dies wirkt sich auf die absolute Höhe der Bodenwassergehalte und auf ihre Variabilität aus. In der Ebene gehen die Bodenwassergehalte nach einer Erhöhung durch Niederschlagseinträge aufgrund der starken Evapotranspiration relativ schnell wieder zurück, so kommt es zu einer hohen Variabilität. An den Hangstandorten ist dieser Effekt abgeschwächt, besonders gering ist die potentielle Verdunstung im Wald am Standort S 7. Die Meßreihen dort weisen geringere Gegensätze zwischen den Extrema auf. Die signifikanten Unterschiede der Bodenwassergehalte verschiedener Meßtiefen eines Standortes werden anhand Variationskoeffizienten der Meßreihen deutlich. In 5 cm Bodentiefe spiegelt sich das aktuelle atmosphärische Geschehen wider. Niederschlagseinträge werden durch eine unmittelbare Erhöhung des Bodenwassergehalts sichtbar. Ist die potentielle Verdunstung nach einer Erhöhung der Bodenwassergehalte durch Niederschlagseinträge hoch, verringern sich die Bodenwassergehalte in dieser Meßtiefe auch schnell wieder. In den Bereichen ab 20 cm Bodentiefe sind kurzfristige Erhöhungen des Bodenwassergehalts nur nach sehr starken Niederschlägen zu beobachten. Veränderungen wie der allmähliche Rückgang des Bodenwassergehalts in den tieferen Bodenschichten an S 3 sind nur über einen längeren Zeitraum festzustellen. Die zeitliche Variabilität der Bodenwassergehalte wird vom Witterungsgeschehen, insbesondere den Niederschlägen und der potentiellen Verdunstung, bestimmt. Im Sommer 1998 ist das Verhältnis von Niederschlag und potentieller Verdunstung so, daß auch nach den Hauptniederschlägen des Jahres in den Sommermonaten keine Erhöhung der Bodenwassergehalte stattgefunden hat. An Station S 3 ist in den tieferen Bodenschichten eine Austrocknung zu verzeichnen. Dies ist der Hauptunterschied zwischen den Jahren 1997 und 1998. 1997 fällt sehr viel mehr Regen als 1998, es kommt zu einer nachhaltigen Durchfeuchtung des Bodens. Auch die Verdunstung ist 1997 geringer. Nach Niederschlägen findet daher kein so schneller Rückgang der Bodenwassergehalte wie 1998 statt, und die Variabilität der Meßwerte ist geringer. Es ist anzunehmen, daß die Bodenwassergehalte am Anfang der Meßperiode des Jahres 1998, die im Laufe des Meßzeitraums abnehmen, Vorräte aus den Einträgen des Jahres 1997 darstellen. Eine nachhaltige Durchfeuchtung des Bodens findet also nur bei sehr hohen Niederschlagseinträgen wie im Jahr 1997 statt.
Die visuelle Kommunikation ist eine effiziente Methode, um dynamische Phänomene zu beschreiben. Informationsobjekte präzise wahrzunehmen, einen schnellen Zugriff auf strukturierte und relevante Informationen zu ermöglichen, erfordert konsistente und nach dem formalen Minimalprinzip konzipierte Analyse- und Darstellungsmethoden. Dynamische Raumphänomene in Geoinformationssystemen können durch den Mangel an konzeptionellen Optimierungsanpassungen aufgrund ihrer statischen Systemstruktur nur bedingt die Informationen von Raum und Zeit modellieren. Die Forschung in dieser Arbeit ist daher auf drei interdisziplinäre Ansätze fokussiert. Der erste Ansatz stellt eine echtzeitnahe Datenerfassung dar, die in Geodatenbanken zeitorientiert verwaltet wird. Der zweite Ansatz betrachtet Analyse- und Simulationsmethoden, die das dynamische Verhalten analysieren und prognostizieren. Der dritte Ansatz konzipiert Visualisierungsmethoden, die insbesondere dynamische Prozesse abbilden. Die Symbolisierung der Prozesse passt sich bedarfsweise in Abhängigkeit des Prozessverlaufes und der Interaktion zwischen Datenbanken und Simulationsmodellen den verschiedenen Entwicklungsphasen an. Dynamische Aspekte können so mit Hilfe bewährter Funktionen aus der GI-Science zeitnah mit modularen Werkzeugen entwickelt und visualisiert werden. Die Analyse-, Verschneidungs- und Datenverwaltungsfunktionen sollen hierbei als Nutzungs- und Auswertungspotential alternativ zu Methoden statischer Karten dienen. Bedeutend für die zeitliche Komponente ist das Verknüpfen neuer Technologien, z. B. die Simulation und Animation, basierend auf einer strukturierten Zeitdatenbank in Verbindung mit statistischen Verfahren. Methodisch werden Modellansätze und Visualisierungstechniken entwickelt, die auf den Bereich Verkehr transferiert werden. Verkehrsdynamische Phänomene, die nicht zusammenhängend und umfassend darstellbar sind, werden modular in einer serviceorientierten Architektur separiert, um sie in verschiedenen Ebenen räumlich und zeitlich visuell zu präsentieren. Entwicklungen der Vergangenheit und Prognosen der Zukunft werden über verschiedene Berechnungsmethoden modelliert und visuell analysiert. Die Verknüpfung einer Mikrosimulation (Abbildung einzelner Fahrzeuge) mit einer netzgesteuerten Makrosimulation (Abbildung eines gesamten Straßennetzes) ermöglicht eine maßstabsunabhängige Simulation und Visualisierung des Mobilitätsverhaltens ohne zeitaufwendige Bewertungsmodellberechnungen. Zukünftig wird die visuelle Analyse raum-zeitlicher Veränderungen für planerische Entscheidungen ein effizientes Mittel sein, um Informationen übergreifend verfügbar, klar strukturiert und zweckorientiert zur Verfügung zu stellen. Der Mehrwert durch visuelle Geoanalysen, die modular in einem System integriert sind, ist das flexible Auswerten von Messdaten nach zeitlichen und räumlichen Merkmalen.
In diesem Artikel geht es um den praktischen Aushandlungsprozess des Verhältnisses formaler Gesetze und akzeptierter Normen. Mit formalen Gesetzen lassen sich Legalität und Illegalität, mit akzeptierbaren Normen Legitimität und Illegitimität definieren. Anhand einer qualitativen Feldforschung über Schmuggel an der polnisch-russischen Grenze wird deutlich, dass eine gesetzlich als illegal definierte Handlung nicht, wie sonst oft, notwendigerweise als unmoralisch klassifiziert wird.