Refine
Year of publication
- 2021 (2463) (remove)
Document Type
- Article (1514)
- Doctoral Thesis (275)
- Part of a Book (175)
- Postprint (153)
- Monograph/Edited Volume (99)
- Review (67)
- Conference Proceeding (39)
- Part of Periodical (36)
- Other (20)
- Working Paper (20)
Language
Keywords
- COVID-19 (22)
- machine learning (14)
- climate change (13)
- Migration (12)
- Germany (11)
- diffusion (11)
- embodied cognition (11)
- USA (10)
- exercise (10)
- Arabidopsis thaliana (9)
Institute
- Institut für Biochemie und Biologie (203)
- Institut für Physik und Astronomie (172)
- Institut für Chemie (158)
- Institut für Geowissenschaften (148)
- Bürgerliches Recht (128)
- Historisches Institut (120)
- Department Psychologie (103)
- Fachgruppe Politik- & Verwaltungswissenschaft (100)
- Fachgruppe Betriebswirtschaftslehre (99)
- Institut für Umweltwissenschaften und Geographie (95)
Die Quantifizierung der Biomasse von Pflanzen mithilfe effizienter Messmethoden hat für verschiedene Wissenschaftsbereiche eine große Bedeutung. Die vorliegende Arbeit soll es ermöglichen, über die einzelbaumbasierte Schätzung der oberirdischen Biomasse einer Apfel- und einer Kirschkultur am Forschungsstandort Marquardt (Potsdam) auf die Menge des in ihr enthaltenen Wasserstoffs zu schließen. Hierzu wurde das Volumen von 13 Kirsch- und 11 Apfelbäumen bestimmt, indem sie in Segmente unterteilt, diese einzeln vermessen und in Durchmesserklassen eingeteilt wurden. Des Weiteren wurden die Dichte der Zweige und die mittlere Laubmasse bestimmt. Zur Berechnung der Biomasse wurde zusätzlich ein Literaturwert der Holzdichte der entsprechenden Baumarten herangezogen. Es wurde die Verteilung der Holzbiomasse auf die einzelnen Durchmesserklassen untersucht und einfach zu erhebende Baumparameter, sowie Daten eines Terrestrischen Laserscanners als Prädiktorvariablen für eine Regressionsanalyse herangezogen. Die experimentell ermittelten Dichtewerte zeigten eine Zunahme mit steigendem Zweigdurchmesser. Dabei wichen sie beim Kirschbaumholz leicht, beim Apfelbaumholz stärker vom Literaturwert ab. Die Erhebungen zur Laubmasse wurden unabhängig von den vermessenen Bäumen gemacht und die Ergebnisse unterlagen großer Varianz, weshalb kein Zusammenhang zwischen Holz- und Laubbiomasse hergestellt und nur durchschnittliche Werte ermittelt werden konnten. Der Anteil der verschiedenen Durchmesserklassen an der Gesamtmasse erwies sich als stark variabel und eine Schätzung der Biomasse aus dem Gewicht weniger kräftiger Baumsegmente daher als nicht geeignet. Eine zuverlässige und effiziente Abschätzung der oberirdischen verholzten Biomasse kann jedoch durch die Anwendung der erstellten Modelle erreicht werden. Für die vorliegende Population gleichaltriger und ähnlich großer Individuen wurden mit einer linearen Regression die besten Ergebnisse erzielt. Während die auf Laserdaten basierenden Variablen kaum mit der Holzbiomasse korrelierten, zeigten lineare Modelle mit dem Stammdurchmesser d bzw. d² als Prädiktor bei beiden Baumarten eine hohe Signifikanz (p - Wert < 0.001) und sehr gute Anpassung (R² > 0.8).
Die Rechtsfolgen einer fehlgeschlagenen Anteilsabtretung stellen ein rechtspraktisches Problem des GmbH-Rechts dar, dessen Lösungswege üblicherweise im Schuldrecht gesucht werden. Der Anwendung der schuldrechtlichen Rechtsinstitute im Rahmen des § 16 Abs. 1 GmbHG geht die Frage voran, ob das durch die Legitimationswirkung charakterisierte Auseinanderfallen von Herrschaftsrecht und Herrschaftsmöglichkeit zur Anwendung des Eigentümer-Besitzer-Verhältnisses führen kann. Der Übertragbarkeit der drei Komponenten der Vindikationslage – Sache, Eigentum, Besitz – und deren Interdependenzen auf die durch die Legitimationswirkung hervorgerufene Situation widmet sich diese Arbeit. Im Wege des systematischen Vergleichs der Rechtsbeziehungen weist der Autor eine Vergleichbarkeit nach und schlägt eine analoge Anwendung des Eigentümer-Besitzer-Verhältnisses vor. Im Mittelpunkt stehen die Rechtsgegenständlichkeit der Mitgliedschaft und die Ausdehnung des Besitzbegriffs auf unkörperliche Rechtsprodukte.
Emotions are a complex concept and they are present in our everyday life. Persons on the autism spectrum are said to have difficulties in social interactions, showing deficits in emotion recognition in comparison to neurotypically developed persons. But social-emotional skills are believed to be positively augmented by training. A new adaptive social cognition training tool “E.V.A.” is introduced which teaches emotion recognition from face, voice and body language. One cross-sectional and one longitudinal study with adult neurotypical and autistic participants were conducted. The aim of the cross-sectional study was to characterize the two groups and see if differences in their social-emotional skills exist. The longitudinal study, on the other hand, aimed for detecting possible training effects following training with the new training tool. In addition, in both studies usability assessments were conducted to investigate the perceived usability of the new tool for neurotypical as well as autistic participants. Differences were found between autistic and neurotypical participants in their social-emotional and emotion recognition abilities. Training effects for neurotypical participants in an emotion recognition task were found after two weeks of home training. Similar perceived usability was found for the neurotypical and autistic participants. The current findings suggest that persons with ASC do not have a general deficit in emotion recognition, but are in need for more time to correctly recognize emotions. In addition, findings suggest that training emotion recognition abilities is possible. Further studies are needed to verify if the training effects found for neurotypical participants also manifest in a larger ASC sample.
Strafrecht, Besonderer Teil
(2021)
Strafrecht, Besonderer Teil
(2021)
Das Lehrbuch behandelt die für Studium und Examen bedeutsamen Verbrechen und Vergehen aus dem Bereich der Nichtvermögensdelikte, wobei stets auch die Bezüge zum Allgemeinen Teil aufgezeigt werden. Die Darstellung erfolgt durchgehend anhand von Fällen und Beispielen und enthält eingehende Problembehandlungen. Band 1 bildet zusammen mit dem ebenfalls neu bearbeiteten Studienbuch Krey/Hellmann/Heinrich, Besonderer Teil, Band 2 (zu den Vermögensdelikten) ein gründliches und aktuelles Standardwerk zum Besonderen Teil. Das Buch richtet sich an Anfänger, denen es eine gründliche Einführung bietet, aber auch an Fortgeschrittene, Referendare und Praktiker zur Wiederholung, Ergänzung und Vertiefung.
En apenas tan pocas lenguas, como en el español, se ha publicado tantos trabajos sobre la evidencialidad en los últimos años. No obstante, en ello se pierde de vista con frecuencia la verdadera función de los marcadores de evidencialidad que hacen referencia al origen del conocimiento del hablante. Además de los marcadores léxicos, se consideran como medios de expresión de la evidencialidad incluso estructuras discursivas y expresiones proposicionales que hacen referencia a la fuente del conocimiento, alejándose demasiado de la restricción a los evidenciales gramaticales. En esta contribución, se intentará ordenar esta posición confusa y desarrollar un modelo de relación entre la evidencialidad y temporalidad, aspectualidad y modalidad que tenga en cuenta la realidad de las circunstancias en el español y sus variedades. Se partirá de un planteamiento onomasiológico hacia los medios de expresión del origen del conocimiento del hablante; al mismo tiempo se analizarán los medios de expresión en cuanto a su polifuncionalidad. La base empírica para este estudio será el análisis de un corpus (SketchEngine, CREA, CORPES XXI) sobre el condicional reportativo e inferencial y su relación con el imperfecto evidencial y futuro inferencial en las diversas variedades del español, así como las condiciones de uso de los adverbios evidenciales-epistémicos.
-Christoph Markschies: Geleitwort
-Ulrich Päßler: Christian Gottfried Ehrenberg: Lebensbilder eines Naturforschers
-Mathias Grote: „Aus dem Kleinen bauen sich die Welten“ – Christian Gottfried Ehrenbergs ökologische Mikrobiologie avant la lettre
-Anne Greenwood MacKinney: Die Inszenierung naturforschender Gelehrsamkeit beim Sammeln: Christian Gottfried Ehrenbergs und Wilhelm Hemprichs nordafrikanische Forschungsreise (1820 – 1825)
-Ulrich Päßler: Reisen im Nahen Osten. Zeichnungen
-Ulrich Päßler: Christian Gottfried Ehrenberg und die Biogeographie: Die russisch-sibirische Reise mit Alexander von Humboldt (1829)
-Ulrich Päßler: Russisch-Sibirische Reise. Zeichnungen
-Wolf-Henning Kusber, Regine Jahn: Christian Gottfried Ehrenbergs Zeichnungen: Eine frühe wissenschaftliche Dokumentation mikroskopischer Organismen
-Ferdinand Damaschun: Christian Gottfried Ehrenberg und die Entwicklung der Mikroskop-Technik im 19. Jahrhundert
-Ulrich Päßler: Die Reise ins Kleinste der Natur. Zeichnungen
-Katrin Böhme: Das große Ganze: Christian Gottfried Ehrenberg und die Gesellschaft Naturforschender Freunde zu Berlin
Die vorliegende Arbeit beschäftigt sich mit der Synthese von Disulfiden, der Thiol-Disulfid Metathesereaktion als Möglichkeit, Polymere zu funktionalisieren, und der Synthese von Polydisulfiden. Im ersten Teil der Arbeit wird die Aminolyse von RAFT-Polymeren und die Abhängigkeit der Polymer-Polymer Disulfidbildung von der Molmasse untersucht. Dabei wurde durch die Aufnahme von Reaktionskinetiken mittels Gel-Permeations-Chromatographie (GPC) festgestellt, dass je länger die Polymerketten sind, desto weniger Disulfid Polymerkopplung tritt auf. RAFT-Polymere werden oft genutzt, um die RAFT-Polymer Endgruppe nach der Polymerisation zu modifizieren oder in einer chemischen Reaktion zu funktionalisieren. Hier kann die Aminolyse in Anwesenheit von kurzkettigen Disulfiden, wie zum Beispiel Cystin, durchgeführt werden, um die Bildung von Polymer-Polymer Disulfiden vollständig zu unterdrücken und ein endgruppenfunktionalisiertes Polymer zu erhalten. Bei dieser Reaktion greift das bei der Aminolyse entstehende Polymerthiolat die kurzkettigen Disulfide an, und es kommt zur Bildung von funktionalisierten Polymeren. Es wurde ein Polyethylenglykoldisulfid eingesetzt, um ein amphiphiles Blockcopolymer zu erhalten. Als RAFT-Polymer wurde Polystyrol (PS) verwendet, und es konnte die Bildung von Polystyrol-Polyethylenglykol Copolymeren nachgewiesen werden. Das amphiphile Polymer bildet im wässrigen Medium Vesikel. Die Oberfläche der Vesikel konnte mittels der Thiol-Disulfid Metathese umfunktionalisiert werden. Die Aminolyse von PS RAFT-Polymeren mit einem Polylaktiddisulfid oder einem Polybenzylglutamatdisulfid ergab Polystyrol-block-Polyester und Polystyrol-block-Polyaminosäuren Copolymere. Im zweiten Teil der Arbeit liegt der Fokus auf der Synthese von Polydisulfiden und ihren thermischen Eigenschaften. Es wurden verschiedene Alkyldithiole synthetisiert und mittels Wasserstoffperoxid und Triethylamin polymerisiert. Dabei konnte gezeigt werden, dass die Polymere teilkristallin sind und dass der Schmelzpunkt und die Kristallinität der Polymere mit steigender Alkylkettenlänge zwischen den Disulfidbindungen zunehmen. Die Möglichkeit einer Polymerkettenerweiterung nach der Polymerisation ist mit diesem System gegeben. Die Abbaubarkeit der Polydisulfide konnte durch den Einsatz von Thiolen im basischen Milieu gezeigt werden.
In der vorliegenden Arbeit wurde sich mit der Frage beschäftigt, ob und wenn ja inwiefern das spanische que, neben seinen klassischen Verwendungsweisen als Pronomen und Konjunktion, als Diskursmarker (DM) fungieren kann, also ob que in bestimmten Kontexten seinen propositionalen Gehalt verliert und rein diskursive Funktionen übernimmt.
Es wurden 128 Beispiele von satzinitialen que untersucht, welche sich zunächst nicht eindeutig als grammatisches Element klassifizieren lassen. Die Beispiele entstammen einem Korpus, welches auf einem auf Grundlage der zweiten Staffel der Netflix-Serie “Élite” erstellten Transkript basiert. Das Material wurde anhand von fünf auf Grundlage der Forschungsliteratur erstellten Kriterien analysiert und je nach Erfüllung oder Nicht-Erfüllung in die Kategorien “nicht pragmatikalisiert” (NP), “teilweise pragmatikalisiert” (TP) und “pragmatikalisiert” (P) eingeordnet. Innerhalb jeder dieser Kategorien wurde(n) die entsprechende(n) grammatische(n) bzw. pragmatische(n) Funktion(en) spezifiziert und die Ergebnisse in einem Raster zusammengetragen. Für die Funktionszuordnung in der Kategorie (P) wurde hierbei auf die DM-Klassifizierung von Martín Zorraquino und Portolés 1999 zurückgegriffen und hierbei teilweise noch einmal weiter spezifiziert.
Bei der Analyse haben sich 89 als P, 34 als TP und fünf Beispiele als NP herausgestellt. Von den 89 als P eingestuften que wurde der Großteil (84) als “comentador” beschrieben - als DM, der einen Kommentar einführt. So wurden insgesamt 72 que als DM eingestuft, die einen erklärenden Kommentar einleiten.
Es wurde hiermit eine objektive Einstufung von que als DM erreicht, welche gleichzeitig erste Aufschlüsse über die spezifischen Funktionen von que als DM gibt. Die Nutzung konkreter Kriterien zur Analyse von potentiellen DM gewährleistet Objektivität und leistet einen Beitrag zur Systematisierung der teils von Uneinigkeiten und Interpretationen geprägten DM-Forschung.
Feminismus - das ist nicht nur für Männer, sondern auch für einige Frauen immer noch ein bedrohliches Wort, selbst oder gerade in Zeiten von #MeToo. Liegt das daran, dass viele gar nicht wissen, was Feminismus ist und worauf er hinarbeitet? Gibt es den einen Feminismus? Was hat Feminismus eigentlich mit Sexismus zu tun? Und was mit unseren Beziehungen? Offener Frauenhass ist in unserer Gesellschaft mittlerweile weitgehend geächtet. Aber auch nach über fünfzehn Jahren mit einer Frau an der Regierungsspitze sind wir noch längst nicht in der Gleichberechtigung angekommen. Im Gegenteil: Weiterhin strukturiert Sexismus geschlechtsspezifische Alltagserfahrungen, bis hinein in unsere Intimbeziehungen, wo die Grenzen zwischen Lust und sexueller Gewalt schnell verschwimmen. Die Philosophin und Schriftstellerin Hilkje Hänel deckt die Mechanismen sexueller Objektifizierung und männlichen Anspruchsdenkens auf. Sie zeigt, wie Frauen oft in die sexistischen Alltagsstrukturen verstrickt sind, an denen auch viele Männer leiden. Ihr zugängliches Buch ist das Plädoyer für einen Feminismus, von dem alle etwas haben - und vor dem niemand Angst haben muss.
Devotio malefica
(2021)
Antike Fluchrituale zielten darauf ab, die jeweilige Gerechtigkeitsvorstellung der Verfluchenden durchzusetzen – insbesondere wenn weder das öffentliche Justizsystem noch gesellschaftlich anerkannte Verhaltenskodize dem Anspruch gerecht werden konnten. In den Ritualen kamen sogenannte defixionis tabellae (Fluchtafeln) zur Anwendung, die hier devotiones maleficae genannt werden. Sie bestehen meistens aus eingeschriebenen Bleilamellen und wurden für die Beschädigung eines oder mehrerer Opfer angefertigt.
Sara Chiarini untersucht die dabei verwendete Fluchsprache, die durch ihre formelhaften Strukturen und Bestandteile auf eine Tradition des Fluchrituals hindeuten. Individuelle Ergänzungen bieten hingegen Hinweise auf die Bedingungen um die Entstehung des Rituals, die Gefühlslage der Verfluchenden und die Arten von Bestrafungen, die der rechtlichen Dimension des Rituals entsprechen. Chiarini ergänzt den bisherigen Forschungstand anhand der neu entdeckten und veröffentlichten Fluchtafeln und setzt sich umfassend mit diesem epigraphischen Material auseinander.
Media artists have been struggling for financial survival ever since media art came into being. The non-material value of the artwork, a provocative attitude towards the traditional arts world and originally anti-capitalist mindset of the movement makes it particularly difficult to provide a constructive solution. However, a cultural entrepreneurial approach can be used to build a framework in order to find a balance between culture and business while ensuring that the cultural mission remains the top priority.
Kartellrecht
(2021)
Der Bildungshausbau ist Thema aktueller Debatten in der Stadtentwicklung und Stadtplanung sowie in der Pädagogik. Viele Expert*innen beschäftigen sich in Studien mit Fragen zu gutem und gelingendem Schulbau. Die Anforderungen der Gesellschaft an Bildungshäuser verändern sich, wenn in ganztägigen Schulformen nicht nur Unterricht, sondern auch Freizeitbetreuung für die Schülerinnen und Schüler stattfinden soll. Gleichzeitig soll Schule ein Ort der Begegnung und Kommunikation, des sozialen Lernens und der Kooperation sein. Schule ist in vielfacher Hinsicht in Bewegung. Um mit den Veränderungen und Ansprüchen Schritt zu halten, steht der Bildungshausbau immer wieder vor Herausforderungen. Einerseits werden Leuchtturmprojekte geschaffen, andererseits entstehen nach wie vor Bildungsbauten, die den gegenwärtigen Anforderungen und zukünftigen Entwicklungen nicht gerecht werden.
An dieser Stelle setzt die vorliegende Arbeit an, die nicht neue Normen zu gutem Schulbau vorlegt, sondern in einer qualitativen empirischen Studie nach den pädagogischen Vorstellungen von Beteiligten im Bildungshausbau und den typischen Entwicklungen im Planungsprozess fragt. Der vorliegenden Fallstudie wurde die dokumentarische Methode als Auswertungsverfahren zugrunde gelegt. Gegenstand der Untersuchung waren zwei Bildungsbauten eines Großbauprojektes. Im Zuge der Auswertung erfolgten eine Analyse der Projektstrukturen und eine Analyse der Deutungsmuster der befragten Akteur*innen, die in einer zusammen¬führenden Ergebnisdarstellung in Form eines Handlungs-Struktur-Gefüges mündeten.
Es werden Einblicke in Zusammenhänge von Handlungen der Beteiligten und Projektstrukturen gegeben, wie sie sich gegenseitig beeinflussen oder im Prozessverlauf verändern. Die Auswertung zeigt, dass Transferproblematiken zwischen Wissenschaft und Praxis nach wie vor bestehen. Besonderes Gewicht bei Planungsentscheidungen haben finanzielle, zeitliche und architektonische Strukturen. Nur wenige pädagogische Vorstellungen bzw. Deutungsmuster können in Erscheinung treten.
Trotz der hohen innovationspolitischen Bedeutung der außeruniversitären Forschungseinrichtungen (AUF) sind sie bisher selten Gegenstand empirischer Untersuchungen. Keine der bisher vorliegenden Arbeiten legt ihren Fokus auf die Zusammenarbeit von Wissenschaftler:innen in Forschungsteams, obwohl wissenschaftliche Zusammenarbeit ein weitgehend unerforschtes Gebiet ist. Dies verwundert insofern, da gerade innovative und komplexe Aufgaben, wie sie im Bereich der Forschung bestehen, das kreative Potenzial Einzelner sowie eine gut funktionierende Kooperation der einzelnen Individuen benötigen. Die Zusammenarbeit von Wissenschaftler:innen in den AUF findet in einem kompetitiven Umfeld statt. Einerseits stehen die AUF auf Organisationsebene im Wettbewerb zueinander und konkurrieren um Forschungsgelder und wissenschaftliches Personal. Andererseits ist die kompetitive Einwerbung von Drittmitteln für Wissenschaftler:innen essentiell, um Leistungen, gemessen an hochrangigen Publikationen und Drittmittelquoten, für die eigene Karriere zu erbringen. Ein zunehmender Anteil an Drittmittelfinanzierung in den Einrichtungen hat zudem Auswirkungen auf die Personalpolitik und die Anzahl befristeter Arbeitsverhältnisse. Gleichzeitig wird Forschungsförderung häufig an Kollaborationen von Wissenschaftler:innen geknüpft und bei Publikationen und Forschungsergebnissen zeigen Studien, dass diese überwiegend das Resultat von mehreren Personen sind. Dieses Spannungsfeld zwischen Zusammenarbeit und Wettbewerb wird verstärkt durch die fehlenden Möglichkeiten für den wissenschaftlichen Nachwuchs in der Wissenschaft zu bleiben. Auch wenn die Bundesregierung auf diese Herausforderungen reagiert, muss der Einzelne seinen Weg zwischen Zusammenarbeit und Konkurrenz finden.
Zielsetzung dieser Arbeit ist es, nachfolgende Forschungsfragen zu beantworten:
1. Wie können naturwissenschaftliche Forschungsteams in AUF charakterisiert werden?
2. Wie agiert die einzelne Forscherin/ der einzelne Forscher im Spannungsfeld zwischen Kooperation und Wettbewerb?
3. Welche Potentiale und Hemmnisse lassen sich auf Individual-, Team- und Umweltebene für eine erfolgreiche Arbeit von Forschungsteams in AUF ausmachen?
Um die Forschungsfragen beantworten zu können, wurde eine empirische Untersuchung im Mixed Method Design, bestehend aus einer deutschlandweiten Onlinebefragung von 574 Naturwissenschaftler:innen in AUF und qualitativen Interviews mit 122 Teammitgliedern aus 20 naturwissenschaftlichen Forschungsteams in AUF, durchgeführt.
Die Ergebnisse zeigen, dass die Teams eher als Arbeitsgruppen bezeichnet werden können, da v.a. in der Grundlagenforschung kein gemeinsames Ziel als vielmehr ein gemeinsamer inhaltlicher Rahmen vorliegt, in dem die Forschenden ihre individuellen Ziele verfolgen. Die Arbeit im Team wird überwiegend als positiv und kooperativ beschrieben und ist v.a. durch gegenseitige Unterstützung bei Problemen und weniger durch einen thematisch wissenschaftlichen Erkenntnisprozess geprägt. Dieser findet vielmehr in Form kleiner Untergruppen innerhalb der Arbeitsgruppe und vor allem in enger Abstimmung mit der Teamleitung (TL) statt. Als wettbewerbsverschärfend werden vor allem organisationale Rahmenbedingungen, wie Befristungen und der Flaschenhals, thematisiert.
Die TL nimmt die zentrale Rolle im Team ein, trägt die wissenschaftliche, finanzielle und personelle Verantwortung und muss den Forderungen der Organisation gerecht werden. Promovierende konzentrieren sich fast ausschließlich auf ihre Qualifizierungsarbeit. Bei Postdocs ist ein Spannungsfeld zu erkennen, da sie eigene Projekte und Ziele verfolgen, die neben den Anforderungen der TL bestehen. Die Gatekeeperfunktion der TL wird gestärkt durch ihre Rolle bei der Weitergabe von karriererelevanten Informationen im Team, z.B. bei anstehenden Konferenzen. Sie hat die wichtigen Kontakte, sorgt für die Vernetzung des Teams und ist für die Netzwerkpflege zuständig. Der wissenschaftliche Nachwuchs verlässt sich bei seinen Aufgaben und den karriererelevanten Faktoren sehr auf ihre Unterstützung. Nicht-wissenschaftliche Mitarbeitende gilt es stärker zu berücksichtigen, dies sowohl in ihrer Funktion in den Teams als auch in der Gesamtorganisation. Sie sind die zentralen Ansprechpersonen des wissenschaftlichen Personals und sorgen für eine Kontinuität bei der Wissensspeicherung und -weitergabe. Für die Organisationen gilt es, unterstützende Rahmen-, Arbeits- und Aufgabenbedingungen für die TL zu schaffen und den wissenschaftlichen Nachwuchs bei einer frühzeitigen Verantwortung für wissenschaftliche und karriererelevante Aufgaben zu unterstützen. Dafür bedarf es verbesserter Personalentwicklungskonzepte und -angebote. Darüber hinaus gilt es, Kooperationsmöglichkeiten innerhalb der Einrichtung und zwischen den Gruppen zu schaffen, z.B. durch offene Räume und Netzwerkmöglichkeiten, und innovative Arbeitsumgebungen zu fördern, um neue Formen einer innovationsfreundlichen Wissenschaftskultur zu etablieren.
Precipitation forecasting has an important place in everyday life – during the day we may have tens of small talks discussing the likelihood that it will rain this evening or weekend. Should you take an umbrella for a walk? Or should you invite your friends for a barbecue? It will certainly depend on what your weather application shows.
While for years people were guided by the precipitation forecasts issued for a particular region or city several times a day, the widespread availability of weather radars allowed us to obtain forecasts at much higher spatiotemporal resolution of minutes in time and hundreds of meters in space. Hence, radar-based precipitation nowcasting, that is, very-short-range forecasting (typically up to 1–3 h), has become an essential technique, also in various professional application contexts, e.g., early warning, sewage control, or agriculture.
There are two major components comprising a system for precipitation nowcasting: radar-based precipitation estimates, and models to extrapolate that precipitation to the imminent future. While acknowledging the fundamental importance of radar-based precipitation retrieval for precipitation nowcasts, this thesis focuses only on the model development: the establishment of open and competitive benchmark models, the investigation of the potential of deep learning, and the development of procedures for nowcast errors diagnosis and isolation that can guide model development.
The present landscape of computational models for precipitation nowcasting still struggles with the availability of open software implementations that could serve as benchmarks for measuring progress. Focusing on this gap, we have developed and extensively benchmarked a stack of models based on different optical flow algorithms for the tracking step and a set of parsimonious extrapolation procedures based on image warping and advection. We demonstrate that these models provide skillful predictions comparable with or even superior to state-of-the-art operational software. We distribute the corresponding set of models as a software library, rainymotion, which is written in the Python programming language and openly available at GitHub (https://github.com/hydrogo/rainymotion). That way, the library acts as a tool for providing fast, open, and transparent solutions that could serve as a benchmark for further model development and hypothesis testing.
One of the promising directions for model development is to challenge the potential of deep learning – a subfield of machine learning that refers to artificial neural networks with deep architectures, which may consist of many computational layers. Deep learning showed promising results in many fields of computer science, such as image and speech recognition, or natural language processing, where it started to dramatically outperform reference methods.
The high benefit of using "big data" for training is among the main reasons for that. Hence, the emerging interest in deep learning in atmospheric sciences is also caused and concerted with the increasing availability of data – both observational and model-based. The large archives of weather radar data provide a solid basis for investigation of deep learning potential in precipitation nowcasting: one year of national 5-min composites for Germany comprises around 85 billion data points.
To this aim, we present RainNet, a deep convolutional neural network for radar-based precipitation nowcasting. RainNet was trained to predict continuous precipitation intensities at a lead time of 5 min, using several years of quality-controlled weather radar composites provided by the German Weather Service (DWD). That data set covers Germany with a spatial domain of 900 km x 900 km and has a resolution of 1 km in space and 5 min in time. Independent verification experiments were carried out on 11 summer precipitation events from 2016 to 2017. In these experiments, RainNet was applied recursively in order to achieve lead times of up to 1 h. In the verification experiments, trivial Eulerian persistence and a conventional model based on optical flow served as benchmarks. The latter is available in the previously developed rainymotion library.
RainNet significantly outperformed the benchmark models at all lead times up to 60 min for the routine verification metrics mean absolute error (MAE) and critical success index (CSI) at intensity thresholds of 0.125, 1, and 5 mm/h. However, rainymotion turned out to be superior in predicting the exceedance of higher intensity thresholds (here 10 and 15 mm/h). The limited ability of RainNet to predict high rainfall intensities is an undesirable property which we attribute to a high level of spatial smoothing introduced by the model. At a lead time of 5 min, an analysis of power spectral density confirmed a significant loss of spectral power at length scales of 16 km and below.
Obviously, RainNet had learned an optimal level of smoothing to produce a nowcast at 5 min lead time. In that sense, the loss of spectral power at small scales is informative, too, as it reflects the limits of predictability as a function of spatial scale. Beyond the lead time of 5 min, however, the increasing level of smoothing is a mere artifact – an analogue to numerical diffusion – that is not a property of RainNet itself but of its recursive application. In the context of early warning, the smoothing is particularly unfavorable since pronounced features of intense precipitation tend to get lost over longer lead times. Hence, we propose several options to address this issue in prospective research on model development for precipitation nowcasting, including an adjustment of the loss function for model training, model training for longer lead times, and the prediction of threshold exceedance.
The model development together with the verification experiments for both conventional and deep learning model predictions also revealed the need to better understand the source of forecast errors. Understanding the dominant sources of error in specific situations should help in guiding further model improvement. The total error of a precipitation nowcast consists of an error in the predicted location of a precipitation feature and an error in the change of precipitation intensity over lead time. So far, verification measures did not allow to isolate the location error, making it difficult to specifically improve nowcast models with regard to location prediction.
To fill this gap, we introduced a framework to directly quantify the location error. To that end, we detect and track scale-invariant precipitation features (corners) in radar images. We then consider these observed tracks as the true reference in order to evaluate the performance (or, inversely, the error) of any model that aims to predict the future location of a precipitation feature. Hence, the location error of a forecast at any lead time ahead of the forecast time corresponds to the Euclidean distance between the observed and the predicted feature location at the corresponding lead time.
Based on this framework, we carried out a benchmarking case study using one year worth of weather radar composites of the DWD. We evaluated the performance of four extrapolation models, two of which are based on the linear extrapolation of corner motion; and the remaining two are based on the Dense Inverse Search (DIS) method: motion vectors obtained from DIS are used to predict feature locations by linear and Semi-Lagrangian extrapolation.
For all competing models, the mean location error exceeds a distance of 5 km after 60 min, and 10 km after 110 min. At least 25% of all forecasts exceed an error of 5 km after 50 min, and of 10 km after 90 min. Even for the best models in our experiment, at least 5 percent of the forecasts will have a location error of more than 10 km after 45 min. When we relate such errors to application scenarios that are typically suggested for precipitation nowcasting, e.g., early warning, it becomes obvious that location errors matter: the order of magnitude of these errors is about the same as the typical extent of a convective cell. Hence, the uncertainty of precipitation nowcasts at such length scales – just as a result of locational errors – can be substantial already at lead times of less than 1 h. Being able to quantify the location error should hence guide any model development that is targeted towards its minimization. To that aim, we also consider the high potential of using deep learning architectures specific to the assimilation of sequential (track) data.
Last but not least, the thesis demonstrates the benefits of a general movement towards open science for model development in the field of precipitation nowcasting. All the presented models and frameworks are distributed as open repositories, thus enhancing transparency and reproducibility of the methodological approach. Furthermore, they are readily available to be used for further research studies, as well as for practical applications.
We developed an orbital tuned age model for the composite Chew Bahir sediment core, obtained from the Chew Bahir basin (CHB), southern Ethiopia. To account for the effects of sedimentation rate changes on the spectral expression of the orbital cycles we developed a new method: the Multi-band Wavelet Age modeling technique (MUBAWA). By using a Continuous Wavelet Transformation, we were able to track frequency shifts that resulted from changing sedimentation rates and thus calculated tuned age model encompassing the last 620 kyrs. The results show a good agreement with the directly dated age model that is available from the dating of volcanic ashes. Then we used the XRF data from CHB and developed a new and robust humid-arid index of east African climate during the last 620 kyrs. To disentangle the relationship of the selected elements we performed a principal component analysis (PCA). In a following step we applied a continuous wavelet transformation on the PC1, using the directly dated age model. The resulting wavelet power spectrum, unlike a normal power spectrum, displays the occurrence of cycles/frequencies in time. The results highlight that the precession cycles are most dominantly expressed under the 400 kyrs eccentricity maximum whereas weakly expressed during eccentricity minimum. This suggests that insolation is a key driver of the climatic variability observed at CHB throughout the last 620 kyrs. In addition, the prevalence of half-precession and obliquity signals was documented. The latter is attributed to the inter-tropical insolation gradient and not interpreted as an imprint of high latitudes forcing on climatic changes in the tropics. In addition, a windowed analysis of variability was used to detect changes in variance over time and showed that strong climate variability occurred especially along the transition from a dominant insolation-controlled humid climate background state towards a predominantly dry and less-insolation controlled climate. The last chapter dealt with non-linear aspects of climate changes represented by the sediments of the CHB. We use recurrence quantification analysis to detect non-linear changes within the potassium concentration of Chew Bahir sediment cores during the last 620 kyrs. The concentration of potassium in the sediments of the lake is subject to geochemical processes related to the evaporation rate of the lake water at the time of deposition. Based on recurrence analysis, two types of variabilities could be distinguished. Type 1 represents slow variations within the precession period bandwidth of 20 kyrs and a tendency towards extreme climatic events whereas type 2 represents fast, highly variable climatic transitions between wet and dry climate states. While type 1 variability is linked to eccentricity maxima, type 2 variability occurs during the 400 kyrs eccentricity minimum. The climate history presented here shows that during high eccentricity a strongly insolation-driven climate system prevailed, whereas during low eccentricity the climate was more strongly affected by short-term variability changes. The short-term environmental changes, reflected in the increased variability might have influenced the evolution, technological advances and expansion of early modern humans who lived in this region. In the Olorgesaille Basin the temporal changes in the occurrence of stone tools, which bracket the transition from Acheulean to Middle Stone Age (MSA) technologies at between 499–320 kyrs, could potentially correlate to the marked transition from a rather stable climate with less variability to a climate with increased variability in the CHB. We conclude that populations of early anatomically modern humans are more likely to have experienced climatic stress during episodes of low eccentricity, associated with dry and high variability climate conditions, which may have led to technological innovation, such as the transition from the Acheulean to the Middle Stone Age.