Refine
Year of publication
- 2021 (2463) (remove)
Document Type
- Article (1514)
- Doctoral Thesis (275)
- Part of a Book (175)
- Postprint (153)
- Monograph/Edited Volume (99)
- Review (67)
- Conference Proceeding (39)
- Part of Periodical (36)
- Other (20)
- Working Paper (20)
Language
Keywords
- COVID-19 (22)
- machine learning (14)
- climate change (13)
- Migration (12)
- Germany (11)
- diffusion (11)
- embodied cognition (11)
- USA (10)
- exercise (10)
- Arabidopsis thaliana (9)
Institute
- Institut für Biochemie und Biologie (203)
- Institut für Physik und Astronomie (172)
- Institut für Chemie (158)
- Institut für Geowissenschaften (148)
- Bürgerliches Recht (128)
- Historisches Institut (120)
- Department Psychologie (103)
- Fachgruppe Politik- & Verwaltungswissenschaft (100)
- Fachgruppe Betriebswirtschaftslehre (99)
- Institut für Umweltwissenschaften und Geographie (95)
Die Quantifizierung der Biomasse von Pflanzen mithilfe effizienter Messmethoden hat für verschiedene Wissenschaftsbereiche eine große Bedeutung. Die vorliegende Arbeit soll es ermöglichen, über die einzelbaumbasierte Schätzung der oberirdischen Biomasse einer Apfel- und einer Kirschkultur am Forschungsstandort Marquardt (Potsdam) auf die Menge des in ihr enthaltenen Wasserstoffs zu schließen. Hierzu wurde das Volumen von 13 Kirsch- und 11 Apfelbäumen bestimmt, indem sie in Segmente unterteilt, diese einzeln vermessen und in Durchmesserklassen eingeteilt wurden. Des Weiteren wurden die Dichte der Zweige und die mittlere Laubmasse bestimmt. Zur Berechnung der Biomasse wurde zusätzlich ein Literaturwert der Holzdichte der entsprechenden Baumarten herangezogen. Es wurde die Verteilung der Holzbiomasse auf die einzelnen Durchmesserklassen untersucht und einfach zu erhebende Baumparameter, sowie Daten eines Terrestrischen Laserscanners als Prädiktorvariablen für eine Regressionsanalyse herangezogen. Die experimentell ermittelten Dichtewerte zeigten eine Zunahme mit steigendem Zweigdurchmesser. Dabei wichen sie beim Kirschbaumholz leicht, beim Apfelbaumholz stärker vom Literaturwert ab. Die Erhebungen zur Laubmasse wurden unabhängig von den vermessenen Bäumen gemacht und die Ergebnisse unterlagen großer Varianz, weshalb kein Zusammenhang zwischen Holz- und Laubbiomasse hergestellt und nur durchschnittliche Werte ermittelt werden konnten. Der Anteil der verschiedenen Durchmesserklassen an der Gesamtmasse erwies sich als stark variabel und eine Schätzung der Biomasse aus dem Gewicht weniger kräftiger Baumsegmente daher als nicht geeignet. Eine zuverlässige und effiziente Abschätzung der oberirdischen verholzten Biomasse kann jedoch durch die Anwendung der erstellten Modelle erreicht werden. Für die vorliegende Population gleichaltriger und ähnlich großer Individuen wurden mit einer linearen Regression die besten Ergebnisse erzielt. Während die auf Laserdaten basierenden Variablen kaum mit der Holzbiomasse korrelierten, zeigten lineare Modelle mit dem Stammdurchmesser d bzw. d² als Prädiktor bei beiden Baumarten eine hohe Signifikanz (p - Wert < 0.001) und sehr gute Anpassung (R² > 0.8).
Die Rechtsfolgen einer fehlgeschlagenen Anteilsabtretung stellen ein rechtspraktisches Problem des GmbH-Rechts dar, dessen Lösungswege üblicherweise im Schuldrecht gesucht werden. Der Anwendung der schuldrechtlichen Rechtsinstitute im Rahmen des § 16 Abs. 1 GmbHG geht die Frage voran, ob das durch die Legitimationswirkung charakterisierte Auseinanderfallen von Herrschaftsrecht und Herrschaftsmöglichkeit zur Anwendung des Eigentümer-Besitzer-Verhältnisses führen kann. Der Übertragbarkeit der drei Komponenten der Vindikationslage – Sache, Eigentum, Besitz – und deren Interdependenzen auf die durch die Legitimationswirkung hervorgerufene Situation widmet sich diese Arbeit. Im Wege des systematischen Vergleichs der Rechtsbeziehungen weist der Autor eine Vergleichbarkeit nach und schlägt eine analoge Anwendung des Eigentümer-Besitzer-Verhältnisses vor. Im Mittelpunkt stehen die Rechtsgegenständlichkeit der Mitgliedschaft und die Ausdehnung des Besitzbegriffs auf unkörperliche Rechtsprodukte.
Emotions are a complex concept and they are present in our everyday life. Persons on the autism spectrum are said to have difficulties in social interactions, showing deficits in emotion recognition in comparison to neurotypically developed persons. But social-emotional skills are believed to be positively augmented by training. A new adaptive social cognition training tool “E.V.A.” is introduced which teaches emotion recognition from face, voice and body language. One cross-sectional and one longitudinal study with adult neurotypical and autistic participants were conducted. The aim of the cross-sectional study was to characterize the two groups and see if differences in their social-emotional skills exist. The longitudinal study, on the other hand, aimed for detecting possible training effects following training with the new training tool. In addition, in both studies usability assessments were conducted to investigate the perceived usability of the new tool for neurotypical as well as autistic participants. Differences were found between autistic and neurotypical participants in their social-emotional and emotion recognition abilities. Training effects for neurotypical participants in an emotion recognition task were found after two weeks of home training. Similar perceived usability was found for the neurotypical and autistic participants. The current findings suggest that persons with ASC do not have a general deficit in emotion recognition, but are in need for more time to correctly recognize emotions. In addition, findings suggest that training emotion recognition abilities is possible. Further studies are needed to verify if the training effects found for neurotypical participants also manifest in a larger ASC sample.
Strafrecht, Besonderer Teil
(2021)
Strafrecht, Besonderer Teil
(2021)
Das Lehrbuch behandelt die für Studium und Examen bedeutsamen Verbrechen und Vergehen aus dem Bereich der Nichtvermögensdelikte, wobei stets auch die Bezüge zum Allgemeinen Teil aufgezeigt werden. Die Darstellung erfolgt durchgehend anhand von Fällen und Beispielen und enthält eingehende Problembehandlungen. Band 1 bildet zusammen mit dem ebenfalls neu bearbeiteten Studienbuch Krey/Hellmann/Heinrich, Besonderer Teil, Band 2 (zu den Vermögensdelikten) ein gründliches und aktuelles Standardwerk zum Besonderen Teil. Das Buch richtet sich an Anfänger, denen es eine gründliche Einführung bietet, aber auch an Fortgeschrittene, Referendare und Praktiker zur Wiederholung, Ergänzung und Vertiefung.
En apenas tan pocas lenguas, como en el español, se ha publicado tantos trabajos sobre la evidencialidad en los últimos años. No obstante, en ello se pierde de vista con frecuencia la verdadera función de los marcadores de evidencialidad que hacen referencia al origen del conocimiento del hablante. Además de los marcadores léxicos, se consideran como medios de expresión de la evidencialidad incluso estructuras discursivas y expresiones proposicionales que hacen referencia a la fuente del conocimiento, alejándose demasiado de la restricción a los evidenciales gramaticales. En esta contribución, se intentará ordenar esta posición confusa y desarrollar un modelo de relación entre la evidencialidad y temporalidad, aspectualidad y modalidad que tenga en cuenta la realidad de las circunstancias en el español y sus variedades. Se partirá de un planteamiento onomasiológico hacia los medios de expresión del origen del conocimiento del hablante; al mismo tiempo se analizarán los medios de expresión en cuanto a su polifuncionalidad. La base empírica para este estudio será el análisis de un corpus (SketchEngine, CREA, CORPES XXI) sobre el condicional reportativo e inferencial y su relación con el imperfecto evidencial y futuro inferencial en las diversas variedades del español, así como las condiciones de uso de los adverbios evidenciales-epistémicos.
-Christoph Markschies: Geleitwort
-Ulrich Päßler: Christian Gottfried Ehrenberg: Lebensbilder eines Naturforschers
-Mathias Grote: „Aus dem Kleinen bauen sich die Welten“ – Christian Gottfried Ehrenbergs ökologische Mikrobiologie avant la lettre
-Anne Greenwood MacKinney: Die Inszenierung naturforschender Gelehrsamkeit beim Sammeln: Christian Gottfried Ehrenbergs und Wilhelm Hemprichs nordafrikanische Forschungsreise (1820 – 1825)
-Ulrich Päßler: Reisen im Nahen Osten. Zeichnungen
-Ulrich Päßler: Christian Gottfried Ehrenberg und die Biogeographie: Die russisch-sibirische Reise mit Alexander von Humboldt (1829)
-Ulrich Päßler: Russisch-Sibirische Reise. Zeichnungen
-Wolf-Henning Kusber, Regine Jahn: Christian Gottfried Ehrenbergs Zeichnungen: Eine frühe wissenschaftliche Dokumentation mikroskopischer Organismen
-Ferdinand Damaschun: Christian Gottfried Ehrenberg und die Entwicklung der Mikroskop-Technik im 19. Jahrhundert
-Ulrich Päßler: Die Reise ins Kleinste der Natur. Zeichnungen
-Katrin Böhme: Das große Ganze: Christian Gottfried Ehrenberg und die Gesellschaft Naturforschender Freunde zu Berlin
Die vorliegende Arbeit beschäftigt sich mit der Synthese von Disulfiden, der Thiol-Disulfid Metathesereaktion als Möglichkeit, Polymere zu funktionalisieren, und der Synthese von Polydisulfiden. Im ersten Teil der Arbeit wird die Aminolyse von RAFT-Polymeren und die Abhängigkeit der Polymer-Polymer Disulfidbildung von der Molmasse untersucht. Dabei wurde durch die Aufnahme von Reaktionskinetiken mittels Gel-Permeations-Chromatographie (GPC) festgestellt, dass je länger die Polymerketten sind, desto weniger Disulfid Polymerkopplung tritt auf. RAFT-Polymere werden oft genutzt, um die RAFT-Polymer Endgruppe nach der Polymerisation zu modifizieren oder in einer chemischen Reaktion zu funktionalisieren. Hier kann die Aminolyse in Anwesenheit von kurzkettigen Disulfiden, wie zum Beispiel Cystin, durchgeführt werden, um die Bildung von Polymer-Polymer Disulfiden vollständig zu unterdrücken und ein endgruppenfunktionalisiertes Polymer zu erhalten. Bei dieser Reaktion greift das bei der Aminolyse entstehende Polymerthiolat die kurzkettigen Disulfide an, und es kommt zur Bildung von funktionalisierten Polymeren. Es wurde ein Polyethylenglykoldisulfid eingesetzt, um ein amphiphiles Blockcopolymer zu erhalten. Als RAFT-Polymer wurde Polystyrol (PS) verwendet, und es konnte die Bildung von Polystyrol-Polyethylenglykol Copolymeren nachgewiesen werden. Das amphiphile Polymer bildet im wässrigen Medium Vesikel. Die Oberfläche der Vesikel konnte mittels der Thiol-Disulfid Metathese umfunktionalisiert werden. Die Aminolyse von PS RAFT-Polymeren mit einem Polylaktiddisulfid oder einem Polybenzylglutamatdisulfid ergab Polystyrol-block-Polyester und Polystyrol-block-Polyaminosäuren Copolymere. Im zweiten Teil der Arbeit liegt der Fokus auf der Synthese von Polydisulfiden und ihren thermischen Eigenschaften. Es wurden verschiedene Alkyldithiole synthetisiert und mittels Wasserstoffperoxid und Triethylamin polymerisiert. Dabei konnte gezeigt werden, dass die Polymere teilkristallin sind und dass der Schmelzpunkt und die Kristallinität der Polymere mit steigender Alkylkettenlänge zwischen den Disulfidbindungen zunehmen. Die Möglichkeit einer Polymerkettenerweiterung nach der Polymerisation ist mit diesem System gegeben. Die Abbaubarkeit der Polydisulfide konnte durch den Einsatz von Thiolen im basischen Milieu gezeigt werden.
In der vorliegenden Arbeit wurde sich mit der Frage beschäftigt, ob und wenn ja inwiefern das spanische que, neben seinen klassischen Verwendungsweisen als Pronomen und Konjunktion, als Diskursmarker (DM) fungieren kann, also ob que in bestimmten Kontexten seinen propositionalen Gehalt verliert und rein diskursive Funktionen übernimmt.
Es wurden 128 Beispiele von satzinitialen que untersucht, welche sich zunächst nicht eindeutig als grammatisches Element klassifizieren lassen. Die Beispiele entstammen einem Korpus, welches auf einem auf Grundlage der zweiten Staffel der Netflix-Serie “Élite” erstellten Transkript basiert. Das Material wurde anhand von fünf auf Grundlage der Forschungsliteratur erstellten Kriterien analysiert und je nach Erfüllung oder Nicht-Erfüllung in die Kategorien “nicht pragmatikalisiert” (NP), “teilweise pragmatikalisiert” (TP) und “pragmatikalisiert” (P) eingeordnet. Innerhalb jeder dieser Kategorien wurde(n) die entsprechende(n) grammatische(n) bzw. pragmatische(n) Funktion(en) spezifiziert und die Ergebnisse in einem Raster zusammengetragen. Für die Funktionszuordnung in der Kategorie (P) wurde hierbei auf die DM-Klassifizierung von Martín Zorraquino und Portolés 1999 zurückgegriffen und hierbei teilweise noch einmal weiter spezifiziert.
Bei der Analyse haben sich 89 als P, 34 als TP und fünf Beispiele als NP herausgestellt. Von den 89 als P eingestuften que wurde der Großteil (84) als “comentador” beschrieben - als DM, der einen Kommentar einführt. So wurden insgesamt 72 que als DM eingestuft, die einen erklärenden Kommentar einleiten.
Es wurde hiermit eine objektive Einstufung von que als DM erreicht, welche gleichzeitig erste Aufschlüsse über die spezifischen Funktionen von que als DM gibt. Die Nutzung konkreter Kriterien zur Analyse von potentiellen DM gewährleistet Objektivität und leistet einen Beitrag zur Systematisierung der teils von Uneinigkeiten und Interpretationen geprägten DM-Forschung.
Feminismus - das ist nicht nur für Männer, sondern auch für einige Frauen immer noch ein bedrohliches Wort, selbst oder gerade in Zeiten von #MeToo. Liegt das daran, dass viele gar nicht wissen, was Feminismus ist und worauf er hinarbeitet? Gibt es den einen Feminismus? Was hat Feminismus eigentlich mit Sexismus zu tun? Und was mit unseren Beziehungen? Offener Frauenhass ist in unserer Gesellschaft mittlerweile weitgehend geächtet. Aber auch nach über fünfzehn Jahren mit einer Frau an der Regierungsspitze sind wir noch längst nicht in der Gleichberechtigung angekommen. Im Gegenteil: Weiterhin strukturiert Sexismus geschlechtsspezifische Alltagserfahrungen, bis hinein in unsere Intimbeziehungen, wo die Grenzen zwischen Lust und sexueller Gewalt schnell verschwimmen. Die Philosophin und Schriftstellerin Hilkje Hänel deckt die Mechanismen sexueller Objektifizierung und männlichen Anspruchsdenkens auf. Sie zeigt, wie Frauen oft in die sexistischen Alltagsstrukturen verstrickt sind, an denen auch viele Männer leiden. Ihr zugängliches Buch ist das Plädoyer für einen Feminismus, von dem alle etwas haben - und vor dem niemand Angst haben muss.
Devotio malefica
(2021)
Antike Fluchrituale zielten darauf ab, die jeweilige Gerechtigkeitsvorstellung der Verfluchenden durchzusetzen – insbesondere wenn weder das öffentliche Justizsystem noch gesellschaftlich anerkannte Verhaltenskodize dem Anspruch gerecht werden konnten. In den Ritualen kamen sogenannte defixionis tabellae (Fluchtafeln) zur Anwendung, die hier devotiones maleficae genannt werden. Sie bestehen meistens aus eingeschriebenen Bleilamellen und wurden für die Beschädigung eines oder mehrerer Opfer angefertigt.
Sara Chiarini untersucht die dabei verwendete Fluchsprache, die durch ihre formelhaften Strukturen und Bestandteile auf eine Tradition des Fluchrituals hindeuten. Individuelle Ergänzungen bieten hingegen Hinweise auf die Bedingungen um die Entstehung des Rituals, die Gefühlslage der Verfluchenden und die Arten von Bestrafungen, die der rechtlichen Dimension des Rituals entsprechen. Chiarini ergänzt den bisherigen Forschungstand anhand der neu entdeckten und veröffentlichten Fluchtafeln und setzt sich umfassend mit diesem epigraphischen Material auseinander.
Media artists have been struggling for financial survival ever since media art came into being. The non-material value of the artwork, a provocative attitude towards the traditional arts world and originally anti-capitalist mindset of the movement makes it particularly difficult to provide a constructive solution. However, a cultural entrepreneurial approach can be used to build a framework in order to find a balance between culture and business while ensuring that the cultural mission remains the top priority.
Kartellrecht
(2021)
Der Bildungshausbau ist Thema aktueller Debatten in der Stadtentwicklung und Stadtplanung sowie in der Pädagogik. Viele Expert*innen beschäftigen sich in Studien mit Fragen zu gutem und gelingendem Schulbau. Die Anforderungen der Gesellschaft an Bildungshäuser verändern sich, wenn in ganztägigen Schulformen nicht nur Unterricht, sondern auch Freizeitbetreuung für die Schülerinnen und Schüler stattfinden soll. Gleichzeitig soll Schule ein Ort der Begegnung und Kommunikation, des sozialen Lernens und der Kooperation sein. Schule ist in vielfacher Hinsicht in Bewegung. Um mit den Veränderungen und Ansprüchen Schritt zu halten, steht der Bildungshausbau immer wieder vor Herausforderungen. Einerseits werden Leuchtturmprojekte geschaffen, andererseits entstehen nach wie vor Bildungsbauten, die den gegenwärtigen Anforderungen und zukünftigen Entwicklungen nicht gerecht werden.
An dieser Stelle setzt die vorliegende Arbeit an, die nicht neue Normen zu gutem Schulbau vorlegt, sondern in einer qualitativen empirischen Studie nach den pädagogischen Vorstellungen von Beteiligten im Bildungshausbau und den typischen Entwicklungen im Planungsprozess fragt. Der vorliegenden Fallstudie wurde die dokumentarische Methode als Auswertungsverfahren zugrunde gelegt. Gegenstand der Untersuchung waren zwei Bildungsbauten eines Großbauprojektes. Im Zuge der Auswertung erfolgten eine Analyse der Projektstrukturen und eine Analyse der Deutungsmuster der befragten Akteur*innen, die in einer zusammen¬führenden Ergebnisdarstellung in Form eines Handlungs-Struktur-Gefüges mündeten.
Es werden Einblicke in Zusammenhänge von Handlungen der Beteiligten und Projektstrukturen gegeben, wie sie sich gegenseitig beeinflussen oder im Prozessverlauf verändern. Die Auswertung zeigt, dass Transferproblematiken zwischen Wissenschaft und Praxis nach wie vor bestehen. Besonderes Gewicht bei Planungsentscheidungen haben finanzielle, zeitliche und architektonische Strukturen. Nur wenige pädagogische Vorstellungen bzw. Deutungsmuster können in Erscheinung treten.
Trotz der hohen innovationspolitischen Bedeutung der außeruniversitären Forschungseinrichtungen (AUF) sind sie bisher selten Gegenstand empirischer Untersuchungen. Keine der bisher vorliegenden Arbeiten legt ihren Fokus auf die Zusammenarbeit von Wissenschaftler:innen in Forschungsteams, obwohl wissenschaftliche Zusammenarbeit ein weitgehend unerforschtes Gebiet ist. Dies verwundert insofern, da gerade innovative und komplexe Aufgaben, wie sie im Bereich der Forschung bestehen, das kreative Potenzial Einzelner sowie eine gut funktionierende Kooperation der einzelnen Individuen benötigen. Die Zusammenarbeit von Wissenschaftler:innen in den AUF findet in einem kompetitiven Umfeld statt. Einerseits stehen die AUF auf Organisationsebene im Wettbewerb zueinander und konkurrieren um Forschungsgelder und wissenschaftliches Personal. Andererseits ist die kompetitive Einwerbung von Drittmitteln für Wissenschaftler:innen essentiell, um Leistungen, gemessen an hochrangigen Publikationen und Drittmittelquoten, für die eigene Karriere zu erbringen. Ein zunehmender Anteil an Drittmittelfinanzierung in den Einrichtungen hat zudem Auswirkungen auf die Personalpolitik und die Anzahl befristeter Arbeitsverhältnisse. Gleichzeitig wird Forschungsförderung häufig an Kollaborationen von Wissenschaftler:innen geknüpft und bei Publikationen und Forschungsergebnissen zeigen Studien, dass diese überwiegend das Resultat von mehreren Personen sind. Dieses Spannungsfeld zwischen Zusammenarbeit und Wettbewerb wird verstärkt durch die fehlenden Möglichkeiten für den wissenschaftlichen Nachwuchs in der Wissenschaft zu bleiben. Auch wenn die Bundesregierung auf diese Herausforderungen reagiert, muss der Einzelne seinen Weg zwischen Zusammenarbeit und Konkurrenz finden.
Zielsetzung dieser Arbeit ist es, nachfolgende Forschungsfragen zu beantworten:
1. Wie können naturwissenschaftliche Forschungsteams in AUF charakterisiert werden?
2. Wie agiert die einzelne Forscherin/ der einzelne Forscher im Spannungsfeld zwischen Kooperation und Wettbewerb?
3. Welche Potentiale und Hemmnisse lassen sich auf Individual-, Team- und Umweltebene für eine erfolgreiche Arbeit von Forschungsteams in AUF ausmachen?
Um die Forschungsfragen beantworten zu können, wurde eine empirische Untersuchung im Mixed Method Design, bestehend aus einer deutschlandweiten Onlinebefragung von 574 Naturwissenschaftler:innen in AUF und qualitativen Interviews mit 122 Teammitgliedern aus 20 naturwissenschaftlichen Forschungsteams in AUF, durchgeführt.
Die Ergebnisse zeigen, dass die Teams eher als Arbeitsgruppen bezeichnet werden können, da v.a. in der Grundlagenforschung kein gemeinsames Ziel als vielmehr ein gemeinsamer inhaltlicher Rahmen vorliegt, in dem die Forschenden ihre individuellen Ziele verfolgen. Die Arbeit im Team wird überwiegend als positiv und kooperativ beschrieben und ist v.a. durch gegenseitige Unterstützung bei Problemen und weniger durch einen thematisch wissenschaftlichen Erkenntnisprozess geprägt. Dieser findet vielmehr in Form kleiner Untergruppen innerhalb der Arbeitsgruppe und vor allem in enger Abstimmung mit der Teamleitung (TL) statt. Als wettbewerbsverschärfend werden vor allem organisationale Rahmenbedingungen, wie Befristungen und der Flaschenhals, thematisiert.
Die TL nimmt die zentrale Rolle im Team ein, trägt die wissenschaftliche, finanzielle und personelle Verantwortung und muss den Forderungen der Organisation gerecht werden. Promovierende konzentrieren sich fast ausschließlich auf ihre Qualifizierungsarbeit. Bei Postdocs ist ein Spannungsfeld zu erkennen, da sie eigene Projekte und Ziele verfolgen, die neben den Anforderungen der TL bestehen. Die Gatekeeperfunktion der TL wird gestärkt durch ihre Rolle bei der Weitergabe von karriererelevanten Informationen im Team, z.B. bei anstehenden Konferenzen. Sie hat die wichtigen Kontakte, sorgt für die Vernetzung des Teams und ist für die Netzwerkpflege zuständig. Der wissenschaftliche Nachwuchs verlässt sich bei seinen Aufgaben und den karriererelevanten Faktoren sehr auf ihre Unterstützung. Nicht-wissenschaftliche Mitarbeitende gilt es stärker zu berücksichtigen, dies sowohl in ihrer Funktion in den Teams als auch in der Gesamtorganisation. Sie sind die zentralen Ansprechpersonen des wissenschaftlichen Personals und sorgen für eine Kontinuität bei der Wissensspeicherung und -weitergabe. Für die Organisationen gilt es, unterstützende Rahmen-, Arbeits- und Aufgabenbedingungen für die TL zu schaffen und den wissenschaftlichen Nachwuchs bei einer frühzeitigen Verantwortung für wissenschaftliche und karriererelevante Aufgaben zu unterstützen. Dafür bedarf es verbesserter Personalentwicklungskonzepte und -angebote. Darüber hinaus gilt es, Kooperationsmöglichkeiten innerhalb der Einrichtung und zwischen den Gruppen zu schaffen, z.B. durch offene Räume und Netzwerkmöglichkeiten, und innovative Arbeitsumgebungen zu fördern, um neue Formen einer innovationsfreundlichen Wissenschaftskultur zu etablieren.
Precipitation forecasting has an important place in everyday life – during the day we may have tens of small talks discussing the likelihood that it will rain this evening or weekend. Should you take an umbrella for a walk? Or should you invite your friends for a barbecue? It will certainly depend on what your weather application shows.
While for years people were guided by the precipitation forecasts issued for a particular region or city several times a day, the widespread availability of weather radars allowed us to obtain forecasts at much higher spatiotemporal resolution of minutes in time and hundreds of meters in space. Hence, radar-based precipitation nowcasting, that is, very-short-range forecasting (typically up to 1–3 h), has become an essential technique, also in various professional application contexts, e.g., early warning, sewage control, or agriculture.
There are two major components comprising a system for precipitation nowcasting: radar-based precipitation estimates, and models to extrapolate that precipitation to the imminent future. While acknowledging the fundamental importance of radar-based precipitation retrieval for precipitation nowcasts, this thesis focuses only on the model development: the establishment of open and competitive benchmark models, the investigation of the potential of deep learning, and the development of procedures for nowcast errors diagnosis and isolation that can guide model development.
The present landscape of computational models for precipitation nowcasting still struggles with the availability of open software implementations that could serve as benchmarks for measuring progress. Focusing on this gap, we have developed and extensively benchmarked a stack of models based on different optical flow algorithms for the tracking step and a set of parsimonious extrapolation procedures based on image warping and advection. We demonstrate that these models provide skillful predictions comparable with or even superior to state-of-the-art operational software. We distribute the corresponding set of models as a software library, rainymotion, which is written in the Python programming language and openly available at GitHub (https://github.com/hydrogo/rainymotion). That way, the library acts as a tool for providing fast, open, and transparent solutions that could serve as a benchmark for further model development and hypothesis testing.
One of the promising directions for model development is to challenge the potential of deep learning – a subfield of machine learning that refers to artificial neural networks with deep architectures, which may consist of many computational layers. Deep learning showed promising results in many fields of computer science, such as image and speech recognition, or natural language processing, where it started to dramatically outperform reference methods.
The high benefit of using "big data" for training is among the main reasons for that. Hence, the emerging interest in deep learning in atmospheric sciences is also caused and concerted with the increasing availability of data – both observational and model-based. The large archives of weather radar data provide a solid basis for investigation of deep learning potential in precipitation nowcasting: one year of national 5-min composites for Germany comprises around 85 billion data points.
To this aim, we present RainNet, a deep convolutional neural network for radar-based precipitation nowcasting. RainNet was trained to predict continuous precipitation intensities at a lead time of 5 min, using several years of quality-controlled weather radar composites provided by the German Weather Service (DWD). That data set covers Germany with a spatial domain of 900 km x 900 km and has a resolution of 1 km in space and 5 min in time. Independent verification experiments were carried out on 11 summer precipitation events from 2016 to 2017. In these experiments, RainNet was applied recursively in order to achieve lead times of up to 1 h. In the verification experiments, trivial Eulerian persistence and a conventional model based on optical flow served as benchmarks. The latter is available in the previously developed rainymotion library.
RainNet significantly outperformed the benchmark models at all lead times up to 60 min for the routine verification metrics mean absolute error (MAE) and critical success index (CSI) at intensity thresholds of 0.125, 1, and 5 mm/h. However, rainymotion turned out to be superior in predicting the exceedance of higher intensity thresholds (here 10 and 15 mm/h). The limited ability of RainNet to predict high rainfall intensities is an undesirable property which we attribute to a high level of spatial smoothing introduced by the model. At a lead time of 5 min, an analysis of power spectral density confirmed a significant loss of spectral power at length scales of 16 km and below.
Obviously, RainNet had learned an optimal level of smoothing to produce a nowcast at 5 min lead time. In that sense, the loss of spectral power at small scales is informative, too, as it reflects the limits of predictability as a function of spatial scale. Beyond the lead time of 5 min, however, the increasing level of smoothing is a mere artifact – an analogue to numerical diffusion – that is not a property of RainNet itself but of its recursive application. In the context of early warning, the smoothing is particularly unfavorable since pronounced features of intense precipitation tend to get lost over longer lead times. Hence, we propose several options to address this issue in prospective research on model development for precipitation nowcasting, including an adjustment of the loss function for model training, model training for longer lead times, and the prediction of threshold exceedance.
The model development together with the verification experiments for both conventional and deep learning model predictions also revealed the need to better understand the source of forecast errors. Understanding the dominant sources of error in specific situations should help in guiding further model improvement. The total error of a precipitation nowcast consists of an error in the predicted location of a precipitation feature and an error in the change of precipitation intensity over lead time. So far, verification measures did not allow to isolate the location error, making it difficult to specifically improve nowcast models with regard to location prediction.
To fill this gap, we introduced a framework to directly quantify the location error. To that end, we detect and track scale-invariant precipitation features (corners) in radar images. We then consider these observed tracks as the true reference in order to evaluate the performance (or, inversely, the error) of any model that aims to predict the future location of a precipitation feature. Hence, the location error of a forecast at any lead time ahead of the forecast time corresponds to the Euclidean distance between the observed and the predicted feature location at the corresponding lead time.
Based on this framework, we carried out a benchmarking case study using one year worth of weather radar composites of the DWD. We evaluated the performance of four extrapolation models, two of which are based on the linear extrapolation of corner motion; and the remaining two are based on the Dense Inverse Search (DIS) method: motion vectors obtained from DIS are used to predict feature locations by linear and Semi-Lagrangian extrapolation.
For all competing models, the mean location error exceeds a distance of 5 km after 60 min, and 10 km after 110 min. At least 25% of all forecasts exceed an error of 5 km after 50 min, and of 10 km after 90 min. Even for the best models in our experiment, at least 5 percent of the forecasts will have a location error of more than 10 km after 45 min. When we relate such errors to application scenarios that are typically suggested for precipitation nowcasting, e.g., early warning, it becomes obvious that location errors matter: the order of magnitude of these errors is about the same as the typical extent of a convective cell. Hence, the uncertainty of precipitation nowcasts at such length scales – just as a result of locational errors – can be substantial already at lead times of less than 1 h. Being able to quantify the location error should hence guide any model development that is targeted towards its minimization. To that aim, we also consider the high potential of using deep learning architectures specific to the assimilation of sequential (track) data.
Last but not least, the thesis demonstrates the benefits of a general movement towards open science for model development in the field of precipitation nowcasting. All the presented models and frameworks are distributed as open repositories, thus enhancing transparency and reproducibility of the methodological approach. Furthermore, they are readily available to be used for further research studies, as well as for practical applications.
We developed an orbital tuned age model for the composite Chew Bahir sediment core, obtained from the Chew Bahir basin (CHB), southern Ethiopia. To account for the effects of sedimentation rate changes on the spectral expression of the orbital cycles we developed a new method: the Multi-band Wavelet Age modeling technique (MUBAWA). By using a Continuous Wavelet Transformation, we were able to track frequency shifts that resulted from changing sedimentation rates and thus calculated tuned age model encompassing the last 620 kyrs. The results show a good agreement with the directly dated age model that is available from the dating of volcanic ashes. Then we used the XRF data from CHB and developed a new and robust humid-arid index of east African climate during the last 620 kyrs. To disentangle the relationship of the selected elements we performed a principal component analysis (PCA). In a following step we applied a continuous wavelet transformation on the PC1, using the directly dated age model. The resulting wavelet power spectrum, unlike a normal power spectrum, displays the occurrence of cycles/frequencies in time. The results highlight that the precession cycles are most dominantly expressed under the 400 kyrs eccentricity maximum whereas weakly expressed during eccentricity minimum. This suggests that insolation is a key driver of the climatic variability observed at CHB throughout the last 620 kyrs. In addition, the prevalence of half-precession and obliquity signals was documented. The latter is attributed to the inter-tropical insolation gradient and not interpreted as an imprint of high latitudes forcing on climatic changes in the tropics. In addition, a windowed analysis of variability was used to detect changes in variance over time and showed that strong climate variability occurred especially along the transition from a dominant insolation-controlled humid climate background state towards a predominantly dry and less-insolation controlled climate. The last chapter dealt with non-linear aspects of climate changes represented by the sediments of the CHB. We use recurrence quantification analysis to detect non-linear changes within the potassium concentration of Chew Bahir sediment cores during the last 620 kyrs. The concentration of potassium in the sediments of the lake is subject to geochemical processes related to the evaporation rate of the lake water at the time of deposition. Based on recurrence analysis, two types of variabilities could be distinguished. Type 1 represents slow variations within the precession period bandwidth of 20 kyrs and a tendency towards extreme climatic events whereas type 2 represents fast, highly variable climatic transitions between wet and dry climate states. While type 1 variability is linked to eccentricity maxima, type 2 variability occurs during the 400 kyrs eccentricity minimum. The climate history presented here shows that during high eccentricity a strongly insolation-driven climate system prevailed, whereas during low eccentricity the climate was more strongly affected by short-term variability changes. The short-term environmental changes, reflected in the increased variability might have influenced the evolution, technological advances and expansion of early modern humans who lived in this region. In the Olorgesaille Basin the temporal changes in the occurrence of stone tools, which bracket the transition from Acheulean to Middle Stone Age (MSA) technologies at between 499–320 kyrs, could potentially correlate to the marked transition from a rather stable climate with less variability to a climate with increased variability in the CHB. We conclude that populations of early anatomically modern humans are more likely to have experienced climatic stress during episodes of low eccentricity, associated with dry and high variability climate conditions, which may have led to technological innovation, such as the transition from the Acheulean to the Middle Stone Age.
Foresight in networks
(2021)
The goal of this dissertation is to contribute to the corporate foresight research field by investigating capabilities, practices, and challenges particularly in the context of interorganizational settings and networked organizations informed by the theoretical perspectives of the relational view and dynamic capabilities.
Firms are facing an increasingly complex environment and highly complex product and service landscapes that often require multiple organizations to collaborate for innovation and offerings. Public-private partnerships that are targeted at supporting this have been introduced by policy-makers in the recent past. One example for such a partnership is the European Institute of Innovation and Technology (EIT) with multiple Knowledge and Innovation Communities (KICs). The EIT has been initiated by the European Commission in 2008 with the ambition of addressing grand societal challenges, driving innovativeness of European companies, and supporting systemic change. The resulting network organizations are managed similarly to corporations with managers, boards, and firm-like governance structures. EIT Digital as one of the EIT KICs are a central case of this work.
Research in this dissertation was based on the expectation that corporate foresight activities will increasingly be embedded in such interorganizational settings and a) can draw on such settings for the benefit of themselves and b) may contribute to shared visions, trust building and planning in these network organizations. In this dissertation the EIT Digital (formerly EIT ICT Labs) is a central case, supplemented with insights from three additional cases. I draw on the rich theoretical understanding of the resource-based view, dynamic capabilities, and particularly the relational view to further the discussion in the field of corporate foresight—defined as foresight in organizations in contrast to foresight with a macro-economical perspective—towards a relational understanding. Further, I use and revisit Rohrbeck’s Maturity Model for the Future Orientation of Firms as conceptual frame for corporate foresight in interorganizational settings. The analyses—available as four individual publications complemented by on additional chapter—are designed as exploratory case studies based on multiple data sources including an interview series with 49 persons, two surveys (N=54, n=20), three supplementary interviews, access to key documents and presentations, and observation through participation in meetings and activities of the EIT Digital. This research setting allowed me to contribute to corporate foresight research and practice by 1) integrating relational constructs primarily drawn from the relational view and dynamic capabilities research into the corporate foresight research stream, 2) exploring and understanding capabilities that are required for corporate foresight in interorganizational and networked organizations, 3) discussing and extending the Maturity Model for network organizations, and 4) to support individual organizations to tie their foresight systems effectively to networked foresight systems.
There is a general consensus that diverse ecological communities are better equipped to adapt to changes in their environment, but our understanding of the mechanisms by which they do so remains incomplete. Accurately predicting how the global biodiversity crisis affects the functioning of ecosystems, and the services they provide, requires extensive knowledge about these mechanisms.
Mathematical models of food webs have been successful in uncovering many aspects of the link between diversity and ecosystem functioning in small food web modules, containing at most two adaptive trophic levels. Meaningful extrapolation of this understanding to the functioning of natural food webs remains difficult, due to the presence of complex interactions that are not always accurately captured by bitrophic descriptions of food webs. In this dissertation, we expand this approach to tritrophic food web models by including the third trophic level. Using a functional trait approach, coexistence of all species is ensured using fitness-balancing trade-offs. For example, the defense-growth trade-off implies that species may be defended against predation, but this defense comes at the cost of a lower maximal growth rate. In these food webs, the functional diversity on a given trophic level can be varied by modifying the trait differences between the species on that level.
In the first project, we find that functional diversity promotes high biomass on the top level, which, in turn, leads to a reduction in the temporal variability due to compensatory dynamical patterns governed by the top level. Next, these results are generalized by investigating the average behavior of tritrophic food webs, for wide intervals of all parameters describing species interactions in the food web. We find that the diversity on the top level is most important for determining the biomass and temporal variability of all other trophic levels, and show how biomass is only transferred efficiently to the top level when diversity is high everywhere in the food web. In the third project, we compare the response of a simple food chain against a nutrient pulse perturbation, to that of a food web with diversity on every trophic level. By joint consideration of the resistance, resilience, and elasticity, we uncover that the response is efficiently buffered when biomass on the top level is high, which is facilitated by functional diversity on every trophic level in the food web. Finally, in the fourth project, we show that even in a simple consumer-resource model without any diversity, top-down control on the intermediate level frequently causes the phase difference between the intermediate and basal level to deviate from the quarter-cycle lag rule. By adding a top predator, we show that these deviations become even more likely, and anti-phase cycles are often observed.
The combined results of these projects show how the properties of the top trophic level, including its functional diversity, have a decisive influence on the functioning of tritrophic food webs from a mechanistic perspective. Because top species are often among the most vulnerable to extinction, our results emphasize the importance of their conservation in ecosystem management and restoration strategies.
Militärgeschichte und Wissensgeschichte bilden zwei in den vergangenen Jahrzehnten international prosperierende Forschungsfelder, die bislang aber selten miteinander in Dialog getreten sind. Das Themenheft nimmt dies zum Anlass, exemplarisch die Potentiale wissensgeschichtlicher Perspektiven für die (früh-)neuzeitliche Militärgeschichte auszuloten und dabei zugleich den bislang oft unreflektierten Zäsurcharakter der Jahre um 1800 kritisch zu beleuchten. Gab es eine eigene militärische Wissenskultur oder inwieweit partizipierte das Militär an den zivilen Wissenskulturen seiner sozialen Umwelt? Welche Akteure, welche Praktiken und welche Medien spielten eine Rolle bei der Verwissenschaftlichung des Militärischen im Wandel von der Kriegskunst zur Kriegswissenschaft? Gerade der geweitete analytische Horizont der Wissensgeschichte ermöglicht es, der Vielfalt der Wissensformen Rechnung zu tragen und entsprechende Entwicklungen angemessen in ihren historischen Kontexten zu verorten. Darüber hinaus bietet der epochenübergreifende Zuschnitt die Chance, nicht nur Brüche, sondern auch mögliche Kontinuitäten zwischen frühneuzeitlichem und neuzeitlichem Militärwesen sowie dessen Beziehungen zum Wissen aufzuzeigen und etwaige Ungenauigkeiten oder historiographisch bedingte Verkürzungen durch neue Akzentsetzungen zu korrigieren.
Die Vielfältigkeit des Winkelbegriffs ist gleichermaßen spannend wie herausfordernd in Hinblick auf seine Zugänge im Mathematikunterricht der Schule. Ausgehend von verschiedenen Vorstellungen zum Winkelbegriff wird in dieser Arbeit ein Lehrgang zur Vermittlung des Winkelbegriffs entwickelt und letztlich in konkrete Umsetzungen für den Schulunterricht überführt.
Dabei erfolgt zunächst eine stoffdidaktische Auseinandersetzung mit dem Winkelbegriff, die von einer informationstheoretischen Winkeldefinition begleitet wird. In dieser wird eine Definition für den Winkelbegriff unter der Fragestellung entwickelt, welche Informationen man über einen Winkel benötigt, um ihn beschreiben zu können. So können die in der fachdidaktischen Literatur auftretenden Winkelvorstellungen aus fachmathematischer Perspektive erneut abgeleitet und validiert werden. Parallel dazu wird ein Verfahren beschrieben, wie Winkel – auch unter dynamischen Aspekten – informationstechnisch verarbeitet werden können, so dass Schlussfolgerungen aus der informationstheoretischen Winkeldefinition beispielsweise in dynamischen Geometriesystemen zur Verfügung stehen.
Unter dem Gesichtspunkt, wie eine Abstraktion des Winkelbegriffs im Mathematikunterricht vonstatten gehen kann, werden die Grundvorstellungsidee sowie die Lehrstrategie des Aufsteigens vom Abstrakten zum Konkreten miteinander in Beziehung gesetzt. Aus der Verknüpfung der beiden Theorien wird ein grundsätzlicher Weg abgeleitet, wie im Rahmen der Lehrstrategie eine Ausgangsabstraktion zu einzelnen Winkelaspekten aufgebaut werden kann, was die Generierung von Grundvorstellungen zu den Bestandteilen des jeweiligen Winkelaspekts und zum Operieren mit diesen Begriffsbestandteilen ermöglichen soll. Hierfür wird die Lehrstrategie angepasst, um insbesondere den Übergang von Winkelsituationen zu Winkelkontexten zu realisieren. Explizit für den Aspekt des Winkelfeldes werden, anhand der Untersuchung der Sichtfelder von Tieren, Lernhandlungen und Forderungen an ein Lernmodell beschrieben, die Schülerinnen und Schüler bei der Begriffsaneignung unterstützen.
Die Tätigkeitstheorie, der die genannte Lehrstrategie zuzuordnen ist, zieht sich als roter Faden durch die weitere Arbeit, wenn nun theoriebasiert Designprinzipien generiert werden, die in die Entwicklung einer interaktiven Lernumgebung münden. Hierzu wird u. a. das Modell der Artifact-Centric Activity Theory genutzt, das das Beziehungsgefüge aus Schülerinnen und Schülern, dem mathematischen Gegenstand und einer zu entwickelnden App als vermittelndes Medium beschreibt, wobei der Einsatz der App im Unterrichtskontext sowie deren regelgeleitete Entwicklung Bestandteil des Modells sind. Gemäß dem Ansatz der Fachdidaktischen Entwicklungsforschung wird die Lernumgebung anschließend in mehreren Zyklen erprobt, evaluiert und überarbeitet. Dabei wird ein qualitatives Setting angewandt, das sich der Semiotischen Vermittlung bedient und untersucht, inwiefern sich die Qualität der von den Schülerinnen und Schülern gezeigten Lernhandlungen durch die Designprinzipien und deren Umsetzung erklären lässt. Am Ende der Arbeit stehen eine finale Version der Designprinzipien und eine sich daraus ergebende Lernumgebung zur Einführung des Winkelfeldbegriffs in der vierten Klassenstufe.
This work journal recounts the experiences of a project undertaken with students of the University of Trier over the course of two semesters. The project attempted to design and produce an innovative audio guide pertaining to the cultural heritage of the Roman city, with students gauging market opportunities, writing a business plan, researching information and producing content for the audio guide. The work created, „Talking Stones“ (https://www.talking-stones.de/), takes the listener on a tour of Roman Trier embedded in a literary narrative and is available via download on Google Play and the Apple App Store.
In her writings on ancient myth, the British author Natalie Haynes moves women to the centre of attention. Her two latest books, A Thousand Ships and Pandora’s Jar – a fiction novel and a non-fiction one – approach this topic from two different perspectives. This interview takes stock of Haynes’ motives and methodology as well as of the challenges she faces in the process of writing.
Interview with Alana Jelinek
(2021)
Alana Jelinek is an art historian and artist — “an artist making art, and also writing about art”, in her words — , a former European Research Council artist in residence at the Museum of Anthropology and Archaeology at the University of Cambridge, and currently teaching in the School of Creative Arts at the University of Hertfordshire. Her art has revolved mostly around the issues of post- and neocolonialism and their connections with neoliberalism — a more implicit topic in her works from the 1990s on the “tourist gaze” developed into an interest in museums, collecting and ethnography throughout the past two decades. In this interview, she talks to thersites about the role of classical heritage and ancient art in her own work.
This article focuses on the feminist reception of Zenobia of Palmyra in Great Britain during the long nineteenth century and the early twentieth century. A special focus lies on her reception by the British suffragettes who belonged to the Women’s Social and Political Union. Even though Zenobia’s story did not end happily, the warrior queen’s example served to inspire these early feminists. Several products of historical culture – such as books, pieces of art, newspaper articles and theatre plays – provide insight into the reception of her as an historical figure, which is dominated by the image of a strong and courageous woman. The article will shed light on how exactly Zenobia’s example was instrumentalised throughout the first feminist movement in Britain.
Application areas and drugs of Egyptian, Greek and Roman medi-cine are popular references of research in the field of recent aes-thetic dermatology. There, Cleopatra VII is referred to as “mother of chemical peeling” because she is said to have bathed in donkey’s milk. Although extremely popular, there is no ancient source sup-porting Cleopatra’s bath in milk. Nevertheless, Poppaea Sabina, the second wife of Emperor Nero, is said to has bathed in donkey’s milk to beautify her skin. The aim of the paper is to reconstruct the genesis and develop-ment of the modern myth of Cleopatra bathing in donkey’s milk. The origin of this myth can be traced back to the cinema of the 1930s. The result is that in the person of the actress Claudette Colbert her two roles as Cleopatra and Poppaea converged. This convergence was the basis for the popularization of the milk bath by the Cleopat-ra movie of 1963 with Elizabeth Taylor.
Ruhm, Ide(ologi)e, Macht
(2021)
The first Hollywood film adaptation of Alexander the Great is Robert Rossen’s 1956 movie. Classicists have primarily been concerned with errors of historicity, Alexander’s assumed tragic traits, and rather associative conclusions concerning the movie’s political implications.
This paper raises the question of Rossen’s depiction of Alexander's motives and aims. His assessment of the king is surprisingly complicated. Therefore, for the first time, Rossen's interview comments on Alexander are analysed comprehensively and systematically. Furthermore, it is shown that neglected sources are central to the plot. Finally, the film is interpreted against the backdrop of Rossen’s oeuvre.
It can be demonstrated that Rossen’s issue is the problem of ideology. He seeks a redefinition of glory. Military success is only an excuse for the pursuit of mere power. For Rossen, however, the true fame is nothing but the benefit of the people. It took a long time for Alexander to realize that his rule was inane, and to reshape his policy. This interpretation is due to fundamental convictions reflected in Rossen’s oeuvre as well as to his personal experiences in politics. It is a plea for de-ideologization in times of the Cold War.
Spring Issue
(2021)
Probleme Jüdischer Theologie
(2021)
Aus dem Inhalt:
– Replik auf Felix Brönners Beitrag im MRM – MenschenRechtsMagazin Heft 1/2 2019 „Koloniale Kontinuitäten im Menschenrechtsdiskurs“ S. 24 – 37 (Teil 1)
– Der Nachweis von Verletzungen der Menschenrechte durch Satellitenbilder – Dargestellt am Beispiel der Praxis von Untersuchungskommissionen des Menschenrechtsrates der Vereinten Nationen
– Kinder als Menschenrechtsverteidiger:innen – Anforderungen an ein förderliches Umfeld für das Engagement von Kinder
Der Aufsatz behandelt die drei unterschiedlichen Hinrichtungsformen, die im 5. und 4. Jahrhundert v. Chr. in Athen angedroht wurden: apotympanismós , Sturz ins Barathron und Schierling. Eine solche Untersuchung verspricht reichen Aufschluss über die demokratische Ideologie, die entsprechenden Diskurse und ihre stetige Verstärkung durch Prozesse und Bestrafungen. Der Aufsatz vertritt dabei die These, dass eine chronologische Analyse dieser Hinrichtungsformen einen wichtigen und bisher unerforschten Beitrag zur Debatte über Kontinuität und Diskontinuität in der athenischen Demokratie vor und nach der Tyrannis der Dreißig leisten kann. Er zeigt, dass die Formen, in denen die Todesstrafe angedroht wurde, das Ausmaß der Änderungen in den Diskursen in der und über die athenische Demokratie nach der Niederlage im Peloponnesischen Krieg erkennen lässt. Die Unterschiede in den Exekutionsformen können einen wichtigen Beitrag zum Verständnis der Verschiebung des Begriffes der „Gleichheit“ vom 5. ins 4. Jahrhundert v. Chr. leisten.
Un changement de la fonction de la périphrase verbale espagnole estar+gérondif a été reconnu depuis longtemps. Déjà Gili Gaya (1948: 114) avait mentionné la construction suivante et il l’avait expliquée par l’influence exercée par des manuels de correspondance commerciale traduits de l’anglais : Estamos enviándole esta carta para comunicarle [...] au lieu de: Le enviamos esta carta […]. Comme en anglais, on trouve la périphrase espagnole estar+gérondif avec des significations non-actionnelles et futures dans les corpus CREA et CORPES XXI de la Real Academia Española et dans le Corpus del español (Cuando el reloj dé las dos, estaré llamando por teléfono. Ahora está hablando el presidente.). Cette périphrase est fortement grammaticalisée avec la signification aspectuelle et son apparition dans de nouveaux contextes est un phénomène intéressant qu’on pourrait expliquer partiellement par le contact avec la langue anglaise. Dans le portugais brésilien, le même phénomène apparaît, tandis qu’il est absent dans le portugais européen. Les exemples trouvés dans le Corpus do português expriment des déclarations d’intentions ou des promesses qui seront réalisées dans le futur (O qual eu acho isso totalmente errado! Pois estou fazendo novamente um plano de negócios).
Il était surprenant de constater le même phénomène de l’emploi comme expression de situations futures pour la périphrase française être en train de dans des variétés parlées en Amérique du Nord. Dans le corpus FRAN (<http://continent.uottawa.ca/fr/corpus-et-ressources-electroniques/corpus/>), cette périphrase apparaît avec une plus grande fréquence que dans des textes comparables en français européen. Dans les occurrences de la périphrase être en train de+infinitif dans le corpus FRAN, on peut constater des phénomènes remarquables: le marquage de l’imperfectivité et de la progressivité dans des cas dans lesquels l’imparfait ou le présent auraient été suffisants (Fait que tu étais en train de me parler donc des nouvelles constructions dans le quartier); l’usage sans auxiliaire et en fonction attributive (des gens en train de parler français), l’usage pour exprimer une action future (cette année euh on est en train de f/ de/ de transcrire). Beaucoup de ruptures après être en train de indiquent la fixité de la construction (là on est en train de euh [phrase non terminée]).
Dans cette contribution, nous partons de la position selon laquelle le marquage de l’aspectualité imperfective est une nécessité qui peut mener à l’usage de moyens d’expression plus suréminents que les temps marqués aspectuellement. Le contact avec une construction de progressivité grammaticalisée peut induire l’usage multiplié de moyens d’expression périphrastiques, contribuer au changement de leur signification et accélérer des processus de grammaticalisation. La base de tous ces changements est un pont cognitif entre la non-délimitation propre à l’aspectualité imperfective et la futurité des situations décrites. L’influence de l’anglais sera décrite comme un phénomène déclencheur d’un changement possible dans toutes les langues romanes qui ont une périphrase d’aspectualité imperfective, même en français où cette périphrase présente une autre structure.
Vertragsgestaltung ist ein praktisch sehr relevantes Thema, das wegen der Justizorientierung in der Wissenschaft noch weitgehend stiefmütterlich behandelt wird. In dieser Untersuchung wird, zumindest für die besonders delikate Konstellation bei komplexen Kooperationen des Staats mit Privaten (ÖPP/PPP), Abhilfe geschaffen. Dabei gründet die Analyse auf einer fundierten Typisierung und Charakterisierung der Probleme solcher Projekte. Den theoretischen Rahmen liefert eine effizienzorientierte Studie institutionenökonomischer Ansätze, namentlich der Transaktionskostentheorie und der Prinzipal-Agenten-Theorie, rückversichert über die praxisorientierten Grundregeln der vertraglichen Risikoverteilung. So gelingt es praktische Formulierungsvorschläge für Standardprobleme der Vertragsgestaltung, wie Leistungsbestimmungen, Anpassungsmechanismen, Konfliktbeilegungsregeln, Informationsmechanismen und Kündigungsregeln zu finden. Diese werden auch aus den Erfolgsbedingungen erläutert.
The suitability of a newly developed cell-based functional assay was tested for the detection of the activity of a range of neurotoxins and neuroactive pharmaceuticals which act by stimulation or inhibition of calcium-dependent neurotransmitter release. In this functional assay, a reporter enzyme is released concomitantly with the neurotransmitter from neurosecretory vesicles. The current study showed that the release of a luciferase from a differentiated human neuroblastoma-based reporter cell line (SIMA-hPOMC1-26-GLuc cells) can be stimulated by a carbachol-mediated activation of the Gq-coupled muscarinic-acetylcholine receptor and by the Ca2+-channel forming spider toxin α-latrotoxin. Carbachol-stimulated luciferase release was completely inhibited by the muscarinic acetylcholine receptor antagonist atropine and α-latrotoxin-mediated release by the Ca2+-chelator EGTA, demonstrating the specificity of luciferase-release stimulation. SIMA-hPOMC1-26-GLuc cells express mainly L- and N-type and to a lesser extent T-type VGCC on the mRNA and protein level. In accordance with the expression profile a depolarization-stimulated luciferase release by a high K+-buffer was effectively and dose-dependently inhibited by L-type VGCC inhibitors and to a lesser extent by N-type and T-type inhibitors. P/Q- and R-type inhibitors did not affect the K+-stimulated luciferase release. In summary, the newly established cell-based assay may represent a versatile tool to analyze the biological efficiency of a range of neurotoxins and neuroactive pharmaceuticals which mediate their activity by the modulation of calcium-dependent neurotransmitter release.
The suitability of a newly developed cell-based functional assay was tested for the detection of the activity of a range of neurotoxins and neuroactive pharmaceuticals which act by stimulation or inhibition of calcium-dependent neurotransmitter release. In this functional assay, a reporter enzyme is released concomitantly with the neurotransmitter from neurosecretory vesicles. The current study showed that the release of a luciferase from a differentiated human neuroblastoma-based reporter cell line (SIMA-hPOMC1-26-GLuc cells) can be stimulated by a carbachol-mediated activation of the Gq-coupled muscarinic-acetylcholine receptor and by the Ca2+-channel forming spider toxin α-latrotoxin. Carbachol-stimulated luciferase release was completely inhibited by the muscarinic acetylcholine receptor antagonist atropine and α-latrotoxin-mediated release by the Ca2+-chelator EGTA, demonstrating the specificity of luciferase-release stimulation. SIMA-hPOMC1-26-GLuc cells express mainly L- and N-type and to a lesser extent T-type VGCC on the mRNA and protein level. In accordance with the expression profile a depolarization-stimulated luciferase release by a high K+-buffer was effectively and dose-dependently inhibited by L-type VGCC inhibitors and to a lesser extent by N-type and T-type inhibitors. P/Q- and R-type inhibitors did not affect the K+-stimulated luciferase release. In summary, the newly established cell-based assay may represent a versatile tool to analyze the biological efficiency of a range of neurotoxins and neuroactive pharmaceuticals which mediate their activity by the modulation of calcium-dependent neurotransmitter release.
Mental health problems remain among the main generators of costs within and beyond the health care system. Psychotherapy, the tool of choice in their treatment, is qualified by social interaction, and cooperation within the therapist-patient-dyad. Research into the factors influencing therapy success to date is neither exhaustive nor conclusive. Among many others, the quality of the relationship between therapist and patient stands out regardless of the followed psychotherapy school. Emerging research points to a connection between interpersonal synchronization within the sessions and therapy outcome. Consequently, it can be considered significant for the shaping of this relationship. The framework of Embodied Cognition assumes bodily and neuronal correlates of thinking. Therefore, the present paper reviews investigations on interpersonal, non-verbal synchrony in two domains: firstly, studies on interpersonal synchrony in psychotherapy are reviewed (synchronization of movement). Secondly, findings on neurological correlates of interpersonal synchrony (assessed with EEG, fMRI, fNIRS) are summarized in a narrative manner. In addition, the question is asked whether interpersonal synchrony can be achieved voluntarily on an individual level. It is concluded that there might be mechanisms which could give more insights into therapy success, but as of yet remain uninvestigated. Further, the framework of embodied cognition applies more to the current body of evidence than classical cognitivist views. Nevertheless, deeper research into interpersonal physical and neurological processes utilizing the framework of Embodied Cognition emerges as a possible route of investigation on the road to lower drop-out rates, improved and quality-controlled therapeutic interventions, thereby significantly reducing healthcare costs.
Mental health problems remain among the main generators of costs within and beyond the health care system. Psychotherapy, the tool of choice in their treatment, is qualified by social interaction, and cooperation within the therapist-patient-dyad. Research into the factors influencing therapy success to date is neither exhaustive nor conclusive. Among many others, the quality of the relationship between therapist and patient stands out regardless of the followed psychotherapy school. Emerging research points to a connection between interpersonal synchronization within the sessions and therapy outcome. Consequently, it can be considered significant for the shaping of this relationship. The framework of Embodied Cognition assumes bodily and neuronal correlates of thinking. Therefore, the present paper reviews investigations on interpersonal, non-verbal synchrony in two domains: firstly, studies on interpersonal synchrony in psychotherapy are reviewed (synchronization of movement). Secondly, findings on neurological correlates of interpersonal synchrony (assessed with EEG, fMRI, fNIRS) are summarized in a narrative manner. In addition, the question is asked whether interpersonal synchrony can be achieved voluntarily on an individual level. It is concluded that there might be mechanisms which could give more insights into therapy success, but as of yet remain uninvestigated. Further, the framework of embodied cognition applies more to the current body of evidence than classical cognitivist views. Nevertheless, deeper research into interpersonal physical and neurological processes utilizing the framework of Embodied Cognition emerges as a possible route of investigation on the road to lower drop-out rates, improved and quality-controlled therapeutic interventions, thereby significantly reducing healthcare costs.
The propagation of test fields, such as electromagnetic, Dirac or linearized gravity, on a fixed spacetime manifold is often studied by using the geometrical optics approximation. In the limit of infinitely high frequencies, the geometrical optics approximation provides a conceptual transition between the test field and an effective point-particle description. The corresponding point-particles, or wave rays, coincide with the geodesics of the underlying spacetime. For most astrophysical applications of interest, such as the observation of celestial bodies, gravitational lensing, or the observation of cosmic rays, the geometrical optics approximation and the effective point-particle description represent a satisfactory theoretical model. However, the geometrical optics approximation gradually breaks down as test fields of finite frequency are considered.
In this thesis, we consider the propagation of test fields on spacetime, beyond the leading-order geometrical optics approximation. By performing a covariant Wentzel-Kramers-Brillouin analysis for test fields, we show how higher-order corrections to the geometrical optics approximation can be considered. The higher-order corrections are related to the dynamics of the spin internal degree of freedom of the considered test field. We obtain an effective point-particle description, which contains spin-dependent corrections to the geodesic motion obtained using geometrical optics. This represents a covariant generalization of the well-known spin Hall effect, usually encountered in condensed matter physics and in optics. Our analysis is applied to electromagnetic and massive Dirac test fields, but it can easily be extended to other fields, such as linearized gravity. In the electromagnetic case, we present several examples where the gravitational spin Hall effect of light plays an important role. These include the propagation of polarized light rays on black hole spacetimes and cosmological spacetimes, as well as polarization-dependent effects on the shape of black hole shadows. Furthermore, we show that our effective point-particle equations for polarized light rays reproduce well-known results, such as the spin Hall effect of light in an inhomogeneous medium, and the relativistic Hall effect of polarized electromagnetic wave packets encountered in Minkowski spacetime.
Modern knowledge bases contain and organize knowledge from many different topic areas. Apart from specific entity information, they also store information about their relationships amongst each other. Combining this information results in a knowledge graph that can be particularly helpful in cases where relationships are of central importance. Among other applications, modern risk assessment in the financial sector can benefit from the inherent network structure of such knowledge graphs by assessing the consequences and risks of certain events, such as corporate insolvencies or fraudulent behavior, based on the underlying network structure. As public knowledge bases often do not contain the necessary information for the analysis of such scenarios, the need arises to create and maintain dedicated domain-specific knowledge bases.
This thesis investigates the process of creating domain-specific knowledge bases from structured and unstructured data sources. In particular, it addresses the topics of named entity recognition (NER), duplicate detection, and knowledge validation, which represent essential steps in the construction of knowledge bases.
As such, we present a novel method for duplicate detection based on a Siamese neural network that is able to learn a dataset-specific similarity measure which is used to identify duplicates. Using the specialized network architecture, we design and implement a knowledge transfer between two deduplication networks, which leads to significant performance improvements and a reduction of required training data.
Furthermore, we propose a named entity recognition approach that is able to identify company names by integrating external knowledge in the form of dictionaries into the training process of a conditional random field classifier. In this context, we study the effects of different dictionaries on the performance of the NER classifier. We show that both the inclusion of domain knowledge as well as the generation and use of alias names results in significant performance improvements.
For the validation of knowledge represented in a knowledge base, we introduce Colt, a framework for knowledge validation based on the interactive quality assessment of logical rules. In its most expressive implementation, we combine Gaussian processes with neural networks to create Colt-GP, an interactive algorithm for learning rule models. Unlike other approaches, Colt-GP uses knowledge graph embeddings and user feedback to cope with data quality issues of knowledge bases. The learned rule model can be used to conditionally apply a rule and assess its quality.
Finally, we present CurEx, a prototypical system for building domain-specific knowledge bases from structured and unstructured data sources. Its modular design is based on scalable technologies, which, in addition to processing large datasets, ensures that the modules can be easily exchanged or extended. CurEx offers multiple user interfaces, each tailored to the individual needs of a specific user group and is fully compatible with the Colt framework, which can be used as part of the system.
We conduct a wide range of experiments with different datasets to determine the strengths and weaknesses of the proposed methods. To ensure the validity of our results, we compare the proposed methods with competing approaches.
Focus on English Linguistics
(2021)
The Arctic environments constitute rich and dynamic ecosystems, dominated by microorganisms extremely well adapted to survive and function under severe conditions. A range of physiological adaptations allow the microbiota in these habitats to withstand low temperatures, low water and nutrient availability, high levels of UV radiation, etc. In addition, other adaptations of clear competitive nature are directed at not only surviving but thriving in these environments, by disrupting the metabolism of neighboring cells and affecting intermicrobial communication. Since Arctic microbes are bioindicators which amplify climate alterations in the environment, the Arctic region presents the opportunity to study local microbiota and carry out research about interesting, potentially virulent phenotypes that could be dispersed into other habitats around the globe as a consequence of accelerating climate change. In this context, exploration of Arctic habitats as well as descriptions of the microbes inhabiting them are abundant but microbial competitive strategies commonly associated with virulence and pathogens are rarely reported. In this project, environmental samples from the Arctic region were collected and microorganisms (bacteria and fungi) were isolated. The clinical relevance of these microorganisms was assessed by observing the following virulence markers: ability to grow at a range of temperatures, expression of antimicrobial resistance and production of hemolysins. The aim of this project is to determine the frequency and relevance of these characteristics in an effort to understand microbial adaptations in habitats threatened by climate change. The isolates obtained and described here were able to grow at a range of temperatures, in some cases more than 30 °C higher than their original isolation temperature. A considerable number of them consistently expressed compounds capable of lysing sheep and bovine erythrocytes on blood agar at different incubation temperatures. Ethanolic extracts of these bacteria were able to cause rapid and complete lysis of erythrocyte suspensions and might even be hemolytic when assayed on human blood. In silico analyses showed a variety of resistance elements, some of them novel, against natural and synthetic antimicrobial compounds. In vitro experiments against a number of antimicrobial compounds showed resistance phenotypes belonging to wild-type populations and some non-wild type which clearly denote human influence in the acquisition of antimicrobial resistance. The results of this project demonstrate the presence of virulence-associated factors expressed by microorganisms of natural, non-clinical environments. This study contains some of the first reports, to the best of our knowledge, of hemolytic microbes isolated from the Arctic region. In addition, it provides additional information about the presence and expression of intrinsic and acquired antimicrobial resistance in environmental isolates, contributing to the understanding of the evolution of relevant pathogenic species and opportunistic pathogens. Finally, this study highlights some of the potential risks associated with changes in the polar regions (habitat melting and destruction, ecosystem transition and re-colonization) as important indirect consequences of global warming and altered climatic conditions around the planet.
Introduction
(2021)
Starkregen in Berlin
(2021)
In den Sommern der Jahre 2017 und 2019 kam es in Berlin an mehreren Orten zu Überschwemmungen in Folge von Starkregenereignissen. In beiden Jahren führte dies zu erheblichen Beeinträchtigungen im Alltag der Berliner:innen sowie zu hohen Sachschäden. Eine interdisziplinäre Taskforce des DFG-Graduiertenkollegs NatRiskChange untersuchte (1) die meteorologischen Eigenschaften zweier besonders eindrücklicher Unwetter, sowie (2) die Vulnerabilität der Berliner Bevölkerung gegenüber Starkregen.
Eine vergleichende meteorologische Rekonstruktion der Starkregenereignisse von 2017 und 2019 ergab deutliche Unterschiede in der Entstehung und den Überschreitungswahrscheinlichkeiten der beiden Unwetter. So war das Ereignis von 2017 mit einer relativ großen räumlichen Ausdehnung und langer Dauer ein untypisches Starkregenereignis, während es sich bei dem Unwetter von 2019 um ein typisches, kurzzeitiges Starkregenereignis mit ausgeprägter räumlicher Heterogenität handelte. Eine anschließende statistische Analyse zeigte, dass das Ereignis von 2017 für längere Niederschlagsdauern (>=24 h) als großflächiges Extremereignis mit Überschreitungswahrscheinlichkeiten von unter 1 % einzuordnen ist (d.h. Wiederkehrperioden >=100 Jahre). Im Jahr 2019 wurden dagegen ähnliche Überschreitungswahrscheinlichkeiten nur lokal und für kürzere Zeiträume (1-2 h) berechnet.
Die Vulnerabilitätsanalyse basiert auf einer von April bis Juni 2020 in Berlin durchgeführten Onlinebefragung. Diese richtete sich an Personen, die bereits von vergangenen Starkregenereignissen betroffen waren und thematisierte das Schadensereignis selbst, daraus entstandene Beeinträchtigungen und Schäden, Risikowahrnehmung sowie Notfall- und Vorsorgemaßnahmen. Die erhobenen Umfragedaten (n=102) beziehen sich vornehmlich auf die Ereignisse von 2017 und 2019 und zeigen, dass die Berliner Bevölkerung sowohl im Alltag (z.B. bei der Beschaffung von Lebensmitteln) als auch im eigenen Haushalt (z.B. durch Überschwemmungsschäden) von den Unwettern beeinträchtigt war. Zudem deuteten die Antworten der Betroffenen auf Möglichkeiten hin, die Vulnerabilität der Gesellschaft gegenüber Starkregen weiter zu reduzieren - etwa durch die Unterstützung besonders betroffener Gruppen (z.B. Pflegende), durch gezielte Informationskampagnen zum Schutz vor Starkregen oder durch die Erhöhung der Reichweite von Unwetterwarnungen. Eine statistische Analyse zur Effektivität privater Notfall- und Vorsorgemaßnahmen auf Grundlage der Umfragedaten bestätigte vorherige Studienergebnisse.
So gab es Anhaltspunkte dafür, dass durch das Umsetzen von Vorsorgemaßnahmen wie beispielsweise das Installieren von Rückstauklappen, Barriere-Systemen oder Pumpen Starkregenschäden reduziert werden können.
Die Ergebnisse dieses Berichts unterstreichen die Notwendigkeit für ein integriertes Starkregenrisikomanagment, das die Risikokomponenten Gefährdung, Vulnerabilität und Exposition ganzheitlich und auf mehreren Ebenen (z.B. staatlich, kommunal, privat) betrachtet.
Food intake is driven by the need for energy but also by the demand for essential nutrients such as protein. Whereas it was well known how diets high in protein mediate satiety, it remained unclear how diets low in protein induce appetite. Therefore, this thesis aims to contribute to the research area of the detection of restricted dietary protein and adaptive responses.
This thesis provides clear evidence that the liver-derived hormone fibroblast growth factor 21 (FGF21) is an endocrine signal of a dietary protein restriction, with the cellular amino acid sensor general control nonderepressible 2 (GCN2) kinase acting as an upstream regulator of FGF21 during protein restriction. In the brain, FGF21 is mediating the protein-restricted metabolic responses, e.g. increased energy expenditure, food intake, insulin sensitivity, and improved glucose homeostasis. Furthermore, endogenous FGF21 induced by dietary protein or methionine restriction is preventing the onset of type 2 diabetes in the New Zealand Obese mouse.
Overall, FGF21 plays an important role in the detection of protein restriction and macronutrient imbalance in rodents and humans, and mediates both the behavioral and metabolic responses to dietary protein restriction. This makes FGF21 a critical physiological signal of dietary protein restriction, highlighting the important but often overlooked impact of dietary protein on metabolism and eating behavior, independent of dietary energy content.
Digitalisierung ermöglicht es uns, mit Partnern (z.B. Unternehmen, Institutionen) in einer IT-unterstützten Umgebung zu interagieren und Tätigkeiten auszuführen, die vormals manuell erledigt wurden. Ein Ziel der Digitalisierung ist dabei, Dienstleistungen unterschiedlicher fachlicher Domänen zu Prozessen zu kombinieren und vielen Nutzergruppen bedarfsgerecht zugänglich zu machen. Hierzu stellen Anbieter technische Dienste bereit, die in unterschiedliche Anwendungen integriert werden können.
Die Digitalisierung stellt die Anwendungsentwicklung vor neue Herausforderungen. Ein Aspekt ist die bedarfsgerechte Anbindung von Nutzern an Dienste. Zur Interaktion menschlicher Nutzer mit den Diensten werden Benutzungsschnittstellen benötigt, die auf deren Bedürfnisse zugeschnitten sind. Hierzu werden Varianten für spezifische Nutzergruppen (fachliche Varianten) und variierende Umgebungen (technische Varianten) benötigt. Zunehmend müssen diese mit Diensten anderer Anbieter kombiniert werden können, um domänenübergreifend Prozesse zu Anwendungen mit einem erhöhten Mehrwert für den Endnutzer zu verknüpfen (z.B. eine Flugbuchung mit einer optionalen Reiseversicherung).
Die Vielfältigkeit der Varianten lässt die Erstellung von Benutzungsschnittstellen komplex und die Ergebnisse sehr individuell erscheinen. Daher werden die Varianten in der Praxis vorwiegend manuell erstellt. Dies führt zur parallelen Entwicklung einer Vielzahl sehr ähnlicher Anwendungen, die nur geringes Potential zur Wiederverwendung besitzen. Die Folge sind hohe Aufwände bei Erstellung und Wartung. Dadurch wird häufig auf die Unterstützung kleiner Nutzerkreise mit speziellen Anforderungen verzichtet (z.B. Menschen mit physischen Einschränkungen), sodass diese weiterhin von der Digitalisierung ausgeschlossen bleiben.
Die Arbeit stellt eine konsistente Lösung für diese neuen Herausforderungen mit den Mitteln der modellgetriebenen Entwicklung vor. Sie präsentiert einen Ansatz zur Modellierung von Benutzungsschnittstellen, Varianten und Kompositionen und deren automatischer Generierung für digitale Dienste in einem verteilten Umfeld. Die Arbeit schafft eine Lösung zur Wiederverwendung und gemeinschaftlichen Nutzung von Benutzungsschnittstellen über Anbietergrenzen hinweg. Sie führt zu einer Infrastruktur, in der eine Vielzahl von Anbietern ihre Expertise in gemeinschaftliche Anwendungen einbringen können.
Die Beiträge bestehen im Einzelnen in Konzepten und Metamodellen zur Modellierung von Benutzungsschnittstellen, Varianten und Kompositionen sowie einem Verfahren zu deren vollständig automatisierten Transformation in funktionale Benutzungsschnittstellen. Zur Umsetzung der gemeinschaftlichen Nutzbarkeit werden diese ergänzt um eine universelle Repräsentation der Modelle, einer Methodik zur Anbindung unterschiedlicher Dienst-Anbieter sowie einer Architektur zur verteilten Nutzung der Artefakte und Verfahren in einer dienstorientierten Umgebung.
Der Ansatz bietet die Chance, unterschiedlichste Menschen bedarfsgerecht an der Digitalisierung teilhaben zu lassen. Damit setzt die Arbeit Impulse für zukünftige Methoden zur Anwendungserstellung in einem zunehmend vielfältigen Umfeld.
Die Erzählungen der Energiewende: Erzählungen beherrschen die Interpretation des politischen Geschehens mehr als formal und methodisch strenge Argumentationsketten. Dies gilt insbesondere für Demokratien. In Demokratien gilt es zu überzeugen und auch zu überreden, um Macht zu erhalten, Macht zu sichern oder Akzeptanz für bestimmte politische Vorhaben zu generieren. Diese simple Feststellung lässt zwei Schlüsse für eine transformativ ausgerichtete Politikwissenschaft zu. Erstens können transformative Narrative produziert werden, die das Auftreten von ökologisch, sozial, ökonomisch und kulturell nachhaltigem wahrscheinlicher machen, Zweitens können die Narrative von nachhaltiger wie nicht-nachhaltiger Transformation analysiert werden. Beiden Aufgaben widmet sich die Dissertationsschrift. Dabei werden für den transformativen Teil ethnografisch erhobene Daten zu fünf transformativen Narrativen verdichtet, die Vorwärts- und Vorbildcharakter haben. In den fünf Aufsätzen wurde auf Diversität zwischen den beschriebenen Protagonisten geachtet, sodass eine breite Leser*innenschaft angesprochen wird. Im analytischen Part wird in einem Aufsatz über diese Vorgehen reflektiert und die Form beschrieben durch die transformative Narrative Wirksamkeit entfalten. Dabei gilt immer, dass die Wissenschaft keine Narrative selbst setzt, sondern mittels nachvollziehbarer Methoden Daten zum Sprechen bringt. Dies ist unter review-Bedingungen gelungen. Neben eines Einsatz von Narrativen in Fragen der Gestaltung der neu entstandenen und weiter entstehenden Energielandschaften behandelt diese Dissertationsschrift a, diskursstrangorientierte als auch institutionsorientierte Erzählungen über die Energiewende. Dabei wurden diskursstrangorientiert die unterschiedlichen Erzählungen der und über energieintensive Unternehmen bezüglich der EEG-Umlage untersucht und kategorisiert und die Metaphern der Energiewende im Magazin DER SPIEGEL erhoben und analysiert. Institutionsorientiert wurde die Energiewendeerzählung der Partei `Alternative für Deutschland´, die Bildsprache des Wirtschaftsministeriums an Hand eines Beispiels sowie die Nachhaltigkeitserzählungen der Zukunftsinstitut GmbH. Schließlich wird nach messbaren Folgen des Nachhaltigkeitsnarrativs in drei Regionen des Rhein-Maas-Gebiets gefragt, was die Arbeit abrunden soll.
Polymeric semiconductors are strong contenders for replacing traditional inorganic semiconductors in electronic applications requiring low power, low cost and flexibility, such as biosensors, flexible solar cells and electronic displays. Molecular doping has the potential to enable this revolution by improving the conductivity and charge transport properties of this class of materials. Despite decades of research in this field, gaps in our understanding of the nature of dopant–polymer interactions has resulted in limited commercialization of this technology. This work aims at providing a deeper insight into the underlying mechanisms of molecular p-doping of semiconducting polymers in the solution and solid-state, and thereby bring the scientific community closer to realizing the dream of making organic semiconductors commonplace in the electronics industry. The role of 1) dopant size/shape, 2) polymer chain aggregation and 3) charge delocalization on the doping mechanism and efficiency is addressed using optical (UV-Vis-NIR) and electron paramagnetic resonance (EPR) spectroscopies. By conducting a comprehensive study of the nature and concentration of the doping-induced species in solutions of the polymer poly(3-hexylthiophene) (P3HT) with 3 different dopants, we identify the unique optical signatures of the delocalized polaron, localized polaron and charge-transfer complex, and report their extinction coefficient values. Furthermore, with X-ray diffraction, atomic force microscopy and electrical conductivity measurements, we study the impact of processing technique and doping mechanism on the morphology and thereby, charge transport through the doped films.
This work demonstrates that the doping mechanism and type of doping-induced species formed are strongly influenced by the polymer backbone arrangement rather than dopant shape/size. The ability of the polymer chain to aggregate is found to be crucial for efficient charge transfer (ionization) and polaron delocalization. At the same time, our results suggest that the high ionization efficiency of a dopant–polymer system in solution may subsequently hinder efficient charge transport in the solid-state due to the reduction in the fraction of tie chains, which enable charges to move efficiently between aggregated domains in the films. This study demonstrates the complex multifaceted nature of polymer doping while providing important hints for the future design of dopant-host systems and film fabrication techniques.
Noise is ubiquitous in nature and usually results in rich dynamics in stochastic systems such as oscillatory systems, which exist in such various fields as physics, biology and complex networks. The correlation and synchronization of two or many oscillators are widely studied topics in recent years.
In this thesis, we mainly investigate two problems, i.e., the stochastic bursting phenomenon in noisy excitable systems and synchronization in a three-dimensional Kuramoto model with noise. Stochastic bursting here refers to a sequence of coherent spike train, where each spike has random number of followers due to the combined effects of both time delay and noise. Synchronization, as a universal phenomenon in nonlinear dynamical systems, is well illustrated in the Kuramoto model, a prominent model in the description of collective motion.
In the first part of this thesis, an idealized point process, valid if the characteristic timescales in the problem are well separated, is used to describe statistical properties such as the power spectral density and the interspike interval distribution. We show how the main parameters of the point process, the spontaneous excitation rate, and the probability to induce a spike during the delay action can be calculated from the solutions of a stationary and a forced Fokker-Planck equation. We extend it to the delay-coupled case and derive analytically the statistics of the spikes in each neuron, the pairwise correlations between any two neurons, and the spectrum of the total output from the network.
In the second part, we investigate the three-dimensional noisy Kuramoto model, which can be used to describe the synchronization in a swarming model with helical trajectory. In the case without natural frequency, the Kuramoto model can be connected with the Vicsek model, which is widely studied in collective motion and swarming of active matter. We analyze the linear stability of the incoherent state and derive the critical coupling strength above which the incoherent state loses stability. In the limit of no natural frequency, an exact self-consistent equation of the mean field is derived and extended straightforward to any high-dimensional case.
Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion
(2021)
Wir leben in einer Gesellschaft, die von einem stetigen Wunsch nach Innovation und Fortschritt geprägt ist. Folgen dieses Wunsches sind die immer weiter fortschreitende Digitalisierung und informatische Vernetzung aller Lebensbereiche, die so zu immer komplexeren sozio-technischen Systemen führen. Ziele dieser Systeme sind u. a. die Unterstützung von Menschen, die Verbesserung ihrer Lebenssituation oder Lebensqualität oder die Erweiterung menschlicher Möglichkeiten. Doch haben neue komplexe technische Systeme nicht nur positive soziale und gesellschaftliche Effekte. Oft gibt es unerwünschte Nebeneffekte, die erst im Gebrauch sichtbar werden, und sowohl Konstrukteur*innen als auch Nutzer*innen komplexer vernetzter Technologien fühlen sich oft orientierungslos. Die Folgen können von sinkender Akzeptanz bis hin zum kompletten Verlust des Vertrauens in vernetze Softwaresysteme reichen. Da komplexe Anwendungen, und damit auch immer komplexere Mensch-Technik-Interaktionen, immer mehr an Relevanz gewinnen, ist es umso wichtiger, wieder Orientierung zu finden. Dazu müssen wir zuerst diejenigen Elemente identifizieren, die in der Interaktion mit vernetzten sozio-technischen Systemen zu Komplexität beitragen und somit Orientierungsbedarf hervorrufen.
Mit dieser Arbeit soll ein Beitrag geleistet werden, um ein strukturiertes Reflektieren über die Komplexität vernetzter sozio-technischer Systeme im gesamten Konstruktionsprozess zu ermöglichen. Dazu wird zuerst eine Definition von Komplexität und komplexen Systemen erarbeitet, die über das informatische Verständnis von Komplexität (also der Kompliziertheit von Problemen, Algorithmen oder Daten) hinausgeht. Im Vordergrund soll vielmehr die sozio-technische Interaktion mit und in komplexen vernetzten Systemen stehen. Basierend auf dieser Definition wird dann ein Analysewerkzeug entwickelt, welches es ermöglicht, die Komplexität in der Interaktion mit sozio-technischen Systemen sichtbar und beschreibbar zu machen.
Ein Bereich, in dem vernetzte sozio-technische Systeme zunehmenden Einzug finden, ist jener digitaler Bildungstechnologien. Besonders adaptiven Bildungstechnologien wurde in den letzten Jahrzehnten ein großes Potential zugeschrieben. Zwei adaptive Lehr- bzw. Trainingssysteme sollen deshalb exemplarisch mit dem in dieser Arbeit entwickelten Analysewerkzeug untersucht werden. Hierbei wird ein besonderes Augenmerkt auf den Einfluss von Adaptivität auf die Komplexität von Mensch-Technik-Interaktionssituationen gelegt. In empirischen Untersuchungen werden die Erfahrungen von Konstrukteur*innen und Nutzer*innen jener adaptiver Systeme untersucht, um so die entscheidenden Kriterien für Komplexität ermitteln zu können. Auf diese Weise können zum einen wiederkehrende Orientierungsfragen bei der Entwicklung adaptiver Bildungstechnologien aufgedeckt werden. Zum anderen werden als komplex wahrgenommene Interaktionssituationen identifiziert. An diesen Situationen kann gezeigt werden, wo aufgrund der Komplexität des Systems die etablierten Alltagsroutinen von Nutzenden nicht mehr ausreichen, um die Folgen der Interaktion mit dem System vollständig erfassen zu können. Dieses Wissen kann sowohl Konstrukteur*innen als auch Nutzer*innen helfen, in Zukunft besser mit der inhärenten Komplexität moderner Bildungstechnologien umzugehen.
Das Professionswissen einer Lehrkraft gilt als Voraussetzung für erfolgreichen Unterricht. Trotz großer Unterschiede der Professionswissensmodelle ist die Forschung sich aus theoretischer Sicht weitestgehend einig darüber, dass das fachliche und fachdidaktische Wissen wichtige Bestandteile des Professionswissens und damit bedeutsam für Unterrichtserfolg sind. Zurecht gibt es daher die Forderung, dass Lehrkräfte unter anderem ein ausgeprägtes fachliches Wissen benötigen, das sie in den verschiedensten Situationen ihres Berufslebens, wie z.B. dem Erklären von Konzepten und dem Planen von Unterricht einsetzen. Die Forschung untersucht aus diesem Grund schon seit über 30 Jahren die Bedeutung des Fachwissens einer Lehrkraft. Dabei werden die Betrachtungen des Fachwissens immer differenzierter. So hat sich in vielen Forschungsansätzen der Physikdidaktik eine Dreiteilung des Fachwissens in schulisches Wissen, vertieftes Schulwissen und universitäres Wissen durchgesetzt. Während das Schulwissen als jenes Wissen verstanden wird, das in der Schule gelehrt und gelernt wird, beschreibt die Facette des universitären Wissens die stark akademisch geprägte Wissensform, die zukünftige Physiklehrkräfte in den Fachveranstaltungen an der Universität erwerben sollen. Das vertiefte Schulwissen ist hingegen eine spezielle Form des fachlichen Wissens, die aus Forschungssicht als besonders wichtig für Lehrkräfte angenommen wird. Zusammengenommen sollen angehende Physiklehrkräfte alle genannten Facetten des Fachwissens, also Schulwissen, vertieftes Schulwissen und universitäres Wissen, während des Lehramtsstudiums Physik erwerben. Neben dem fachlichen Wissen benötigt eine Lehrkraft als wichtigen Bestandteil des Professionswissens auch noch fachdidaktisches Wissen, welches ebenfalls während des Studiums erworben werden soll. Gleichzeitig geht man in der Forschung davon aus, dass für die Entwicklung des fachdidaktischen Wissens fachliches Wissen eine Grundvoraussetzung ist. Es ist jedoch empirisch nahezu ungeklärt, wie sich das beschriebene Fachwissen und das fachdidaktische Wissen im Verlauf des Lehramtsstudiums Physik entwickeln oder wie sich diese Wissensformen gegenseitig beeinflussen. Darüber hinaus ist unklar, welche Herausforderungen sich aus der Leistungsheterogenität der Studienanfänger:innen ergeben. Bisherige Untersuchungen aus der Studienerfolgsforschung legen nahe, dass besonders das Vorwissen prognostisch für Studienerfolg ist. Die vorliegende Arbeit untersucht daher zunächst, wie sich das fachliche Wissen (Schulwissen, vertieftes Schulwissen, universitäres Wissen) von Lehrkräften im Verlauf des Bachelor- und Masterstudiums entwickelt. In einem nächsten Schritt wurde untersucht, wie sich Studierende mit einem geringen, mittleren bzw. hohen Fachwissen zum Beginn des Studiums über das Bachelorstudium entwickeln. Darüber hinaus wurde die Entwicklung des fachdidaktischen Wissens betrachtet und Zusammenhänge zum fachlichen Wissen in den Blick genommen. Durchgeführt wurde die vorliegende Studie im Längsschnitt im Verlauf von drei Jahren an 11 Hochschulen mit 145 Bachelorstudierenden und 73 Masterstudierenden. Die Bachelorstudierenden haben jährlich an einer Testung des fachlichen und fachdidaktischen Wissens teilgenommen. Die Masterstudierenden nahmen jeweils vor und nach einem einsemestrigen Schulpraktikum an den Erhebungen teil. Zur Testung wurde jeweils ein schriftliches Testinstrument verwendet. Das weiterentwickelte Fachwissensinstrument wurde zusätzlich ausführlichen Validierungsuntersuchungen unterzogen. Die Ergebnisse zeigen, dass sich das Schulwissen, das vertiefte Schulwissen und das universitäre Wissen sowohl im Bachelor- als auch Masterstudium signifikant weiterentwickeln. Auch für das fachdidaktische Wissen können signifikante Zuwächse über das Bachelor- und Masterstudium berichtet werden. Interessant ist dabei, dass eine starke Korrelation zwischen dem fachlichen Wissen zu Beginn des Studiums und dem Zuwachs des fachdidaktischen Wissens vom ersten zum dritten Semester erkennbar ist. Es liegen also erste Hinweise dafür vor, dass – wie in der Forschung vermutet – das fachliche Wissen eine Voraussetzung für die Entwicklung von fachdidaktischem Wissen ist. Die angesprochene Leistungsheterogenität zu Beginn des Studiums stellt dabei jedoch ein Hindernis für die Entwicklung des fachlichen Wissens dar. So holt die Gruppe der zu Beginn schwächeren Studierenden nicht einmal das Mittelfeld im Lauf des Studiums ein. Gleichzeitig ist zu beobachten, dass die Gruppe der stärksten Studierenden im Vergleich zu den übrigen Studierenden vom ersten zum dritten Semester überproportional dazulernt. Insgesamt bleibt das heterogene Leistungsbild im Verlauf des Studiums erhalten, was die Forderung nach Unterstützung für leistungsschwächere Studierende gerade zu Beginn des Studiums betont. Wie sich innerhalb der vorliegenden Untersuchung zeigte, könnte insbesondere ein ausgeprägtes mathematisches Vorwissen hilfreich sein, um fachliches Wissen zu entwickeln. Die bisher angebotenen Vorkurse scheinen dem Bedarf nicht gerecht zu werden und so könnte es lohnenswert sein, zusätzliche Veranstaltungen auch in Bezug auf fachliches Wissen in der gesamten Studieneingangsphase anzubieten. Forschungsergebnisse deuten darauf hin, dass insbesondere schwächere Studierende von einer klaren Strukturierung innerhalb dieser zusätzlichen Kurse profitieren könnten. Auch ein allgemeines Vorstudium könnte helfen, die Vorkenntnisse anzugleichen.
History of Forgetfulness
(2021)
Unser modernes Strafrechtsbild ist geprägt von dem Gedanken, dass das Strafrecht den Bürgern ein freies und friedliches Zusammenleben unter Gewährleistung aller verfassungsrechtlich garantierten Grundrechte sichert. Der Einsatz des Strafrechts bedarf der Legitimation und darf nicht aus moralischen Vorstellungen oder Gedanken abgeleitet werden. Strafbar kann es demnach nicht sein, wenn ein Rechtsgutsträger über ein ihm disponibles Rechtsgut frei verfügt. Oftmals stehen hierbei der strafrechtliche Lebensschutz und das Selbstbestimmungsrecht des Einzelnen in einem Spannungsverhältnis.
Die vorliegende Arbeit hat untersucht, wie sich dieses Spannungsverhältnis in der höchstrichterlichen Judikatur entwickelt hat und wie es nunmehr gelöst wird. Konkret stellt sich hierbei die Frage, wie es strafrechtlich bewertet wurde, wenn jemand einen Tötungserfolg mitverursacht hat, der zugleich auf einem freiverantwortlichen Willensentschluss des Opfers beruhte.
Public Character
(2021)
This open access book presents a topical, comprehensive and differentiated analysis of Germany's public administration and reforms. It provides an overview on key elements of German public administration at the federal, Länder and local levels of government as well as on current reform activities of the public sector. It examines the key institutional features of German public administration; the changing relationships between public administration, society and the private sector; the administrative reforms at different levels of the federal system and numerous sectors; and new challenges and modernization approaches like digitalization, Open Government and Better Regulation. Each chapter offers a combination of descriptive information and problem-oriented analysis, presenting key topical issues in Germany which are relevant to an international readership.
Federal Administration
(2021)
The federal administration is significantly small (around 10 percent of all public employees). This speciality of the German administrative system is based on the division of responsibilities: the central (federal) level drafts and adopts most of the laws and public programmes, and the state level (together with the municipal level) implements them. The administration of the federal level comprises the ministries, subordinated agencies for special and selected operational tasks (e.g. the authorisation of drugs, information security and registration of refugees) in distinct administrative sectors (e.g. foreign service, armed forces and federal police). The capacity for preparing and monitoring government bills and statutory instruments is well developed. Moreover, the instruments and tools of coordination are exemplary compared with other countries, although the recent digital turn has been adopted less advanced than elsewhere.
This chapter describes the most prominent public management reform trajectories in German public administration over the past decades since unification. In the 1990s, the New Steering Model emerged as a German variant of the NPM. Since the mid-2000s, local governments in Germany have been subjected to a mandatory reform of their budgeting and accounting system known as the New Municipal Financial Management reforms. Both reforms have led to a substantial change in terms of internal decentralisation, customer orientation, transparency in resource use and the financial situation of administrative bodies. But the emerging reform patterns and their impacts have not replaced the dominance of a strong legalist culture with hierarchical, centralised control. However, in the course of the reforms, a citizen-customer perspective, more participation of citizens and limited application of new management instruments have been accommodated within the persisting bureaucratic system.
Over the last decades, Better Regulation has become a major reform topic at the federal and—in some cases—also at the Länder level. Although the debate about improving regulatory quality and reducing unnecessary burdens created by bureaucracy and red tape date back to the 1960s and 1970s, the introduction by law in 2006 of a new independent institutionalised body for regulatory control at the federal level of government has brought a new quality to the discourse and practice of Better Regulation in Germany. This chapter introduces the basic features of the legislative process at the federal level in Germany, addresses the issue of Better Regulation and outlines the role of the National Regulatory Control Council (Nationaler Normenkontrollrat—NKR) as a ‘watchdog’ for compliance costs, red tape and regulatory impacts.
Although German bureaucracy is typically categorised as Weberian, a clear distinction between politics and administration has never been a defining characteristic of the German political-administrative system. Many close interrelations and interactions between elected politicians and appointed civil servants can be observed at all levels of administration. Higher-ranking civil servants in Germany are used to and generally appreciate the functional politicisation of their jobs, that is their close involvement in all stages of the policy process, from policy formation, goal definition, negotiation within and outside government to the implementation and evaluation of policies. For top positions, therefore, a class of ‘political civil servants’ is a special feature of the German system, and obtaining ‘political craft’ has become an important part of the learning and job experience of higher-ranking civil servants.
German Public Administration
(2021)
The international community of public administration and administrative sciences shows a great interest in the basic features of the German administrative system. The German public administration with its formative decentralisation (called: administrative federalism) is regarded as a prime example of multilevel governance and strong local self-government. Furthermore, over the past decades, the traditional profile of the German administrative system has significantly been reshaped and remoulded through reforms, processes of modernisation and the transformation process in East Germany. Studies on the German administrative system should focus especially on
key institutional features of public administration;
changing relationships between public administration, society and the private sector;
administrative reforms at different levels of the federal system; and
new challenges and modernisation approaches, such as digitalisation, open government and better regulation.
Human resource management (HRM) reform has not been the focus of attention in Germany despite its obvious relevance for effective policy implementation. Although there is a general trend worldwide towards convergence between public and private HRM strategies and practices, management of the workforce in German public administration still remains largely traditional and bureaucratic. This chapter describes and analyses German practices regarding the central functions and elements of HRM such as planning, recruitment, training and leadership. Furthermore, it explores the importance and contribution of public service motivation, performance-related pay and diversity management in the context of German practices. The chapter concludes by highlighting some of the major paradoxes of German public HRM in light of current challenges, such as demographic change, digital transformation and organisational development capabilities.
The chapter analyses recent reforms in the multilevel system of the Länder, specifically territorial, functional and structural reforms, which represent three of the most crucial and closely interconnected reform trajectories at the subnational level. It sheds light on the variety of reform approaches pursued in the different Länder and also highlights some factors that account for these differences. The transfer of state functions to local governments is addressed as well as the restructuring of Länder administrations (e.g. abolishment of the meso level of the Länder administration and of single-purpose state agencies) and the rescaling of territorial boundaries at county and municipal levels, including a brief review of the recently failed (territorial) reforms in Eastern Germany.
The German system of public sector employment (including civil servants and public employees) qualifies as a classical European continental civil service model moulded in traditional forms of a Weberian bureaucracy. Its features include a career-based employment system with entry based on levels of formal qualification. Coordinated by legal frames and centralised collective bargaining, the civil service is, at the same time, decentralised and flexible enough to accommodate regional differences and societal changes. In comparison, the civil service system stands out for its high degrees of professionalism and legal fairness with low levels of corruption or cronyism.
Die vorliegende Studie beschäftigt sich mit der Planung und Durchführung des Lernprozesses von Schauspielern, wobei das Hauptaugenmerk auf dem Einsatz von Lernstrategien liegt. Es geht darum, welcher Strategien sich professionell Lernende bedienen, um die für die Berufsausübung erforderliche Textsicherheit zu erlangen, nicht um die Optimierung des Lernerfolges.
Die Literaturrecherche machte deutlich, dass aktuelle Studien zum Lernen von Erwachsenen vor allem im berufsspezifischen Kontext angesiedelt sind und sich auf den Erwerb von Kompetenzen, Problemlösestrategien und gesellschaftliche Teilhabe beziehen. Dem Lernen von Schauspielern liegt aber keine Absicht einer Verhaltensänderung oder eines konkreten Wissenszuwachses zugrunde.
Für Schauspieler ist der Auftritt Bestandteil ihrer Berufskultur. Angesichts der Tatsache, dass präzisem Faktenwissen als Grundlage für kompetentes, überzeugendes Präsentieren entscheidende Bedeutung zukommt, sind die Ergebnisse der Studie auch für Berufsgruppen relevant, die öffentlich auftreten müssen, wie z. B. für Priester, Juristen und Lehrende. Das gilt ebenso für Schüler und Studenten, die Referate halten und/oder Arbeiten präsentieren müssen.
Für die empirische Untersuchung werden zwölf renommierte Schauspieler mittels problemzentriertem Interview befragt, anschließend wird eine qualitative Inhaltsanalyse durchgeführt.
In der Auswertung der Daten kann ein deutlicher Zusammenhang zwischen Körper und Sprechpraxis nachgewiesen werden. Ebenso ergibt die Analyse, wie wichtig Bewegung für den Lernprozess ist. Es können Ergebnisse in Bezug auf kognitive, metakognitive und ressourcenorientierte Strategien generiert werden, wobei der Lernumgebung und dem Lernen mit Kollegen entscheidende Bedeutung zukommt.
This work develops hybrid methods of imaging spectroscopy for open pit mining and examines their feasibility compared with state-of-the-art. The material distribution within a mine face differs in the small scale and within daily assigned extraction segments. These changes can be relevant to subsequent processing steps but are not always visually identifiable prior to the extraction. Misclassifications that cause false allocations of extracted material need to be minimized in order to reduce energy-intensive material re-handling. The use of imaging spectroscopy aspires to the allocation of relevant deposit-specific materials before extraction, and allows for efficient material handling after extraction. The aim of this work is the parameterization of imaging spectroscopy for pit mining applications and the development and evaluation of a workflow for a mine face, ground- based, spectral characterization. In this work, an application-based sensor adaptation is proposed. The sensor complexity is reduced by down-sampling the spectral resolution of the system based on the samples’ spectral characteristics. This was achieved by the evaluation of existing hyperspectral outcrop analysis approaches based on laboratory sample scans from the iron quadrangle in Minas Gerais, Brazil and by the development of a spectral mine face monitoring workflow which was tested for both an operating and an inactive open pit copper mine in the Republic of Cyprus.
The workflow presented here is applied to three regional data sets: 1) Iron ore samples from Brazil, (laboratory); 2) Samples and hyperspectral mine face imagery from the copper-gold-pyrite mine Apliki, Republic of Cyprus (laboratory and mine face data); and 3) Samples and hyperspectral mine face imagery from the copper-gold-pyrite deposit Three Hills, Republic of Cyprus (laboratory and mine face data). The hyperspectral laboratory dataset of fifteen Brazilian iron ore samples was used to evaluate different analysis methods and different sensor models. Nineteen commonly used methods to analyze and map hyperspectral data were compared regarding the methods’ resulting data products and the accuracy of the mapping and the analysis computation time. Four of the evaluated methods were determined for subsequent analyses to determine the best-performing algorithms: The spectral angle mapper (SAM), a support vector machine algorithm (SVM), the binary feature fitting algorithm (BFF) and the EnMap geological mapper (EnGeoMap). Next, commercially available imaging spectroscopy sensors were evaluated for their usability in open pit mining conditions. Step-wise downsampling of the data - the reduction of the number of bands with an increase of each band’s bandwidth - was performed to investigate the possible simplification and ruggedization of a sensor without a quality fall-off of the mapping results. The impact of the atmosphere visible in the spectrum between 1300–2010nm was reduced by excluding the spectral range from the data for mapping. This tested the feasibility of the method under realistic open pit data conditions. Thirteen datasets based on the different, downsampled sensors were analyzed with the four predetermined methods. The optimum sensor for spectral mine face material distinction was determined as a VNIR-SWIR sensor with 40nm bandwidths in the VNIR and 15nm bandwidths in the SWIR spectral range and excluding the atmospherically impacted bands. The Apliki mine sample dataset was used for the application of the found optimal analyses and sensors. Thirty-six samples were analyzed geochemically and mineralogically. The sample spectra were compiled to two spectral libraries, both distinguishing between seven different geochemical-spectral clusters. The reflectance dataset was downsampled to five different sensors. The five different datasets were mapped with the SAM, BFF and SVM method achieving mapping accuracies of 85-72%, 85-76% and 57-46% respectively. One mine face scan of Apliki was used for the application of the developed workflow. The mapping results were validated against the geochemistry and mineralogy of thirty-six documented field sampling points and a zonation map of the mine face which is based on sixty-six samples and field mapping. The mine face was analyzed with SAM and BFF. The analysis maps were visualized on top of a Structure-from-Motion derived 3D model of the open pit. The mapped geological units and zones correlate well with the expected zonation of the mine face. The third set of hyperspectral imagery from Three Hills was available for applying the fully-developed workflow. Geochemical sample analyses and laboratory spectral data of fifteen different samples from the Three Hills mine, Republic of Cyprus, were used to analyse a downsampled mine face scan of the open pit. Here, areas of low, medium and high ore content were identified.
The developed workflow is successfully applied to the open pit mines Apliki and Three Hills and the spectral maps reflect the prevailing geological conditions. This work leads through the acquisition, preparation and processing of imaging spectroscopy data, the optimum choice of analysis methodology, and the utilization of simplified, robust sensors that meet the requirements of open pit mining conditions. It accentuates the importance of a site-specific and deposit-specific spectral library for the mine face analysis and underlines the need for geological and spectral analysis experts to successfully implement imaging spectroscopy in the field of open pit mining.
In this introductory chapter, the editors describe the main theoretical basis of analysis of this book and the methodological approach. The core of this book consists of 14 country-specific chapters, which allow a European comparison and show the increasing variance in migration policy approaches within and between European countries. The degree of local autonomy, the level of centralisation and the traditional forms of migration policy are factors that especially influence the possibilities for local authorities to formulate their own integration policies.
This chapter focuses on the relationship between public opinion on migration and its media coverage. Different explanatory models, including individual characteristics, cultural factors and the impact of media and politics, have been proposed to explain public attitudes towards migrants. Understanding the local context is important, as the shares of migrants living in each region and city vary considerably. Providing correct statistical information, stressing the diversity of current migration patterns in Europe and taking part in media and public discussions are ways in which to impact public attitudes at the local level.
The chapter begins with a brief historical overview of Germany’s transition in the twentieth and twenty-first century from a transit and emigration country to one of immigration. The next part of this chapter looks at the challenges and problems facing German immigration policy within a multi-level federal system. Finally, the chapter gives an analysis of some of the trends in German migration policy since the refugee crisis in 2015, such as changes in the party system and in the concepts underlying migration policies to better manage, control and limit immigration to Germany.
As expected, the traditions of national-state migration policies continue to play a very important role, path-dependence in this policy field remains high. The distribution of competences in migration policy and the integration of migrants in the nation states continues to be very different. When implementing integration strategies at grassroots level, the respective policies should be tailored to the profile of both the local migrant community and the native population. Besides better migration management in local administration and the interaction of top-down and bottom-up efforts to integrate migrants is of importance.
This book presents an overview of European migration policy and the various institutional arrangements within and between various actors, such as local councils, local media, local economies, and local civil society initiatives. Both the role of local authorities in this policy field and their cooperation with civil society initiatives or networks are under-explored topics for research. In response, this book provides a range of detailed case studies focusing on the six main groups of national and administrative traditions in Europe: Germanic, Scandinavian, Napoleonic, Southeastern European, Central-Eastern European and Anglo-Saxon.
Energy is at the heart of the climate crisis—but also at the heart of any efforts for climate change mitigation. Energy consumption is namely responsible for approximately three quarters of global anthropogenic greenhouse gas (GHG) emissions. Therefore, central to any serious plans to stave off a climate catastrophe is a major transformation of the world's energy system, which would move society away from fossil fuels and towards a net-zero energy future. Considering that fossil fuels are also a major source of air pollutant emissions, the energy transition has important implications for air quality as well, and thus also for human and environmental health. Both Europe and Germany have set the goal of becoming GHG neutral by 2050, and moreover have demonstrated their deep commitment to a comprehensive energy transition. Two of the most significant developments in energy policy over the past decade have been the interest in expansion of shale gas and hydrogen, which accordingly have garnered great interest and debate among public, private and political actors.
In this context, sound scientific information can play an important role by informing stakeholder dialogue and future research investments, and by supporting evidence-based decision-making. This thesis examines anticipated environmental impacts from possible, relevant changes in the European energy system, in order to impart valuable insight and fill critical gaps in knowledge. Specifically, it investigates possible future shale gas development in Germany and the United Kingdom (UK), as well as a hypothetical, complete transition to hydrogen mobility in Germany. Moreover, it assesses the impacts on GHG and air pollutant emissions, and on tropospheric ozone (O3) air quality. The analysis is facilitated by constructing emission scenarios and performing air quality modeling via the Weather Research and Forecasting model coupled with chemistry (WRF-Chem). The work of this thesis is presented in three research papers.
The first paper finds that methane (CH4) leakage rates from upstream shale gas development in Germany and the UK would range between 0.35% and 1.36% in a realistic, business-as-usual case, while they would be significantly lower - between 0.08% and 0.15% - in an optimistic, strict regulation and high compliance case, thus demonstrating the value and potential of measures to substantially reduce emissions. Yet, while the optimistic case is technically feasible, it is unlikely that the practices and technologies assumed would be applied and accomplished on a systematic, regular basis, owing to economics and limited monitoring resources. The realistic CH4 leakage rates estimated in this study are comparable to values reported by studies carried out in the US and elsewhere. In contrast, the optimistic rates are similar to official CH4 leakage data from upstream gas production in Germany and in the UK. Considering that there is a lack of systematic, transparent and independent reports supporting the official values, this study further highlights the need for more research efforts in this direction. Compared with national energy sector emissions, this study suggests that shale gas emissions of volatile organic compounds (VOCs) could be significant, though relatively insignificant for other air pollutants. Similar to CH4, measures could be effective for reducing VOCs emissions.
The second paper shows that VOC and nitrogen oxides (NOx) emissions from a future shale gas industry in Germany and the UK have potentially harmful consequences for European O3 air quality on both the local and regional scale. The results indicate a peak increase in maximum daily 8-hour average O3 (MDA8) ranging from 3.7 µg m-3 to 28.3 µg m-3. Findings suggest that shale gas activities could result in additional exceedances of MDA8 at a substantial percentage of regulatory measurement stations both locally and in neighboring and distant countries, with up to circa one third of stations in the UK and one fifth of stations in Germany experiencing additional exceedances. Moreover, the results reveal that the shale gas impact on the cumulative health-related metric SOMO35 (annual Sum of Ozone Means Over 35 ppb) could be substantial, with a maximum increase of circa 28%. Overall, the findings suggest that shale gas VOC emissions could play a critical role in O3 enhancement, while NOx emissions would contribute to a lesser extent. Thus, the results indicate that stringent regulation of VOC emissions would be important in the event of future European shale gas development to minimize deleterious health outcomes.
The third paper demonstrates that a hypothetical, complete transition of the German vehicle fleet to hydrogen fuel cell technology could contribute substantially to Germany's climate and air quality goals. The results indicate that if the hydrogen were to be produced via renewable-powered water electrolysis (green hydrogen), German carbon dioxide equivalent (CO2eq) emissions would decrease by 179 MtCO2eq annually, though if electrolysis were powered by the current electricity mix, emissions would instead increase by 95 MtCO2eq annually. The findings generally reveal a notable anticipated decrease in German energy emissions of regulated air pollutants. The results suggest that vehicular hydrogen demand is 1000 PJ annually, which would require between 446 TWh and 525 TWh for electrolysis, hydrogen transport and storage. When only the heavy duty vehicle segment (HDVs) is shifted to green hydrogen, the results of this thesis show that vehicular hydrogen demand drops to 371 PJ, while a deep emissions cut is still realized (-57 MtCO2eq), suggesting that HDVs are a low-hanging fruit for contributing to decarbonization of the German road transport sector with hydrogen energy.
Compound values are not universally supported in virtual machine (VM)-based programming systems and languages. However, providing data structures with value characteristics can be beneficial. On one hand, programming systems and languages can adequately represent physical quantities with compound values and avoid inconsistencies, for example, in representation of large numbers. On the other hand, just-in-time (JIT) compilers, which are often found in VMs, can rely on the fact that compound values are immutable, which is an important property in optimizing programs. Considering this, compound values have an optimization potential that can be put to use by implementing them in VMs in a way that is efficient in memory usage and execution time. Yet, optimized compound values in VMs face certain challenges: to maintain consistency, it should not be observable by the program whether compound values are represented in an optimized way by a VM; an optimization should take into account, that the usage of compound values can exhibit certain patterns at run-time; and that necessary value-incompatible properties due to implementation restrictions should be reduced.
We propose a technique to detect and compress common patterns of compound value usage at run-time to improve memory usage and execution speed. Our approach identifies patterns of frequent compound value references and introduces abbreviated forms for them. Thus, it is possible to store multiple inter-referenced compound values in an inlined memory representation, reducing the overhead of metadata and object references. We extend our approach by a notion of limited mutability, using cells that act as barriers for our approach and provide a location for shared, mutable access with the possibility of type specialization. We devise an extension to our approach that allows us to express automatic unboxing of boxed primitive data types in terms of our initial technique. We show that our approach is versatile enough to express another optimization technique that relies on values, such as Booleans, that are unique throughout a programming system. Furthermore, we demonstrate how to re-use learned usage patterns and optimizations across program runs, thus reducing the performance impact of pattern recognition.
We show in a best-case prototype that the implementation of our approach is feasible and can also be applied to general purpose programming systems, namely implementations of the Racket language and Squeak/Smalltalk. In several micro-benchmarks, we found that our approach can effectively reduce memory consumption and improve execution speed.
Digitalisierung ist das Schlagwort unserer Zeit und kaum ein Lebensbereich bleibt davon unberührt. Für den Einzelnen, die Gesellschaft, die Unternehmen und den Staat bietet sie immense Chancen. Die weiterhin nicht überstandene COVID-19-Pandemie führt dazu, dass dem digitalen Wandel in bisher ungeahnter Geschwindigkeit eine enorme praktische Bedeutung zukommt. Vor diesem Hintergrund erfolgt mit der Untersuchung ein Rechtsvergleich der Besteuerungsverfahren Österreichs und Deutschlands. Ziel ist es, über das Verfahren im Nachbarland zu informieren und die Unterschiede zum deutschen Recht pointiert herauszuarbeiten. Für Deutschland resultiert daraus die Chance, Konzepte und Lösungen der österreichischen Finanzverwaltung bei der Fortentwicklung von E-Government auszuwerten und sowohl von den positiven wie auch negativen Erfahrungen zu profitieren. So können konkrete Reformvorschläge für das deutsche Besteuerungsverfahren erarbeitet und die daraus resultierenden Chancen dargestellt werden.
Die Gestaltungsfreiheit des Steuerpflichtigen steht in einem Spannungsverhältnis zu einer effektiven Missbrauchsbekämpfung durch den Gesetzgeber. Besonders ausgeprägt ist dieses im Bereich der steuerlichen Verlustnutzung. Dabei gerät die verfassungsrechtliche Verankerung der Verlustnutzung zunehmend aus dem Blick. Am Beispiel des § 2 Abs. 4 UmwStG untersucht die Arbeit die verfassungsrechtlichen Grenzen von Verlustverrechnungsbeschränkungen. Es wird die enge Verknüpfung zu § 8c KStG herausgearbeitet und die Vorschrift vor dem Hintergrund der europäischen Missbrauchskonzeption beleuchtet. Die gewonnenen Ergebnisse münden in einen Vorschlag für eine Neufassung des § 2 Abs. 4 UmwStG, der nationalen und europäischen Vorgaben Rechnung trägt.
While a growing body of literature finds positive impacts of Start-Up Subsidies (SUS) on labor market outcomes of participants, little is known about how the design of these programs shapes their effectiveness and hence how to improve policy. As experimental variation in program design is unavailable, we exploit the 2011 reform of the current German SUS program for the unemployed which strengthened case-workers’ discretionary power, increased entry requirements and reduced monetary support. We estimate the impact of the reform on the program’s effectiveness using samples of participants and non-participants from before and after the reform. To control for time-constant unobserved heterogeneity as well as differential selection patterns based on observable characteristics over time, we combine Difference-in-Differences with inverse probability weighting using covariate balancing propensity scores. Holding participants’ observed characteristics as well as macroeconomic conditions constant, the results suggest that the reform was successful in raising employment effects on average. As these findings may be contaminated by changes in selection patterns based on unobserved characteristics, we assess our results using simulation-based sensitivity analyses and find that our estimates are highly robust to changes in unobserved characteristics. Hence, the reform most likely had a positive impact on the effectiveness of the program, suggesting that increasing entry requirements and reducing support in-creased the program’s impacts while reducing the cost per participant.
Bundeswehrapotheken
(2021)
„Bundeswehrapotheken" schildert die Entstehung und Entwicklung der Sanitätsmaterialversorgungseinrichtungen der Bundeswehr von ihrer Aufstellung Ende der 1950er Jahre bis in die 2000er Jahre. Anfangs im rechtlichen Sinne noch keine Apotheken, waren diese Einrichtungen damals in erster Linie auf den Kriegsfall ausgerichtet und von sehr begrenzter pharmazeutischer Leistungsfähigkeit.
Heute sind nur noch wenige große Bundeswehrapotheken verblieben, die jedoch hinsichtlich ihrer personellen, materiellen und infrastrukturellen Ausstattung und Möglichkeiten uneingeschränkt zivilen Einrichtungen vergleichbar leistungsfähig sind. Überwiegend mit militärischen Fachleuten besetzt und entsprechend ausgerüstet, können die heutigen Bundeswehrapotheken diese Leistung prinzipiell weltweit erbringen.
Gegliedert nach markanten Zeitabschnitten hat der Autor vor dem Hintergrund der jeweils geltenden politischen und militärischen Rahmenbedingungen sowie der Einsatzgrundsätze der Bundeswehr den Einfluss der jeweiligen rechtlichen, militärischen, gesellschaftlichen und fachlichen Vorgaben sowie prägender Ereignisse herausgearbeitet, eingeordnet und bewertet.
The large literature that aims to find evidence of climate migration delivers mixed findings. This meta-regression analysis i) summarizes direct links between adverse climatic events and migration, ii) maps patterns of climate migration, and iii) explains the variation in outcomes. Using a set of limited dependent variable models, we meta-analyze thus-far the most comprehensive sample of 3,625 estimates from 116 original studies and produce novel insights on climate migration. We find that extremely high temperatures and drying conditions increase migration. We do not find a significant effect of sudden-onset events. Climate migration is most likely to emerge due to contemporaneous events, to originate in rural areas and to take place in middle-income countries, internally, to cities. The likelihood to become trapped in affected areas is higher for women and in low-income countries, particularly in Africa. We uniquely quantify how pitfalls typical for the broader empirical climate impact literature affect climate migration findings. We also find evidence of different publication biases.
Reciprocal space slicing
(2021)
An experimental technique that allows faster assessment of out-of-plane strain dynamics of thin film heterostructures via x-ray diffraction is presented. In contrast to conventional high-speed reciprocal space-mapping setups, our approach reduces the measurement time drastically due to a fixed measurement geometry with a position-sensitive detector. This means that neither the incident (ω) nor the exit (2θ) diffraction angle is scanned during the strain assessment via x-ray diffraction. Shifts of diffraction peaks on the fixed x-ray area detector originate from an out-of-plane strain within the sample. Quantitative strain assessment requires the determination of a factor relating the observed shift to the change in the reciprocal lattice vector. The factor depends only on the widths of the peak along certain directions in reciprocal space, the diffraction angle of the studied reflection, and the resolution of the instrumental setup. We provide a full theoretical explanation and exemplify the concept with picosecond strain dynamics of a thin layer of NbO2.