Refine
Has Fulltext
- yes (1405) (remove)
Year of publication
Document Type
- Article (552)
- Postprint (205)
- Doctoral Thesis (153)
- Review (140)
- Conference Proceeding (137)
- Monograph/Edited Volume (96)
- Working Paper (44)
- Part of Periodical (22)
- Part of a Book (15)
- Report (15)
Keywords
- Philosophie (18)
- philosophy (18)
- Lehrkräftebildung (16)
- Brandenburg (14)
- Reflexion (13)
- Reflexionskompetenz (9)
- Germany (8)
- United States (8)
- Anthropologie (7)
- Feedback (7)
Institute
- Extern (1405) (remove)
Dieser Beitrag untersucht, welche latente Struktur sich in der Reflexivität von Lehramtsstudierenden identifizieren lässt. Es wird gefragt, inwieweit sich entlang eines Kohortenvergleichs differente Strukturen in der Reflexivität erkennen lassen und wie Lehramtsstudierende die Notwendigkeit und die Häufigkeit der Reflexion sowie die aus der Reflexion hervorgehenden Einsichten einschätzen. Hierfür werden Daten von Studierenden des Lehramts für Grund-, Sekundar-, Förderschulen und Gymnasien der Martin-Luther-Universität Halle-Wittenberg genutzt. Bei der Operationalisierung von Reflexivität wurde die IRIS-Skala in einer auf den Schulkontext modifizierten Variante adaptiert sowie einzelne Items neu entwickelt. Die Faktorenanalyse repliziert die angenommene Mehrdimensionalität der Reflexivität mit vier Faktoren. Zudem zeigen sich kohortenspezifisch differente Strukturen in der Reflexivität, die auf Umstrukturierungs-, Verdichtungs- und Weiterentwicklungsprozesse im Bereich implizites Wissen und Reflexivität verweisen, wie in der Kompetenzentwicklungsphasentheorie und in entwicklungs- und berufsbiographietheoretischen Ansätzen postuliert wird. Mittelwertvergleiche zwischen den Studierendengruppen verweisen auf tendenzielle Zuwächse in den Dimensionen.
Selbstreflexion ist erklärtes Ziel der Eignungsabklärung und ein intendierter Effekt von Online Self Assessments (OSA). In Deutschland setzen die lehrkräftebildenden Hochschulen OSA nahezu flächendeckend ein, um Studieninteressierten der Lehrämter eine Unterstützung bei der Studienwahl zu bieten. Es erscheint lohnenswert, die Selbstreflexion von Studienanfängern zu betrachten und Zusammenhänge und Unterschiede hinsichtlich verschiedener Merkmale wie Geschlecht, Alter und angestrebtes Lehramt zu untersuchen. In einer Querschnittserhebung per Fragebogen bei (n = 3741) Erstsemesterstudierenden der Lehrämter an n = 10 Hochschulstandorten kann gezeigt werden, 1) dass angehende Lehrkräfte sich hinsichtlich ihrer Selbstreflexion hoch einschätzen, 2) dass es einen signifikanten altersbezogenen Unterschied bei der Selbstreflexion gibt, 3) dass sich weibliche Studierende signifikant selbstreflektierter einschätzen als ihre männlichen Kollegen und 4) dass Studierende unterschiedlicher Lehrämter sich in ihrer selbsteingeschätzten Selbstreflexion signifikant unterscheiden.
Ein Modellseminar, welches deutschdidaktische mit digitalisierungsbezogenen Kompetenzerwerbsprozessen konsequent vernetzte, wurde im Rahmen einer Aktionsforschung untersucht. Hierbei wurde die Lösung eines komplexen Problems (Entwicklung eines digitalen, interaktiven Lernbuchs für einen medienintegrativen Literaturunterricht mit der Open Source Software H5P) von den Studierenden eingefordert und der Lösungsprozess anhand von sog. Digital Narratives (digitalen, auditiven Erzählungen) reflektiert. Die so entstandenen Reflexionspodcasts sollten Einblick in die persönlich bedeutsamen Lerngeschichten der Studierenden geben und erstens für die Dozentin eine systematische Reflexion der eigenen Lehrpraxis in Form einer Aktionsforschung ermöglichen. Zweitens waren sie ein Reflexionsanlass für die Studierenden hinsichtlich ihrer eigenen Problemlöseprozesse, wobei dieser Fokus hier skizziert, aber nicht fokussiert wird. Die Podcasts wurden anhand thematischer Analysen qualitativ ausgewertet. Die Daten gaben Hinweise darauf, dass besonders die eingeforderte Verknüpfung von fachdidaktischen und medialen Aspekten für die Studierenden eine Hürde war. Ebendiese regte aber auch zum vertieften Nachdenken über gute Aufgabensets in einem medienintegrativen Literaturunterricht an. Ein Großteil der Studierenden war nach dem Projekt motiviert, im eigenen Deutschunterricht zukünftig mit digitalen Tools zu arbeiten, wobei auch eine Sensibilisierung hinsichtlich Nutzens und Grenzen solcher stattfand. Aus der datengestützten Beobachtung, Deutung und Ursachenidentifikation leitet die Dozentin Konsequenzen für die Weiterentwicklung des Modellseminars und persönliche Professionalisierung ab.
Der Beitrag fragt nach einer Bildungsrelevanz Forschenden Lernens in der Lehrkräftebildung und richtet diese auf ein sinn- und verantwortungsvolles Sich-ins-Verhältnis-Setzen zu unterrichtsrelevanten Szenarien aus. Damit erschöpft sich Forschendes Lernen nicht in datenfokussierten Untersuchungen, sondern leistet einen Beitrag zum Aufbau einer Lehrer:innenpersönlichkeit, die sich in transformatorischen Bildungsprozessen dem Wagnis einer Konfrontation mit Kontingenz aussetzt und durch Irritation des Erfahrungshorizonts Unterrichtssituationen differenziert und nachhaltig reflektiert. Plädiert wird für eine Situationssensibilität jenseits des vermeintlichen In-den-Begriff-Bekommens durch Datafizierung und schematische Verhaltensmuster.
Dieser theoretisch ausgerichtete Beitrag schlägt eine weltbeziehungssoziologische Ergänzung des strukturtheoretischen Verständnisses von Reflexion als Befremdung des eigenen Blicks vor und diskutiert die Frage, inwiefern weltbeziehungssoziologische Annahmen das Konzept der Reflexion durch das Einfangen seiner Ambivalenz schärfen können. Hierzu wird ein empirisches Fallbeispiel herangezogen, in welchem eine reflexive Umgangsweise mit widersprüchlichen Anforderungen an die schulische Praxis – das doppelte Distanzieren – sichtbar wird. Mit Bezug auf die Weltbeziehungssoziologie wird die rekonstruierte Umgangsweise als situative Entfremdung theoretisiert. Ausblickhaft werden Konsequenzen für Forschung und Lehre skizziert.
Wiederkehrend wird die Interaktion zwischen Studierenden als Gelingensbedingung für eine Reflexionsförderung angenommen. Allerdings besteht ein Desiderat darin, Reflexion als in der Interaktion hervorgebrachtes Phänomen zu beforschen. Der Beitrag greift dieses Desiderat auf und begründet zunächst die Notwendigkeit einer interaktionsorientierten Perspektive für die Gestaltung und Beforschung von Reflexionsanlässen. Am Beispiel einer Design-Based-Research-Studie zur Reflexion künstlerisch-ästhetischer Überzeugungen von Musikstudierenden wird im Beitrag dargelegt, wie die Interaktion gezielt für die Gestaltung von Reflexionsanlässen berücksichtigt werden kann. Die empirischen Ergebnisse der Studie zeigen auf, wie hochtransaktive Redebeiträge in Studierendengesprächen als Gelingensmerkmale für die gemeinsame Hervorbringung von Reflexionsprozessen verstanden werden können.
In diesem Beitrag werden aus einer Metaperspektive vier verschiedene Reflexionsformate aus dem Bielefelder Projekt „BiProfessional“ der Qualitätsoffensive Lehrerbildung gegenübergestellt. Gemeinsamkeiten und Unterschiede werden mit Blick auf das Reflexionsverständnis, den Reflexionsgegenstand und den jeweiligen Zugang beschrieben. Am Ende des Beitrags werden Konsequenzen für eine multiparadigmatische Lehrkräftebildung aufgezeigt.
Ausgehend von der Diskussion um die Zentralität von Reflexionen in der Lehrkräftebildung wird die Vielschichtigkeit des Konstrukts Reflexion kritisch beleuchtet. Es wird darin einerseits ausgeführt, welche möglichen Konsequenzen die oft fehlende Trennschärfe des Reflexionsbegriffs haben kann. Ein Augenmerk wird dabei auch auf Bereitschaft zur Reflexion gelegt, z. B. in der Frage, ob es nicht sinnvoll ist, Reflexionen in bestimmten Situationen absichtsvoll zu vermeiden. Andererseits wird aufgezeigt, dass dem Reflektieren im Professionalisierungsprozess eine doppelte Funktion zukommt: Lernen von Reflexion und Lernen durch Reflexion; das Reflektieren ist also sowohl ein Mittel zur Erreichung spezifischer Professionalisierungsziele als auch ein eigenständiges Professionalisierungsziel. Im Beitrag wird zudem an verschiedenen Stellen auf die Herausforderungen eingegangen, die sich aus den jeweiligen Überlegungen für Forschung und Lehre ergeben.
Seit John Dewey und Donald Schön besteht weitgehender Konsens, dass Reflexivität eine wichtige Kompetenz von Lehrkräften darstellt und die Reflexion in den Unterrichtsalltag einer Lehrkraft integriert sein sollte. Es wird davon ausgegangen, dass Reflexion, wenn sie absichtsvoll und zielgerichtet eingesetzt wird, die berufliche Entwicklung einer Lehrkraft positiv beeinflussen kann. Überzeugungen, Einstellungen und Verhaltensweisen können durch die Reflexion bewusster wahrgenommen und verändert werden. Sie regt Lernprozesse an, stärkt Eigenverantwortung und Autonomie und steigert die Berufszufriedenheit. Allerdings birgt die Förderung von Reflexivität im Rahmen der Lehrkräftebildung einige Schwierigkeiten und trotz nunmehr über 40 Jahren theoretischer sowie empirischer Erörterung bleiben bis heute auch verschiedene Fragen unbeantwortet. Im Beitrag werden auf Grundlage der aktuellen Diskussion das Konzept der Reflexion sowie Möglichkeiten und Grenzen der Förderung von Reflexivität dargelegt und es wird aufgezeigt, welche besonderen Herausforderungen der Lehrberuf hierbei birgt. Abschließend wird erörtert, welche aktuellen Forschungslücken und -desiderate bestehen.
Reflexion – unhinterfragt eines der wichtigsten Worte im Kontext der Lehrkräftebildung. Fest verankert in den bundesdeutschen Bildungsstandards sind in Forschung und Lehre die Suche nach Evidenz und die Unterstützung (angehender) Lehrkräfte ständiger Antrieb unzähliger Akteur:innen aller Phasen der Lehrkräftebildung. Wenngleich begriff liche Unklarheiten die Kommunikation von Forschungsergebnissen nicht immer intuitiv und die Unterstützung in der Lehre nicht immer praktikabel werden lassen, besteht Einigkeit darüber, dass ein Diskurs zur reflexiven Professionalisierung von Lehrkräften geführt werden muss. Aus diesem Grund veranstalteten die beiden QLB-Projekte PSI-Potsdam der Universität Potsdam und K2teach der Freien Universität Berlin vom 5. bis 7. Oktober 2022 die Onlinetagung „Reflexion in der Lehrkräftebildung. Empirisch – Phasenübergreifend – Interdisziplinär“. Ausgehend von den verschiedensten Fachdisziplinen diskutierten Akteur:innen aller Phasen der Lehrkräftebildung unterschiedlicher Standorte Ergebnisse empirischer Studien und Erfahrungen aus der Arbeit mit (angehenden) Lehrkräften. Beiträge der Tagung sind in diesem Buch festgehalten und sind als Momentaufnahme eines sich ständig entwickelnden Themenfelds zu verstehen. Forschende und Lehrende haben mit dieser Momentaufnahme die Möglichkeit, Eindrücke für die eigene Arbeit aufzunehmen und weiterzuentwickeln.
In the present thesis, AC electrokinetic forces, like dielectrophoresis and AC electroosmosis, were demonstrated as a simple and fast method to functionalize the surface of nanoelectrodes with submicrometer sized biological objects. These nanoelectrodes have a cylindrical shape with a diameter of 500 nm arranged in an array of 6256 electrodes. Due to its medical relevance influenza virus as well as anti-influenza antibodies were chosen as a model organism. Common methods to bring antibodies or proteins to biosensor surfaces are complex and time-consuming. In the present work, it was demonstrated that by applying AC electric fields influenza viruses and antibodies can be immobilized onto the nanoelectrodes within seconds without any prior chemical modification of neither the surface nor the immobilized biological object. The distribution of these immobilized objects is not uniform over the entire array, it exhibits a decreasing gradient from the outer row to the inner ones. Different causes for this gradient have been discussed, such as the vortex-shaped fluid motion above the nanoelectrodes generated by, among others, electrothermal fluid flow. It was demonstrated that parts of the accumulated material are permanently immobilized to the electrodes. This is a unique characteristic of the presented system since in the literature the AC electrokinetic immobilization is almost entirely presented as a method just for temporary immobilization. The spatial distribution of the immobilized viral material or the anti-influenza antibodies at the electrodes was observed by either the combination of fluorescence microscopy and deconvolution or by super-resolution microscopy (STED). On-chip immunoassays were performed to examine the suitability of the functionalized electrodes as a potential affinity-based biosensor. Two approaches were pursued: A) the influenza virus as the bio-receptor or B) the influenza virus as the analyte. Different sources of error were eliminated by ELISA and passivation experiments. Hence, the activity of the immobilized object was inspected by incubation with the analyte. This resulted in the successful detection of anti-influenza antibodies by the immobilized viral material. On the other hand, a detection of influenza virus particles by the immobilized anti-influenza antibodies was not possible. The latter might be due to lost activity or wrong orientation of the antibodies. Thus, further examinations on the activity of by AC electric fields immobilized antibodies should follow. When combined with microfluidics and an electrical read-out system, the functionalized chips possess the potential to serve as a rapid, portable, and cost-effective point-of-care (POC) device. This device can be utilized as a basis for diverse applications in diagnosing and treating influenza, as well as various other pathogens.
Stars under influence: evidence of tidal interactions between stars and substellar companions
(2023)
Tidal interactions occur between gravitationally bound astrophysical bodies. If their spatial separation is sufficiently small, the bodies can induce tides on each other, leading to angular momentum transfer and altering of evolutionary path the bodies would have followed if they were single objects. The tidal processes are well established in the Solar planet-moon systems and close stellar binary systems. However, how do stars behave if they are orbited by a substellar companion (e.g. a planet or a brown dwarf) on a tight orbit?
Typically, a substellar companion inside the corotation radius of a star will migrate toward the star as it loses orbital angular momentum. On the other hand, the star will gain angular momentum which has the potential to increase its rotation rate. The effect should be more pronounced if the substellar companion is more massive. As the stellar rotation rate and the magnetic activity level are coupled, the star should appear more magnetically active under the tidal influence of the orbiting substellar companion. However, the difficulty in proving that a star has a higher magnetic activity level due to tidal interactions lies in the fact that (I) substellar companions around active stars are easier to detect if they are more massive, leading to a bias toward massive companions around active stars and mimicking the tidal interaction effect, and that (II) the age of a main-sequence star cannot be easily determined, leaving the possibility that a star is more active due to its young age.
In our work, we overcome these issues by employing wide stellar binary systems where one star hosts a substellar companion, and where the other star provides the magnetic activity baseline for the host star, assuming they have coevolved, and thereby provides the host's activity level if tidal interactions have no effect on it. Firstly, we find that extrasolar planets can noticeably increase the host star's X-ray luminosity and that the effect is more pronounced if the exoplanet is at least Jupiter-like in mass and close to the star. Further, we find that a brown dwarf will have an even stronger effect, as expected, and that the X-ray surface flux difference between the host star and the wide stellar companion is a significant outlier when compared to a large sample of similar wide binary systems without any known substellar companions. This result proves that substellar hosting wide binary systems can be good tools to reveal the tidal effect on host stars, and also show that the typical stellar age indicators as activity or rotation cannot be used for these stars. Finally, knowing that the activity difference is a good tracer of the substellar companion's tidal impact, we develop an analytical method to calculate the modified tidal quality factor Q' of individual host stars, which defines the tidal dissipation efficiency in the convective envelope of a given main-sequence star.
Im Rahmen des PSI-Projekts wurde eine Lehrveranstaltung konzipiert, die Lehramtsstudierenden einen vertieften Einblick sowohl in den Ablauf von Forschung als auch eine Bearbeitung einer eigenen experimentellen Forschungsaufgabe ermöglichen soll. Anlass waren die Berücksichtigung eines „Wissens über Erkenntnisgewinnung in der Disziplin“ im Modell des „Erweiterten Fachwissens für den schulischen Kontext“ (PSI) sowie Erkenntnisse empirischer Studien, die die Relevanz eigener Forschungserfahrung für das Unterrichten naturwissenschaftlicher Erkenntnisgewinnungsprozesse zeigen. Hier stellen wir eine neue Lehrveranstaltung (4 SWS) vor, die den angehenden Lehrkräften Forschungserfahrung ermöglicht (Seminar und Praktikum). Die Lehrveranstaltung vermittelt Einblicke in Forschung und die „Natur der Naturwissenschaften“, ermöglicht das Durchführen eigener wissenschaftlicher und schulrelevanter Experimente und bietet eine angemessene Reflexion über die verschiedenen Kurselemente. Die Evaluationsergebnisse sind überwiegend positiv, zeigen aber auch, dass für die Studierenden die wahrgenommene Schulrelevanz und die fachdidaktischen Aspekte ein wichtiges Kriterium für die positive Bewertung sind.
Digitalisation in industry – also called “Industry 4.0” – is seen by numerous actors as an opportunity to reduce the environmental impact of the industrial sector. The scientific assessments of the effects of digitalisation in industry on environmental sustainability, however, are ambivalent. This cumulative dissertation uses three empirical studies to examine the expected and observed effects of digitalisation in industry on environmental sustainability. The aim of this dissertation is to identify opportunities and risks of digitalisation at different system levels and to derive options for action in politics and industry for a more sustainable design of digitalisation in industry. I use an interdisciplinary, socio-technical approach and look at selected countries of the Global South (Study 1) and the example of China (all studies). In the first study (section 2, joint work with Marcel Matthess), I use qualitative content analysis to examine digital and industrial policies from seven different countries in Africa and Asia for expectations regarding the impact of digitalisation on sustainability and compare these with the potentials of digitalisation for sustainability in the respective country contexts. The analysis reveals that the documents express a wide range of vague expectations that relate more to positive indirect impacts of information and communication technology (ICT) use, such as improved energy efficiency and resource management, and less to negative direct impacts of ICT, such as electricity consumption through ICT. In the second study (section 3, joint work with Marcel Matthess, Grischa Beier and Bing Xue), I conduct and analyse interviews with 18 industry representatives of the electronics industry from Europe, Japan and China on digitalisation measures in supply chains using qualitative content analysis. I find that while there are positive expectations regarding the effects of digital technologies on supply chain sustainability, their actual use and observable effects are still limited. Interview partners can only provide few examples from their own companies which show that sustainability goals have already been pursued through digitalisation of the supply chain or where sustainability effects, such as resource savings, have been demonstrably achieved. In the third study (section 4, joint work with Peter Neuhäusler, Melissa Dachrodt and Marcel Matthess), I conduct an econometric panel data analysis. I examine the relationship between the degree of Industry 4.0, energy consumption and energy intensity in ten manufacturing sectors in China between 2006 and 2019. The results suggest that overall, there is no significant relationship between the degree of Industry 4.0 and energy consumption or energy intensity in manufacturing sectors in China. However, differences can be found in subgroups of sectors. I find a negative correlation of Industry 4.0 and energy intensity in highly digitalised sectors, indicating an efficiency-enhancing effect of Industry 4.0 in these sectors. On the other hand, there is a positive correlation of Industry 4.0 and energy consumption for sectors with low energy consumption, which could be explained by the fact that digitalisation, such as the automation of previously mainly labour-intensive sectors, requires energy and also induces growth effects. In the discussion section (section 6) of this dissertation, I use the classification scheme of the three levels macro, meso and micro, as well as of direct and indirect environmental effects to classify the empirical observations into opportunities and risks, for example, with regard to the probability of rebound effects of digitalisation at the three levels. I link the investigated actor perspectives (policy makers, industry representatives), statistical data and additional literature across the system levels and consider political economy aspects to suggest fields of action for more sustainable (digitalised) industries. The dissertation thus makes two overarching contributions to the academic and societal discourse. First, my three empirical studies expand the limited state of research at the interface between digitalisation in industry and sustainability, especially by considering selected countries in the Global South and the example of China. Secondly, exploring the topic through data and methods from different disciplinary contexts and taking a socio-technical point of view, enables an analysis of (path) dependencies, uncertainties, and interactions in the socio-technical system across different system levels, which have often not been sufficiently considered in previous studies. The dissertation thus aims to create a scientifically and practically relevant knowledge basis for a value-guided, sustainability-oriented design of digitalisation in industry.
Algorithmen als Dozierende?
(2023)
Auf maschinellem Lernen basierende Tools haben schon längst Einzug in unseren Alltag gefunden und so konnten auch in der Lehrkräftebildung erste Anwendungen entwickelt, erprobt und evaluiert werden. Im Teilprojekt Physikdidaktik des Schwerpunktes 2 „Schulpraktische Studien“ wurden auf Basis eines Rahmenmodells für Reflexion (Nowak et al., 2019) automatisierte Analysemethoden (Wulff et al., 2020) entwickelt und fanden Einzug in universitäre fachdidaktische Lehre (Mientus et al., 2021a). Mit dem Projekt konnten Potenziale KI-basierter Unterstützung aufgezeigt und verstetigt sowie spezifische Herausforderungen identifiziert werden. Dieser Beitrag skizziert ausgewählte Anwendungsmöglichkeiten und weiterführende Forschungen unter dem Gesichtspunkt der Akzeptanz computerunterstützter Lehre.
Reflexion ist eine Schlüsselkategorie für die professionelle Entwicklung von Lehrkräften, welche als Ausbildungsziel in den Bildungsstandards für die Lehrkräftebildung verankert ist. Eine Verstetigung universitär geprägter Forschung und Modellierung in der praxisnahen Anwendung im schulischen Kontext bietet Potentiale nachhaltiger Professionalisierung. Die Stärkung reflexionsbezogener Kompetenzen durch Empirie und Anwendung scheint eine phasenübergreifende Herausforderung der Lehrkräftebildung zu sein, die es zu bewältigen gilt. Ziele des Tagungsbandes Reflexion in der Lehrkräftebildung sind eine theoretische Schärfung des Konzeptes „Reflexive Professionalisierung“ und der Austausch über Fragen der Einbettung wirksamer reflexionsbezogener Lerngelegenheiten in die Lehrkräftebildung. Forschende und Lehrende der‚ drei Phasen (Studium, Referendariat sowie Fort- und Weiterbildung) der Lehrkräftebildung stellen Lehrkonzepte und Forschungsprojekte zum Thema Reflexion in der Lehrkräftebildung vor und diskutieren diese. Gemeinsam mit Teilnehmenden aller Phasen und von verschiedenen Standorten der Lehrkräftebildung werden zukünftige Herausforderungen identifiziert und Lösungsansätze herausgearbeitet.
Für die Entwicklung professioneller Handlungskompetenzen angehender Lehrkräfte stellt die Unterrichtsreflexion ein wichtiges Instrument dar, um Theoriewissen und Praxiserfahrungen in Beziehung zu setzen. Die Auswertung von Unterrichtsreflexionen und eine entsprechende Rückmeldung stellt Forschende und Dozierende allerdings vor praktische wie theoretische Herausforderungen. Im Kontext der Forschung zu Künstlicher Intelligenz (KI) entwickelte Methoden bieten hier neue Potenziale. Der Beitrag stellt überblicksartig zwei Teilstudien vor, die mit Hilfe von KI-Methoden wie dem maschinellen Lernen untersuchen, inwieweit eine Auswertung von Unterrichtsreflexionen angehender Physiklehrkräfte auf Basis eines theoretisch abgeleiteten Reflexionsmodells und die automatisierte Rückmeldung hierzu möglich sind. Dabei wurden unterschiedliche Ansätze des maschinellen Lernens verwendet, um modellbasierte Klassifikation und Exploration von Themen in Unterrichtsreflexionen umzusetzen. Die Genauigkeit der Ergebnisse wurde vor allem durch sog. Große Sprachmodelle gesteigert, die auch den Transfer auf andere Standorte und Fächer ermöglichen. Für die fachdidaktische Forschung bedeuten sie jedoch wiederum neue Herausforderungen, wie etwa systematische Verzerrungen und Intransparenz von Entscheidungen. Dennoch empfehlen wir, die Potenziale der KI-basierten Methoden gründlicher zu erforschen und konsequent in der Praxis (etwa in Form von Webanwendungen) zu implementieren.
Lehramtsstudierende äußern vielfach den Wunsch nach umfangreichen praktischen Lerngelegenheiten. Insbesondere fallbasierte Lehr-Lern-Konzepte scheinen diesen Ansprüchen gerecht zu werden. Dieser Beitrag stellt ein an der Universität Potsdam entwickeltes Seminarkonzept vor, welches diesen Transfer zu fördern versucht. Die Basis des Konzepts bildet der Einsatz erfahrungsbasiert entwickelter Textvignetten pädagogischer Situationen. Im Rahmen der Begleitseminare zum Praktikum in pädagogisch-psychologischen Handlungsfeldern (PppH) wurde die kollegiale Fallbesprechung als eine Form zur angestrebten Transferförderung in dieses Seminarkonzept integriert. Dieser Beitrag skizziert zunächst die erfahrungsbasierte Entwicklung der Vignetten sowie die theoretischen Grundlagen des Seminarkonzepts. Im Anschluss werden die praktische Implementation und erfahrungsbasierte konzeptionelle Änderung (design-based-research) in der Lehre beschrieben sowie erste Ergebnisse der systematischen empirischen Erprobung im Rahmen des PppH vorgestellt. Abschließend diskutieren die Autoren die Herausforderungen der praktischen Umsetzung auch mit Blick auf das Verstetigungsvorhaben.
Late-type stars are by far the most frequent stars in the universe and of fundamental interest to various fields of astronomy – most notably to Galactic archaeology and exoplanet research. However, such stars barely change during their main sequence lifetime; their temperature, luminosity, or chemical composition evolve only very slowly over the course of billions of years. As such, it is difficult to obtain the age of such a star, especially when it is isolated and no other indications (like cluster association) can be used. Gyrochronology offers a way to overcome this problem.
Stars, just like all other objects in the universe, rotate and the rate at which stars rotate impacts many aspects of their appearance and evolution. Gyrochronology leverages the observed rotation rate of a late-type main sequence star and its systematic evolution to estimate their ages. Unlike the above-mentioned parameters, the rotation rate of a main sequence star changes drastically throughout its main sequence lifetime; stars spin down. The youngest stars rotate every few hours, whereas much older stars rotate only about once a month, or – in the case of some late M-stars – once in a hundred days. Given that this spindown is systematic (with an additional mass dependence), it gave rise to the idea of using the observed rotation rate of a star (and its mass or a suitable proxy thereof) to estimate a star’s age. This has been explored widely in young stellar open clusters but remains essentially unconstrained for stars older than the sun, and K and M stars older than 1 Gyr.
This thesis focuses on the continued exploration of the spindown behavior to assess, whether gyrochronology remains applicable for stars of old ages, whether it is universal for late-type main sequence stars (including field stars), and to provide calibration mileposts for spindown models. To accomplish this, I have analyzed data from Kepler space telescope for the open clusters Ruprecht 147 (2.7 Gyr old) and M 67 (4 Gyr). Time series photometry data (light curves)
were obtained for both clusters during Kepler’s K2 mission. However, due to technical limitations and telescope malfunctions, extracting usable data from the K2 mission to identify (especially long) rotation periods requires extensive data preparation.
For Ruprecht 147, I have compiled a list of about 300 cluster members from the literature and adopted preprocessed light curves from the Kepler archive where available. They have been cleaned of the gravest of data artifacts but still contained systematics. After correcting them for said artifacts, I was able to identify rotation periods in 31 of them.
For M 67 more effort was taken. My work on Ruprecht 147 has shown the limitations imposed by the preselection of Kepler targets. Therefore, I adopted the time series full frame image directly and performed photometry on a much higher spatial resolution to be able to obtain data for as many stars as possible. This also means that I had to deal with the ubiquitous artifacts in Kepler data. For that, I devised a method that correlates the artificial flux variations with the ongoing drift of the telescope pointing in order to remove it. This process was a large success and I was able to create light curves whose quality match and even exceede those that were created by the Kepler mission – all while operating on higher spatial resolution and processing fainter stars. Ultimately, I was able to identify signs of periodic variability in the (created) light curves for 31 and 47 stars in Ruprecht 147 and M 67, respectively. My data connect well to bluer stars of cluster of the same age and extend for the first time to stars redder than early-K and older than 1 Gyr. The cluster data show a clear flattening in the distribution of Ruprecht 147 and even a downturn for M 67, resulting in a somewhat sinusoidal shape. With that, I have shown that the systematic spindown of stars continues at least until 4 Gyr and stars continue to live on a single surface in age-rotation periods-mass space which allows gyrochronology to be used at least up to that age. However, the shape of the spindown – as exemplified by the newly discovered sinusoidal shape of the cluster sequence – deviates strongly from the expectations.
I then compiled an extensive sample of rotation data in open clusters – very much including my own work – and used the resulting cluster skeleton (with each cluster forming a rip in color-rotation period-mass space) to investigate if field stars follow the same spindown as cluster stars. For the field stars, I used wide binaries, which – with their shared origin and coevality – are in a sense the smallest possible open clusters. I devised an empirical method to evaluate the consistency between the rotation rates of the wide binary components and found that the vast majority of them are in fact consistent with what is observed in open clusters. This leads me to conclude that gyrochronology – calibrated on open clusters – can be applied to determine the ages of field stars.
Viele Studieneingangs- und Eignungstests haben zum Ziel, für den entsprechenden Studiengang geeignete Studierende zu finden, die das Studium erfolgreich beenden können. Gerade in der Informatik ist aber häufig unklar, welche Eigenschaften geeignete Studierende haben sollten – auch stimmen mutmaßlich nicht alle Dozierenden in ihren Erwartungen an Studienanfänger*innen überein; Untersuchungen hierzu fehlen jedoch bislang. Um die Erwartungen von Dozent*innen an Studienanfänger*innen im Fach Informatik an deutschen Hochschulen zu analysieren, hat das Projekt MINTFIT im Sommer 2019 eine deutschlandweite Online-Befragung durchgeführt, an der 588 Hochschuldozent* innen aus allen Bundesländern teilnahmen. Die Umfrage hat gezeigt, dass überwiegend allgemeine Fähigkeiten, wie Motivation und logisches Denkvermögen, und nur wenig fachliches Vorwissen, wie Programmieren oder Formale Sprache, erwartet wird. Nach Einschätzung der Dozent*innen sind die problembehafteten Bereiche überwiegend in der theoretischen Informatik und in formellen Aspekten (z. B. Formale Sprache) zu finden. Obwohl Tendenzen erkennbar sind, zeigt die Umfrage, dass bei Anwendung strenger Akzeptanzkriterien keine Fähigkeiten und Kenntnisse explizit vorausgesetzt werden, was darauf hindeutet, dass noch kein deutschlandweiter Konsens unter den Lehrenden vorhanden ist.
Peer-Reviews werden seit geraumer Zeit in unterschiedlichen Lehrszenarien eingesetzt. In diesem Paper wird untersucht, inwieweit das Peer- Review die Auseinandersetzung mit den Inhalten eines Grundlagenmoduls in einem präsenzfreien Lehrszenario befördern kann. Dabei scheint in den Ergebnissen die Qualität der selbst erstellten Reviews einer der wichtigsten Einflussfaktoren für den Lernerfolg zu sein, während Experten-Feedback und weitere Faktoren deutlich untergeordnet erscheinen. Die Fähigkeit ausführliche Peer-Reviews zu verfassen geht einher mit dem Erwerb von fachlicher Kompetenz bzw. entsprechenden fachlichen Vorkenntnissen.
1,7 Milliarden Studierende waren von der ad hoc Umstellung der Lehre an Hochschulen durch den Ausbruch der COVID-19-Pandemie im Jahr 2020 betroffen. Innerhalb kürzester Zeit mussten Lehr- und Lernformate digital transformiert werden, um ein Distanzlernen für Studierende überall auf der Welt zu ermöglichen. Etwa zwei Jahre später können die Erfahrungen aus der Entwicklung von digitalen Lehr- und Lernformaten dazu genutzt werden, um Blended Learning Formate zielgerecht weiterzuentwickeln. Die nachfolgende Untersuchung zeigt einerseits einen Prozess der evolutionären Entwicklung am Beispiel eines Inverted Classrooms auf. Andererseits wird das Modell des Student Engagement genutzt, um die Einflussfaktoren, im Speziellen die des Verhaltens, zielgerecht anzupassen und so die Outcomes in Form von besseren Noten und einer erhöhten Zufriedenheit bei den Studierenden zu erzielen. Grundlage für die Untersuchung bildet die Lehrveranstaltung Projektmanagement, die an einer deutschen Hochschule durchgeführt wird.
Forschendes Lernen ist eine Lehr-Lernform, in der Studierende einen eigenen Forschungsprozess vollständig durchlaufen. In Informatikstudiengängen und insbesondere in Informatikbachelorstudiengängen ist die Forschungsorientierung allerdings nur gering ausgeprägt: Forschendes Lernen wird kaum eingesetzt, obwohl dies möglich und sinnvoll ist. Dieser Artikel stellt ein Konzept für ein Seminar Software Engineering im Bachelorstudium vor und beschreibt dessen Durchführung. Abschließend wird das Konzept diskutiert und sowohl aus Studierenden- als auch aus Lehrendensicht positiv evaluiert.
Lehrkräfte aller Fächer benötigen informatische Kompetenzen, um der wachsenden Alltagsrelevanz von Informatik und aktuell gültigen Lehrplänen gerecht zu werden. Beispielsweise verweist in Sachsen der Lehrplan für das Fach Gemeinschaftskunde, Rechtserziehung und Wirtschaft am Gymnasium mit dem für die Jahrgangsstufe 11 vorgesehenem Thema „Digitalisierung und sozialer Wandel“ auf Künstliche Intelligenz (KI) und explizit auf die Bedeutung der informatischen Bildung. Um die nötigen informatischen Grundlagen zu vermitteln, wurde für Lehramtsstudierende des Faches Politik ein Workshop erarbeitet, der die Grundlagen der Funktionsweise von KI anhand von überwachtem maschinellen Lernen in neuronalen Netzen vermittelt. Inhalt des Workshops ist es, mit Bezug auf gesellschaftliche Implikationen wie Datenschutz bei Trainingsdaten und algorithmic bias einen informierten Diskurs zu politischen Themen zu ermöglichen. Ziele des Workshops für Lehramtsstudierende mit dem Fach Politik sind: (1) Aufbau informatischer Kompetenzen in Bezug zum Thema KI, (2) Stärkung der Diskussionsfähigkeiten der Studierenden durch passende informatische Kompetenzen und (3) Anregung der Studierenden zum Transfer auf passende Themenstellungen im Politikunterricht. Das Evaluationskonzept umfasst eine Pre-Post-Befragung zur Zuversicht zur Vermittlungskompetenz unter Bezug auf maschinelles Lernen in neuronalen Netzen im Unterricht, sowie die Analyse einer abschließenden Diskussion. Für die Pre-Post-Befragung konnte eine Steigerung der Zuversicht zur Vermittlungskompetenz beobachtet werden. Die Analyse der Diskussion zeigte das Bewusstsein der Alltagsrelevanz des Themas KI bei den Teilnehmenden, aber noch keine Anwendung der informatischen Inhalte des Workshops zur Stützung der Argumente in der Diskussion.
Ethical issues surrounding modern computing technologies play an increasingly important role in the public debate. Yet, ethics still either doesn’t appear at all or only to a very small extent in computer science degree programs. This paper provides an argument for the value of ethics beyond a pure responsibility perspective and describes the positive value of ethical debate for future computer scientists. It also provides a systematic analysis of the module handbooks of 67 German universities and shows that there is indeed a lack of ethics in computer science education. Finally, we present a principled design of a compulsory course for undergraduate students.
A degree course in IT and business administration solely for women (FIW) has been offered since 2009 at the HTW Berlin – University of Applied Sciences. This contribution discusses student motivations for enrolling in such a women only degree course and gives details of our experience over recent years. In particular, the approach to attracting new female students is described and the composition of the intake is discussed. It is shown that the women-only setting together with other factors can attract a new clientele for computer science.
Viele Studierende stoßen im Rahmen ihres Informatikstudiums auf Probleme und benötigen individuell bedarfsgerechte Unterstützung, um beispielsweise trotz gewisser Startschwierigkeiten ihr Studium erfolgreich zu Ende zu führen. In die damit verbundene Lern- bzw. Studienberatung fließen Empfehlungen zur weiteren Studienverlaufsplanung ein. Anhand einer Datenanalyse über den Prüfungsleistungsdaten der Studierenden überprüfen wir die hinter diesen Empfehlungen liegenden Hypothesen und leiten aus den dabei gewonnenen Erkenntnissen Konsequenzen für die Beratung ab.
Insgesamt zeigt sich, dass sich nach den ersten Semestern ein mittlerer Bereich von Studierenden identifizieren lässt, bei denen Studienabbruch und Studienerfolg etwa gleich wahrscheinlich sind. Für diese Personengruppe ist Beratungsbedarf dringend gegeben. Gleichzeitig stößt die Datenanalyse auch an gewisse Grenzen, denn es zeigen sich insgesamt keine echt trennscharfen Muster, die frühzeitig im Studium eindeutig Erfolg oder Misserfolg prognostizieren. Dieses Ergebnis ist jedoch insofern erfreulich, als es bedeutet, dass jede:r Studierende:r auch nach einem suboptimalen Start ins Studium noch eine Chance auf einen Abschluss hat.
Informatikstudiengänge verzeichnen hohe Abbruchquoten innerhalb der ersten beiden Semester, die häufig mit Leistungsdefiziten oder Motivationsproblemen begründet werden. Eine Ursache dafür, dass trotz intensiver Bemühungen um bessere Lehre und motivationsfördernde Maßnahmen diese Situation imWesentlichen unverändert bleibt, könnte darin liegen, dass nicht die eine Maßnahme oder der eine Ansatz das Problem im Ganzen lösen kann, sondern dass eine heterogene Studierendenschaft vielmehr nach unterschiedlichen Maßnahmen verlangt. Bisher findet sich wenig Forschung zu differenzierten Studierendentypen in der Informatik. Wir stellen in dieser Arbeit einen Ansatz dafür vor, die Heterogenität der Informatikstudierenden zu ergründen, und beschreiben die Ergebnisse erster Versuche mit diesem Ansatz. Um die große Anzahl von Studierenden auf eine überschaubare Anzahl von Typen mit jeweils ähnlichen Bedürfnissen und Erwartungen zu reduzieren, wird dazu die im Produktmanagement bewährte Personas-Methode adaptiert. Im Rahmen einer Befragung von 170 Informatikstudierenden konnten hierzu bereits einige Personas mit unterschiedlichen Merkmalshäufungen ausgearbeitet werden, die eine gute Grundlage darstellen, um auf dieser Basis differenzierte Interventionen zur Förderung und Motivation der Informatikstudierenden zu entwickeln.
Both horizontal-to-vertical (H/V) spectral ratios and the spatial autocorrelation method (SPAC) have proven to be valuable tools to gain insight into local site effects by ambient noise measurements. Here, the two methods are employed to assess the subsurface velocity structure at the Piano delle Concazze area on Mt Etna. Volcanic tremor records from an array of 26 broadband seismometers is processed and a strong variability of H/V ratios during periods of increased volcanic activity is found. From the spatial distribution of H/V peak frequencies, a geologic structure in the north-east of Piano delle Concazze is imaged which is interpreted as the Ellittico caldera rim. The method is extended to include both velocity data from the broadband stations and distributed acoustic sensing data from a co-located 1.5 km long fibre optic cable. High maximum amplitude values of the resulting ratios along the trajectory of the cable coincide with known faults. The outcome also indicates previously unmapped parts of a fault. The geologic interpretation is in good agreement with inversion results from magnetic survey data. Using the neighborhood algorithm, spatial autocorrelation curves obtained from the modified SPAC are inverted alone and jointly with the H/V peak frequencies for 1D shear wave velocity profiles. The obtained models are largely consistent with published models and were able to validate the results from the fibre optic cable.
Reactive eutectic media based on ammonium formate for the valorization of bio-sourced materials
(2023)
In the last several decades eutectic mixtures of different compositions were successfully used as solvents for vast amount of chemical processes, and only relatively recently they were discovered to be widely spread in nature. As such they are discussed as a third liquid media of the living cell, that is composed of common cell metabolites. Such media may also incorporate water as a eutectic component in order to regulate properties such as enzyme activity or viscosity. Taking inspiration form such sophisticated use of eutectic mixtures, this thesis will explore the use of reactive eutectic media (REM) for organic synthesis. Such unconventional media are characterized by the reactivity of their components, which means that mixture may assume the role of the solvent as well as the reactant itself.
The thesis focuses on novel REM based on ammonium formate and investigates their potential for the valorization of bio-sourced materials. The use of REM allows the performance of a number of solvent-free reactions, which entails the benefits of a superior atom and energy economy, higher yields and faster rates compared to reactions in solution. This is evident for the Maillard reaction between ammonium formate and various monosaccharides for the synthesis of substituted pyrazines as well as for a Leuckart type reaction between ammonium formate and levulinic acid for the synthesis of 5-methyl-2-pyrrolidone. Furthermore, reaction of ammonium formate with citric acid for the synthesis of yet undiscovered fluorophores, shows that synthesis in REM can open up unexpected reaction pathways.
Another focus of the thesis is the study of water as a third component in the REM. As a result, the concept of two different dilution regimes (tertiary REM and in REM in solvent) appears useful for understanding the influence of water. It is shown that small amounts of water can be of great benefit for the reaction, by reducing viscosity and at the same time increasing reaction yields.
REM based on ammonium formate and organic acids are employed for lignocellulosic biomass treatment. The thesis thereby introduces an alternative approach towards lignocellulosic biomass fractionation that promises a considerable process intensification by the simultaneous generation of cellulose and lignin as well as the production of value-added chemicals from REM components. The thesis investigates the generated cellulose and the pathway to nanocellulose generation and also includes the structural analysis of extracted lignin.
Finally, the thesis investigates the potential of microwave heating to run chemical reactions in REM and describes the synergy between these two approaches. Microwave heating for chemical reactions and the use of eutectic mixtures as alternative reaction media are two research fields that are often described in the scope of green chemistry. The thesis will therefore also contain a closer inspection of this terminology and its greater goal of sustainability.
The Lyman-𝛼 (Ly𝛼) line commonly assists in the detection of high-redshift galaxies, the so-called Lyman-alpha emitters (LAEs). LAEs are useful tools to study the baryonic matter distribution of the high-redshift universe. Exploring their spatial distribution not only reveals the large-scale structure of the universe at early epochs, but it also provides an insight into the early formation and evolution of the galaxies we observe today. Because dark matter halos (DMHs) serve as sites of galaxy formation, the LAE distribution also traces that of the underlying dark matter. However, the details of this relation and their co-evolution over time remain unclear. Moreover, theoretical studies predict that the spatial distribution of LAEs also impacts their own circumgalactic medium (CGM) by influencing their extended Ly𝛼 gaseous halos (LAHs), whose origin is still under investigation. In this thesis, I make several contributions to improve the knowledge on these fields using samples of LAEs observed with the Multi Unit Spectroscopic Explorer (MUSE) at redshifts of 3 < 𝑧 < 6.
Adaption von Lernwegen in adaptierten Lehrmaterialien für Studierende mit Berufsausbildungsabschluss
(2023)
Obwohl immer mehr Menschen nicht direkt ein Studium aufnehmen, sondern zuvor eine berufliche Ausbildung absolvieren, werden die in der Ausbildung erworbenen Kompetenzen von den Hochschulen inhaltlich und didaktisch meist ignoriert. Ein Ansatz, diese Kompetenzen zu würdigen, ist die formale Anrechnung von mitgebrachten Kompetenzen als (für den Studienabschluss erforderliche) Leistungspunkte. Eine andere Variante ist der Einsatz von speziell für die Zielgruppe der Studierenden mit Vorkenntnissen adaptiertem Lehr-Lernmaterial. Um darüber hinaus individuelle Unterschiede zu berücksichtigen, erlaubt eine weitere Adaption individueller Lernpfade den Lernenden, genau die jeweils fehlenden Kompetenzen zu erwerben. In diesem Beitrag stellen wir die exemplarische Entwicklung derartigen Materials anhand des Kurses „Datenbanken“ für die Zielgruppe der Studierenden mit einer abgeschlossenen Ausbildung zum Fachinformatiker bzw. zur Fachinformatikerin vor.
Viele Informatikstudierende sammeln bereits vor ihrem Studium berufliche Erfahrungen im Informatikbereich, ohne dass diese inhaltlich und didaktisch im Studium berücksichtigt werden. Dieser Beitrag geht der Frage nach, welche Kompetenzen aus beruflichen Vorqualifikationen bei Informatikstudierenden existieren und wie diese in Bezug zu Anerkennungsoptionen gesetzt werden können. Betrachtet werden: die pauschale Anerkennung, die auf erworbenen Zertifikaten beruht; die individuelle Anerkennung, bei der individuell erworbene Kompetenzen nachgewiesen werden; die Adaption von individuellen Lernwegen, die Teilkompetenzen der Studierenden berücksichtigt. Es wird eine Interviewstudie vorgestellt, in der Kompetenzen für ein Sample von Informatikstudierenden mit Vorqualifikation als Fachinformatiker/in erhoben und eine Zuordnung zu den Anerkennungsoptionen vorgenommen wurde. Für die präzisere Gestaltung von Anerkennungsprozessen und zur kritischen Reflexion der eingesetzten hochschuldidaktischen Konzepte wurde eine empirische Basis geschaffen. Die vorhandenen Konzepte richten sich traditionell an Abiturienten/ innen mit sehr geringem Informatikhintergrund und berücksichtigen die tatsächlich existierende Heterogenität der Studienanfänger/innen nicht angemessen. Die Ergebnisse zeigen, dass die Befragten aus ihrer Vorqualifikation relevante fachliche Kompetenzen mitbringen, die mit den Anerkennungsoptionen korrespondieren und deren Weiterentwicklung dienen können. Darüber hinaus werden aus überfachlichen Kompetenzen wie Selbststeuerungskompetenzen weitere Erkenntnisse zur Studiengestaltung gewonnen.
Barrierefreiheit kann durch Methoden der Informatik hergestellt und ausgebaut werden. Dieser eingeladene Beitrag stellt die Anforderungen von Menschen mit den umfangreichsten Benutzererfordernissen an Software vor, die z. B. eigene Schriftsysteme wie Braille und entsprechende taktile Ausgabegeräte verwenden. Assistive Technologien umfassen dabei auch Software verschiedenster Art. Es werden die wichtigsten Kompetenzen dafür vorgestellt. Im Curriculum der Informatik können diese Kompetenzen im Rahmen von speziellen Vorlesungen und Übungen vermittelt werden oder sie werden in die jeweiligen Fachgebiete integriert. Um den Studienbetrieb ebenfalls barrierefrei zu gestalten, sind weitere Anstrengungen notwendig, die Lehrende, Verwaltung und die Hochschulleitung einbeziehen.
Diversity is a term that is broadly used and challenging for informatics research, development and education. Diversity concerns may relate to unequal participation, knowledge and methodology, curricula, institutional planning etc. For a lot of these areas, measures, guidelines and best practices on diversity awareness exist. A systemic, sustainable impact of diversity measures on informatics is still largely missing. In this paper I explore what working with diversity and gender concepts in informatics entails, what the main challenges are and provide thoughts for improvement. The paper includes definitions of diversity and intersectionality, reflections on the disciplinary basis of informatics and practical implications of integrating diversity in informatics research and development. In the final part, two concepts from the social sciences and the humanities, the notion of “third space”/hybridity and the notion of “feminist ethics of care”, serve as a lens to foster more sustainable ways of working with diversity in informatics.
Der neurodegenerativen Erkrankung Morbus Parkinson (MP) liegt der Zerfall von Neuronen in den Basalganglien (BG) zugrunde, der mitunter zu kognitiv-sprachlichen Einschränkungen führt. Dies betrifft beispielsweise die Lautstärkeproduktion und -wahrnehmung. Betroffene sprechen signifikant leiser und weisen eine verringerte Wahrnehmungsspanne für Lautstärke auf. Dieses Wahrnehmungsdefizit und die Tatsache, dass die BG die betroffene neurologische Struktur bei MP sind, lässt eine Beteiligung dieser bei der Lautstärkeverarbeitung von Gesunden vermuten.
Um die Rolle der BG bei der Lautstärkeverarbeitung zu untersuchen, wurde eine generalisierte lineare Modellanalyse durchgeführt. Anhand von fMRT-Daten von gesunden Proband*innen, erhoben von Erb et al. (2020), wurde nach linearen Regressionen zwischen den präsentierten Lautstärkewerten und dem BOLD-Signal in acht BG-Regionen gesucht. Hierfür wurden Daten von 63 Proband*innen im Alter zwischen 18 und 78 Jahren (Durchschnitt: 43,4 Jahre) genutzt.
Im linken und rechten Putamen angrenzend zum Globus pallidus pars externa war eine positive lineare Regression beobachtbar. Eine negative lineare Regression zeigte sich im Kopf des Nucleus caudatus beider Hemisphären.
Teile der BG scheinen somit möglicherweise eine Rolle bei der Verarbeitung von Lautstärke zu spielen. In Bezug auf MP besteht die Möglichkeit, dass ihre neuronale Degeneration mitursächlich für die Wahrnehmungseinschränkungen ist. Dies sowie der Einfluss dieses rezeptiven Lautstärkedefizits auf die produktiven sprachlichen Einschränkungen sollten Gegenstand zukünftiger Untersuchungen sein. Es ist gut möglich, dass die Ursache der produktiven Lautstärkedefizite nicht motorischer, sondern rezeptiver Natur ist. Dies hätte einen großen Einfluss auf künftige sprachtherapeutische Konzepte bei der Behandlung produktiver Sprachstörungen bei MP.
Der Sachverständigenrat zur Begutachtung der Entwicklung im Gesundheitswesen forderte bereits 2007 eine verbesserte Zusammenarbeit der Gesundheitsberufe und beschreibt in seinem Gutachten „Kooperation und Verantwortung als Voraussetzung einer zielorientierten Gesundheitsversorgung“ (S. 25). Mit der vorgestellten Arbeit wird untersucht, welche Modelle der berufsübergreifenden Kooperation in der ambulanten sprachtherapeutischen Praxis Anwendung finden und wie diese Kooperationen von Sprachtherapeut*innen bewertet werden. Zu diesem Zweck wurde ein Online-Fragebogen konzipiert. Anschließend wurden die Antworten von insgesamt 30 teilnehmenden Sprachtherapeut*innen ausgewertet. Dabei wurde deutlich, dass die viel diskutierte und häufig geforderte interprofessionelle Zusammenarbeit in der Praxis nur selten zu finden ist. Vielmehr arbeiten die befragten Sprachtherapeut*innen nach multiprofessionellen Modellen. Es fehlen berufsübergreifende Besprechungen, und der fachliche Austausch ist noch viel zu oft dem Engagement einzelner Personen überlassen. Auch die Bewertung der Kooperationen zeigt Verbesserungspotenzial: Die Befragten bewerteten die Zusammenarbeit mit angrenzenden Berufsgruppen durchschnittlich als „befriedigend“.
In diesem Beitrag werden das Konzept der „Virtuellen Runden Tische“ (ViRuTi) sowie Ergebnisse ihrer Pilotierung und Perspektiven für die Implementierung vorgestellt. Dabei geht es um die ressourcenfreundliche, digitale Umsetzung und niederschwellige Durchführung der ViRuTi. Inklusive Bestrebungen sind fest mit der Notwendigkeit interdisziplinärer Fallbesprechungen verknüpft. Akteure aus Kita, Schule und Gesundheitswesen können mit Bezugspersonen des betreffenden Kindes gemeinsam am runden Tisch Perspektiven austauschen und Entscheidungen treffen, bspw. zur Einleitung und Evaluierung von Sprachförder- oder -therapiemaßnahmen. Eine durch ein Konzept vorgegebene Struktur erleichtert den Austausch und die Fokussierung der Beteiligten auf die Ressourcen und Bedürfnisse des Kindes. Außerdem ist dieser interprofessionelle bzw. transdisziplinäre Austausch auch digital möglich.
Entgegen noch immer bestehender Annahmen schränkt Gebärdensprache, wenn sie frühzeitig und uneingeschränkt zugänglich ist, den Lautspracherwerb nicht ein; sie kann diesen sogar erleichtern. Bimodale Bilingualität beschreibt ein „Sowohl-als-auch“ von Lautsprache und der visuell-gestischen Gebärdensprache in der Sprachentwicklung hörbeeinträchtigter Kinder. Für hörende Eltern von hörbeeinträchtigten Kindern in Deutschland ist der Zugang zu Informationen über bimodale Bilingualität, d. h. deutsche Lautsprache und Deutsche Gebärdensprache (DGS), erschwert. Daher wurde in dieser Arbeit auf Grundlage einer umfassenden Literaturrecherche, Hospitationen und der qualitativen Analyse semi-strukturierter Expert*innen-Interviews ein Informationsflyer konzipiert. Dieser stellt erste wichtige Informationen bereit und zeigt konkrete regionale Anlauf- und Kontaktstellen auf. Ziel ist es, betroffenen Familien die bimodale Bilingualität als alternativen Kommunikationsweg vorzustellen und somit Kindern von Geburt an die Möglichkeit der grenzenlosen Kommunikation zu ermöglichen.
Die Maßnahmen zur Eindämmung der COVID-19-Pandemie gingen mit Schulschließungen und variablen Unterrichtsformen einher, was laut Studienlage zum Thema viele Schüler:innen vor große Herausforderungen gestellt hat und noch immer stellt. Es werden Leistungsabfälle und negative Auswirkungen auf die psychische Gesundheit diskutiert. Da besonders die Lesekompetenz eine grundlegende Ressource für schulische Leistungssituationen ist, soll sie im Fokus dieser Studie stehen.
Die Daten der längsschnittlich angelegten BLab-Studie, die den Erwerbsverlauf von Lese- und Rechtschreibleistungen über die Klassenstufen 1 bis 10 untersucht, wurden dazu genutzt, Unterschiede zwischen den Leseleistungen (operationalisiert aus den normierten und standardisierten Untertests zur Lesekompetenz aus ELFE 1 – 6 und SLRT-II) und vier Skalen des Fragebogens zur Erfassung von schulrelevanten Einstellungen und Sichtweisen von Grundschüler:innen FEESS 3 – 4 (Schuleinstellung, Anstrengungsbereitschaft, Lernfreude und Selbstkonzept) statistisch zu analysieren. Dazu wurden die Testergebnisse von N = 174 Viertklässler:innen zweier Kohorten ausgewertet, von denen eine vom variablen Unterrichtsmodus während der COVID-19-Pandemie betroffen war.
Die Ergebnisse der Gruppenvergleiche stellen sich heterogen dar und müssen differenziert betrachtet werden. Insgesamt scheinen die hier einbezogenen Schüler:innen mit den schulbezogenen Maßnahmen zur Eindämmung der COVID-19-Pandemie gut zurechtgekommen zu sein.
Nach Erkenntnissen der Sprachheilpädagogik bzw. Sprachtherapie laufen logopädische Leistungen derzeit überwiegend isoliert vom Bildungsgeschehen ab. Im sogenannten Pull-Out-Modell der Leistungserbringung gibt es keine räumliche, zeitliche und inhaltliche Verbindung mit dem Unterricht in der Grundschule (Reber, 2012). Eine Verknüpfung beider Leistungsdomänen erscheint aber in Bezug auf eine erfolgreiche Inklusion und Teilhabe von Kindern mit Sprach- und Sprechstörungen äußerst sinnvoll. Im Rahmen der vorliegenden Arbeit wird der Frage nachgegangen, in welcher Quantität und Qualität ein Austausch zwischen beiden Bereichen aus der Sicht von Grundschullehrkräften in Berlin derzeit erfolgt. Für die Untersuchung wurde ein Befragungswerkzeug entwickelt, womit die Perspektive der Lehrkräfte im Rahmen einer onlinegestützten Umfrage untersucht werden kann. Innerhalb einer Pilotierung konnten erste Daten gewonnen werden, die darauf hinweisen, dass es derzeit tatsächlich selten zu einer Zusammenarbeit kommt. Als wichtigste Hürde konnten dabei die fehlenden zeitlichen Ressourcen identifiziert werden. Anhand der Pilotierung konnten Vorschläge für eine verbesserte Anpassung des Befragungstools erarbeitet werden, so dass dieses nun die Grundlage für eine breiter angelegte Untersuchung bietet.
Die alleinige Ursache von Stottern ist weiterhin nicht abschließend geklärt. Auf neurofunktioneller und -morphologischer Ebene zeigen stotternde Personen Abweichungen in den Arealen, welche nicht nur für die Initiierung von sprechmotorischen Programmen, sondern auch für die Produktion und Perzeption von musikalischen Rhythmen zuständig sind. Unterschiede zu flüssigsprechenden Personen treten jedoch nicht nur im verbalen, sondern auch im nonverbal sensomotorischen Bereich auf, was auf eine Störung domänenübergreifender auditiv-motorischer Koordinationsprozesse hindeutet. Ausgehend davon wurde in einigen Studien postuliert, dass dem Störungsbild Stottern ein domänenübergreifendes Rhythmusdefizit zugrunde liegt. Im Gegensatz zu anderen Störungsbildern, welche auch Probleme in rhythmischen Aufgaben aufweisen, gibt es bis dato jedoch keine Intervention, welche dieses Defizit angeht. Es soll untersucht werden, ob ein nonverbales rhythmisches Training bei stotternden Kindern im Alter von zehn bis zwölf Jahren eine Verbesserung der sensomotorischen Synchronisationsfähigkeiten zur Folge hat. Zudem soll erforscht werden, ob es Transfereffekte auf die Sprechmotorik und Sprechflüssigkeit gibt. Für die vorliegende einfach verblindete Pilotstudie sollen 20 Kinder rekrutiert werden. Zehn davon werden randomisiert der Experimentalgruppe zugewiesen, welche das rhythmische Spiel Rhythm Workers über drei Wochen daheim auf einem Tablet spielen sollen. Die Kontrollgruppe spielt ein nicht-rhythmisches Bubble-Shooter-Spiel namens Frozen Bubble. Diese Studie könnte somit den Weg ebnen für technologieunterstützte Rehabilitationsmaßnahmen, welche darauf abzielen die rhythmisch-motorischen Defizite bei Stottern zu lindern.
Bei Kindern mit Sprachentwicklungsstörungen (SES) können sich Symptome auf sprachlich-funktionaler Ebene sehr variabel auf die kommunikative Partizipation im Alltag auswirken. Kommunikative Partizipation wird definiert als sprachlich-kommunikatives Teilnehmen an Lebenssituationen, in denen Wissen, Informationen, Ideen oder Gefühle ausgetauscht werden. Der deutschsprachige ‚Fokus auf den Erfolg der Kommunikation für Kinder unter sechs Jahren‘ (FOCUS©-34-G) ist ein evaluierter Fragebogen zur Fremdeinschätzung der kommunikativen Partizipation von Kindern (1;6 bis 5;11 Jahre). Ziel unserer Studie war die Untersuchung der Auswirkungen einer SES auf die kommunikative Partizipation betroffener Kinder im Alter zwischen 2;0 und 4;11 Jahren anhand des FOCUS©-34-G. Eltern von Kindern mit SES füllten den FOCUS©-34-G sowie einen Demografie-Bogen aus. Es konnten erste Daten von 22 Kindern (16 Jungen) im Alter zwischen 2;7 und 3;11 (M = 3;3 Jahre, SD = 0;4 Jahre) erhoben werden. Im FOCUS©-34-G erreichten Kinder mit SES einen Gesamtwert zwischen 54 und 197 (M = 120.55, SD = 40.91) von 238 maximal möglichen Punkten. Diese Ergebnisse zeigen eine eingeschränkte kommunikative Partizipation von Kindern mit SES, die es in einer ICF-CY-orientierten sprachtherapeutischen Intervention zu beachten gilt. Als klinisches Assessmentinstrument kann der FOCUS©-34-G als Kurzversion des FOCUS©-G als geeignet angesehen werden.
Morbus Parkinson (MP) ist in Europa die zweithäufigste neurodegenerative Erkrankung und durch das Störungsbild der Dysarthrie logopädisch relevant. Die Behandlung einer Dysarthrie erfordert ein hochfrequentes Therapieangebot für eine nachhaltige Verbesserung der kommunikativen Fähigkeiten. Trotz der hohen Prävalenz von Sprechstörungen bei MP nehmen in Deutschland nur etwa 4 % der Betroffenen eine ambulante logopädische Therapie in Anspruch. Die veränderte Selbstwahrnehmung der Patient*innen ist ein zentrales Symptom der Erkrankung, das ein wirksames Eigentraining einschränkt.
Neue Technologien mit integrierter Spracherkennung ermöglichen ein individuelles Training. Im Rahmen des Verbundprojektes HUMAINE (human centered AI network) wird der Prototyp eines auf künstlicher Intelligenz (KI) basierendem Sprechassistenzsystems in einem klinischen Versorgungssetting erprobt und evaluiert. Das Ziel ist, das digitale System in die Regelversorgung zu integrieren. Eine nutzer*innenzentrierte Implementierung ist im Rahmen einer Machbarkeitsstudie geplant, dabei wird der Prototyp ISi-Speech in die bestehende Parkinson-Komplex-Therapie integriert. Im Anschluss an die stationäre Behandlung erfolgt eine zweiwöchige Eigentrainingsphase im häuslichen Setting. Durch Interviews soll die Usability sowie die Anwender*innenakzeptanz aus der therapeutischen Sicht und Patient*innenperspektive erhoben werden. Ziel ist die Entwicklung von Implementierungsstrategien, die zur Entwicklung von nachhaltigen Kompetenzmodellen beitragen.
Durch die erhöhte Therapiefrequenz können verbesserte klinische Ergebnisgrößen wie Sprechverständlichkeit, Lebensqualität und individuell wahrgenommene Kommunikationserfolge erreicht werden. Nur durch die Evaluation digitaler Technologien kann eine dauerhafte Implementierung in die Praxis erfolgen. Neue Technologien können eine sinnvolle Ergänzung zur etablierten Therapie sein und eine Strategie gegen die Unterversorgung durch Heilmittel darstellen.
Dieser Beitrag gibt einen Einblick in die ehrenamtliche Arbeit mit Menschen mit Aphasie und deren Angehörigen. Vor sieben Jahren gründete Romy Steinberg gemeinsam mit ihrem Mann, der selbst von Aphasie betroffen ist, den Chor „AphaSingers”. Jeden Monat findet sich der Chor zu einem Workshop-Tag zusammen, der viel mehr als nur die Gesangsprobe beinhaltet. Partizipation umfasst den Austausch miteinander, schöne gemeinsame Erlebnisse und Zusammenhalt. All dies bietet dieser Chor den Mitgliedern und erntet hierfür viel Anerkennung und Dankbarkeit.
Das von E. Berne für psychotherapeutische Gespräche begründete Konzept der Vertragsarbeit lässt sich gut auf die sprachtherapeutische Arbeit übertragen. Der Kern ist die explizite Formulierung von therapeutischen Nah- und Fernzielen, die Wahl der Therapiemethode sowie die Aufgaben und Verantwortlichkeiten der Beteiligten. Voraussetzung ist die Freiwilligkeit und das Arbeiten auf Augenhöhe. Vertragsarbeit verteilt die Verantwortung für das Gelingen und macht Vorgehensweisen transparent. Sehr zeitgemäß ist die ressourcenorientierte Sichtweise auf das therapeutische Angebot.
Der vorliegende Beitrag stellt die deutsche kurze Version des kommunikativen Partizipationsassessments ‚Fokus auf den Erfolg der Kommunikation für Kinder unter 6 Jahren (FOCUS©-34-G)‘ (Thomas-Stonell et al., 2012a) vor. Es werden die Entwicklung und psychometrische Validierung, Zielsetzung, Durchführung und Auswertung für den konkreten Einsatz in der sprachtherapeutischen Praxis beschrieben.
Die Verbesserung der sozialen Teilhabe eines Kindes ohne ausreichende Lautsprache steht im Fokus der Versorgung mit Unterstützter Kommunikation. Die Schnittstelle Alltag ist für die Intervention mit Unterstützter Kommunikation besonders wichtig, da das unterstützt kommunizierende Kind in seiner alltäglichen Kommunikation extrem abhängig von seinem sozialen Umfeld ist. Die Bezugspersonen müssen die Hilfsmittel und ihre Verwendung gut kennen, Kommunikationssituationen spezifisch gestalten und individuell abgestimmte Sprachlehr- und Kommunikationsstrategien einsetzen. Dass dieser Transfer gelingt, ist Aufgabe der Sprachtherapie. Der Sprachtherapie stehen dazu verschiedene Modelle zur Verfügung: das bio-psycho-soziale Modell der Internationalen Klassifikation der Funktionsfähigkeit, Behinderung und Gesundheit der WHO (ICF) und Modelle, die aus dem Fachgebiet der Unterstützten Kommunikation selbst stammen, wie das Kooperative Partizipationsmodell, Fähigkeitskontinuum und Modell kommunikativer Kompetenz. Die Umsetzung der Modelle in die Praxis wird anhand eines Fallbeispiels veranschaulicht. Letztendlich geht es um die natürliche Nutzung von Unterstützter Kommunikation in echten Kommunikationssituationen und um die langfristige Unterstützung der Entwicklung hin zu Fähigkeiten, selbstinitiiert und unabhängig kommunizieren zu können.
Partizipation meint in diesem Kontext die erfolgreiche mündliche Verständigung im sozialen Miteinander. Unter der Bedingung einer Aphasie verändert sich die Partizipation im Alltag bis hin zur sozialen Isolation. Die Sprachtherapie bietet verschiedene Therapieformate, um dagegen verbale Freiräume zu eröffnen. Bei einer globalen Aphasie werden Interaktionshilfen zur Kompensation von sprachlichen Defiziten systematisch und gezielt eingesetzt. Mein Vorgehen beschreibe ich ausführlich. Bei Restaphasie, bei Patient*innen im erwerbsfähigen Alter ohne Arbeitschancen handelt es sich eher um individuelle Projekte zur Selbständigkeit oder Beschäftigung. Hilfreich ist ein Netzwerk an kollegialen Kontakten. Meine Überlegungen und Daten stammen alle aus meinen Erfahrungen in der eigenen Praxis für Sprachtherapie in Dresden.
Menschen mit Aphasie erleben erhebliche Einbußen in sozialer Teilhabe und Lebensqualität. Peer-to-Peer-Unterstützung durch Selbsthilfeangebote oder Peer-Befriending-Maßnahmen kann sich positiv auf Partizipation und psychisches Wohlbefinden auswirken. Mit dem Projekt shalk konnte gezeigt werden, dass von Betroffenen geleitete Selbsthilfegruppen maßgeblich zu Selbstwerterleben und verbesserter Lebensqualität der Leitungspersonen und der Gruppenteilnehmenden beitragen können. Um einen Austausch zwischen Betroffenen auch jenseits des Gruppensettings zu ermöglichen, können digitale Medien genutzt werden. Im Projekt PeerPAL wird ein für Menschen mit Aphasie angepasstes digitales soziales Netzwerk (Smartphone-App) zur virtuellen Vernetzung und persönlichen Begegnung entwickelt und evaluiert. Erste Daten weisen darauf hin, dass die Betroffenen die App nutzen können und mit Design und Funktionen zufrieden sind. Auswirkungen auf die Lebensqualität werden aktuell untersucht. Sprachtherapeut:innen nehmen in der Peer-to-Peer-Unterstützung insofern eine zentrale Rolle ein, als dass sie Betroffene in entsprechende Angebote einführen und sie mittels abgestufter Begleitung an die eigenständige Nutzung heranführen.
Für eine gelingende Kommunikation und Zusammenarbeit zwischen Therapeut:innen und Eltern sind meines Erachtens zwei Aspekte wesentlich: die therapeutische Haltung/innere Einstellung zur Beziehungsgestaltung auf Seiten der Therapeut:innen sowie ihr Wissen und die Fähigkeiten, Eltern ganz pragmatisch in den therapeutischen Prozess einzubinden.
Das 16. Herbsttreffen Patholinguistik mit dem Schwerpunktthema »Schnittstelle Alltag: Transfer und Teilhabe in der Sprachtherapie« fand am 19.11.2022 als Online-Veranstaltung statt. Das Herbsttreffen wird seit 2007 jährlich vom Verband für Patholinguistik e.V. (vpl), seit 2021 vom Deutschen Bundesverband für akademische Sprachtherapie und Logopädie (dbs) in Kooperation mit der Universität Potsdam durchgeführt. Der vorliegende Tagungsband beinhaltet die Vorträge zum Schwerpunktthema sowie die Posterpräsentationen zu weiteren Themen aus der sprachtherapeutischen Forschung und Praxis.
Die Fachtagungen HDI (Hochschuldidaktik Informatik) beschäftigen sich mit den unterschiedlichen Aspekten informatischer Bildung im Hochschulbereich. Neben den allgemeinen Themen wie verschiedenen Lehr- und Lernformen, dem Einsatz von Informatiksystemen in der Hochschullehre oder Fragen der Gewinnung von geeigneten Studierenden, deren Kompetenzerwerb oder auch der Betreuung der Studierenden widmet sich die HDI immer auch einem Schwerpunktthema.
Im Jahr 2021 war dies die Berücksichtigung von Diversität in der Lehre. Diskutiert wurden beispielsweise die Einbeziehung von besonderen fachlichen und überfachlichen Kompetenzen Studierender, der Unterstützung von Durchlässigkeit aus nichtakademischen Berufen, aber auch die Gestaltung inklusiver Lehr- und Lernszenarios, Aspekte des Lebenslangen Lernens oder sich an die Diversität von Studierenden adaptierte oder adaptierende Lehrsysteme.
Dieser Band enthält ausgewählte Beiträge der 9. Fachtagung 2021, die in besonderer Weise die Konferenz und die dort diskutierten Themen repräsentieren.
High growth firms (HGFs) are important for job creation and considered to be precursors of economic growth. We investigate how formal institutions, like product- and labor-market regulations, as well as the quality of regional governments that implement these regulations, affect HGF development across European regions. Using data from Eurostat, OECD, WEF, and Gothenburg University, we show that both regulatory stringency and the quality of the regional government influence the regional shares of HGFs. More importantly, we find that the effect of labor- and product-market regulations ultimately depends on the quality of regional governments: in regions with high quality of government, the share of HGFs is neither affected by the level of product market regulation, nor by more or less flexibility in hiring and firing practices. Our findings contribute to the debate on the effects of regulations by showing that regulations are not, per se, “good, bad, and ugly”, rather their impact depends on the efficiency of regional governments. Our paper offers important building blocks to develop tailored policy measures that may influence the development of HGFs in a region.
Solar photocatalysis is the one of leading concepts of research in the current paradigm of sustainable chemical industry. For actual practical implementation of sunlight-driven catalytic processes in organic synthesis, a cheap, efficient, versatile and robust heterogeneous catalyst is necessary. Carbon nitrides are a class of organic semiconductors who are known to fulfill these requirements.
First, current state of solar photocatalysis in economy, industry and lab research is overviewed, outlining EU project funding, prospective synthetic and reforming bulk processes, small scale solar organic chemistry, and existing reactor designs and prototypes, concluding feasibility of the approach.
Then, the photocatalytic aerobic cleavage of oximes to corresponding aldehydes and ketones by anionic poly(heptazine imide) carbon nitride is discussed. The reaction provides a feasible method of deprotection and formation of carbonyl compounds from nitrosation products and serves as a convenient model to study chromoselectivity and photophysics of energy transfer in heterogeneous photocatalysis.
Afterwards, the ability of mesoporous graphitic carbon nitride to conduct proton-coupled electron transfer was utilized for the direct oxygenation of 1,3-oxazolidin-2-ones to corresponding 1,3-oxazlidine-2,4-diones. This reaction provides an easier access to a key scaffold of diverse types of drugs and agrochemicals.
Finally, a series of novel carbon nitrides based on poly(triazine imide) and poly(heptazine imide) structure was synthesized from cyanamide and potassium rhodizonate. These catalysts demonstrated a good performance in a set of photocatalytic benchmark reactions, including aerobic oxidation, dual nickel photoredox catalysis, hydrogen peroxide evolution and chromoselective transformation of organosulfur precursors.
Concluding, the scope of carbon nitride utilization for net-oxidative and net-neutral photocatalytic processes was expanded, and a new tunable platform for catalyst synthesis was discovered.
Extreme flooding displaces an average of 12 million people every year. Marginalized populations in low-income countries are in particular at high risk, but also industrialized countries are susceptible to displacement and its inherent societal impacts. The risk of being displaced results from a complex interaction of flood hazard, population exposed in the floodplains, and socio-economic vulnerability. Ongoing global warming changes the intensity, frequency, and duration of flood hazards, undermining existing protection measures. Meanwhile, settlements in attractive yet hazardous flood-prone areas have led to a higher degree of population exposure. Finally, the vulnerability to displacement is altered by demographic and social change, shifting economic power, urbanization, and technological development. These risk components have been investigated intensively in the context of loss of life and economic damage, however, only little is known about the risk of displacement under global change.
This thesis aims to improve our understanding of flood-induced displacement risk under global climate change and socio-economic change. This objective is tackled by addressing the following three research questions. First, by focusing on the choice of input data, how well can a global flood modeling chain reproduce flood hazards of historic events that lead to displacement? Second, what are the socio-economic characteristics that shape the vulnerability to displacement? Finally, to what degree has climate change potentially contributed to recent flood-induced displacement events?
To answer the first question, a global flood modeling chain is evaluated by comparing simulated flood extent with satellite-derived inundation information for eight major flood events. A focus is set on the sensitivity to different combinations of the underlying climate reanalysis datasets and global hydrological models which serve as an input for the global hydraulic model. An evaluation scheme of performance scores shows that simulated flood extent is mostly overestimated without the consideration of flood protection and only for a few events dependent on the choice of global hydrological models. Results are more sensitive to the underlying climate forcing, with two datasets differing substantially from a third one. In contrast, the incorporation of flood protection standards results in an underestimation of flood extent, pointing to potential deficiencies in the protection level estimates or the flood frequency distribution within the modeling chain.
Following the analysis of a physical flood hazard model, the socio-economic drivers of vulnerability to displacement are investigated in the next step. For this purpose, a satellite- based, global collection of flood footprints is linked with two disaster inventories to match societal impacts with the corresponding flood hazard. For each event the number of affected population, assets, and critical infrastructure, as well as socio-economic indicators are computed. The resulting datasets are made publicly available and contain 335 displacement events and 695 mortality/damage events. Based on this new data product, event-specific displacement vulnerabilities are determined and multiple (national) dependencies with the socio-economic predictors are derived. The results suggest that economic prosperity only partially shapes vulnerability to displacement; urbanization, infant mortality rate, the share of elderly, population density and critical infrastructure exhibit a stronger functional relationship, suggesting that higher levels of development are generally associated with lower vulnerability.
Besides examining the contextual drivers of vulnerability, the role of climate change in the context of human displacement is also being explored. An impact attribution approach is applied on the example of Cyclone Idai and associated extreme coastal flooding in Mozambique. A combination of coastal flood modeling and satellite imagery is used to construct factual and counterfactual flood events. This storyline-type attribution method allows investigating the isolated or combined effects of sea level rise and the intensification of cyclone wind speeds on coastal flooding. The results suggest that displacement risk has increased by 3.1 to 3.5% due to the total effects of climate change on coastal flooding, with the effects of increasing wind speed being the dominant factor.
In conclusion, this thesis highlights the potentials and challenges of modeling flood- induced displacement risk. While this work explores the sensitivity of global flood modeling to the choice of input data, new questions arise on how to effectively improve the reproduction of flood return periods and the representation of protection levels. It is also demonstrated that disentangling displacement vulnerabilities is feasible, with the results providing useful information for risk assessments, effective humanitarian aid, and disaster relief. The impact attribution study is a first step in assessing the effects of global warming on displacement risk, leading to new research challenges, e.g., coupling fluvial and coastal flood models or the attribution of other hazard types and displacement events. This thesis is one of the first to address flood-induced displacement risk from a global perspective. The findings motivate for further development of the global flood modeling chain to improve our understanding of displacement vulnerability and the effects of global warming.
While inequality of opportunity (IOp) in earnings is well studied, the literature on IOp in individual net wealth is scarce to non-existent. This is problematic because both theoretical and empirical evidence show that the position in the wealth and income distribution can significantly diverge.We measure ex-ante IOp in net wealth for Germany using data from the Socio-Economic Panel (SOEP). Ex-ante IOp is defined as the contribution of circumstances to the inequality in net wealth before effort is exerted. The SOEP allows for a direct mapping from individual circumstances to individual net wealth and for a detailed decomposition of net wealth inequality into a variety of circumstances; among them childhood background, intergenerational transfers, and regional characteristics. The ratio of inequality of opportunity to total inequality is stable from 2002 to 2019. This is in sharp contrast to labor earnings, where ex-ante IOp is declining over time. Our estimates suggest that about 62% of the inequality in net wealth is due to circumstances. The most important circumstances are intergenerational transfers, parental occupation, and the region of birth. In contrast, gender and individuals’ own education are the most important circumstances for earnings.
In the past decades, scholars and courts have paid considerable attention to the extraterritorial applicability of human rights treaties. By contrast, the extraterritorial application of constitutional rights has received comparable scholarly attention only in the United States. Specifically, there is a paucity of comparative research in this area, which contributes to the prevailing view that human rights law provides the proper framework under which domestic courts should examine extraterritoriality questions under constitutional law.
This article argues that domestic constitutional regimes and their judicial enforcers can and should provide an important counterweight to the deadlocked extraterritoriality debate at the international level. Using two case studies from Germany and the United States, it shows that domestic constitutional courts are sometimes better suited than treaty bodies to guard the normative values of human dignity and universality in an extraterritoriality context. This is most apparent in the case of Germany, which has a long tradition of integration into international multi-level governance systems and "bottom-up" resistance based on fundamental rights within such systems. Recent cases from the Federal Constitutional Court (Bundesverfassungsgericht) about the extraterritorial application of the Basic Law (Grundgesetz) to foreign intelligence gathering and climate change support this theory. However, an independent constitutional approach can also achieve some normative effects in domestic systems that are more isolated from the international human rights system. Thus, the US Supreme Court likewise used domestic constitutional doctrine to sidestep the American government's strictly territorial interpretation of the ICCPR and employ a functional approach to the extraterritorial applicability of fundamental rights in the case of detention of suspected terrorists in the Guantánamo Bay naval base.
The study of these two examples does not purport to be comprehensive or even representative of the world’s diverse array of constitutions and their relationships with international human rights law. However, the independent power of constitutional frameworks in these two disparate cases should all the more provide an impetus for increased comparative research into constitutional extraterritoriality regimes and their value for the project of human rights.
Die Knappheit medizinischer Ressourcen im Verlauf der COVID-19-Pandemie machte die Überlegung notwendig, wie und an wen medizinische Güter, besonders COVID-19-Impfstoff, verteilt werden sollen. Dafür wurden sowohl national als auch international Priorisierungskonzepte zur Impfstoff-Allokation entwickelt. Neben verschiedenen moralphilosophischen Grundsätzen und nationalstaatlicher Gesetzgebung sollten auch die Menschenrechte bei der Etablierung von Allokationssystemen berücksichtigt werden. Möglichkeiten zur praktischen Umsetzung sind etwa die Priorisierung vulnerabler Gruppen sowie die Gewährleistung von Diskriminierungsfreiheit und Chancengleichheit bei der Inanspruchnahme von Gesundheitsleistungen. Ein intersektionaler, menschenrechtsbasierter Ansatz kann dazu beitragen, einen ganzheitlichen Blick auf die Gesundheitsversorgung der Gesellschaft zu werfen und neben den direkten medizinischen Problemen auch die sozialen Determinanten von Gesundheit und die Interdependenz aller zu schützenden Menschenrechte zu adressieren. Welche Rolle die Menschenrechte im Kontext der Ressourcenverteilung spielen, wird anhand der Verteilung von COVID-19-Impfstoff in Deutschland analysiert, wobei exemplarisch der besondere Schutz Älterer betrachtet wird.
Menschenrechte von LGBTQI+-Personen sind in keinem Vertragswerk ausdrücklich geregelt. Dementsprechend obliegt ihr Schutz der Rechtsprechung, die in den vergangenen Jahren ein ausdifferenziertes Schutzsystem etabliert hat, das sich vor allem auf den allgemeinen Schutz vor Diskriminierung, aber auch auf etwa das Recht auf Achtung des Privat- und Familienlebens stützt. Der Beitrag stellt die historische Entwicklung dieser LGBTQI+-Menschenrechte dar und trägt die aktuellen Rechtsquellen sowie die wichtigsten Entscheidungen zusammen, die weltweit und insbesondere in Europa diese Rechte gestärkt haben. National und international begegnen rechtliche Probleme dort, wo immer spezifischere Fragestellungen auf weltweit politische Instabilität trifft. Dazu zählen etwa die Stigmatisierung von sog. Konversionsmaßnahmen und die Eintragung von Trans*personen ins Geburtenregister.
Diskriminierungsverbote gehören zu den Grundpfeilern des internationalen Menschenrechtsschutzes. Es gibt sie in unterschiedlichen Ausprägungen: Manche schützen nur vor einer Ungleichbehandlung bei der Inanspruchnahme eines Freiheitsrechts (sog. akzessorische Diskriminierungsverbote), andere schützen demgegenüber vor einer Ungleichbehandlung in sämtlichen Rechtskontexten. Ein allgemeines und umfassendes Diskriminierungsverbot, welches in allen Rechtskontexten gilt, findet sich in Artikel 1 des 12. Zusatzprotokoll zur EMRK. Dieses Zusatzprotokoll wurde von vielen europäischen Staaten - darunter auch Deutschland - bisher nicht ratifiziert. Der Beitrag möchte die menschenrechtlichen Potenziale und Mehrwerte dieses Zusatzprotokolls aufzeigen und nimmt dabei auch umfassend Bezug auf die Lernerfahrungen des UN-Zivilpakts, welcher mit Art. 26 UN-Zivilpakt eine strukturanaloge Regelung kennt.
Dimensionen von Macht
(2023)
Ziele: Die Autorin konzentriert sich auf die Betrachtung des ethischen Berufskodex der Sozialen Arbeit und untersucht Schlüsselthemen (professionelle Haltung, systemimmanente Dilemmata, Gewalt und Machtmissbrauch) in der Praxis der Kinder- und Jugendhilfe und des Kinderschutzes in Ungarn und Deutschland.
Methoden: Kurzdarstellung einer standardisierten Online-Befragung von Fachkräften im System der Kinder- und Jugendhilfe sowie des Kinderschutzes, die in Ungarn und Deutschland durchgeführt wurde. Der bereinigte Datensatz beläuft sich auf insgesamt 122 Fragebögen (Deutschland N=89, Ungarn N=33 aus Ungarn). Einige kinderrechtliche Herausforderungen in Bezug auf Institutionen der stationären Kinder- und Jugendhilfe und des Kinderschutzes in Ungarn werden darüber hinaus in einem Dialog vertiefend erörtert.
Ergebnisse: Der ethische Rahmen der Profession ist weitgehend bekannt, aber die Bedingungen in der Praxis müssen so verbessert werden, dass professionsethisch korrektes Handeln möglich ist. Die Ergebnisse der Studie zeigen, dass in der täglichen Praxis Verstöße gegen die Berufsethik vorkommen. Besonders besorgniserregend sind die Ergebnisse bezüglich Gewalt und Missbrauch gegenüber Adressat*innen.
Implikationen für die Sozialarbeit: Die Profession der Sozialen Arbeit als Menschenrechtsprofession ist unweigerlich in normative Fragen der gesellschaftlichen Macht- und Dominanzverhältnisse verstrickt. Professionelles Handeln erfordert zum einen Kenntnisse der Kinder- sowie Menschenrechte, das Bewusstsein für moralische Normen, Standards und Werte, zum anderen die Fähigkeit zur ethischen Urteilsbildung, Selbstreflexion sowie Intervention.
Aus dem Inhalt:
- Dimensionen von Macht – Unter Betrachtung des ethischen Berufskodex, der professionellen Haltung und systemimmanenten Dilemmata im ungarischen Kinderschutzsystem
– Das 12. Zusatzprotokoll zur EMRK – Chancen und Potenziale eines allgemeinen und umfassenden Diskriminierungsverbots
- Zum aktuellen Stand und zu aktuellen Fragen des Menschenrechtsschutzes von LGBTQI+-Personen
- Fragen nach gerechter Verteilung – eine menschenrechtliche Analyse der Allokation am Beispiel von COVID-19-Impfstoffen für Ältere
- Extraterritorial Constitutional Rights: A Comparative Case Study of the United States and Germany*
- Bericht über die Tätigkeit des Menschenrechtsausschusses der Vereinten Nationen im Jahre 2022 – Teil II: Individualbeschwerden
Die Geschichte der Preußischen Seehandlung als Institut für Handels- und Gewerbeförderung ist nur partiell erforscht. Vor allem für die Jahrzehnte nach 1870, als die Seehandlung zur preußischen Staatsbank wurde, bleibt vieles unbekannt. Mit Alliiertem Kontrollratsbeschluss vom 15. Februar 1947 wurden das Land Preußen und auch die Seehandlung aufgelöst. Die Abwicklung der Geschäfte dauerte bis 1983. Mit dem Restvermögen wurde die heute existierende Stiftung gegründet, die sich der Förderung von Wissenschaft und Forschung, Kunst und Kultur widmet. Die von der Stiftung geförderten Aktivitäten reichen von Wissenschafts- und Literaturstipendien über den Ankauf von Nachlässen und Sammlungen bis hin zu Kulturpreisen, v.a. dem Theaterpreis Berlin.
Vorwort
(2023)
Die Königlich Preußische Seehandlung, nach der heute die „Stiftung Preußische Seehandlung“ benannt ist, besitzt eine lange und vielseitige Geschichte. Der anlässlich des Stiftungsjubiläums erscheinende Band wirft einen Blick auf die Gründungskonstellation 1772, als König Friedrich II. die Gewerbe in Preußen fördern wollte. Er zeichnet die Aktivitäten von Männern an der Spitze der Seehandlung nach, wie Finanzminister Carl August von Struensee und dem unter- nehmerisch denkenden Karrierebeamten Christian Rother.
Das Gebäude der Seehandlung wurde nach 1900 neu erbaut und ist heute in der Berlin-Brandenburgischen Akademie am Gendarmenmarkt lebendige Gegenwart. Die Seehand- lung erhielt von ihren Zeitgenossen im 19. Jahr- hundert ambivalente Urteile. Ein Ausblick auf die Geschichte der Stiftung Preußische Seehandlung seit 1983 zeigt das Bemühen um Kunst- und Kul- turförderung als zentrale Aufgabe.
Im 19. Jahrhundert waren Konversationslexika, wie der Name schon andeutet, dazu gedacht, die Konversation in Salon und Vereinen mit Informationen zu bereichern. In den einzelnen Artikeln wurde auf Präzision, Genauigkeit und Überprüfbarkeit gesetzt, um der Leserschaft auch ein eigenes Urteil zu ermöglichen. Die „Seehandlungs-Societät in Preußen“ oder „Seehandlung, preußische“, wie sie in deutschen Lexika vorkommt, wandelte sich im 19. Jahrhundert zur Staatsbank. In der ersten Hälfte des 19. Jahrhunderts fielen die Urteile der Lexika meist ablehnend aus: Die Seehandlung erschien als eine wirtschaftspolitisch katastrophale Fehlentwicklung. Eine besondere Rolle spielte der Präsident Christian (von) Rother, der die Seehandlung zum selbständigen Unternehmen gemacht hatte. Der Wandel der allgemeinen Lexika in der zweiten Hälfte des 19. Jahrhunderts veränderte auch die Sicht auf die Seehandlung. Die Geschäfte der Bank wurden positiv hervorgehoben, die Beurteilungen verwiesen auf Statistiken und Bilanzen. Der Fokus rückte von den leitenden Personen der Seehandlung hin zum Kampf um Handelsmonopole und den preußischen Landtag als öffentlichem Forum. Das vernichtende Urteil der ersten Hälfte des 19. Jahrhunderts war einer differenzierten Bewertung der Bankentätigkeit gewichen.
Das in Bremen gebaute Handelsschiff Princess Louise, gewissermaßen das Flaggschiff der Preußischen Seehandlung, unternahm zwischen 1825 und 1844 insgesamt sechs Weltumsegelungen. Das Schiff fungierte u. a. als Überbringer diplomatischer Geschenke zwischen Herrschern und Herrscherfamilien. Von der ersten Weltumsegelung brachte es den berühmten Federmantel mit, den der hawai’ianische Monarch Kamehameha III. dem preußischen König Friedrich Wilhelm III. zum Geschenk machte. Bei der zweiten Weltumsegelung wurden wiederum Gaben des preußischen Königs nach Hawai‘i transportiert. Die Princess Louise brachte aber darüber hinaus auch Gebrauchsgegenstände wie Kleidung, Waffen, Körbe, Tongefäße und Fächer aus der Südsee und Südamerika nach Europa. Solche ethnographischen Objekte der Vergangenheit können nicht zuletzt mit und durch zeitgenössische Kunst Fragen an die Gegenwart stellen.
Der Beitrag widmet sich der Baugeschichte des Gebäudes der Preußischen Seehandlung bis zu seinem Abriss und dem Neubau in den Jahren 1901–1903, um dann die Veränderungen dieses Bauwerkes bis in die Gegenwart zu verfolgen. In einem zweiten Schritt wird versucht, die Stellung dieser Gebäude im urbanen Kontext zu verorten. Der dritte Teil rekonstruiert an Beispielen, welch markanten Beitrag die Preußische Seehandlung für die Berliner Museen und insbesondere für die im Berliner Schloss lozierte Kunstkammer wie auch für das Museum für Naturkunde geleistet hat, indem seine Großsegler Meteor und Princess Louise von ihren Weltreisen jeweils reich beladen mit naturkundlichen und völkerkundlichen Exponaten zurückkamen, die durch Austausch oder Kauf oder auch als Geschenk erworben worden waren.
Christian (von) Rother, Chef der Preußischen Seehandlung 1820–1848, ist vermutlich die prägendste Gestalt der Institution im 19. Jahrhundert. Seine Lebensgeschichte als Sohn eines schlesischen Bauern zeugt von sozialem Aufstieg und einer eindrucksvollen Beamtenkarriere. Rother formte die Seehandlung zu einem Konglomerat von gewerblichen Unternehmen, die durch Bankengeschäfte, Chausseebauprogramme und das Engagement des Staates in der Wirtschaftsförderung leistungsstark gemacht werden sollten. Der Erfolg blieb allerdings unterschiedlich. In den 1840er Jahren stießen diese Bemühungen darüber hinaus auf Kritik von unternehmerischen Konkurrenten. Bleibende Bedeutung behauptete eine von Rother gegründete soziale Einrichtung, die in Berlin ansässige Rother-Stiftung für arme und unverheiratete Töchter von Beamten und Offizieren.
Kein anderer Akteur prägte die ersten Dezennien der Preußischen Seehandlung so sehr wie Carl August von Struensee. Als deren Direktor und dann als preußischer Finanzminister initiierte er zwischen 1782 und seinem Tod im Jahr 1804 bereits maßgeblich den langen Transformationsprozess der Seehandlung vom königlichen Wachs- und Salzmonopol hin zu einer Staatsbank, der erst im 20. Jahrhundert zum Abschluss kommen sollte. In dem Beitrag wird Struensee sowohl als Wirtschaftstheoretiker in den ökonomischen Diskursen der Aufklärung zwischen Physiokratie und Frühliberalismus situiert als auch als ein Finanzpolitiker mit konsequent europäischem Handlungshorizont vor dem Hintergrund einer beschleunigten globalen und kolonialen Mächtekonkurrenz porträtiert.
Das Jahr 1772
(2023)
Im Jahr 1772 beschäftigten drei Dinge, die lange Zeit ihre Bedeutung behalten sollten, den preußischen König Friedrich den Großen. Zunächst war dies die Adelsrepublik Polen. Polen beabsichtigte er zusammen mit der Zarin Katharina II. von Russland und Kaiserin Maria Theresia zu zerteilen. Dies geschah am 5. August des Jahres. Der geraubte Landgewinn führte bei Friedrich II. zu wirtschaftlichen Überlegungen. Mit und in den annektierten Gebieten wollte er den preußischen Handel intensivieren, zuvörderst den Salzhandel, und zwar am liebsten mit Spanien, einem Land, mit dem er schon seit geraumer Zeit versuchte, einen Handelsvertrag abzuschließen. Dazu gründete er u. a. die Preußische Seehandlungs-Gesellschaft, die, um sich zu behaupten, verschiedene weitreichende Privilegien erhielt. Ein schneller Erfolg der Bemühungen blieb jedoch aus. Trotz aller gewährten Privilegien florierten die Geschäfte der Seehandlungs-Gesellschaft in den ersten Jahren nach ihrer Gründung nicht in dem erhofften Maß. Zu Lebzeiten des Königs kam auch kein Handelsvertrag mit Spanien zustande. Bis die Seehandlung durch die Vorteile, die sie aus dem annektierten Polen ziehen konnte, profitierte, dauerte es noch einige Jahre.
Die Königlich Preußische Seehandlung, nach der heute die „Stiftung Preußische Seehandlung“ benannt ist, besitzt eine lange und vielseitige Geschichte. Der anlässlich des Stiftungsjubiläums erscheinende Band wirft einen Blick auf die Gründungskonstellation 1772, als König Friedrich II. die Gewerbe in Preußen fördern wollte. Er zeichnet die Aktivitäten von Männern an der Spitze der Seehandlung nach, wie Finanzminister Carl August von Struensee und dem unternehmerisch denkenden Karrierebeamten Christian Rother. Das Gebäude der Seehandlung wurde nach 1900 neu erbaut und ist heute in der Berlin-Brandenburgischen Akademie am Gendarmenmarkt lebendige Gegenwart. Die Seehandlung erhielt von ihren Zeitgenossen im 19. Jahrhundert ambivalente Urteile. Ein Ausblick auf die Geschichte der Stiftung Preußische Seehandlung seit 1983 zeigt das Bemühen um Kunst- und Kulturförderung als zentrale Aufgabe.
The Andean Cordillera is a mountain range located at the western South American margin and is part of the Eastern- Circum-Pacific orogenic Belt. The ~7000 km long mountain range is one of the longest on Earth and hosts the second largest orogenic plateau in the world, the Altiplano-Puna plateau. The Andes are known as a non-collisional subduction-type orogen which developed as a result of the interaction between the subducted oceanic Nazca plate and the South American continental plate. The different Andean segments exhibit along-strike variations of morphotectonic provinces characterized by different elevations, volcanic activity, deformation styles, crustal thickness, shortening magnitude and oceanic plate geometry. Most of the present-day elevation can be explained by crustal shortening in the last ~50 Ma, with the shortening magnitude decreasing from ~300 km in the central (15°S-30°S) segment to less than half that in the southern part (30°S-40°S). Several factors were proposed that might control the magnitude and acceleration of shortening of the Central Andes in the last 15 Ma. One important factor is likely the slab geometry. At 27-33°S, the slab dips horizontally at ~100 km depth due to the subduction of the buoyant Juan Fernandez Ridge, forming the Pampean flat-slab. This horizontal subduction is thought to influence the thermo-mechanical state of the Sierras Pampeanas foreland, for instance, by strengthening the lithosphere and promoting the thick-skinned propagation of deformation to the east, resulting in the uplift of the Sierras Pampeanas basement blocks. The flat-slab has migrated southwards from the Altiplano latitude at ~30 Ma to its present-day position and the processes and consequences associated to its passage on the contemporaneous acceleration of the shortening rate in Central Andes remain unclear. Although the passage of the flat-slab could offer an explanation to the acceleration of the shortening, the timing does not explain the two pulses of shortening at about 15 Ma and 4 Ma that are suggested from geological observations. I hypothesize that deformation in the Central Andes is controlled by a complex interaction between the subduction dynamics of the Nazca plate and the dynamic strengthening and weakening of the South American plate due to several upper plate processes. To test this hypothesis, a detailed investigation into the role of the flat-slab, the structural inheritance of the continental plate, and the subduction dynamics in the Andes is needed. Therefore, I have built two classes of numerical thermo-mechanical models: (i) The first class of models are a series of generic E-W-oriented high-resolution 2D subduction models thatinclude flat subduction in order to investigate the role of the subduction dynamics on the temporal variability of the shortening rate in the Central Andes at Altiplano latitudes (~21°S). The shortening rate from the models was then validated with the observed tectonic shortening rate in the Central Andes. (ii) The second class of models are a series of 3D data-driven models of the present-day Pampean flat-slab configuration and the Sierras Pampeanas (26-42°S). The models aim to investigate the relative contribution of the present-day flat subduction and inherited structures in the continental lithosphere on the strain localization. Both model classes were built using the advanced finite element geodynamic code ASPECT.
The first main finding of this work is to suggest that the temporal variability of shortening in the Central Andes is primarily controlled by the subduction dynamics of the Nazca plate while it penetrates into the mantle transition zone. These dynamics depends on the westward velocity of the South American plate that provides the main crustal shortening force to the Andes and forces the trench to retreat. When the subducting plate reaches the lower mantle, it buckles on it-self until the forced trench retreat causes the slab to steepen in the upper mantle in contrast with the classical slab-anchoring model. The steepening of the slab hinders the trench causing it to resist the advancing South American plate, resulting in the pulsatile shortening. This buckling and steepening subduction regime could have been initiated because of the overall decrease in the westwards velocity of the South American plate. In addition, the passage of the flat-slab is required to promote the shortening of the continental plate because flat subduction scrapes the mantle lithosphere, thus weakening the continental plate. This process contributes to the efficient shortening when the trench is hindered, followed by mantle lithosphere delamination at ~20 Ma. Finally, the underthrusting of the Brazilian cratonic shield beneath the orogen occurs at ~11 Ma due to the mechanical weakening of the thick sediments covered the shield margin, and due to the decreasing resistance of the weakened lithosphere of the orogen.
The second main finding of this work is to suggest that the cold flat-slab strengthens the overriding continental lithosphere and prevents strain localization. Therefore, the deformation is transmitted to the eastern front of the flat-slab segment by the shear stress operating at the subduction interface, thus the flat-slab acts like an indenter that “bulldozes” the mantle-keel of the continental lithosphere. The offset in the propagation of deformation to the east between the flat and steeper slab segments in the south causes the formation of a transpressive dextral shear zone. Here, inherited faults of past tectonic events are reactivated and further localize the deformation in an en-echelon strike-slip shear zone, through a mechanism that I refer to as “flat-slab conveyor”. Specifically, the shallowing of the flat-slab causes the lateral deformation, which explains the timing of multiple geological events preceding the arrival of the flat-slab at 33°S. These include the onset of the compression and of the transition between thin to thick-skinned deformation styles resulting from the crustal contraction of the crust in the Sierras Pampeanas some 10 and 6 Myr before the Juan Fernandez Ridge collision at that latitude, respectively.
Air pollution has been a persistent global problem in the past several hundred years. While some industrialized nations have shown improvements in their air quality through stricter regulation, others have experienced declines as they rapidly industrialize. The WHO’s 2021 update of their recommended air pollution limit values reflects the substantial impacts on human health of pollutants such as NO2 and O3, as recent epidemiological evidence suggests substantial long-term health impacts of air pollution even at low concentrations. Alongside developments in our understanding of air pollution's health impacts, the new technology of low-cost sensors (LCS) has been taken up by both academia and industry as a new method for measuring air pollution. Due primarily to their lower cost and smaller size, they can be used in a variety of different applications, including in the development of higher resolution measurement networks, in source identification, and in measurements of air pollution exposure. While significant efforts have been made to accurately calibrate LCS with reference instrumentation and various statistical models, accuracy and precision remain limited by variable sensor sensitivity. Furthermore, standard procedures for calibration still do not exist and most proprietary calibration algorithms are black-box, inaccessible to the public. This work seeks to expand the knowledge base on LCS in several different ways: 1) by developing an open-source calibration methodology; 2) by deploying LCS at high spatial resolution in urban environments to test their capability in measuring microscale changes in urban air pollution; 3) by connecting LCS deployments with the implementation of local mobility policies to provide policy advice on resultant changes in air quality.
In a first step, it was found that LCS can be consistently calibrated with good performance against reference instrumentation using seven general steps: 1) assessing raw data distribution, 2) cleaning data, 3) flagging data, 4) model selection and tuning, 5) model validation, 6) exporting final predictions, and 7) calculating associated uncertainty. By emphasizing the need for consistent reporting of details at each step, most crucially on model selection, validation, and performance, this work pushed forward with the effort towards standardization of calibration methodologies. In addition, with the open-source publication of code and data for the seven-step methodology, advances were made towards reforming the largely black-box nature of LCS calibrations.
With a transparent and reliable calibration methodology established, LCS were then deployed in various street canyons between 2017 and 2020. Using two types of LCS, metal oxide (MOS) and electrochemical (EC), their performance in capturing expected patterns of urban NO2 and O3 pollution was evaluated. Results showed that calibrated concentrations from MOS and EC sensors matched general diurnal patterns in NO2 and O3 pollution measured using reference instruments. While MOS proved to be unreliable for discerning differences among measured locations within the urban environment, the concentrations measured with calibrated EC sensors matched expectations from modelling studies on NO2 and O3 pollution distribution in street canyons. As such, it was concluded that LCS are appropriate for measuring urban air quality, including for assisting urban-scale air pollution model development, and can reveal new insights into air pollution in urban environments.
To achieve the last goal of this work, two measurement campaigns were conducted in connection with the implementation of three mobility policies in Berlin. The first involved the construction of a pop-up bike lane on Kottbusser Damm in response to the COVID-19 pandemic, the second surrounded the temporary implementation of a community space on Böckhstrasse, and the last was focused on the closure of a portion of Friedrichstrasse to all motorized traffic. In all cases, measurements of NO2 were collected before and after the measure was implemented to assess changes in air quality resultant from these policies. Results from the Kottbusser Damm experiment showed that the bike-lane reduced NO2 concentrations that cyclists were exposed to by 22 ± 19%. On Friedrichstrasse, the street closure reduced NO2 concentrations to the level of the urban background without worsening the air quality on side streets. These valuable results were communicated swiftly to partners in the city administration responsible for evaluating the policies’ success and future, highlighting the ability of LCS to provide policy-relevant results.
As a new technology, much is still to be learned about LCS and their value to academic research in the atmospheric sciences. Nevertheless, this work has advanced the state of the art in several ways. First, it contributed a novel open-source calibration methodology that can be used by a LCS end-users for various air pollutants. Second, it strengthened the evidence base on the reliability of LCS for measuring urban air quality, finding through novel deployments in street canyons that LCS can be used at high spatial resolution to understand microscale air pollution dynamics. Last, it is the first of its kind to connect LCS measurements directly with mobility policies to understand their influences on local air quality, resulting in policy-relevant findings valuable for decisionmakers. It serves as an example of the potential for LCS to expand our understanding of air pollution at various scales, as well as their ability to serve as valuable tools in transdisciplinary research.
The knowledge of transformation pathways and identification of transformation products (TPs) of veterinary drugs is important for animal health, food, and environmental matters. The active agent Monensin (MON) belongs to the ionophore antibiotics and is widely used as a veterinary drug against coccidiosis in broiler farming. However, no electrochemically (EC) generated TPs of MON have been described so far. In this study, the online coupling of EC and mass spectrometry (MS) was used for the generation of oxidative TPs. EC-conditions were optimized with respect to working electrode material, solvent, modifier, and potential polarity. Subsequent LC/HRMS (liquid+ chromatography/high resolution mass spectrometry) and MS/MS experiments were performed to identify the structures of derived TPs by a suspected target analysis. The obtained EC-results were compared to TPs observed in metabolism tests with microsomes and hydrolysis experiments of MON. Five previously undescribed TPs of MON were identified in our EC/MS based study and one TP, which was already known from literature and found by a microsomal assay, could be confirmed. Two and three further TPs were found as products in microsomal tests and following hydrolysis, respectively. We found decarboxylation, O-demethylation and acid-catalyzed ring-opening reactions to be the major mechanisms of MON transformation
Dermal Delivery of the High-Molecular-Weight Drug Tacrolimus by Means of Polyglycerol-Based Nanogels
(2019)
Polyglycerol-based thermoresponsive nanogels (tNGs) have been shown to have excellent skin hydration properties and to be valuable delivery systems for sustained release of drugs into skin. In this study, we compared the skin penetration of tacrolimus formulated in tNGs with a commercial 0.1% tacrolimus ointment. The penetration of the drug was investigated in ex vivo abdominal and breast skin, while different methods for skin barrier disruption were investigated to improve skin permeability or simulate inflammatory conditions with compromised skin barrier. The amount of penetrated tacrolimus was measured in skin extracts by liquid chromatography tandem-mass spectrometry (LC-MS/MS), whereas the inflammatory markers IL-6 and IL-8 were detected by enzyme-linked immunosorbent assay (ELISA). Higher amounts of tacrolimus penetrated in breast as compared to abdominal skin or in barrier-disrupted as compared to intact skin, confirming that the stratum corneum is the main barrier for tacrolimus skin penetration. The anti-proliferative effect of the penetrated drug was measured in skin tissue/Jurkat cells co-cultures. Interestingly, tNGs exhibited similar anti-proliferative effects as the 0.1% tacrolimus ointment. We conclude that polyglycerol-based nanogels represent an interesting alternative to paraffin-based formulations for the treatment of inflammatory skin conditions.
Der Bereich der grenzüberschreitenden Daseinsvorsorge ist eines der zentralen Potentialfelder in der Grenzüberschreitenden Zusammenarbeit. Grenzüberschreitende Daseinsvorsorge kann ein wesentliches Element zur Verbesserung der Lebensverhältnisse in Grenzregionen sein.
Bei der Umsetzung von Projekten im diesem Bereich sind – sofern der politische Wille hierfür vorhanden ist – erhebliche rechtliche Hürden zu überwinden: Zwar existieren passend ausgerichtete europäische Fördermittelprogramme als Anreiz, andererseits scheinen die europarechtlichen und nationalrechtlichen Rahmenbedingungen vielfach hochgradig komplex und können auch mit europarechtlichen Instrumenten, etwa dem Europäischen Verbund für territoriale Zusammenarbeit (EVTZ), kaum überwunden werden.
Der vorliegende Text analysiert am Beispiel der deutsch-polnischen die rechtlichen Schwierigkeiten, aber auch die Möglichkeiten zur Umsetzung grenzüberschreitender Projekte in diesem Bereich.
We investigate whether political ideology has an observable effect on decarbonization ambition, renewable power aims, and preferences for power system balancing technologies in four European countries. Based on the Energy Logics framework, we identify ideologically different transition strategies (state-centered, market-centered, grassroots-centered) contained in government policies and opposition party programs valid in 2019. We compare these policies and programs with citizen poll data. We find that ideology has a small effect: governments and political parties across the spectrum have similar, and relatively ambitious, decarbonization and renewables targets. This mirrors citizens' strong support for ambitious action regardless of their ideological self-description. However, whereas political positions on phasing out fossil fuel power are clear across the policy space, positions on phasing in new flexibility options to balance intermittent renewables are vague or non-existent. As parties and citizens agree on strong climate and renewable power aims, the policy ambition is likely to remain high, even if governments change.
Prediction of hybrid biomass in Arabidopsis thaliana by selected parental SNP and metabolic markers
(2009)
A recombinant inbred line (RIL) population, derived from two Arabidopsis thaliana accessions, and the corresponding testcrosses with these two original accessions were used for the development and validation of machine learning models to predict the biomass of hybrids. Genetic and metabolic information of the RILs served as predictors. Feature selection reduced the number of variables (genetic and metabolic markers) in the models by more than 80% without impairing the predictive power. Thus, potential biomarkers have been revealed. Metabolites were shown to bear information on inherited macroscopic phenotypes. This proof of concept could be interesting for breeders. The example population exhibits substantial mid-parent biomass heterosis. The results of feature selection could therefore be used to shed light on the origin of heterosis. In this respect, mainly dominance effects were detected.
In recent decades, astronomy has seen a boom in large-scale stellar surveys of the Galaxy. The detailed information obtained about millions of individual stars in the Milky Way is bringing us a step closer to answering one of the most outstanding questions in astrophysics: how do galaxies form and evolve? The Milky Way is the only galaxy where we can dissect many stars into their high-dimensional chemical composition and complete phase space, which analogously as fossil records can unveil the past history of the genesis of the Galaxy. The processes that lead to large structure formation, such as the Milky Way, are critical for constraining cosmological models; we call this line of study Galactic archaeology or near-field cosmology.
At the core of this work, we present a collection of efforts to chemically and dynamically characterise the disks and bulge of our Galaxy. The results we present in this thesis have only been possible thanks to the advent of the Gaia astrometric satellite, which has revolutionised the field of Galactic archaeology by precisely measuring the positions, parallax distances and motions of more than a billion stars. Another, though not less important, breakthrough is the APOGEE survey, which has observed spectra in the near-infrared peering into the dusty regions of the Galaxy, allowing us to determine detailed chemical abundance patterns in hundreds of thousands of stars. To accurately depict the Milky Way structure, we use and develop the Bayesian isochrone fitting tool/code called StarHorse; this software can predict stellar distances, extinctions and ages by combining astrometry, photometry and spectroscopy based on stellar evolutionary models. The StarHorse code is pivotal to calculating distances where Gaia parallaxes alone cannot allow accurate estimates.
We show that by combining Gaia, APOGEE, photometric surveys and using StarHorse, we can produce a chemical cartography of the Milky way disks from their outermost to innermost parts. Such a map is unprecedented in the inner Galaxy. It reveals a continuity of the bimodal chemical pattern previously detected in the solar neighbourhood, indicating two populations with distinct formation histories. Furthermore, the data reveals a chemical gradient within the thin disk where the content of 𝛼-process elements and metals is higher towards the centre. Focusing on a sample in the inner MW we confirm the extension of the chemical duality to the innermost regions of the Galaxy. We find stars with bar shape orbits to show both high- and low-𝛼 abundances, suggesting the bar formed by secular evolution trapping stars that already existed. By analysing the chemical orbital space of the inner Galactic regions, we disentangle the multiple populations that inhabit this complex region. We reveal the presence of the thin disk, thick disk, bar, and a counter-rotating population, which resembles the outcome of a perturbed proto-Galactic disk. Our study also finds that the inner Galaxy holds a high quantity of super metal-rich stars up to three times solar suggesting it is a possible repository of old super-metal-rich stars found in the solar neighbourhood.
We also enter into the complicated task of deriving individual stellar ages. With StarHorse, we calculate the ages of main-sequence turn-off and sub-giant stars for several public spectroscopic surveys. We validate our results by investigating linear relations between chemical abundances and time since the 𝛼 and neutron capture elements are sensitive to age as a reflection of the different enrichment timescales of these elements. For further study of the disks in the solar neighbourhood, we use an unsupervised machine learning algorithm to delineate a multidimensional separation of chrono-chemical stellar groups revealing the chemical thick disk, the thin disk, and young 𝛼-rich stars. The thick disk is shown to have a small age dispersion indicating its fast formation contrary to the thin disk that spans a wide range of ages.
With groundbreaking data, this thesis encloses a detailed chemo-dynamical view of the disk and bulge of our Galaxy. Our findings on the Milky Way can be linked to the evolution of high redshift disk galaxies, helping to solve the conundrum of galaxy formation.
The global climate crisis is significantly contributing to changing ecosystems, loss of biodiversity and is putting numerous species on the verge of extinction. In principle, many species are able to adapt to changing conditions or shift their habitats to more suitable regions. However, change is progressing faster than some species can adjust, or potential adaptation is blocked and disrupted by direct and indirect human action. Unsustainable anthropogenic land use in particular is one of the driving factors, besides global heating, for these ecologically critical developments. Precisely because land use is anthropogenic, it is also a factor that could be quickly and immediately corrected by human action.
In this thesis, I therefore assess the impact of three climate change scenarios of increasing intensity in combination with differently scheduled mowing regimes on the long-term development and dispersal success of insects in Northwest German grasslands. The large marsh grasshopper (LMG, Stethophyma grossum, Linné 1758) is used as a species of reference for the analyses. It inhabits wet meadows and marshes and has a limited, yet fairly good ability to disperse. Mowing and climate conditions affect the development and mortality of the LMG differently depending on its life stage.
The specifically developed simulation model HiLEG (High-resolution Large Environmental
Gradient) serves as a tool for investigating and projecting viability and dispersal success under different climate conditions and land use scenarios. It is a spatially explicit, stage- and cohort-based model that can be individually configured to represent the life cycle and characteristics of terrestrial insect species, as well as high-resolution environmental data and the occurrence of external disturbances. HiLEG is a freely available and adjustable software that can be used to support conservation planning in cultivated grasslands.
In the three case studies of this thesis, I explore various aspects related to the structure of simulation models per se, their importance in conservation planning in general, and insights regarding the LMG in particular. It became apparent that the detailed resolution of model processes and components is crucial to project the long-term effect of spatially and temporally confined events. Taking into account conservation measures at the regional level has further proven relevant, especially in light of the climate crisis. I found that the LMG is benefiting from global warming in principle, but continues to be constrained by harmful mowing regimes. Land use measures could, however, be adapted in such a way that they allow the expansion and establishment of the LMG without overly affecting agricultural yields.
Overall, simulation models like HiLEG can make an important contribution and add value
to conservation planning and policy-making. Properly used, simulation results shed light
on aspects that might be overlooked by subjective judgment and the experience of individual stakeholders. Even though it is in the nature of models that they are subject to limitations and only represent fragments of reality, this should not keep stakeholders from using them, as long as these limitations are clearly communicated. Similar to HiLEG, models could further be designed in such a way that not only the parameterization can be adjusted as required, but also the implementation itself can be improved and changed as desired. This openness and flexibility should become more widespread in the development of simulation models.
Dieser Beitrag beschäftigt sich mit einer problematischen Seite der Samen- und Eizellenspende. Konkret konzentriert er sich auf die Anonymität im Rahmen dieses Verfahrens, die in manchen europäischen Staaten als eine gesetzliche Bedingung festgelegt ist. Es geht um eine Konsequenz der unklaren Regulierung auf EU-Ebene, die es ermöglicht, nationale Vorschriften nach individuellen Präferenzen des Gesetzgebers zu konzipieren. Trotzdem muss auch der menschenrechtliche Kontext berücksichtigt werden, weil die Anonymität des:der Spender:in dazu führt, dass das Kind de facto keine Chancen hat, seine (genetischen oder biologischen) Eltern zu kennen. Im Prinzip verletzt ein solcher Ansatz das Recht des Kindes auf Kenntnis der eigenen Abstammung, das in entsprechenden Menschenrechtskonventionen verankert und in der Judikatur des EGMR interpretiert wurde.
Das Vorsorgeprinzip ist ein mittlerweile weit verbreiteter und etablierter Grundsatz des internationalen und europäischen Umweltrechts. Demnach sollen auch in Situationen wissenschaftlicher Unsicherheit präventive Maßnahmen ergriffen werden, um schwerwiegende Umweltschäden zu vermeiden. Dieser Beitrag untersucht die Rolle des Vorsorgeprinzips im Zusammenhang mit menschenrechtlichen Klimaklagen, die aufgrund langsamer politischer Fortschritte und erfolgreicher Gerichtsentscheidungen zunehmend an Popularität gewinnen.
Zunächst wird ein Überblick über die Entwicklung und den materiellen Gehalt des Vorsorgeprinzips im internationalen und europäischen Recht gegeben. Obwohl das Vorsorgeprinzip seit den 1980er Jahren ein fixer Bestandteil des internationalen Umweltrechts ist, bestehen über dessen genauen Inhalt und Rechtsnatur nach wie vor Kontroversen. Im Unionsrecht wurde das Vorsorgeprinzip insbesondere durch die Rechtsprechung des EuGH konkretisiert.
Im nächsten Teil des Beitrags wird beleuchtet, welche Bedeutung der EGMR dem Vorsorgeprinzip in umweltrechtlichen Fällen bisher zugemessen hat. Hierbei steht die Entscheidung Tǎtar gegen Rumänien im Mittelpunkt. Gegenstand dieser Entscheidung war der Goldabbau in der rumänischen Stadt Baia Mare, der unter anderem unter dem Einsatz von Natriumzyanid erfolgte und zu wesentlichen Schadstoffbelastungen führte. Der EGMR bejahte unter Verweis auf das Vorsorgeprinzip eine Verletzung von Art. 8 EMRK, obwohl der Beschwerdeführer die Kausalität zwischen der Schadstoffbelastung und der behaupteten Schädigung nicht nachweisen konnte. Eine Analyse der nachfolgenden Entscheidungen veranschaulicht jedoch, dass sich das Vorsorgeprinzip noch nicht als fixer Bestandteil in der Rechtsprechung des EGMR etablieren konnte.
Abschließend wird gezeigt, welchen Beitrag das Vorsorgeprinzip zu der bisher wohl erfolgreichsten Klimaklage „Urgenda“ leistete. Das Vorsorgeprinzip wurde vom niederländischen Höchstgericht in diesem Fall insbesondere herangezogen, um Schutzpflichten aus Art. 2 und Art. 8 EMRK abzuleiten und den staatlichen Ermessenspielraum einzuschränken.
Spätestens seit dem Brand einer Textilfabrik in Karatschi, Pakistan, deren Hauptabnehmer das deutsche Textilunternehmen KiK war, ist die Frage nach der zivilrechtlichen Justiziabilität von Menschenrechtsverletzungen im Ausland auch in der Bundesrepublik angekommen. Parallel hierzu hatte bereits der Einsturz des Rana Plaza, einem Fabrikgebäude in Dhaka, Bangladesch, das zahlreiche Zulieferfirmen der europäischen sowie u.s.-amerikanischen Bekleidungsindustrie beherbergte, traurige Berühmtheit erlangt. Beide Vorfälle hatten in den Industriestaaten des globalen Nordens eine nachhaltige Debatte darüber ausgelöst, welche Verantwortung inländischen Abnehmerunternehmen für die Einhaltung internationaler Menschenrechtsstandards entlang der global angelegten Lieferkette zukommt. An deren vorläufigem Ende steht eine Reihe von Spezialgesetzen, die heimischen Betrieben ausdifferenzierte Sorgfalts- und Überwachungspflichten bezüglich der Arbeitsbedingungen in den – häufig im globalen Süden gelegenen – Produktionsstätten auferlegen.
Als Folge dieses geostrategischen Nord-Süd-Konfliktes wohnt in Deutschland erhobenen Menschenrechtsklagen im Regelfall ein grenzüberscheitendes Moment inne, weshalb sich die Rechtsverfolgung individuell Betroffener mit den Fragen des Internationalen Privatrechts nach der gerichtlichen Zuständigkeit sowie des anwendbaren Sachrechts konfrontiert sieht. Dass ein Verfahren bereits auf dieser Ebene scheitern kann, verdeutlicht auf paradigmatische Weise das eingangs erwähnte Verfahren gegen KiK vor dem LG Dortmund, in welchem das ungünstige pakistanische Verjährungsrecht zur Anwendung gelangte.
Rechtspolitisch wird die Funktion des Rechtsgebietes indes unterschiedlich beurteilt. Während ein Ansatz gleichsam auf materieller Ebene die Entwicklung spezieller Sorgfaltsnormen für Unternehmen in Abnehmerstaaten verfolgt („Verantwortungslösung“), führt eine andere Auffassung den Kern der Problematik nicht auf das – oftmals durchaus funktionale – Produktionslandrecht, sondern vielmehr auf dessen strukturelle Durchsetzungsdefizite zurück („Kognitionslösung“).
Der Beitrag vollzieht die Implikationen beider Ansätze für Zivilprozesse in Deutschland nach. Hierfür wird die Menschenrechtsklage zunächst in das deutsche Verfahrensrecht eingeordnet (I.) bevor die Rolle des Internationalen Privatrechtes erörtert werden kann (II.). Anschließend werden sowohl die Sorgfaltsregime in den Abnehmerstaaten (III.) als auch Rechtsbehelfe in den Produktionsländern am Beispiel Bangladeschs (IV.) in den Blick genommen.
Aus dem Inhalt:
- Menschenrechtsklagen vor Zivilgerichten in Deutschland – Eine Bestandsaufnahme der methodisch-rechtspolitischen Ansätze im Internationalen Privatrecht (IPR)
- Das Vorsorgeprinzip – ein unterschätzter Bestandteil menschenrechtlicher Klimaklagen?
- Der Menschenrechtsausschuss der Vereinten Nationen und die Klimakrise – Die Entscheidung Billy et al. gegen Australien und ihr Beitrag zur „Begrünung“ des Menschenrechtsschutzes
Inverted perovskite solar cells still suffer from significant non-radiative recombination losses at the perovskite surface and across the perovskite/C₆₀ interface, limiting the future development of perovskite-based single- and multi-junction photovoltaics. Therefore, more effective inter- or transport layers are urgently required. To tackle these recombination losses, we introduce ortho-carborane as an interlayer material that has a spherical molecular structure and a three-dimensional aromaticity. Based on a variety of experimental techniques, we show that ortho-carborane decorated with phenylamino groups effectively passivates the perovskite surface and essentially eliminates the non-radiative recombination loss across the perovskite/C₆₀ interface with high thermal stability. We further demonstrate the potential of carborane as an electron transport material, facilitating electron extraction while blocking holes from the interface. The resulting inverted perovskite solar cells deliver a power conversion efficiency of over 23% with a low non-radiative voltage loss of 110 mV, and retain >97% of the initial efficiency after 400 h of maximum power point tracking. Overall, the designed carborane based interlayer simultaneously enables passivation, electron-transport and hole-blocking and paves the way toward more efficient and stable perovskite solar cells.
Recurrences in past climates
(2023)
Our ability to predict the state of a system relies on its tendency to recur to states it has visited before. Recurrence also pervades common intuitions about the systems we are most familiar with: daily routines, social rituals and the return of the seasons are just a few relatable examples. To this end, recurrence plots (RP) provide a systematic framework to quantify the recurrence of states. Despite their conceptual simplicity, they are a versatile tool in the study of observational data. The global climate is a complex system for which an understanding based on observational data is not only of academical relevance, but vital for the predurance of human societies within the planetary boundaries. Contextualizing current global climate change, however, requires observational data far beyond the instrumental period. The palaeoclimate record offers a valuable archive of proxy data but demands methodological approaches that adequately address its complexities. In this regard, the following dissertation aims at devising novel and further developing existing methods in the framework of recurrence analysis (RA). The proposed research questions focus on using RA to capture scale-dependent properties in nonlinear time series and tailoring recurrence quantification analysis (RQA) to characterize seasonal variability in palaeoclimate records (‘Palaeoseasonality’).
In the first part of this thesis, we focus on the methodological development of novel approaches in RA. The predictability of nonlinear (palaeo)climate time series is limited by abrupt transitions between regimes that exhibit entirely different dynamical complexity (e.g. crossing of ‘tipping points’). These possibly depend on characteristic time scales. RPs are well-established for detecting transitions and capture scale-dependencies, yet few approaches have combined both aspects. We apply existing concepts from the study of self-similar textures to RPs to detect abrupt transitions, considering the most relevant time scales. This combination of methods further results in the definition of a novel recurrence based nonlinear dependence measure. Quantifying lagged interactions between multiple variables is a common problem, especially in the characterization of high-dimensional complex systems. The proposed ‘recurrence flow’ measure of nonlinear dependence offers an elegant way to characterize such couplings. For spatially extended complex systems, the coupled dynamics of local variables result in the emergence of spatial patterns. These patterns tend to recur in time. Based on this observation, we propose a novel method that entails dynamically distinct regimes of atmospheric circulation based on their recurrent spatial patterns. Bridging the two parts of this dissertation, we next turn to methodological advances of RA for the study of Palaeoseasonality. Observational series of palaeoclimate ‘proxy’ records involve inherent limitations, such as irregular temporal sampling. We reveal biases in the RQA of time series with a non-stationary sampling rate and propose a correction scheme.
In the second part of this thesis, we proceed with applications in Palaeoseasonality. A review of common and promising time series analysis methods shows that numerous valuable tools exist, but their sound application requires adaptions to archive-specific limitations and consolidating transdisciplinary knowledge. Next, we study stalagmite proxy records from the Central Pacific as sensitive recorders of mid-Holocene El Niño-Southern Oscillation (ENSO) dynamics. The records’ remarkably high temporal resolution allows to draw links between ENSO and seasonal dynamics, quantified by RA. The final study presented here examines how seasonal predictability could play a role for the stability of agricultural societies. The Classic Maya underwent a period of sociopolitical disintegration that has been linked to drought events. Based on seasonally resolved stable isotope records from Yok Balum cave in Belize, we propose a measure of seasonal predictability. It unveils the potential role declining seasonal predictability could have played in destabilizing agricultural and sociopolitical systems of Classic Maya populations.
The methodological approaches and applications presented in this work reveal multiple exciting future research avenues, both for RA and the study of Palaeoseasonality.
Intuitively, strongly constraining contexts should lead to stronger probabilistic representations of sentences in memory. Encountering unexpected words could therefore be expected to trigger costlier shifts in these representations than expected words. However, psycholinguistic measures commonly used to study probabilistic processing, such as the N400 event-related potential (ERP) component, are sensitive to word predictability but not to contextual constraint. Some research suggests that constraint-related processing cost may be measurable via an ERP positivity following the N400, known as the anterior post-N400 positivity (PNP). The PNP is argued to reflect update of a sentence representation and to be distinct from the posterior P600, which reflects conflict detection and reanalysis. However, constraint-related PNP findings are inconsistent. We sought to conceptually replicate Federmeier et al. (2007) and Kuperberg et al. (2020), who observed that the PNP, but not the N400 or the P600, was affected by constraint at unexpected but plausible words. Using a pre-registered design and statistical approach maximising power, we demonstrated a dissociated effect of predictability and constraint: strong evidence for predictability but not constraint in the N400 window, and strong evidence for constraint but not predictability in the later window. However, the constraint effect was consistent with a P600 and not a PNP, suggesting increased conflict between a strong representation and unexpected input rather than greater update of the representation. We conclude that either a simple strong/weak constraint design is not always sufficient to elicit the PNP, or that previous PNP constraint findings could be an artifact of smaller sample size.
Technologically important, environmentally friendly InP quantum dots (QDs) typically used as green and red emitters in display devices can achieve exceptional photoluminescence quantum yields (PL QYs) of near-unity (95-100%) when the-state-of-the-art core/shell heterostructure of the ZnSe inner/ZnS outer shell is elaborately applied. Nevertheless, it has only led to a few industrial applications as QD liquid crystal display (QD–LCD) which is applied to blue backlight units, even though QDs has a lot of possibilities that able to realize industrially feasible applications, such as QD light-emitting diodes (QD‒LEDs) and luminescence solar concentrator (LSC), due to their functionalizable characteristics.
Before introducing the main research, the theoretical basis and fundamentals of QDs are described in detail on the basis of the quantum mechanics and experimental synthetic results, where a concept of QD and colloidal QD, a type-I core/shell structure, a transition metal doped semiconductor QDs, the surface chemistry of QD, and their applications (LSC, QD‒LEDs, and EHD jet printing) are sequentially elucidated for better understanding. This doctoral thesis mainly focused on the connectivity between QD materials and QD devices, based on the synthesis of InP QDs that are composed of inorganic core (core/shell heterostructure) and organic shell (surface ligands on the QD surface). In particular, as for the former one (core/shell heterostructure), the ZnCuInS mid-shell as an intermediate layer is newly introduced between a Cu-doped InP core and a ZnS shell for LSC devices. As for the latter one (surface ligands), the ligand effect by 1-octanethiol and chloride ion are investigated for the device stability in QD‒LEDs and the printability of electro-hydrodynamic (EHD) jet printing system, in which this research explores the behavior of surface ligands, based on proton transfer mechanism on the QD surface.
Chapter 3 demonstrates the synthesis of strain-engineered highly emissive Cu:InP/Zn–Cu–In–S (ZCIS)/ZnS core/shell/shell heterostructure QDs via a one-pot approach. When this unconventional combination of a ZCIS/ZnS double shelling scheme is introduced to a series of Cu:InP cores with different sizes, the resulting Cu:InP/ZCIS/ZnS QDs with a tunable near-IR PL range of 694–850 nm yield the highest-ever PL QYs of 71.5–82.4%. These outcomes strongly point to the efficacy of the ZCIS interlayer, which makes the core/shell interfacial strain effectively alleviated, toward high emissivity. The presence of such an intermediate ZCIS layer is further examined by comparative size, structural, and compositional analyses. The end of this chapter briefly introduces the research related to the LSC devices, fabricated from Cu:InP/ZCIS/ZnS QDs, currently in progress.
Chapter 4 mainly deals with ligand effect in 1-octanethiol passivation of InP/ZnSe/ZnS QDs in terms of incomplete surface passivation during synthesis. This chapter demonstrates the lack of anionic carboxylate ligands on the surface of InP/ZnSe/ZnS quantum dots (QDs), where zinc carboxylate ligands can be converted to carboxylic acid or carboxylate ligands via proton transfer by 1-octanethiol. The as-synthesized QDs initially have an under-coordinated vacancy surface, which is passivated by solvent ligands such as ethanol and acetone. Upon exposure of 1-octanethiol to the QD surface, 1-octanthiol effectively induces the surface binding of anionic carboxylate ligands (derived from zinc carboxylate ligands) by proton transfer, which consequently exchanges ethanol and acetone ligands that bound on the incomplete QD surface. The systematic chemical analyses, such as thermogravimetric analysis‒mass spectrometry and proton nuclear magnetic resonance spectroscopy, directly show the interplay of surface ligands, and it associates with QD light-emitting diodes (QD‒LEDs).
Chapter 5 shows the relation between material stability of QDs and device stability of QD‒LEDs through the investigation of surface chemistry and shell thickness. In typical III–V colloidal InP quantum dots (QDs), an inorganic ZnS outermost shell is used to provide stability when overcoated onto the InP core. However, this work presents a faster photo-degradation of InP/ZnSe/ZnS QDs with a thicker ZnS shell than that with a thin ZnS shell when 1-octanethiol was applied as a sulfur source to form ZnS outmost shell. Herein, 1-octanethiol induces the form of weakly-bound carboxylate ligand via proton transfer on the QD surface, resulting in a faster degradation at UV light even though a thicker ZnS shell was formed onto InP/ZnSe QDs. Detailed insight into surface chemistry was obtained from proton nuclear magnetic resonance spectroscopy and thermogravimetric analysis–mass spectrometry. However, the lifetimes of the electroluminescence devices fabricated from InP/ZnSe/ZnS QDs with a thick or a thin ZnS shell show surprisingly the opposite result to the material stability of QDs, where the QD light-emitting diodes (QD‒LEDs) with a thick ZnS shelled QDs maintained its luminance more stable than that with a thin ZnS shelled QDs. This study elucidates the degradation mechanism of the QDs and the QD light-emitting diodes based on the results and discuss why the material stability of QDs is different from the lifetime of QD‒LEDs.
Chapter 6 suggests a method how to improve a printability of EHD jet printing when QD materials are applied to QD ink formulation, where this work introduces the application of GaP mid-shelled InP QDs as a role of surface charge in EHD jet printing technique. In general, GaP intermediate shell has been introduced in III–V colloidal InP quantum dots (QDs) to enhance their thermal stability and quantum efficiency in the case of type-I core/shell/shell heterostructure InP/GaP/ZnSeS QDs. Herein, these highly luminescent InP/GaP/ZnSeS QDs were synthesized and applied to EHD jet printing, by which this study demonstrates that unreacted Ga and Cl ions on the QD surface induce the operating voltage of cone jet and cone jet formation to be reduced and stabilized, respectively. This result indicates GaP intermediate shell not only improves PL QY and thermal stability of InP QDs but also adjusts the critical flow rate required for cone-jet formation. In other words, surface charges of quantum dots can have a significant role in forming cone apex in the EHD capillary nozzle. For an industrially convenient validation of surface charges on the QD surface, Zeta potential analyses of QD solutions as a simple method were performed, as well as inductively coupled plasma optical emission spectrometry (ICP-OES) for a composition of elements.
Beyond the generation of highly emissive InP QDs with narrow FWHM, these studies talk about the connection between QD material and QD devices not only to make it a vital jumping-off point for industrially feasible applications but also to reveal from chemical and physical standpoints the origin that obstructs the improvement of device performance experimentally and theoretically.